Está en la página 1de 72

Un Software para la Enseñanza de la Estadística y la Psicometría

Artículo Metodológico

(LEDESMA, VALERO, & MOLINA, 2010, págs. 52-59) Escribieron este artículo metodológico con
el tema Un Software para la Enseñanza de la Estadística y la Psicometría, fue recibida el 18 de
mayo de 2010, su revisión fue el 14 de junio de 2010 y finalmente fue aceptado el 14 de junio
de 2010, publicado por la revista (RACC) de argentina.

Resumen
La enseñanza moderna del análisis de datos supone el uso de algún tipo de software estadístico,
existiendo actualmente una amplia variedad de opciones para este fin. Este trabajo analiza e
ilustra las potencialidades del sistema ViSta “The Visual Statistics System” en la formación
estadística. Como desarrolladores actuales de este programa, entendemos que las siguientes
características resultan de interés para fines educativos: a) acceso libre: es un programa gratuito
y disponible on-line; b) flexibilidad: es un sistema abierto, extensible y adaptable a diferentes
usuarios y necesidades; c) simplicidad de la interfaz: posee una interfaz gráfica de usuario simple
e intuitiva que facilita la gestión, transformación y análisis de datos; y d) capacidad gráfica:
implementa métodos de visualización que permiten realizar demostraciones de conceptos y
técnicas de análisis. Estas capacidades se ilustran mediante una aplicación específica que hemos
desarrollado en ViSta para la enseñanza de conceptos de Psicometría Clásica. Se discuten las
limitaciones y perspectivas de desarrollo del sistema.

Palabras claves: Enseñanza Estadística, Análisis de Datos, Gráficos Estadísticos, Psicometría,


Software Estadístico

Abstract
Vista: A Software for Teaching Statistics and Psychometrics. Nowadays, teaching statistics is
almost undisputedly always done using some sort of software for carrying out the computations.
Indeed, the range of choices available for that purpose is wide and with a lot of variety. The
present work describes the capabilities of one of the systems currently available for teaching of
statistics: ViSta, the Visual Statistics System. As ViSta’s developers, we wish to point out the
following features as specially appealing for using it at the classroom: a) price and availability, it
is free and can be downloaded on-line; b) flexibility, it is an open system, extensible and
adaptable for different users and needs; c) simplicity, it has a simple and intuitive user interface
that facilitates the management, transformation and data analysis; and d) its graphical power,
as it implements visualization methods that allow carrying out demonstrations of concepts and
data analysis techniques. These capabilities are illustrated using a specific application to the
teaching of psychometrics. The limitations and perspectives of development of the system are
finally discussed.

Key Words: Teaching of Statistics, Data Analysis, Statistical Graphics, Psychometrics,


Statistical Software

Introducción
En la actualidad, la enseñanza del análisis de datos en carreras de ciencias supone el uso
de algún tipo de software estadístico, existiendo una amplia variedad de recursos
informáticos de diferente alcance y naturaleza que pueden ser utilizados para este fin.
Frente a la variedad de opciones disponibles, es necesario evaluar y seleccionar
adecuadamente el software en función de las necesidades y objetivos de enseñanza.

Software de propósitos múltiples versus programas especializados


Hasta los programas especializados en la aplicación de una sola técnica estadística. Los primeros
incluyen herramientas de gestión, transformación, análisis y presentación de resultados,
incorporando un amplio abanico de técnicas estadísticas básicas y avanzadas. Estos sistemas,
sobre todo SPSS, son ampliamente utilizados en ciencias del comportamiento. Por otro lado,
existen programas especializados en ciertos métodos específicos, los cuales son capaces de
realizar un número limitado de análisis, aunque generalmente de forma más potente y flexible
que el software convencional. Ejemplos pueden ser los programas Listel o AMOS para modelos
de ecuaciones estructurales, HLM para modelos lineales jerárquicos, Arc para modelos de
regresión, etc. Los sistemas de propósito múltiple pueden ser más apropiados para cursos
generales de análisis de datos y, también, para prácticas de investigación que implican carga,
edición, gestión de bases de datos, etc. Al contrario, si el curso trata específicamente sobre un
tema o conjunto de técnicas puede ser más funcional utilizar un sistema estadístico
especializado. En ocasiones, esta es la única opción, pues ciertos métodos no están disponibles
en los programas de propósito múltiple o no se incluyen con el grado de flexibilidad y
sofisticación requeridas. Por ejemplo, SPSS no permite aplicar técnicas de re muestreo de datos
o modelos de ecuaciones estructurales, en estos casos necesitaríamos un software específico.

Software de usuario y lenguajes de programación (R, LispStat, etc.)


También es conveniente distinguir entre el software estadístico orientado principalmente a
realizar aplicaciones a nivel de usuario y los lenguajes de programación estadística, más
apropiados para la innovación y el desarrollo de métodos en estadística computacional. R (R
Development Core Team, 2002) y LispStat (Tierney, 1990) son dos exponentes de este tipo. En
ambos casos se trata de poderosos lenguajes de programación estadística, pero generalmente
requieren un cierto grado de experticia, más propio de un usuario avanzado que de un
estudiante. Si bien existen interfaces gráficas de usuario para estos lenguajes, aún no terminan
de ser del todo amigable para quienes se inician en la materia. Está claro, no obstante, que R se
encuentra en plena expansión y es de esperar que en el futuro próximo avancen sensiblemente
los desarrollos en materia de interfaz gráfica de usuario.
Accesibilidad del software
Otro elemento clave y determinante para la elección de un software es su accesibilidad, es decir,
las posibilidades de ser adquirido y las condiciones bajo las cuales se puede distribuir. Cabe
mencionar que algunos paquetes estadísticos profesionales son prácticamente inaccesibles para
docentes y estudiantes en nuestro contexto. Los costos asociados a su adquisición resultan
difíciles de cubrir en el ámbito público, donde los recursos destinados a la compra de software
son realmente escasos. Frente a estas limitaciones, tenemos la opción de programas
completamente gratuitos que pueden obtenerse on-line y utilizarse perfectamente en el ámbito
educativo.

Actualmente ViSta se presenta como un proyecto de software abierto en el que participan


desarrolladores y usuarios interesados en el programa. En nuestro caso, hemos utilizado ViSta
como investigadores interesados en la creación de métodos de visualización (Ledesma, Molina,
Valero-Mora y Poó, 2007), pero también como docentes a cargo de cursos de análisis de datos
en ciencias del comportamiento. Nuestra experiencia a través de varios años de docencia en el
área sugiere que ViSta puede ser una herramienta útil para mejorar la calidad de la enseñanza
y el aprendizaje de la estadística aplicada. A continuación detallaremos las principales
características técnicas que hacen de ViSta un programa potencialmente útil para docentes y
estudiantes.

a) Accesibilidad: ViSta es un programa completamente gratuito disponible en Internet.


b) Flexibilidad: ViSta es un sistema que podríamos denominar ‘multi-usuario’.
c) Simplicidad: ViSta fue concebido en el contexto de la enseñanza estadística en
Psicología.
d) d) Potencia gráfica: Varios autores han señalado la importancia y el poder de los
gráficos no solo como medio de análisis, sino también como recurso educativo (e.g.,
Young, Valero-Mora y Friendly, 2006).

Ejemplo de Aplicación en Psicometría


El módulo ViSta-CITA “Classical Item and Test Analysis” (Ledesma y Molina, 2009) es un
plug-in, o módulo de análisis integrable a ViSta. Este programa proporciona opciones de
análisis que habitualmente encontraríamos entre los contenidos de un curso básico de
Psicometría, incluyendo análisis de ítems, fiabilidad, análisis factorial, errores de
medida, normalización de puntajes, etc. El programa aún no incluye métodos de Teoría
de Respuesta al Ítem (TRI), pero permite cubrir prácticamente todos los análisis de la
Teoría Clásica de los Test (TCT). Insistiendo en las capacidades de ViSta para su
utilización en el ámbito educativo, podemos destacar las siguientes características
específicas de este módulo de análisis psicométrico:

1) Accesibilidad. ViSta-CITA proporciona una opción gratuita frente a otros programas


de análisis que pueden usarse con fines psicométricos. El programa ya se encuentra
integrado en la versión 7 de ViSta. Para la versión 6.4, existe un plug-in que se
descarga desde Internet sin restricciones (www.mdp.edu.ar/psicologia/vista/).
Luego de la descarga, el programa se podrá instalar de forma automática dentro de
ViSta y usarse dentro de este entorno, aprovechando así el resto de las capacidades
de análisis del programa.
2) 2) Flexibilidad. El módulo ViSta-CITA ofrece una serie de métodos para cubrir varios
tipos de análisis propios de la TCT. Se incluyen métodos de análisis de ítems,
diferentes opciones de análisis de fiabilidad, corrección y estandarización de
puntajes, y análisis factorial exploratorio, entre otras opciones.

3) Simplicidad. ViSta-CITA se integra completamente a la interfaz gráfica de ViSta,


puede ejecutarse mediante menús, cuadros de diálogos, etc. La Figura 1 muestra el
entorno de trabajo del programa ViSta y ejemplos de cuadros de diálogo para
interactuar con ViSta-CITA. El usuario no necesita conocer el lenguaje LispStat para
interactuar con el programa, lo cual puede ser beneficioso si se trabaja con
estudiantes que solo necesitan una formación aplicada en TCT (e.g, estudiantes de
carreras de Psicología, Educación, Ciencias de la Salud, etc.). Esto vale tanto para la
carga y edición de datos, como para la ejecución del análisis y la obtención de salidas
de resultados.
4) Potencia gráfica. ViSta-CITA ofrece salidas numéricas convencionales para
cada análisis (ver figura 2), pero también complementa estas salidas con
“spreadplots” (gráficos extendidos) especializados. Las figuras 3 y 4 ilustran el
concepto de los spreadplots, aplicados en este caso a la visualización de
resultados de análisis psicométricos.
Utilizadas en combinación con las salidas numéricas convencionales, ayudan
a lograr una mejor comprensión de los análisis y de los conceptos
psicométricos involucrados. Los gráficos resultan en muchos casos más
esclarecedores y generan mejor insight al momento de captar el significado
de la información.

Discusión
El software estadístico resulta un elemento clave para el desarrollo de cursos
de análisis de datos en carreras de ciencias. Además de comprender
conceptos estadísticos, los estudiantes necesitan adquirir habilidades para
procesar, analizar y presentar resultados de investigación mediante la
asistencia de software adecuado. En este sentido, el software no solo cumple
una función meramente asistencial, pues ciertas tareas y tipos de análisis son
directamente inconcebibles sin el apoyo de un programa adecuado.
En este trabajo hemos enfatizado las posibilidades de un sistema gratuito en
particular: el programa ViSta “The Visual Statistics System”. ViSta es una
herramienta que hemos utilizado en nuestra experiencia profesional con fines
de desarrollo, pero creemos que es potencialmente útil en el ámbito de la
enseñanza.

Agradecimientos
Este trabajo fue realizado con el apoyo financiero de la Universidad
Nacional de Mar del Plata (Argentina), el Consejo Nacional de
Investigaciones Científicas y Técnicas (Argentina) y la Universidad de
Valencia (España).

NOTA
Un avance de este trabajo fue presentado en el
XXXV Coloquio Argentino de Estadística, Mar del Plata, 22-24 de Octubre,
2007.

Epistemología y ciencia de la información

Artículo epistemológico

“(CAPURRO, 2010, págs. 248-265) Escribió y modifico este artículo en ciudad de


la Habana sobre el tema ESPISTEMOLOGIA Y CIENCIA DE LA INFORMACIOM, PUBLICADO
POR ACIMED, El 25 de enero de 2010.”

Resumen
En la introducción se analiza el concepto de paradigma y se indica el sentido de una
investigación epistemológica en el campo de la ciencia de la información. La primera parte
menciona algunos paradigmas epistemológicos que han influenciado a la ciencia de la
información, a saber la hermenéutica, el racionalismo crítico, la teoría crítica, la semiótica,
el constructivismo, la cibernética de segundo orden y la teoría de sistemas.
Abstract
In the introduction the concept of paradigm as well as the scope of epistemological research
in information science are analized. The first part mentions some epistemological
paradigms that have influenced information science so far, such as hermeneutics, critical
rationalism, critical theory, semiotics, constructivism, second-order cybernetics, and
system theory.

Introducción

Hace aproximadamente veinte años la biblioteca del Royal Institute of Technology de


Estocolmo me invitó a dar una serie de conferencias sobre la ciencia de la información,
una de ellas con el título "Epistemology and Information Science" (Capurro 1985). Fue la
primera vez que hablé sobre la relación entre hermenéutica y tecnología de la
información haciendo una exposición de la tesis que un año mas tarde sería aceptada por
la Universidad de Stuttgart como tesis de postdoctorado ('habilitación') en filosofía con
el título "Hermenéutica de la información científca" (Capurro 1986). En esta tesis indicaba
que desde el punto de vista hermenéutico el conocimiento está ligado a la acción,
mostrando los presupuestos y las consecuencias con respecto a los procesos cognitivos
y prácticos relacionados con la búsqueda de información científica almacenada en
computadoras así como con el diseño de dichos sistemas y su rol en la sociedad.

Las relaciones entre epistemología y ciencia de la información tienen una compleja


historia de la que no es posible dar aquí una visión detallada. Antes de comenzar quisiera
referirme brevemente al concepto de paradigma. Thomas Kuhn lo utiliza en su famoso
análisis sobre la estructura de las revoluciones científicas con múltiples connotaciones
(Kuhn 1962/1970, Mastermann 1970). Como la misma palabra paradigma lo indica – del
griego paradeigma = ejemplar, mostrar (déiknumi) una cosa con referencia (pará) a otra
– un paradigma es un modelo que nos permite ver una cosa en analogía con otra. Como
toda analogía llega un momento en que sus límites son evidentes produciéndose
entonces una crisis o, como en el caso de teorías científicas, una "revolución científica"
en la que se pasa de una situación de "ciencia normal" por un período "revolucionario" a
un nuevo paradigma.

Mi tesis es que la ciencia de la información nace a mediados del siglo XX con un paradigma
físico, el cual es cuestionado por un enfoque cognitivo idealista e individualista, siendo
este a su vez reemplazado por un paradigma pragmático y social o, para tomar un famoso
concepto acuñado por Jesse Shera y su colaboradora Margaret Egan a mediados del siglo
pasado (Shera 1961, 1970) y analizado en profundidad por Alvin Goldman (2001), por una
"epistemología social" ("social epistemology"), pero ahora de corte tecnológico digital.
Un número reciente de la revista Social Epistemology (2002, Vol. 16, No. 1) está dedicado
a la relación entre epistemología social y ciencia de la información. Como se puede ver lo
que aparentemente surge al final de este relativamente corto proceso histórico, a saber
el paradigma social, ya estaba en sus comienzos si bien no como paradigma de la ciencia
de la información si de sus predecesoras en particular de la bibliotecología y la
documentación.
Corrientes epistemológicas del siglo XX
Comencemos este breve pasaje por las teorías epistemológicas del siglo pasado con la
que fue por así decirlo la heredera de las corrientes transcendentales, idealistas y
vitalistas del siglo XVIII y XIX. Me refiero a la hermenéutica. La hermenéutica como teoría
filosófica fue desarrollada por Hans-Georg Gadamer (1900-2002) (Gadamer 1975),
siguiendo los caminos abiertos en el siglo XIX por Friedrich Schleiermacher (1768-1834)
y Wilhelm Dilthey (1833-1911) y en en el siglo XX por Edmund Husserl (1859-1938) y
Martin Heidegger (1889-1976) por nombrar sólo algunos de sus representantes más
prominentes. Algunas escuelas filosóficas muy influyentes como el racionalismo crítico
de Karl Popper (1902-1994), la filosofía analítica y la teoría de la acción comunicativa de
Jürgen Habermas (1981) y Karl-Otto Apel (1976) criticaron a la hermenéutica.

Sin entrar ahora en una exposición detallada de este debate se puede constatar que
ambas corrientes, la hermenéutica y el racionalismo crítico, aparentemente enemigas
irrenconciliables, afirman, por encima de sus diferencias, el carácter fundamentalmente
interpretativo del conocimiento, siendo la hermenéutica la que pone un mayor acento
en la relación entre conocimiento y acción o entre epistemología y ética. La tesis de Karl
Popper de que todo conocimiento científico tiene un carácter conjetural (Popper 1973)
no está muy lejos de la afirmación de Gadamer de que toda comprensión se basa en una
pre-comprensión ("Vorverständnis") o en un "pre-juicio" ("Vorurteil"). De esta manera el
falsacionismo y el monismo metodológico popperiano, cuestionado entre otros por
Thomas Kuhn (1970) y Paul Feyerabend (1986), está relacionado a la tesis hermenéutica
sobre el rol ineludible del intérprete o mejor dicho, de una comunidad de intérpretes, a
la cual se refiere luego la ética comunicativa de Karl-Otto Apel y Jürgen Habermas.
Mientras los racionalistas críticos ponen el acento en el contenido de las hipótesis y en
su justificación (context of justification), los historiadores de la ciencia y con ellos también
la hermenéutica no se cansan de indicar que dichos contextos están condicionados en
parte por la situación histórica (context of discovery).
El desarrollo de la computación y la investigación empírica de los procesos neuronales
cerebrales han revolucionado a la teoría clásica del conocimiento basada en la idea de la
representación o duplicación de una realidad externa en la mente del observador. Dicha
revolución comienza con la así llamada teoría de la información de Claude Shanon y
Warren Weaver (Shannon/Weaver 1972) y la cibernética la cual a mediados del siglo
pasado tematiza el enlace entre los seres vivos y, más en general, entre sistemas luego
llamados autopoéticos y el medio ambiente como lo expresó claramente Norbert Wiener
(1961). De aquí se deriva la cibernética de segundo orden basada en modelos recursivos
de autoreferencia desarrollada entre otros por Heinz von Foerster (Foerster 1974;
Foerster/Poerksen 2001), por los biólogos Humberto Maturana y Francisco Varela (1980,
1984), y por la teoría de sistemas de Niklas Luhmann (1927-1998) (Luhmann 1987).
A comienzos del siglo XXI la epistemología entendida como estudio de los procesos
cognitivos y no en el sentido clásico aristotélico de estudio de la naturaleza del saber
científico y de sus estructuras lógico-racionales (episteme), adquiere no sólo un carácter
social y pragmático, sino que se relaciona además íntimamente con la investigación
empírica de los procesos cerebrales o, más en general, con todo tipo de procesos
relacionados con la forma cómo los seres vivos conocen, es decir construyen y autocrean
sus realidades.

Paradigmas epistemológicos de la ciencia de la información


La ciencia de la información tiene por así decirlo dos raíces: una es la bibliotecología
clásica o, en términos más generales, el estudio de los problemas relacionados con la
trasmisión de mensajes, siendo la otra la computación digital. La primera raíz nos lleva a
los orígenes mismos, por cierto oscuros, de la sociedad humana entendida como un
entretejido o una red de relaciones, Hannah Arendt habla del "'web' of human
relationships" (Arendt 1958, 183), basadas en el lenguaje, es decir en un ámbito
hermenéutico abierto, donde los entrecruces metafóricos y metonímicos permiten no
sólo mantener fluído el mundo de las convenciones y las fijaciones que hacen posible una
sociedad humana relativamente estable, sino también que nos permiten generar la
capacidad de preguntar por lo que no sabemos a partir de lo que creemos que sabemos.
Es claro que esta raíz de la ciencia de la información o, como también podríamos llamarla,
de la ciencia de los mensajes (Capurro 2003b), está ligada a todos los aspectos sociales y
culturales propios del mundo humano.

El paradigma físico
Dado que estas condiciones son sólo postulados ideales, la teoría propone una fórmula
en la cual se parte del número de selecciones (choices) que implica dicha codificación así
como de una fuente de perturbación en el momento de la trasmisión. Es justamente
dicho número de selecciones al que es llamado por Shannon "información" (information).
A mayor cantidad de selecciones posibles, mayor información y por tanto mayor
inseguridad de parte del receptor dado además la posibilidad de ruido (noise). Aquí se ve
claramente, como lo indica Weaver manifestando su extrañeza, que este concepto de
información es justamente opuesto al uso de esta palabra en el lenguaje ordinario cuando
decimos que necesitamos información porque queremos reducir una situación de
inseguridad o de no-saber. En otras palabras, en la terminología de Shannon es el
mensaje y no la información quien reduce la inseguridad (uncertainty).
Pero antes de analizarlo conviene indicar, tratando de evitar como decía al comienzo, el
dar la impresión de un proceso lineal histórico, que Michael Buckland, un reconocido
científico en nuestro campo y no proveniente por cierto ni de la física ni de la ingeniería,
hace poco más de diez años ha propuesto considerar la información en nuestro campo
como un fenómeno objetivo ("information-as-thing") es decir como algo tangible como
documentos y libros o, más generalmente, cualquier tipo de objeto que pueda tener un
valor informativo, lo cual puede ser en principio literalmente cualquier cosa (Buckland
1991). Es claro que visto así el paradigma físico tiene sus raíces y también su sentido en
actividades clásicas de los bibliotecólogos y documentalistas. Pero al mismo tiempo es
claro también que el valor informativo al que alude Buckland no es una cosa, ni una
propiedad de una cosa, sino un predicado de segundo orden, es decir algo que el usuario
o el sujeto cognoscente adjudica a "cualquier cosa" en un proceso interpretativo
enmarcado por los límites sociales de pre-comprensión que lo sustentan. Retomamos
este problema en el contexto del tercer paradigma.

El paradigma cognitivo
Comencemos por recordar que ya en las ideas de una bibliografía universal de Paul Otlet
y Henri Lafontaine que llevarían a la fundación del "Institut International de Bibliographie"
de Bruselas en 1895, denominado posteriormente "Institut International de
Documentation" (1931) y finalmente "Fédération Internationale de Documentation"
(FID) en 1937, está explícita la idea de distinguir entre los conocimientos y su fijación en
documentos. La documentación y luego la ciencia de la información tienen que ver
aparentemente en primer lugar con los portadores físicos del conocimiento, pero en
realidad su finalidad es la recuperación de la información misma o sea del contenido de
dichos portadores.

El paradigma social

Los límites del paradigma cognitivo radican precisamente en la metáfora o pars pro toto
de considerar a la información o como algo separado del usuario ubicado en un mundo
noumenal metafísico o de ver al usuario si no exclusivamente si en primer lugar como
sujeto cognoscente dejando de lado los condicionamientos sociales y materiales del
existir humano. Es esta visión reductiva la que critica Bernd Frohmann quien considera al
paradigma cognitivo no sólo como idealista sino también como asocial. Frohmann
escribe: "el punto de vista cognitivo relega a los procesos sociales de producción,
distribución, intercambio y consumo de información a un nivel noumenal, indicado sólo
por sus efectos en las representaciones de generadores de imágenes atomizados. La
construcción social de los procesos informativos, es decir la constitución social de las
"necesidades de los usuarios", de los "archivos de conocimientos" y de los esquemas de
producción, trasmisión, distribución y consumo de imágenes queda así excluida de la
teoría de la bibliotecología y de la ciencia de la información."
Como lo indicaba al comienzo, es posible mostrar el aporte de estos paradigmas para el
proceso de recuperación de la información (Capurro 1986) o, en forma más general, para
una sociedad informatizada (Capurro 2003, 97ss y 130ss, 2003a). Esto se ve claramente
también en campos afines al nuestro como ser en la crítica de Winograd y Flores (1986)
a los modelos en parte todavía hoy vigentes en la informática.
Esta selección está conectada al concepto hermenéutico de pre-comprensión
("Vorverständnis") así como a la crítica de la concepción de sujetos aislados separados
del mundo exterior, derivada del pensamiento cartesiano (Capurro 1986, 1992).
El sentido seleccionado por el sistema es integrado a través de un proceso de
comprensión ("Verstehen") en que su estructura de este manera se autogenera así
cognitivamente y por supuesto también vitalmente. Luhmann llama comunicación a la
unidad de estos tres momentos: oferta de sentido, selección y comprensión (Luhmann
1987).

Conclusión: Consecuencias prácticas de los paradigmas


epistemológicos

A menudo se dice que las discusiones filosóficas tienen pocas o ninguna consecuencia
práctica. Si bien es cierto que las teorías filosóficas no aspiran a resolver inmediatamente
ni problemas prácticos ni problemas científicos, ambos reposan nolens volens sobre una
pre-comprensión de sus objetos. El dualismo mismo entre teoría y praxis es producto de
un argumento implícito que le impide ver su misma falla. Esta es una de las grandes
lecciones de la discusión epistemológica del siglo XX.
En otras palabras, el concepto de relevancia tiene que ser considerado, como lo indica
Thomas Froehlich (1994), en relación a tres procesos hermenéuticos que condicionan el
diseño y el uso de todo sistema informacional, a saber:
1) una hermenéutica de usuarios, capaces de interpretar sus necesidades con
relación a sí mismos, a intermediarios y al sistema.
2) una hermenéutica de la colección que sea capaz de fundamentar los procesos
de selección de documentos o textos y la forma cómo estos son indexados y
catalogados, y
3) una hermenéutica del sistema intermediario, en la que tiene lugar el clásico
matching al que se refiere el paradigma físico.

La comunicación y la información son, vistas así, nociones antinómicas (Bougnoux 1995,


1993). Pura comunicación significa pura redundancia y pura información es
incomprensible. La ciencia de la información se ubica entre la utopía de un lenguaje
universal y la locura de un lenguaje privado.
Su pregunta clave es: ¿información - para quién? En una sociedad globalizada en la que
aparentemente todos comunicamos todo con todos, esta pregunta deviene crucial. A la
globalización sigue necesariamente la localización (ICIE 2004). Se ve aquí también
claramente, como los planteamientos epistemológicos no pueden ser desligados de las
preguntas éticas, y cómo ambas perspectivas se entrelazan en nudos ontológicos que
giran hoy en torno a la pregunta: ¿quiénes somos como sociedad(es) en el horizonte de
la red digital? Es evidente también que dicha pregunta surge no sólo a raíz de un mero
estado anómalo de conocimiento, sino de un estado anómalo existencial que nos hemos
acostumbrado a llamar la división digital. En otras palabras toda epistemología está
basada en una epistemopraxis.
Es claro que la red digital ha provocado una revolución no sólo mediática sino también
epistémica con relación a la sociedad de los medios de masa del siglo XX. Pero es claro
también que esta estructura que permite no sólo la distribución jerárquica o one-to-many
de los mensajes, sino también un modelo interactivo más allá de las tecnologías de
intercambio de mensajes meramente individual como el teléfono, crea nuevos
problemas sociales, económicos, técnicos, culturales y políticos, con los que recién nos
hemos empezado a enfrentar teórica- y prácticamente. Este es, a mi modo de ver, el gran
desafío epistemológico y epistemopráctico que la tecnología moderna presenta a una
ciencia de la información que aspira a tomar conciencia, siempre parcial, de sus
presupuestos.

El método de estudio de caso: estrategia metodológica de


la investigación científica

Artículo metodológico

“ (MARTINEZ & PIEDAD, 2006, págs. 165-193) Estudiante de Administración, Universidad


eafit; Magíster en Administración de Empresas, Universidad de los Andes; Administradora
de Empresas, Universidad del Norte. Estudiante de Doctorado en Dirección y
Administración de Empresas; Maestría en Creación, Estrategia y Gestión de Empresas y
Diploma de Estudios Superiores Especializados (dese), Universidad Autónoma de
Barcelona; Especialización en Gerencia de la Hacienda Pública, cecar; Especialización en
Finanzas, Universidad de Cartagena; Licenciatura en Administración de Empresas,
Corporación Universitaria del Sinú. Docente Fundación Universitaria de Bages (fub),
España, Escribieron este artículo metodológico sobre el tema El método de estudio de
caso: estrategia metodológica de la investigación científica, cuál fue su recepción en marzo
de 2006,aceptado en Mayo de 2006 y publicado el 21 de julio de 2006. “

Resumen
El objetivo principal de este artículo está orientado hacia al desarrollo de los
procedimientos y elementos necesarios para la utilización adecuada del método de
estudio de caso como herramienta metodológica de la investigación científica en
cualquier área del conocimiento. Específicamente, se pretende demostrar tanto las
características claves como el valor, el beneficio y la utilidad práctica del mismo, y la
forma como éste ha logrado superar el debate generado alrededor del mismo, referente
al no cumplimiento de los requisitos de fiabilidad y validez científica asociados a los
métodos cuantitativos.
Palabras claves: Método de estudio de caso, confiabilidad, validez, métodos cuantitativos

Abstract
The aim objective of this paper is oriented to develop the necessaries processes and
elements to use the case study, as a methodological tool of scientific research.
Specifically, to demonstrate his key characteristics, his value, benefit and practice utility,
as well as the way to overcome to the generated debate around him, respect no scientific
validity and liability which is associated to quantitative methods.
Key words: Case study method, reliability, validity, quantitative methods.

INTRODUCCIÓN
La información existente sobre la utilización del método de estudio de caso en
investigación científica y sobre la forma como debe realizarse el análisis inductivo de
datos cualitativos es bastante escasa. Además, el método de estudio de caso ha sido muy
cuestionado por algunos autores (Stoeker, 1991; Venkatraman & Grant 1986, Rouse &
Daellenbach, 1999; Bower & Wiersema, 1999), quienes consideran que su prestigio es
bajo, que no suele considerarse como una buena estrategia para realizar investigación
científica, y que el método de estudio de caso presenta problemas de fiabilidad y validez,
debido a lo cual en la investigación empírica se utilizan básicamente métodos
cuantitativos.
el método de estudio de caso es una herramienta valiosa de investigación, y su mayor
fortaleza radica en que a través del mismo se mide y registra la conducta de las personas
involucradas en el fenómeno estudiado, mientras que los métodos cuantitativos sólo se
centran en información verbal obtenida a través de encuestas por cuestionarios (Yin,
1989).

El artículo está dividido en cinco partes: en la primera se expone la Metodología


Cualitativa vs. Metodología Cuantitativa; en la segunda parte, la metodología cualitativa:
el método de estudio de caso; en la tercera parte se explican los criterios que se deben
tener en cuenta para evaluar la objetividad y la calidad de una investigación científica:
Validez y Fiabilidad; en la cuarta parte se trata el desarrollo del diseño de estudio de caso.
Por último se presentan de manera sucinta las conclusiones.
METODOLOGÍA CUALITATIVA VS. METODOLOGÍA CUANTITATIVA

Pese a que las metodologías cualitativas están reservadas a la construcción o generación


de teorías, a partir de una serie de observaciones de la realidad objeto de estudio,
haciendo uso del método inductivo, según el cual se debe partir de un estado nulo de
teoría, Glasser y Strauss (1987: 253, citado en Perry, 1998:788) aseguran que “en la
práctica es difícil ignorar la teoría acumulada, ya que ésta es importante antes de
comenzar el proceso de investigación; es decir, el primer conocimiento común ganado a
través del proceso de socialización, inevitablemente influirá en la formulación de las
hipótesis por parte del investigador... el investigador debe abstenerse de la apropiación
no crítica de ésta reserva de ideas”. Por consiguiente, “comenzar sin nada o con una
absoluta limpieza del estado teórico no es ni práctico, ni preferido”. De esta manera, el
marco teórico se constituye en una parte importante de una investigación –
independientemente del tipo de metodología utilizado–, toda vez que ésta se beneficiará
de sus aportaciones científicas.
En este punto también resulta útil reflejar la distinción propuesta entre la investigación
cuyo objetivo es testear o verificar teoría versus la que pretende contribuir a generar
teoría (Glaser & Strauss, 1967).

• Fase heurística o de descubrimiento: fase hecha de observación, descripción, reflexión


y generalización inductiva, con miras a generar hipótesis (lo que podría ser verdadero
como solución al problema, respuesta a la cuestión o explicación del fenómeno)
. • Fase de justificación-confirmación: proceso de comprobación del fundamento de una
hipótesis por medio de un procedimiento o dispositivo previsto al efecto (y susceptible
de ser reproducido).
En este contexto, cabe resaltar que las metodologías útiles para la fase heurística o de
descubrimiento son las cualitativas, mientras que las utilizadas para la fase de
justificación-confirmación son las metodologías cuantitativas. De allí que la aplicación de
la metodología cualitativa en el mundo empresarial sea cada vez mayor, debido a la
permanente necesidad del tipo de información obtenida a través de la misma, tanto en
el ámbito de la dirección y organización como en el ámbito comercial o de marketing.
Con relación a la aportación teórica pretendida, tal como se mencionó anteriormente,
cabe distinguir entre investigaciones cuyo objeto es generar teorías y las que se llevan a
cabo para contrastar una teoría existente. El estudio de casos –inapropiado para el
contraste de hipótesis– ofrece sus mejores resultados en la generación de teorías,
mientras que los estudios cuantitativos se consideran aptos para la contrastación de
teorías.
En este punto también resulta útil reflejar la distinción propuesta entre la investigación
cuyo objetivo es el de “testar o verificar” teoría versus la que pretende contribuir a
“generar” teoría (Glaser & Strauss, 1967, citado en Rialp, 1998). Según estos autores, las
teorías o modelos que pretenden obtener un cierto grado de aplicabilidad general
pueden estar basadas en un número limitado de casos, ya que “un solo caso puede
indicar una categoría o propiedad conceptual y, unos cuantos casos más, pueden
confirmar esta indicación”.

El Estudio de Caso como método de investigación científica


Yin (1989:23) considera el método de estudio de caso apropiado para temas que se
consideran prácticamente nuevos, pues en su opinión, la investigación empírica tiene los
siguientes rasgos distintivos:
• Examina o indaga sobre un fenómeno contemporáneo en su entorno real
• Las fronteras entre el fenómeno y su contexto no son claramente evidentes
• Se utilizan múltiples fuentes de datos, y
• Puede estudiarse tanto un caso único como múltiples casos.
Sin embargo, el prestigio de esta metodología es bajo y no suele considerarse como una
buena estrategia para realizar investigación científica (Stoeker, 1991). Por lo que la
investigación empírica en el campo de la empresa utiliza básicamente métodos
cuantitativos (Venkatraman & Grant 1986; Rouse & Daellenbach, 1999; Bower &
Wiersema, 1999).
No obstante, aunque ésta sea la tendencia dominante, no significa que la metodología
cuantitativa sea la única alternativa válida para investigar.
La metodología cualitativa ha tenido un papel destacado en el nacimiento y desarrollo de
las disciplinas que abordan el estudio de las organizaciones, y se ha convertido en la base
del desarrollo germinal de las teorías que configuran el campo de la empresa.
En este sentido, Chetty (1996) indica que el método de estudio de caso es una
metodología rigurosa que
• Es adecuada para investigar fenómenos en los que se busca dar respuesta a cómo y por
qué ocurren.
• Permite estudiar un tema determinado.
• Es ideal para el estudio de temas de investigación en los que las teorías existentes son
inadecuadas.
• Permite estudiar los fenómenos desde múltiples perspectivas y no desde la influencia
de una sola variable.
• Permite explorar en forma más profunda y obtener un conocimiento más amplio sobre
cada fenómeno, lo cual permite la aparición de nuevas señales sobre los temas que
emergen, y
• Juega un papel importante en la investigación, por lo que no debería ser utilizado
meramente como la exploración inicial de un fenómeno determinado.

OBJETIVIDAD Y CALIDAD DE UNA INVESTIGACIÓN CIENTÍFICA:


Validez y fiabilidad
La calidad y objetividad de una investigación científica se mide mediante los criterios de
validez y fiabilidad de sus resultados.

De esta manera, la validez es el grado en que un instrumento de medida mide lo que


realmente pretende o quiere medir; es decir, lo que en ocasiones se denomina exactitud.
Por lo tanto, la validez es el criterio para valorar si el resultado obtenido en un estudio es
el adecuado. Existen varios tipos de validez (tabla 1):

Por su parte, la fiabilidad se refiere a la consistencia interna de la medida; es decir que la


fiabilidad de una medida analiza si ésta se halla libre de errores aleatorios y, en
consecuencia, proporciona resultados estables y consistentes. Así pues, existen varios
métodos útiles para medir la fiabilidad de los resultados de una investigación (tabla 2).
Tal como se observa, la mayoría de los métodos utilizados para medir los criterios de
validez y de fiabilidad de los resultados de una investigación, se basan en una serie de
técnicas y coeficientes estadísticos, que pueden ser aplicados con mayor facilidad en los
estudios cuantitativos. Sin embargo, el estudio de casos contemporáneo ha logrado
superar las críticas referidas al cumplimiento de los mismos, toda vez que algunos autores
que se han pronunciado en favor de este método han invertido esfuerzos en demostrar
que siguiendo algunos procedimientos específicos es posible lograrlos (tabla 3).

DISEÑO DEL ESTUDIO DE CASO


Yin (1989:29-36) propone una manera de pensamiento de diseño de la investigación
refiriéndose a cinco componentes especialmente importantes:
• Las preguntas de investigación

• Las proposiciones teóricas


• La(s) unidad(es) de análisis
• La vinculación lógica de los datos a las proposiciones
• Los criterios para la interpretación de los datos
Por lo tanto, se debe proceder a presentar la forma como se recolectará la información
relacionada con los constructos; es decir, explicitar tanto las diversas fuentes de las cuales
se obtendrá como los instrumentos que han de utilizarse para la recolección de la misma,
y posteriormente derivar la vinculación lógica de los datos obtenidos a dichas
proposiciones.
En este sentido, es útil resaltar la diferencia existente entre las proposiciones teóricas
(construidas en un estudio de caso) y las hipótesis de estudio (formuladas en los estudios
cuantitativos).
Por lo tanto, éste constituye la guía de los procedimientos que deben realizarse durante
la fase de obtención de la evidencia y contiene los siguientes elementos:
• Semblanza del estudio de caso
• Preguntas del estudio de caso
• Procedimientos a ser realizados
• Guía del reporte del estudio de caso

Semblanza del estudio de caso

La semblanza de un estudio de caso es útil para integrar y entrenar a los miembros del
equipo de investigación y contar con un referente que se pueda presentar a quien desee
conocer el proyecto; es decir, su propósito y financiamiento, así como las personas
involucradas en la conducción y soporte de la investigación. Por tanto, debe contener los
siguientes elementos:
• Los antecedentes del proyecto
• Los principales tópicos por investigar
• Las proposiciones teóricas por confirmar
• La literatura relevante

Definición de la(s) unidad(es) de análisis


Respecto al diseño de la investigación, los estudios de caso(s) pueden ser simples o
múltiples, dependiendo del número de casos que se vaya a estudiar. Sin embargo, Yin
(1989:28) propone una tipología que establece cuatro tipos básicos, dependiendo del
número de casos y de los diferentes niveles de análisis. Así, se identifica:
• El caso único o unidad de análisis
• El caso único con unidad principal y una o más subunidades
• Los casos múltiples con unidad principal de análisis, y
• Los casos múltiples con unidad principal y una o más subunidades dentro de la principal.
Por lo tanto, la recolección de la información, la realización del análisis y la obtención de
conclusiones relevantes en una investigación científica han de desarrollarse para cada
nivel.

CONCLUSIONES
El método de estudio de caso es una estrategia metodológica de investigación científica,
útil en la generación de resultados que posibilitan el fortalecimiento, crecimiento y
desarrollo de las teorías existentes o el surgimiento de nuevos paradigmas científicos;
por lo tanto, contribuye al desarrollo de un campo científico determinado. Razón por la
cual el método de estudio de caso se torna apto para el desarrollo de investigaciones a
cualquier nivel y en cualquier campo de la ciencia, incluso apropiado para la elaboración
de tesis doctorales.

Por lo tanto, una nueva teoría no tiene por qué entrar en conflicto con ninguna de sus
predecesoras. En la evolución de la ciencia, los conocimientos nuevos reemplazarán a la
ignorancia, en lugar de reemplazar a otros conocimientos de tipo distinto e incompatible.
No obstante, es necesario aplicar el método de estudio de caso con la suficiente
rigurosidad científica, lo cual es posible si se realiza un adecuado diseño de la
investigación que demuestre la validez y la fiabilidad de los resultados obtenidos,
garantizando con ello la calidad y la objetividad de la investigación, tal como se ha
expuesto en el presente artículo.

EL MÉTODO ANALÍTICO COMO MÉTODO NATURAL

Artículo de método analítico

“(LOPERA ECHAVARRIA , RAMIREZ GOMEZ, ZULUAGA ARISTAZABAL, & ORTIZ


VANEGAS, 2010, págs. 1-28) Escribieron este artículo de método analítico, con el tema,
EL MÉTODO ANALÍTICO COMO MÉTODO NATURAL, en enero - junio de 2010.”

Resumen.-
Retomando la definición de análisis como la descomposición de un todo en sus elementos
constitutivos para proceder a su comprensión y rearticulación, el presente artículo
expone al método analítico como el método natural de los seres humanos, muestra sus
relaciones con el método científico y explicita su vinculación íntima con la ética, en tanto
hábito resultante de la incorporación de dicho método.
Palabras clave.- método analítico, método natural, ético

Abstract.- Based on the definition of analysis like the decomposition of a whole in its
constituent elements to proceed to its understanding and re-articulation, this paper
expound the analytical method like the natural method of the human being, show its
relationships with the scientific method, and make explicit its intimate entailment with
ethic, that is an habit that results of the incorporation of the method.
Keywords.- analytical method, natural method, ethics .
El análisis
El análisis, entendido como la descomposición de un fenómeno en sus elementos
constitutivos, ha sido uno de los procedimientos más utilizados a lo largo de la vida
humana para acceder al conocimiento de las diversas facetas de la realidad.
Desde los tiempos más antiguos, los seres humanos han intentado comprender el origen
de lo existente a partir de sus partes constitutivas o elementos primeros, entendidos en
ocasiones como principios o tendencias originarias de cuya composición o emanación
deriva el cosmos y todos los fenómenos que en él se dan.
Es universalmente conocida la preocupación de los griegos por develar esos elementos
primeros, entre los cuales figuran el fuego, el aire, la tierra, el agua... y en un lugar de
particular importancia, la razón o logos, como tendencia primera que, por articulación de
los elementos o realidades últimas, da origen a lo existente. Desde otra perspectiva, ya
no relacionada con el interés por conocer el origen del cosmos sino más bien con el
conocimiento de la realidad inmediata, imprescindible para la supervivencia, el análisis
ha sido también fundamental. Los primeros cazadores precisaban de un análisis de la
realidad concreta que se les presentaba en forma compacta, unificada.
Debían descomponer dicha realidad en sus elementos básicos, entendidos como indicios
con significación, “mensajes cifrados” acerca del estado del animal que querían atrapar.
Como señala Ginzburg, indicios como charcos enturbiados, rastros de saliva o de sangre,
ramitas rotas, orina o heces, entre otros, eran tomados como indicadores fiables para la
reconstrucción de la realidad desconocida (Ginzburg, 1989, p. 124–125). Para una
persona ignara en el arte de la caza, todos esos indicios son completamente
imperceptibles, permanecen fusionados en el todo que la realidad inmediata representa.
El cazador experto analiza, descompone, esta realidad y puede guiarse con relativa
precisión hacia su objetivo.
Teniendo en cuenta lo anterior, el análisis y la síntesis se compenetran en la unidad del
método. Efectivamente son dos procedimientos distintos, susceptibles de ser, no sólo
diferenciados, sino también “separados” para privilegiar uno de los dos. Sin embargo,
hacen parte de una misma realidad, de un único camino, puesto que:
La síntesis sin el análisis es una obra de imaginación, una creación especulativa, producto
del ingenio que no puede reproducir la realidad; porque la realidad no se adivina (no
existe ciencia infusa) y para conocerla es necesario observarla y estudiarla en toda la
complejidad de sus aspectos. A su vez el análisis, sin la síntesis, da materiales para la
ciencia, pero no la ciencia. De este modo análisis y síntesis revierten a la unidad del
método y son procedimientos de oposición lógica, pero no de oposición real, pues no
existe una realidad analítica y otra sintética, sino la compleja o empírico-ideal.

El método
La palabra “método” se compone del griego μετα que significa ‘con’ y de ὁδός que sería
‘camino’, ‘vía’. Por eso, al derivar del griego μέθοδος significa literalmente “camino hacia
algo” (Rosental y Ludin, 1979, p. 313). Según Ramírez “la palabra método (camino)
significaba para los griegos el modo o vía para buscar la verdad. Los chinos consideraban
el Tao (camino) el concepto fundamental de su filosofía y su ética” (Ramírez, 1991, p. 35).
Esta relación con la ética se expresa en una de las acepciones del método: “Modo de
obrar o proceder, hábito o costumbre que cada uno tiene y observa” (RAE, 2001, p. 1016),
pues como sabemos, ‘ética’ (ethos) tiene, entre sus diversos significados, el de hábito,
costumbre, carácter.

En la definición citada en último término no se incluye la referencia a la ética planteada


previamente, referencia que consideramos esencial, puesto que la ética se relaciona con
la incorporación: cuando el método es incorporado y se hace propio, opera como un
modo de ser, un estilo singular para la búsqueda de un propósito; estilo que constituye
la manera peculiar de afrontar la existencia. El concepto de ‘hábito’, tan importante para
Aristóteles indica que un modo de ser se adquiere (incorpora) a partir de la aplicación
reiterada —la puesta en práctica— de unos principios que se consideran deseables para
el actuar (Ética nicomáquea. II 1, 1103a30).

El método natural
Algunos autores establecen una ruptura radical entre el método científico y el método3
natural, que en los seres humanos se expresa en su cotidianidad. Sin embargo, veremos
que hay más bien una continuidad con pequeños saltos o rupturas, que permite
comprender mejor en qué consiste el método científico. Para Ramírez, el método natural
puede entenderse como “seguir su naturaleza (aun la peculiar), dejarse ser (y colaborar
para ello). Por eso su virtud o cualidad, cuando ha sido incorporado y convertido en un
estilo, es la naturalidad” (Ramírez, 2000, ens. 113).
Usualmente, los caminos emprendidos al seguir la propia naturaleza se conservan si
resultan exitosos para mejorar posibilidades de supervivencia, reproducción o
adaptación. En este método “lo exitoso se repite, pero no todo lo que se repite es
ventajoso para el organismo, o lo que fue exitoso sigue siéndolo indefinidamente: una
conducta puede volverse inconveniente al cambiar las circunstancias” (Ramírez, 2000,
ens. 113). Desde esta concepción amplia, el método natural no es privativo del ser
humano: está presente en las plantas, los animales y el hombre. En éste último, “animal
verbal, el método natural es el método epistémico: la actitud investigativa, que quiere
simbolizar lo aprendido” (Ramírez, 2000, ens. 113)
Las experiencias que el hombre vive en la relación con los otros y con el mundo
circundante están en parte simbolizadas; incluso es imprescindible la mediación del
lenguaje para que la mayoría de ellas pueda ser aprehendida más allá de su realidad
concreta e inmediata, lo que posibilita que el hombre interactúe, también, con las
propiedades, las significaciones, los valores, las acciones y las relaciones de los objetos
del mundo (Luria, 1982, p. 108).
Es indiscutible que los seres humanos, en su lucha por la supervivencia, han encontrado
un apoyo insustituible en esta posibilidad de reflexionar, no sólo sobre las experiencias
vividas, sino también sobre las prácticas y técnicas que implementan como estrategias
para dominar el medio en el que se encuentran. Los cazadores y recolectores de los
comienzos de la humanidad adquirían una experiencia concreta, derivada de su
encuentro directo con la presa que debían cazar o con las plantas y frutos que utilizaban
como alimento.

El método analítico
Al comienzo de este artículo definimos el análisis como la descomposición de un
fenómeno en sus elementos constitutivos. Luego, definimos el método como modo
ordenado de proceder para llegar a un fin determinado: la verdad, el poder, la persuasión,
el cuidado de sí, el nirvana, la alegría, la certeza, el placer, la validez, la salvación, la
conciliación, el amor. El método es entonces un camino, una manera de proceder, que
puede constituirse en un modo de ser al incorporarse como un estilo de vida, lo que
expresa su dimensión ética. Ahora bien, el método analítico es un camino para llegar a
un resultado mediante la descomposición de un fenómeno en sus elementos
constitutivos.
Al referirnos a diversos saberes en los que la aplicación del método analítico es posible,
vemos una gradación que va desde las aplicaciones más empíricas y concretas hasta las
más abstractas y simbólicas. Las diferentes ciencias y saberes aplican usualmente ambas
maneras del método, aunque privilegien una de las dos. Son múltiples y muy diversas las
especies de análisis, que se señalan por la naturaleza de lo analizado: análisis material, o
partición, análisis químico o descomposición, análisis matemático o clasificación, análisis
lógico y racional o distinción, análisis literario o crítica de los elementos de belleza
(Montaner y Simón, 1887, p. 133).
Estas diversas maneras del método analítico, no obstante confluir en el procedimiento
general de descomposición de un todo en sus elementos, tienen diferencias específicas,
determinadas por el campo de la realidad del que se ocupan y de los objetivos que se
buscan. Las ciencias exactas y naturales utilizan preferentemente las múltiples
modalidades del análisis empírico, que complementan con análisis discursivos para
cualificar y dar precisión formal a los resultados obtenidos. Las ciencias sociales y
humanas hacen uso del análisis discursivo en sus diferentes versiones, complementado,
en algunos casos, con análisis empíricos, como en la antropología biológica, la geografía,
la economía, entre otras. En el presente artículo nos ocuparemos del método analítico
como análisis del discurso, estableciendo su estructura general presente en las múltiples
modalidades del mismo. Esta estructura está determinada por cuatro procesos, que
expondremos a continuación.

Procesos de análisis del discurso


Entender. Muchas veces, cuando nos encontramos por primera vez con un discurso,
recibimos una impresión que conjuga elementos imaginarios y simbólicos. No nos
percatamos sólo del significado de las palabras que lo componen o de sus colores y notas
musicales, sino que percibimos el tono [afectivo] en que es expresado, el ritmo según el
cual fluye, la manera particular en la que está organizado, la lógica bajo la cual se inserta
y la coherencia propia de esa lógica
La crítica es una comparación que se establece entre las diferentes partes del discurso
que se está analizando y entre éste y otros discursos, bien sean del mismo autor o de
otros autores. En este proceso se encuentran ciertas relaciones entre las partes del
discurso, se puede ubicar dentro de una tradición o marco de referencia compartido por
otros y se puede examinar la consistencia del mismo.
La contrastación relaciona dos niveles: el de la teoría y el de la práctica, pues no se
pregunta ya sólo por la consistencia de un discurso sino por su eficacia, entendida como
los efectos que produce un determinado discurso sobre la experiencia (discursiva y
empírica)
La incorporación, más que un proceso de análisis del discurso, es un punto de partida o
de llegada.
la comprensión, que podemos describir como una captación abarcativa, un sentir en el
cuerpo de las implicaciones de un discurso o situación. Esta captación es distinta a la que
se da en el entender, no sólo porque tiende a ser más global que centrada en los detalles
(aunque los considere), sino, y fundamentalmente, porque no se trata de un sentir
intelectual.
Ramírez distingue entre el comprender analítico y el no analítico. El primero de ellos
deriva de la aplicación de todos los procesos del método analítico y, en esa medida, no
es un modo de comprender que se dé espontáneamente, al menos no en principio. Con
el tiempo, y a medida que se avanza en la formación analítica hasta hacerla un estilo de
vida, es posible que cada vez más las comprensiones —captaciones, sentires acerca de
un discurso o situación— sean analíticas y espontáneas, de allí que la tercera máxima del
analítico sea hacer lo que se le ocurre (Ramírez, 1999a, ens. 97), pues se trata de un hacer
con naturalidad (Ramírez, 2000, ens. 113) que está basado en un análisis inconsciente
fruto de la formación y de la intuición analizada en la que esta última se basa.
Explicar es dar a conocer a otros ideas, conclusiones o conjeturas de modo tal que las
razones que las fundamentan sean comprensibles para ellos.

El método analítico como método natural


Hemos planteado que el método científico, definido como contrastación dialéctica entre
la teoría y la práctica, es una extensión del método natural de los seres humanos, el
resultado de intentar llevarlo hasta sus últimas consecuencias. Ahora bien, si para esta
contrastación es imprescindible la simbolización o formalización de la experiencia —
articulación discursiva— como término intermedio, ¿que mejor recurso para llevar a cabo
esta formalización que el análisis del discurso, esto es, el método analítico en su
dimensión discursiva?12 Así, el método natural lleva al método científico y éste al método
analítico (como análisis del discurso):
De allí la gran importancia del método analítico en el método científico: se vuelve casi
imprescindible un análisis del discurso cuando se quiere profundizar en la contrastación
dialéctica entre la teoría y la práctica
El método, del presente artículo, diferenciamos entre el método como algoritmo:
conjunto ordenado y finito de pasos para hallar la solución de un problema, y como
actitud: disposición del espíritu que deriva de un modo habitual de actuar (una
incorporación del método). Señalamos la importancia de la incorporación (hacer propio)
puesto que fundamenta la creatividad, el ingenio y la inspiración, dimensiones que están
más allá de lo meramente algorítmico. Asimismo, esta apropiación de un método que en
principio era abstracto, conduce a que dicho método pase a ser una cualidad, un atributo
del sujeto que lo distingue y que influye en mayor o menor medida en su forma de ser.
Ahora bien, si este método es justamente el método natural (propio, característico del
ser humano) que ha sido llevado lo más lejos posible hasta constituirse en un método
científico, es palmario que no se trata de una cualidad cualquiera que se suma a las ya
existentes, sino que, tras su incorporación, pasa a ser esencial de su forma de ver la vida
y enfrentar la existencia, esto es, se constituye en su ética (ethos, carácter, forma de ser).
En este caso, la manera como el sujeto enfrentaría la existencia sería llevando el método
natural (su método) lo más lejos posible, al método científico y, en consecuencia, hasta
su incorporación. Un sujeto ético, desde este punto de vista, lleva a lo más cotidiano de
su existir ese intento de contrastación dialéctica entre su discurso subjetivo (su teoría) y
su experiencia existencial (su práctica).
Lo único que importa, en el caso de la teoría pura, es si las respuestas a las preguntas son
correctas o no; en el de la teoría que afecta a la vida la verdad de nuestras ideas tiene
todavía una importancia central, pero lo que también importa es el tipo de persona, el
tipo de ser que se logra constituir como resultado de su aceptación (Nehamas, 2005 p.
13).

En defensa del método histórico-lógico desde la Lógica


como ciencia
Artículo de método histórico
Teresa Torres-Miranda

“(TORRES, 2020, págs. 131-139) escribió este artículo de método histórico, con
el tema En defensa del método histórico-lógico desde la Lógica como ciencia, fue recibido
el 10 de Junio de 2019,Aprobado el 07 de Octubre de 2019 y publicado el 01 de agosto
de 2020.”

RESUMEN
Este artículo es continuidad de la investigación «Las exigencias lógicas en la investigación
científica. Una mirada desde la solución al dilema», la cual propone un acercamiento
sobre los vínculos entre la Lógica como ciencia y la investigación social. En esta ocasión
se aborda la problemática sobre el tratamiento del método histórico-lógico en la
investigación científica tomando como referente los fundamentos desde la Lógica. El
objetivo propuesto es resolver, a partir del análisis del contenido y la forma del método
histórico-lógico y desde una interpretación eminentemente dialéctica, las imprecisiones
que se producen en su aplicabilidad en la construcción del conocimiento científico.
Palabras claves: dialéctica; investigación científica; método histórico-lógico

ABSTRACT
This paper is a continuation of the piece of research entitled «Logical Requirements in
Scientific Research - Solving Dilemmas», on the relation between Logic as a science and
social research. It discusses how the historical-logical method is used in scientific research,
on the basis of Logic. It is aimed at eliminating shortcomings in the use of the historical-
logical method in scientific research, by examining the content and form of the method
from an essentially dialectical point of view.
Keywords: dialectics; scientific research; historical-logical method

INTRODUCCIÓN
Los vínculos de la investigación científica y la Lógica como ciencia siguen siendo un campo
que aporta a la comprensión del desarrollo del conocimiento científico. Estas áreas del
saber sobre los procesos cognoscitivos ponen al descubierto las relaciones y resuelven
las viejas contradicciones en la actividad de construcción del conocimiento científico.
Entender la lógica de este proceso nos permite comprenderlo como un proceso
caracterizado por estar en constante movimiento, cambio, transformación y desarrollo;
intentando, además, poner de relieve la conexión interna de ese movimiento y su
transformación. Este artículo tiene como objetivo resolver las imprecisiones que en su
aplicabilidad en la construcción del conocimiento científico se producen, a partir del
análisis del contenido y la forma del método histórico-lógico aplicable al nivel del
pensamiento teórico, cuya esencia es eminentemente dialéctica.
DESARROLLO
Como resultado de la creciente incidencia de la ciencia en los procesos sociales y en los
destinos de la humanidad, la ciencia contemporánea y la producción científica se
convierten en objeto de estudio de la propia investigación desde diferentes ángulos.
Se puede acceder al conocimiento científico por medio de tres vías básicas: la búsqueda
intencionada, la reflexión sistemática o los procedimientos lógicos. Cada una de estas vías
se hace acompañar por métodos científicos acordes a la naturaleza de la investigación, lo
cual le aportará su carácter dialéctico. Para comprender la naturaleza dialéctica de los
métodos investigativos debe entenderse, en primera instancia, la naturaleza dialéctica
del conocimiento. La Lógica como ciencia ofrece elementos que, siendo esenciales para
entender este campo de la ciencia, han sido desplazados de nuestras miradas hasta casi
desaparecer.
La Lógica como ciencia, en su expresión más antigua, la Formal, es una parte necesaria,
pero no suficiente, para comprender el conocimiento científico a partir de la
comprensión de su estructura y movimiento formal. Esta necesidad impulsó el origen de
la Lógica Dialéctica, la cual ciñe su análisis al contenido y a la forma del pensamiento
teórico, cuya esencia es eminentemente dialéctica.
El método correcto es todo aquel que, en primera instancia, a través de las
determinaciones abstractas, logre conducir a la reproducción de lo concreto por la vía del
pensamiento, teniendo en cuenta la naturaleza del objeto que se investiga, la esencia del
problema que se intenta resolver y las potencialidades e intereses del investigador.
A continuación podemos analizar algunos ejemplos de investigaciones, en las que ha sido
declarado el empleo del método histórico-lógico, cuando lo que realmente se ha aplicado
es el método histórico:

 La aplicación del método «ha permitido realizar una valoración del contexto
histórico social en que se desarrolló la labor científico-docente de [una figura
histórica], así como precisar los rasgos esenciales que la distinguen». En este caso,
el autor realiza una caracterización del contexto en que el personaje vivió y de la
personalidad de la figura histórica, para lo cual pudo haber empleado el análisis
documental, las entrevistas y consulta con fuentes primarias o secundarias.
 El empleo del método para «la reconstrucción del escenario histórico, con
respecto a la formación del educando, de la labor del maestro y de la situación
del negro en el período». Este otro ejemplo poco aporta para la comprensión de
la aplicación de cualquier método investigativo.
otro error muy común en el tratamiento del método histórico-lógico es el comprenderlo
como la sumatoria del método histórico y los métodos lógicos. Los siguientes ejemplos
así lo demuestran:
 Se aplicó lo histórico en el análisis detallado del fenómeno atendiendo a su
génesis y las particularidades de sus antecedentes y lo lógico al analizar
sistemáticamente todas las relaciones que se establecen entre los distintos
aspectos a tener en cuenta, en los que se ponen de manifiesto otros métodos
teóricos, como la síntesis, la inducción, la deducción y la generalización.
 Durante el proceso de investigación se utilizaron los métodos histórico y lógico
íntimamente vinculados. Fue de gran utilidad el empleo de la entrevista, pues por
las características del objeto y determinadas condiciones objetivas referentes a la
bibliografía existente, esta constituyó una fuente de información de gran valor, lo
que contribuyó a que su labor magisterial fuera estudiada en su dinamismo,
analizándose a la vez los aspectos en ella contenidos. A partir de este análisis
lógico fue posible establecer los parámetros necesarios para fundamentar las
conclusiones que se fueron derivando a través de la generalización.
Todos estos errores en la comprensión del método histórico-lógico, entre muchas otras
razones, están estrechamente relacionados con el modo en que el referido método se
define en no pocas publicaciones. Analicemos algunos de estos ejemplos:

 El método de análisis histórico y lógico: «el método histórico estudia la trayectoria


real de los fenómenos y acontecimientos en el decursar de su historia. El método
lógico investiga las leyes generales del funcionamiento y desarrollo de los
fenómenos» (Instituto Pedagógico Latinoamericano y Caribeño, 1997, p. 15). Esta es la manera más
frecuente que hemos podido encontrar en la exploración realizada en más de una
veintena de obras consultadas.

1. No indica los atributos esenciales del método, en tanto adolece de precisión


suficiente y necesaria que exponga con claridad la dialéctica entre lo histórico
y lo lógico que es la esencia conceptual-metodológica del método referido.
2. No es proporcionada (equivalente) como definición, en tanto el contenido
definido es más amplio que el concepto por definir.

El método histórico (tendencial):


 es un método teórico de investigación mediante el cual se estudian las distintas
etapas por las que atraviesa un objeto, proceso o fenómeno en su sucesión
cronológica desde su surgimiento para conocer su evolución y desarrollo con el
propósito de descubrir tendencias.

 En este otro ejemplo se profundiza en el error de la comprensión del método


histórico-lógico en tanto se hace referencia a algunos «métodos lógicos».
El método histórico-lógico se mueve simultáneamente en dos planos: el del desarrollo
lógico y el del desarrollo histórico real. El método histórico-lógico solo se realiza como
resultado de la unidad dialéctica de ambos planos, no como dos momentos; tampoco,
como sumatoria de dos métodos. En esencia, se aplica para estudiar una parte de la
trayectoria histórica del objeto de investigación asociada al problema científico
declarado, para determinar la tendencia, las etapas más significativas de su desarrollo y
sus conexiones históricas fundamentales de forma cronológica y lógica.

Por lo tanto, utilizar el método histórico-lógico en cualquier investigación científica no


implica únicamente describir cómo se ha comportado el fenómeno en los periodos
estudiados, ni las condiciones económicas, políticas y sociales que influyeron en los
cambios del objeto de estudio, sino que su aplicación conduce a conocer la lógica de su
desarrollo, es decir, los elementos de esencia que incidieron en los cambios operados en
cada etapa correspondiente al objeto de estudio. Esto pudiera constituir una
contribución a la teoría.
CONCLUSIONES
El método no es una forma exterior, sino el alma y esencia del contenido. Sin embargo,
exponer con clara precisión y lógica relación de todas sus partes y componentes
constituye un momento esencial para su comprensión y aplicación en la construcción del
conocimiento científico. El método histórico-lógico solo en su comprensión dialéctica es
valioso para exponer los procesos de desarrollo de la naturaleza de cualquier objeto de
investigación para comprender sus rasgos generales y los nexos de su desarrollo.

LA DIALÉCTICA EN LAS INVESTIGACIONES EDUCATIVAS

Artículo dialectico
“(TORRES E. A., 2011, págs. 1-26) Escribió este artículo de método dialectico,
con el tema LA DIALÉCTICA EN LAS INVESTIGACIONES EDUCATIVAS, fue recibido
el 28 de octubre de 2010 y fue Aprobado el 28 de julio de 2011,fue publicado por la
Revista Electrónica “Actualidades Investigativas en Educación” su Dirección
electrónica: eortiz@ict.uho.edu.cu. .”

Resumen:
En las investigaciones educativas se refleja la dialéctica al manifestarse contradicciones
en el objeto de estudio, que se presuponen y se niegan al unísono. Sin embargo, los
principios y las categorías de la lógica dialéctica casi no son abordados, de manera
explícita, en la formación de profesionales en investigación educativa, en los manuales
elaborados, ni en la propia práctica inquisitoria. Por lo general, solo se resalta la
importancia de las leyes y reglas de la lógica formal que considera a la contradicción como
algo indeseable y que se debe eliminar en aras de conservar el rigor científico, cuando en
realidad ambas no son excluyentes, por el contrario, su complementariedad deviene en
una exigencia contemporánea para las investigaciones científicas. Por lo anterior, el
objetivo de este ensayo es ofrecer varios argumentos y recomendaciones que
contribuyen a la aplicación rigurosa, consecuente y sistemática de la lógica dialéctica en
las investigaciones educativas. Además, puede servir de consulta para el diseño y el
desarrollo de investigaciones en el campo educativo.

Palabras clave: LÓGICA DIALÉCTICA, CONTRADICCIÓN, INVESTIGACIÓN EDUCATIVA

Abstract:
In educational research, dialectics is represented by contradictions in the object of study
which are both assumed and negated. However, the principles and categories of dialectic
logic are infrequently examined in an explicit manner in the training of new researchers,
in handbooks and in investigative practice. In general, emphasis is placed on the
importance of the laws and rules of formal logic that consider contradictions as a negative
needing to be eliminated in order to conserve the scientific validity. In reality, the two
logics are not mutually exclusive; they are complementary in contemporary scientific
investigations. The objective of this article is to offer different arguments and
recommendations contributing to the application of dialectic logic in a rigorous, pertinent
and systematic manner and could serve as a useful reference material for the design and
development of educational research.
Key words: DIALECTICAL LOGIC, CONTRADICTION, EDUCATIONAL RESEARCH
Artículo recibido: 28 de octubre, 2010 Aprobado: 28 de julio, 2011

Introducción
En toda investigación educativa se revelan, de manera directa o latente, varias
contradicciones dialécticas que reflejan la esencia del objeto de estudio en su unidad y
negación a la vez, como manifestación fidedigna del constante cambio y transformación
en que se encuentran los procesos y fenómenos objetivos y subjetivos que ocurren en el
campo educativo. Sin embargo, en la formación de profesionales en investigación
educativa, en los manuales que se editan sobre el tema y en la propia práctica
investigativa, no es frecuente encontrar el abordaje explícito de la lógica dialéctica y su
correspondiente aplicación. Por el contrario, es común encontrar recomendaciones y
exigencias basadas solamente en las leyes y reglas de la lógica formal, las cuales son
imprescindibles pero insuficientes porque en la realidad investigativa ambas lógicas son
necesarias. En verdad, los principios y leyes de la lógica dialéctica no están reñidos con la
lógica formal, ni son excluyentes, por el contrario, su complementariedad deviene en una
exigencia contemporánea para las investigaciones educativas.
En la investigación educativa la aplicación del método analítico proporciona un
conocimiento científico veraz, pero a la larga restringido porque necesita del método
dialéctico. En realidad, el primero está subordinado al segundo por ser este más general.
Cuando se pretende penetrar en la complejidad del objeto de investigación educativa, en
sus contradicciones externas e internas, en los cambios evolutivos a través del tiempo y
en sus estrechas interacciones y relaciones con otros fenómenos, se evidencia la
necesidad de apelar también a los aportes de la lógica dialéctica que permiten reflejar
con más nitidez esta pluralidad.

Desarrollo
El enfoque dialéctico
Como afirma Castro, la dialéctica es la ciencia de las leyes más generales del desarrollo
de la naturaleza, la sociedad y el pensamiento.
Brinda una concepción abarcadora de la realidad objetiva y subjetiva en su conjunto, en
su movimiento y desarrollo, esclarece sus orígenes y sus fuerzas motrices. De manera que
la dialéctica es, a la vez, una concepción del mundo, una epistemología, un método de
conocimiento y de transformación de la realidad concreta (Castro, 2000). De acuerdo con
Gil, la dialéctica permite conocer e interpretar con gran
Como afirma Gil, desde el punto de vista histórico las primeras manifestaciones culturales
humanas desarrollaron un pensamiento holista, totalizador, caracterizado por un fuerte
contenido dialéctico y sistémico, que interpretaba la realidad como un todo, en el que las
partes interactúan en equilibrios inestables que varían por sus tensiones internas y por
los cambios globales, de modo que un defecto o un exceso en una parte termina
repercutiendo en la totalidad y viceversa.
Kopnin, Andreiev y Gil, de este núcleo central, derivan los siguientes principios que le
sirven como fundamentos generales (Kopnin, s/f; Andreiev, 1984 y Gil, 2007):

 Principio de la concatenación universal de los fenómenos


 Principio del historicismo
 Principio del desarrollo Principio de la unidad de lo histórico y lo lógico
 Principio de la ascensión de lo abstracto a lo concreto Principio de la bifurcación
de la unidad y conocimiento de las partes contradictorias del objeto
 Principio de la unidad del análisis y la síntesis Principio del desarrollo desigual y
combinado
Las contradicciones dialécticas son dinámicas por su esencia y la agudización de los
elementos opuestos dentro del objeto provoca su superación a un nuevo nivel cualitativo
y no su solución, si se es consecuente con la lógica dialéctica, ya que si se resolvieran se
detendría el desarrollo.
El enfoque dialéctico concibe al desarrollo como un proceso complicado, sutil y profundo,
que implica transformaciones cualitativas, el paso de las acumulaciones cuantitativas a
una nueva cualidad, donde las anteriores aparecen en una forma básicamente nueva.
Koroliov valora que esta concepción es la que brinda la clave del automovimiento de todo
lo existente, de los saltos, del receso de la paulatinidad, de la transformación en el
contrario, de la anulación de lo viejo y el surgimiento de lo nuevo (Koroliov, 1977).

La comprensión dialéctica del proceso educativo


En las concepciones educativas contemporáneas se encuentran dos grandes escuelas que
hacen de la contradicción dialéctica un pilar importante en sus elaboraciones teóricas:

2.1 La escuela de epistemología genética de Piaget (1896-1980)


En Latinoamérica está difundida y aplicada su pedagogía operatoria en la educación, lo
que no ha ocurrido así en Cuba por determinados condicionantes sociales e históricos
que no es posible abordar en el presente ensayo. Es innegable que la concepción
piagetiana constituye un referente obligado cuando se abordan problemas educativos
por sus valores intrínsecos y por la influencia que ha ejercido en teorías posteriores.
La teoría piagetiana es compleja, plena de ideas y matices bien originales y en constante
perfeccionamiento. Los experimentos de Piaget con niños (estudios de caso) y las
elaboraciones teóricas que extrajo de ellos dan fe de su privilegiada inteligencia, de su
sentido común y su originalidad. Cuando se estudia cualquiera de sus obras se destaca su
profunda preparación multidisciplinaria y su ferviente vocación humanista. En su
complicada teoría son notorias las influencias de su formación como biólogo,
epistemólogo y psicólogo, aunque también de la lógica, matemática, cibernética,
informática y sociología.
2.2 La escuela histórico cultural de Vigotsky (1896-1934)
Por determinadas condiciones sociales e históricas también, la concepción vigotskiana y
sus obras claves son familiares a la educación cubana y no bien conocidas ni aplicadas por
el resto de los países latinoamericanos, debido a determinadas causas y condiciones
históricas que tampoco pueden ser abordadas en este trabajo.
En la actualidad goza de gran popularidad en los medios académicos de Europa,
especialmente en España y también en los Estados Unidos.
Sus más fervientes seguidores han sido consecuentes con esta concepción y la han
enriquecido desde el punto de vista teórico y metodológico en su aplicación sistemática
a la educación, específicamente en el proceso de enseñanza-aprendizaje y en la
concreción de la utilidad teórico-práctica del concepto de zona de desarrollo próximo en
diferentes niveles de enseñanza.

2.3 La dialéctica del proceso de enseñanza-aprendizaje


La dialéctica en la educación se evidencia en el proceso de enseñanza- aprendizaje
porque ambos fenómenos son totalmente contrarios, la esencia de uno es lo
contrapuesto del otro, pero se presuponen: enseñar es lo contrario de aprender y
viceversa, ya que cuando se enseña se está produciendo un proceso de exteriorización y
cuando se aprende ocurre un proceso de interiorización, pero en una unidad
condicionada: se exterioriza para que exista interiorización y esta sucede cuando hay una
exteriorización previa.
La agudización de las contradicciones entre el enseñar y aprender provoca que de la
coexistencia de ambos se pase la trasmutación de uno en el otro, tal como afirma
Machado, el que enseña termina aprendiendo y el que aprende culmina enseñando, y de
esta manera se promueve el desarrollo cualitativo de dicho proceso (Machado, 2006).

La aceptación implícita de esta realidad antagónica sin los ineludibles argumentos


científicos, lacera cualquier aspiración de perfeccionar el proceso de enseñanza-
aprendizaje universitario en la era de la sociedad de la información y del conocimiento,
ya que se dejaría al voluntarismo y a la improvisación la utilización de contradicciones
docentes, con el peligro de obtener resultados totalmente contrarios a los pretendidos,
como ha ocurrido siempre que se ha intentado aplicar innovaciones didácticas sin la
preparación profesional previa.

Como plantea Kostiuk, solo interiorizando, provocando en el individuo tendencias


contradictorias que luchen entre sí se convertirán en la fuente de su actividad, dirigida a
resolver la contradicción interna mediante la elaboración de nuevos procedimientos de
conducta. Este autor afirma de manera certera que el carácter dialéctico del desarrollo
encuentra su expresión en el proceso formativo de la personalidad y una de las
contradicciones internas fundamentales se manifiesta entre las nuevas necesidades que
surgen y el nivel alcanzado en las vías y dominios para satisfacerlas, por lo que estimulan
a aprender nuevas formas de conducta y nuevos procedimientos para la acción o modos
de actuar (Kostiuk, 1986).

Las contradicciones externas en el proceso de enseñanza-aprendizaje se


pueden manifestar entre:
 Las exigencias del profesor y el nivel de desarrollo cognitivo y afectivo de los
estudiantes
 . Las exigencias de los diseños curriculares de las carreras, expresadas en sus
objetivos, y el nivel de desarrollo cognitivo y afectivo de los estudiantes.
 Las exigencias de los diseños curriculares de las carreras, manifestadas en sus
objetivos, y el nivel de desarrollo de las competencias profesionales de los
docentes.
 Las exigencias interdisciplinares del desempeño profesional, contenidas en los
diseños curriculares y la formación disciplinar previa de los docentes.
La propia esencia compleja del acto didáctico condiciona que estas contradicciones
coexistan como posibilidad porque se pueden manifestar total o parcialmente, en
dependencia del contexto educativo, cultural y social, así como del nivel de desarrollo
personal de estudiantes y profesores.
. Las contracciones internas son esenciales porque se erigen en la fuente del desarrollo
de la personalidad de ambos, pero desde el punto de vista histórico primero aparecen las
externas que promueven la aparición de las internas.
Estas contradicciones se pueden manifestar entre:

El desarrollo cognoscitivo de los profesores y el nivel motivacional hacia su


profesión docente.
 El desarrollo cognoscitivo de los estudiantes y el nivel motivacional hacia sus
carreras. La dependencia y la independencia cognoscitiva del estudiante (L. Reyes
y otros, 2002) Las necesidades, aspiraciones y motivos de los estudiantes,
expresadas como conflictos de motivos extrínsecos e intrínsecos asociados a su
futura profesión.
 Revista Electrónica “Actualidades Investigativas en Educación” volumen 11,
Número 2, Año 2011, ISSN 1409-4703 11 Las necesidades, aspiraciones y motivos
de los profesores, reflejados como conflictos de motivos extrínsecos e intrínsecos
asociados a su profesión docente.
 La reflexión individual de los estudiantes para la aceptación de sus insuficientes
conocimientos, habilidades, estrategias y estilos de aprendizaje para enfrentar
exitosamente el proceso de enseñanza-aprendizaje universitario.
 La reflexión individual de los profesores para aceptar su insuficiente preparación
pedagógica ante las crecientes exigencias del proceso de enseñanza-aprendizaje
universitario.
Las contradicciones internas dentro del componente afectivo ocurren entre las
necesidades, aspiraciones y los motivos de profesores y estudiantes expresados como
conflictos de motivos, en el que participan motivos extrínsecos e intrínsecos asociados a
su profesión. Estas contradicciones motivacionales pueden erigirse en fuentes del
desarrollo si son bien guiadas profesionalmente.
González (1995a) valora que si bien las contradicciones están presentes de forma
permanente en la vida de las personas, no toda contradicción deviene fuerza motriz del
desarrollo, sino solo aquellas que producen una tensión emocional particular, es decir,
que poseen el suficiente potencial movilizador para ser considerada como tal y
comprometer al sujeto con una respuesta que puede colocarlo ante una situación social
cualitativa diferente, donde entren en juego nuevos recursos que den lugar a un cambio
estable en su configuración subjetiva.
De manera precisa y aguda González (1995b) se refiere a que las contradicciones son
siempre una fuente potencial del desarrollo. Sin embargo, que adquieran o no este
carácter en una forma concreta de este proceso va a depender mucho de cómo se integra
en el complejo conjunto de fuerzas que caracterizan el proceso de desarrollo en el
momento en que la contradicción aparece.
Este autor lo define como el individuo concreto, portador de personalidad que posee
como características esenciales la de ser actual, interactivo, consciente y volitivo, el cual
no puede sustraerse a su integridad individual actual como condición de su expresión
personalizada.
Se puede llegar racional o afectivamente a descubrir de manera individual o con la ayuda
de otros las contradicciones externas o internas en que se encuentran inmersos
estudiantes y profesores, lo cual es un logro importante y necesario, pero insuficiente
porque tienen además, que aceptarlas volitivamente (como sujeto) como reto individual
y actuar en consecuencia para que estimulen el desarrollo personal.

Otro ejemplo, puede ser el de un profesor universitario que imparte docencia en la


carrera en que se graduó, pero carece de la profesionalización pedagógica necesaria que
le permita enfrentar con éxito las crecientes demandas de los nuevos diseños curriculares
y las exigencias a los docentes en este nivel de enseñanza.

Las contradicciones dialécticas en las investigaciones educativas


Desde una óptica investigativa, Iliénkov afirma que la contradicción en las
determinaciones teóricas del objeto es, ante todo, un hecho que se reproduce de modo
constante con el movimiento de la ciencia (Iliénkov, 1977). En el proceso investigativo, al
tratar de delimitar la situación problémica y el problema científico, se identifica
primeramente una contradicción en su manifestación externa que contiene al objeto,
relacionado con el efecto y la forma, aunque no necesariamente toda contradicción de
esta naturaleza engendra un problema científico, de acuerdo con lo planteado por
Machado (2006).
El principio dialéctico del desarrollo desigual y combinado sostiene que en todo proceso
los ritmos de sus partes son desiguales, pero en su desigualdad existe una medida
combinada que, sin embargo, no garantiza que los diversos ritmos de las partes
diferentes del proceso incidan en el resultado último, acelerándolo o retrasándolo.
Gil afirma que la irregularidad, es decir, la dialéctica surge cuando una medida es tan
desigual y tan persistente en su diferencia que puede provocar cambios en el proceso en
su totalidad, abriendo otro nuevo (Gil, 2007).

En la investigación educativa es eficaz este principio cuando se determinan las


contradicciones externas e internas del objeto, ya que son una manifestación latente o
manifiesta de sus partes que tienen un ritmo de desarrollo diferente y en su evolución
agudizan las diferencias, y por tanto, las oposiciones. Resulta una tarea ardua,
complicada, y a la vez efectiva, la determinación de aquellos elementos contradictorios
que resultan significativos y con disparidades en su desarrollo, las cuales agudizan las
discrepancias y no solo ocurren entre pares sino también entre tríos.

Los argumentos para fundamentar las contradicciones dialécticas en el


proceso educativo, presupone asumir que en toda teoría científica existen dos
niveles de análisis que permiten no solo su comprensión más exacta, sino
también una organización más sistemática de sus contenidos con el fin de
poderlos utilizar de forma severa y precisa:
Nivel teórico general: referido a las concepciones filosóficas y epistemológicas que la
sustentan y que le sirven de fundamentación.
Nivel teórico particular: es la concepción científica específica con su objeto, principios,
leyes y categorías.

Por tanto, para la selección de argumentos certeros que permitan


fundamentar de manera científica una o varias contradicciones dialécticas
dentro del proceso educativo, se puede utilizar una lógica inclusiva que
recorra los niveles antes mencionados de la siguiente manera: Argumentos
teórico generales:
 referidos a las tres leyes fundamentales de la dialéctica, sobre todo la ley de la
unidad y lucha de contrarios y sus categorías, tales como, causaefecto, necesidad-
casualidad, histórico-lógico, abstracto-concreto, unidad-diversidad, unitario-
sistémico, cuantitativo-cualitativo, simple-complejo, parcialidad-integridad,
objetivo-subjetivo e individual-social; que permiten establecer cierta relación
genérica con los pares contradictorios que se proponen como fundamentales.
 Argumentos teórico particulares: se encuentran dentro de la concepción
específica asumida y, por ejemplo, en el caso de la concepción educativa basada
en la concepción vigotskiana, están la situación social del desarrollo, la zona de
desarrollo próximo y los conceptos interpsicológico-intrapsicológico, afectivo-
cognitivo, instructivo-educativo, actividad-comunicación, interiorización-
exteriorización, enseñanza-aprendizaje, motivos extrínsecos-motivos intrínsecos,
conocimientos-habilidades-valores, subjetividad individual-subjetividad social, así
como sujeto-personalidad.

Pero para lograr con eficacia esta lógica deductiva es recomendable tener en
cuenta tres aspectos esenciales:

 La preparación científica del investigador mediante la profundización sistemática


y consuetudinaria en las posiciones teóricas generales y particulares que asume,
de la cual deberá derivar su estrategia investigativa de manera coherente y
consecuente.
 El conocimiento científico del objeto es un requisito esencial e inexcusable para
continuar la investigación, así como los contenidos esenciales de la lógica
dialéctica. Nunca será serio que se defienda un autor del cual no se ha realizado
un estudio sistemático de sus obras fundamentales, ni criticar a un autor sin haber
realizado un estudio similar, como ha ocurrido con las concepciones de Vigotsky
y de Piaget.
 La experiencia profesional educativa anterior que le permite al investigador
poseer suficientes vivencias profesionales (unidad de lo cognitivo y afectivo) de lo
que estudia. Es harto difícil investigar sin una práctica profesional consecutiva y
prolongada.

Otros principios de la dialéctica en las investigaciones educativas


Pero la aplicación sistemática de la lógica dialéctica en las investigaciones educativas no
solo radica en el descubrimiento de contradicciones, sino también en la aplicación
atinada de varios principios de gran nivel de complejidad, pero eficaces cuando son bien
empleados, entre los cuales están:
El principio de la unidad de lo histórico y lo lógico
El principio de la ascensión de lo abstracto a lo concreto
El principio de la unidad del análisis y la síntesis
Para que su utilización sea eficaz es importante que las regularidades, tendencias, etapas
y períodos propuestos como originales se basen en los que previamente las ciencias de
la educación han aportado, así como en los que la historia en general y la historia de la
educación en particular han establecido, aun cuando se pretenda criticarlos y
perfeccionarlos con el aporte de elementos desconocidos hasta el momento.

Kohan propone las siguientes fases lógicas dialécticas del conocimiento


científico en las ciencias sociales, en su tránsito de lo abstracto a lo concreto,
de lo simple a lo complejo (Kohan, 2003):

 a partir de la reproducción cognoscitiva de la realidad en la actividad práctica


cotidiana y a partir también de la producción o construcción de conocimientos
científicos.
 II.Representación plena que tiene carácter precientífico, constituye todavía una
totalidad confusa o caótica porque no se ha logrado una articulación explicativa
de forma científica, carece de un orden lógico, predomina el sentido común,
provee una certeza sensible de índole intuitiva.
 III – Determinaciones abstractas que se logran mediante la definición de los
conceptos y categorías, constituye la fundamentación teórica junto con la
elaboración de hipótesis y el establecimiento de las jerarquías lógicas.
 IV - Totalidad conceptual construida que todavía es abstracta por ser general y no
haberse llegado a la particularización, subdivisión y clasificación.
 V - Categorías explicativas de carácter novedoso por aportar conceptos científicos
no existentes hasta el momento, más densas, específicas y con mayor poder
explicativo.
 VI - Totalidad concreta explicativa que ocurre en el plano del pensamiento, es lo
concreto pensado y posee carácter tendencial por el carácter relativo y no
absoluto de la verdad.
En la investigación educativa el manejo de elementos abstractos y concretos resulta
imprescindible si se aspira al logro de resultados científicos que enriquezcan la teoría
científica, y a la vez, que contribuyan de manera efectiva al perfeccionamiento de los
procesos educativos, y por tanto, a su optimización y desarrollo.

Síntesis y reflexiones finales


La dialéctica como método constituye un recurso de grandes potencialidades heurísticas
en las investigaciones educativas porque permite reflejar la complejidad de los
fenómenos y procesos formativos en su integridad, en su desarrollo y en sus relaciones e
interacciones.
La aplicación rigurosa y efectiva de la lógica dialéctica en las investigaciones educativas
resulta imprescindible para el logro de un mayor nivel de esencialidad en el estudio de
los objetos de indagación, ya que el desarrollo de la educación contemporánea reclama
resultados científicos más abarcadores, que contribuyan a la elevación de la eficiencia de
los sistemas formativos en un mundo cada vez más globalizado, donde las tendencias
inter y multidisciplinarias van predominando y provocan la obsolescencia de estudios
parciales que no tienen en cuenta los acelerados cambios económicos, sociales, políticos
y culturales que acontecen en el presente siglo.
Las sociedades modernas, con sus generaciones presentes y futuras, esperan de los
investigadores e investigadoras educativas la búsqueda de soluciones científicas y
sostenibles para que los sistemas formativos en sus diferentes niveles contribuyan a
prepararlos para la vida, sin desconocer sus tradiciones, culturas, creencias e identidades,
transitando hacia un mundo mejor, que siempre será posible y deseable.

Análisis estructural de la investigación empírica sobre el


periodista latinoamericano

Investigación empírica

“Claudia (MEDALLO, 2010, págs. 125-147) Escribió este artículo de investigación empírica,
con el tema Análisis estructural de la investigación empírica sobre el periodista
latinoamericano, cual fue receptado el 13 de agosto de 2009,aceptado el 21 de
septiembre de 2009 y publicado en Junio de 2010 por la revista comunicación y sociedad,
su Correo Electrónico: claudiamellado@udec.cl .”

Resumen
Este artículo reporta resultados preeliminares de un análisis secundario documental de
la investigación empírica realizada sobre el periodista latinoamericano en el periodo
1960–2007. Se describe la evolución temporal de los estudios, su procedencia, el tipo de
formato utilizado, las entidades difusoras más importantes, la tipología temática de las
investigaciones, los niveles de análisis predominantes y los enfoques metodológicos
utilizados. Los resultados enseñan la irregularidad de este tipo de estudios en
Latinoamérica.
Palabras clave: estudios sobre periodistas, análisis secundario, producción académica,
Latinoamérica.

Abstract
This article reports preliminary findings of a quantitative secondary analysis of Latin
American journalists studies in the period 1960–2007. The temporary evolution of the
studies, the country of publication, the type of publication, the most important
publishers, the thematic typology of each empirical work, the levels of analyses
addressed, and the methodological approaches were described. The results show the
irregularity of this type of studies in Latin America.
Key words: journalist studies, journalism, secondary analysis, scholarly production, Latin
America.

INTRODUCCIÓN
La producción académica es un elemento fundamental en la comprensión del desarrollo
del conocimiento, y es hoy uno de los indicadores más claros respecto a lo que constituye
el capital científico –como lo definiría Bourdieu– y los marcos de acción de un campo de
estudio.
Para Meditsch y Segala (2005), una forma de unir el rigor científico con resultados
relevantes dentro de un área de estudios es adquirir el hábito de repasar nuestras
bibliografías de un modo más sistemático y riguroso, ser capaces de reconocer nuestros
avances, así como de criticar nuestros métodos o resultados.
No obstante, en la búsqueda por describir el sistema social en el cual se produce el
conocimiento científico en torno a la profesión periodística, y específicamente sobre los
periodistas latinoamericanos, lo cierto es que poca atención se ha puesto a cómo dicho
conocimiento crece y madura.
Parafraseando a Fuentes (1991, p.18), sea porque la investigación, la teoría, la profesión
y la enseñanza de la comunicación son consideradas tácitamente como estructuras
transparentes, o tal vez, al contrario, por la dificultad de desentrañarlas, la autorreflexión
crítica y sistemática en este ámbito específico de estudio no parece aún haber aflorado
lo suficiente.
METODOLOGÍA
El objetivo de este análisis fue graficar las características de la investigación vinculada al
estudio de los periodistas, constatando las particularidades metodológicas y
estructurales que han delineado el estado de este tipo de producción científica.
Con base en la búsqueda y análisis de la totalidad de estudios empíricos efectuados en
las últimas cinco décadas sobre el periodista latinoamericano, se comparó, a través de
una sistematización bibliográfica, el orden formal, espacial y temporal de la diseminación
de este tipo de material, los niveles de análisis alcanzados y los enfoques metodológicos
seleccionados.
A través del método documental, se estudió la totalidad de trabajos que fueron
localizados de forma sistemática, desde 1960 hasta 2007 en torno al tema, tras una
búsqueda y revisión bibliográfica virtual y presencial en bibliotecas, catálogos y bases de
datos validadas dentro del ámbito académico tanto de Latinoamérica como de Estados
Unidos y Europa.
a revisión de las referencias bibliográficas anexadas en cada uno de los estudios
localizados fue otra forma de triangular la búsqueda de los datos, en tanto muchos de los
títulos contenidos en dichas bibliografías podrían no haber estado incluidos en los
catálogos y bases de datos anteriormente mencionados. De esta forma, se aseguró en
mejor medida la representatividad y validez de los textos encontrados, reduciendo el
margen de error siempre presente en el rastreo de información en tan amplio espectro
espacial y temporal.
RESULTADOS
Procedencia de los estudios
El primer paso del análisis fue identificar el número de estudios y publicaciones empíricas
efectuadas sobre el periodista latinoamericano, desde los inicios de los estudios de
comunicación en la región hasta la fecha. En las últimas cinco décadas se encontraron
191 estudios y 231 publicaciones, en tanto 29 investigaciones difundieron sus resultados
a través de más de una publicación (véase Gráfica 1).
A causa de la poca cantidad de estudios realizados en las dos primeras décadas, el análisis
del total de trabajos enseña que durante el periodo 1980–1989 la producción creció en
750%, mientras que en los años noventa aumentó en 196% en comparación con las tres
décadas previas. En tanto, durante los últimos siete años se observó un incremento de
casi 100% sobre el periodo anterior, y de 43.1% en torno al conjunto de las cuatro
décadas precedentes.

En términos de la procedencia de esta productividad, 13 países latinoamericanos y tres


extranjeros de habla inglesa, portuguesa o española figuran con publicación de material
empírico vinculado al estudio de los periodistas de la región. No obstante, siete países
locales no presentan investigación publicada dentro de los soportes consultados desde
1960 hasta 2007, la mayoría de ellos centroamericanos. A saber: Paraguay, República
Dominicana, Nicaragua, Panamá, El Salvador, Cuba y Honduras.
De acuerdo a la evolución que las productividades nacionales han tenido a lo largo de las
cinco décadas estudiadas –y aunque las cantidades nominales son pequeñas– se observa
un importante crecimiento de Chile, país que aumentó en 14 veces su productividad en
los últimos siete años en comparación a los noventa. En el mismo período, Brasil casi
triplica la cantidad de investigaciones realizadas, liderando este tipo de estudios. En el
caso de México –segundo país con mayor número de trabajos publicados– se mantiene
estable la productividad en ambas décadas.

Independiente de la década de estudio, la tendencia de los investigadores en los países


analizados es efectuar investigación empírica en torno a los periodistas, circunscrita casi
en su totalidad a su realidad nacional y local. En efecto, la gran mayoría de ellos sólo
presenta investigación concerniente a sus propios territorios. Los autores extranjeros
interesados en Latinoamérica son los que logran diversificar su marco de análisis a
distintos espacios geográficos (véase Tabla 2).
Los estudios sobre el periodista latinoamericano fueron clasificados de acuerdo al tipo de
publicación, dividiéndose en siete formatos distintos, según indica la Tabla 3.

En contraposición, los libros sufrieron una baja importante en la última década, en la cual
se publicó la mitad de títulos que se editaron en los noventa. Los capítulos de libro, no
obstante, han mostrado un crecimiento sostenido.
La supremacía de uno u otro formato sufre ciertos matices de acuerdo al país de
publicación. Mientras la distribución en torno a los artículos en revistas y libros de actas
es similar a la observada en la productividad global, Venezuela, México y Brasil igualan la
cantidad de libros publicados, y México lidera la presencia de capítulos de libros, con más
de la mitad de la producción (véase Gráfica 2).
En el caso de la Revista de Comunicación Estudios Venezolanos, su productividad en torno
al tema se concentra en exclusiva en la década de 1990; mientras que en Sala de
Prensa, UNI Revista, Razón y Palabra y Em Questão, se extiende desde los noventa hasta
la fecha. Journalism Quarterly (hoy Journalism & Mass Communication Quarterly), en
tanto, se posicionó como mayor difusor de estos estudios sólo en los años sesenta. En
efecto, los cuatro artículos emergidos durante esa década se publicaron allí (véase Tabla
4).

Temáticas de estudio
La inexistencia de características previas o sistematizaciones que estipularan de forma
concreta qué tipos de estudio y tendencias temáticas se habían desarrollado en torno a
la investigación de los periodistas en la región latinoamericana, fue uno de los aspectos
que motivó su búsqueda.
Después de un análisis del contenido de cada investigación y de la literatura que permitió
profundizar en las estructuras de estos trabajos, se detectaron "diez tipos de estudios"
diferenciados (véase Gráfica 3).
 1) Los estudios sobre "rutinas y prácticas periodísticas" llevados a cabo a nivel
latinoamericano (31.6% de los casos) se enfocan en cómo los periodistas hacen
su trabajo, en las actividades diarias que desarrollan y en la elaboración de los
productos informativos (herramientas más usadas).

 2) Los estudios sobre el "perfil ocupacional y las condiciones del mercado laboral"
(19.3% de los casos) suelen orientarse –aunque no en exclusiva– al análisis de
periodistas recién egresados, explorando la oferta y demanda de estos
profesionales, el número de titulados en las escuelas de comunicación, la
colocación y la empleabilidad real de los periodistas, así como las condiciones de
trabajo de los recién titulados.

 3) Los estudios sobre la "formación del periodista" (18.7% de los casos) se


orientan en su mayoría a la evaluación que los propios sujetos hacen de la
enseñanza recibida en las universidades, las relaciones existentes entre la
formación y la práctica profesional, así como las competencias requeridas para el
desarrollo de su labor.
 4) Los estudios sobre "roles profesionales" (16% de los casos) pretenden conocer
cuáles son los principios, valores, influencias y actitudes que guían a los
periodistas en su comportamiento diario, asociado con la información que
generan. En este sentido, este tipo de investigación se vincula a la detección de
características, percepciones y posturas éticas del periodista frente a situaciones
puntuales y presiones vinculadas a su trabajo.

 5) Los estudios sobre las "condiciones laborales del periodista" (15.5% de los
casos) se vinculan a la satisfacción del profesional con su entorno laboral general.
Sin embargo, las investigaciones encontradas están más orientadas a analizar las
condiciones físicas y materiales de su trabajo (horarios, salarios, etc.), que los
aspectos vinculados al ambiente laboral, al estrés y al bienestar emocional.

 6) Los estudios sobre las "representaciones sociales del periodista" (10.7% de los
casos) suelen ser investigaciones aplicadas a estudiantes de periodismo o a
empleadores de periodistas, quienes describen y conceptualizan la formación,
funciones y roles del sujeto profesional, de acuerdo al imaginario por ellos
generado. Asimismo, estos estudios se orientan a conocer la autorrepresentación
y estructuración de la identidad profesional de los periodistas.

 7) Los estudios sobre el "perfil sociodemográfico del periodista" (8.6% de los


casos) se limitan a describir las características personales que definen al sujeto
como ser humano y trabajador.

 8) Los estudios encontrados sobre las "condiciones asociativas del periodista"


están presentes en 5.3% de los casos y se orientan a conocer las impresiones que
aquellos poseen respecto a sus derechos como trabajadores, al rol que las
asociaciones y colegios deben tener en torno al buen ejercicio de la profesión, así
como a encuestas vinculadas a cifras de colegiación.

 9) El estudio sobre la "orientación profesional del periodista" (3.7% de los casos)


está circunscrito a conocer, desde el enfoque de la sociología de las profesiones
y a través de escalas y medidas establecidas, los niveles de profesionalización y
de desarrollo alcanzados por estos profesionales y por el periodismo en general.

 10) Finalmente, el "estudio de género dentro de la profesión periodística" (3.2%


de los casos) hace mención explícita de las diferencias que hombres y mujeres
tienen en el ejercicio de la profesión.

Niveles de análisis

En términos generales, se puede hablar de tres niveles de análisis dentro del estudio del
periodismo, teóricamente definidos, pero no tan fácilmente diferenciados en la práctica.
En el primero, el interés se centra en las creencias, valores, experiencias y conocimientos
que los periodistas poseen y aplican en una determinada actividad laboral. Asimismo,
importa conocer y contextualizar su formación y características como profesional, sus
roles y actitudes profesionales, su realidad laboral, sus actitudes frente a la asociatividad
y las características personales (sexo, edad, constitución familiar, nivel socioeconómico,
etc.)
Del análisis aquí efectuado es posible observar que más de 60% de los estudios empíricos
sobre el periodista latinoamericano ponen su atención en los factores internos que
delimitan y condicionan al sujeto más que en los agentes intermedios o en los factores
externos que contextualizan su ejercicio profesional.

Enfoques metodológicos
La preponderancia de la investigación cuantitativa y/o cualitativa dentro de los estudios
de periodismo ha incentivado a muchos estudiosos alrededor del mundo a efectuar
mediciones y buscar patrones en la productividad generada.
En este estudio, una mayoría de las investigaciones efectuadas sobre el periodista
durante las últimas cinco décadas corresponde a enfoques cuantitativos (42.3%). Sin
embargo, dicha mayoría es seguida de cerca por 36.2% que se aglomera en torno al
enfoque cualitativo, y por 21.5% de casos que utiliza ambos enfoques metodológicos.

DISCUSIÓN
A lo largo de esta sistematización bibliográfica documental se describieron las principales
características estructurales y metodológicas que han definido el estado de la
investigación sobre el periodista latinoamericano en las últimas cinco décadas.
Los resultados enseñan, en primera instancia, un incremento notable en la productividad
científica generada en torno a este tipo de investigaciones. No obstante, aún no se puede
hablar de una consolidación de este ámbito de estudios, ni a nivel latinoamericano, ni en
los referentes nacionales y locales que los componen. De acuerdo a los datos analizados,
se observa un crecimiento tardío en el área. Tanto es así que 60% del material se ha
generado en los últimos siete años.
Las productividades por país tampoco han sido homogéneas. Coincidiendo con una
exploración cualitativa previa de este material (Mellado, 2009), los datos aquí analizados
muestran que mientras Brasil y México –y en menor medida Venezuela y Chile– destacan
por su productividad, la mayoría de los países centroamericanos permanecen ausentes
en este tipo de estudios.
Finalmente, la mayoría de los estudios efectuados sobre el periodista regional no logran
involucrar el esfuerzo colaborativo de más de un país. De acuerdo a Hantrais & Mangen
(1996), pocos científicos sociales se sienten bien preparados para conducir
estudios cross nacionales o trabajar en equipos internacionales; renuencia que puede ser
explicada no sólo por una carencia de conocimiento o entendimiento de culturas y
lenguas diferentes, sino también por la insuficiente conciencia de las tradiciones del
proceso de la investigación que se desarrolla en espacios nacionales distintos.

AGRADECIMIENTOS
Este artículo es parte del trabajo del Proyecto de Investigación FONDECyT No. 1080066
(Chile).

Densidad de energía de emparejamiento no empírico


funcional

Investigación no empírica

“(LESINSKI, DUGUET, & BENNACEUR , 2009, págs. 121–126)


Escribieron este artículo no empírico científico, el tema fue Densidad de
energía de emparejamiento no empírico funcional, Recibió el 31 de diciembre
de 2008 ,Revisado el 18 de marzo de 2009,Aceptado el 20 de marzo de 2009 y
Publicado30 de abril de 2009, por la revista académica EUR. Phys. J. A. Su correo
e-mail: thomas.duguet@cea.fr “

Resumen.
Realizamos cálculos sistemáticos de brechas de apareamiento en núcleos semimágicos
a lo largo de la carta nuclear. Utilizando el método funcional de densidad de energía y
una función de emparejamiento no empírico derivado, sin aproximación adicional, en el
orden más bajo en la interacción de vacío de dos nucleones, incluido el Coulom la fuerza.
El movimiento de una sola partícula correlacionado se explica por el funcional semi-
empírico SLy4. Bastante inesperadamente, tanto los huecos de apareamiento de
neutrones como de protones así generados están sistemáticamente cerca de los valores
experimentales datos. Tal resultado sugiere además que los efectos faltantes, es decir,
ondas parciales más altas de la interacción NN, la interacción NNN y el acoplamiento a
las fluctuaciones colectivas, proporcionan una contribución global que es sub-líder en
cuanto a generar espacios de apareamiento en los núcleos. Encontramos que incluir la
interacción de Coulomb es esencial, ya que reduce las brechas de emparejamiento de
protones hasta en un 40%.

Abstract.
We perform systematic calculations of pairing gaps in semi-magic nuclei across the
nuclear chart using the Energy Density Functional method and a non-empirical pairing
functional derived, without further approximation, at lowest order in the two-nucleon
vacuum interaction, including the Coulomb force. The correlated single-particle motion
is accounted for by the SLy4 semi-empirical functional. Rather unexpectedly, both
neutron and proton pairing gaps thus generated are systematically close to experimental
data. Such a result further suggests that missing effects, i.e. higher partial waves of the
NN interaction, the NNN interaction and the coupling to collective fluctuations, provide
an overall contribution that is sub-leading as for generating pairing gaps in nuclei. We find
that including the Coulomb interaction is essential as it reduces proton pairing gaps by
up to 40%.

Introducción
Hace mucho tiempo se comprendió [1] que características tales como el extraño incluso
escalofrío de las energías de enlace nuclear, o momentos de inercia que tiene la mitad
del valor correspondiente de cuerpo rígido, estaban relacionados con el carácter
superfluido de los núcleos atómicos. De hecho, el emparejamiento de partículas similares
se ha convertido en un ingrediente esencial de los modelos de estructura nuclear, en
particular en lo que respecta a la descripción de núcleos exóticos [2]. En Además, la
superfluidez juega un papel clave en las estrellas de neutrones, p.ej. tiene un gran
impacto en las observaciones de tiempo posteriores a fallos [3] o su historial de
enfriamiento [4].
Describir el emparejamiento a través de MBPT [12,13] se traduce en resolver una brecha
generalizada de Bardeen-Cooper-Schrieffer ecuación. Hacerlo requiere dos ingredientes
esenciales: la función normal de energía propia, sumando los procesos de interacción
entre un solo nucleón y el medio, juntos con el kernel de interacción de emparejamiento,
los cuales pueden expandirse en términos del vértice de interacción del vacío.
La contribución de primer orden al núcleo de emparejamiento irreducible de dos
partículas es la propia interacción de vacío mientras que los términos de orden superior
incluyen la interacción inducida, describir el proceso de interacción de partículas
emparejadas mediante el intercambio de fluctuaciones colectivas del medio. A cuestión
fundamental, aunque no resuelta, se relaciona con cuánto de los huecos de
apareamiento en núcleos finitos se contabilizan en orden más bajo, es decir, por el
término directo de la interacción de dos nucleones, y cuánto se debe a procesos de orden
superior. Que la interacción nuclear directa pueda generar superfluidez está en
desacuerdo con la situación en los sistemas electrónicos.

Método
Usamos la interacción NN de bajo impulso Vlow k [11] built del potencial NN de Argonne
v18 [24] con un límite de re normalización Λ = 2.5fm − 1. En cuanto a la descripción de
los fenómenos nucleares de baja energía, Vlow k es como un vacío válido NN interacción
como cualquier potencial NN más convencional que trata de modelar explícitamente el
corto alcance, es decir, de alta energía física. Como resultado, las brechas de
emparejamiento calculadas en materia nuclear infinita (INM) utilizando energía cinética
libre y un emparejamiento kernel en el orden más bajo en la interacción NN son
esencialmente independiente de la escala de resolución intrínseca Λ que caracteriza a
esta última, desde Λ = 1.8fm − 1 hasta valores que son típicos del potencial de Argonne
v18 [7].

Resultados
Actualmente nos limitamos a discutir un solo observable relacionado con las
correlaciones de emparejamiento, es decir, la masa par-impar asombroso (OEMS),
mientras que los resultados adicionales se informarán en una publicación separada [23].
La conexión entre las fórmulas de masas en diferencias finitas empleadas para extraer los
OEMS y las brechas teóricas de emparejamiento no es sencillo. En el caso de un
emparejamiento fuerte y con espacios reducidos niveles de una sola partícula, la masa
experimental de tres puntos fórmula de diferencia Δ (3) q (N / Z) centrado en N / Z impar
proporciona la mejor estimación de las brechas de apareamiento teóricas calculadas en
núcleos pares-pares [30]. Las últimas lagunas teóricas son proporcionados por Δq LCS que
denota el emparejamiento diagonal elemento de matriz Δq k correspondiente al estado
canónico de una sola partícula φk cuya energía cuasi-partícula1.

Densidad de energía de emparejamiento no empírico funcional

Fig. 1. Brechas de neutrones / protones a lo largo de cadenas isotópicas / isotónicas


obtenidas utilizando la parte neutrón-neutrón de Vlow k tanto para núcleos de
emparejamiento de neutrones y protones, el Vlow k nuclear de ruptura de simetría de
carga completa (CSB) mientras se incluye o excluye el Interacción de Coulomb.

La figura 1 muestra las brechas de neutrones / protones Δn / p LCS a lo largo de todos


Cadenas isotópicas / isotónicas semimágicas de líneas de goteo de protones a neutrones,
junto con valores experimentales de Δ (3) q donde esté disponible. Las brechas de
emparejamiento teóricas son cero en (sub-) cierres de concha. Alejándose de este último,
aumentan más lentamente que los datos. Se sabe que la variación después restauración
del número de partículas, o una variante aproximada de los mismos, como el método
Lipkin-Nogami, aumentan las brechas cerca de cierres de concha [31]. Por lo tanto, es
necesario que dichos núcleos realicen un EDF de múltiples referencias (MR) más
complicado. Cálculo, que está más allá del alcance del presente trabajo. Centrémonos
primero en los huecos de neutrones en el panel superior.
De la fig. 1. El mensaje principal a transmitir es la cercanía general de las predicciones
con los datos experimentales; este ser cierto desde núcleos bastante ligeros (calcio) hasta
núcleos pesados (dirigir). Esto es una sorpresa dado que el cálculo se realiza en el primer
orden en la interacción NN y que sólo dos tercios de la brecha de apareamiento de
neutrones experimental en 120Sn se obtuvo en la ref. [20] mediante un cálculo similar al
realizado aquí para muchos más núcleos. También, Allí se defendía que el tercio faltante
lo proporcionaba el acoplamiento a las fluctuaciones colectivas. Lo haremos Comente
brevemente sobre el desajuste entre los dos conjuntos de cálculos en la última sección
del presente artículo.

Lleguemos ahora a los huecos de protones a lo largo de la semimágica. Cadenas


isotónicas. El cálculo de las brechas de protones requiere incorporar contribuciones de
ruptura de simetría de carga (CSB) a la interacción NN, que tienen dos orígenes distintos
i) electromagnético, principalmente a través de la interacción de Coulomb entre
protones, ii) hidrómico, rompiendo más levemente la simetría de modo que la interacción
NN entre los protones son menos atractivos que entre neutrones. Cuatro Los conjuntos
de resultados para las brechas de protones se muestran en la parte inferior.
Panel de la fig. 1 que corresponden a incorporar / omitir términos hidrómicos y / o
Coulomb CSB en la interacción NN que construye el núcleo de interacción de
emparejamiento de protones.

Somos conscientes de sólo otro cálculo sistemático de HFB que incluye explícitamente la
interacción de Coulomb en el canal de emparejamiento de protones [35]. Se realizó en
una base de oscilador armónico triaxial utilizando el Gogny D1 o D1S núcleos semi-
empíricos en ambos canales del FED. Aunque no se propuso ningún estudio específico de
brechas de apareamiento en árbitro. [35], se encontró que las energías de
emparejamiento de protones eran reducido en un 30 hasta un 60% (para semi-mágicos
90Zr) al incluir el término de emparejamiento de Coulomb de forma coherente en el
procedimiento variacional. Las energías más bajas de dos cuasi protones, que son las
cantidades discutidas en la ref. [35] que se relacionan más con las brechas de
emparejamiento, se redujeron entre un 20 y un 30%. Teniendo en cuenta los diferentes
FED utilizados para el hadrónico parte, la reducción de las brechas de apareamiento
observadas en nuestro estudio concuerda con las conclusiones de la ref. [35].

Discusión, conclusiones y perspectivas

Un resultado clave del presente trabajo es que las brechas de emparejamiento de


protones y neutrones se calcularon en el orden más bajo en la interacción nuclear de bajo
momento más Coulomb de dos cuerpos. están cerca de los datos experimentales para un
gran conjunto de núcleos esféricos semimágicos. Este resultado, que no se esperaba ni
se esperaba, permanece sin cambios [23] todo el rango de valores de corte del grupo de
re normalización Λ ∈ [1.8, 3.0] FM − 1 que caracteriza las interacciones NN perturbarías
[25,38]. Además, tal resultado no depende significativamente en la masa efectiva
isoscalar de Skyrme [23], siempre que el valor de este último a la densidad de saturación
sea dentro del intervalo [0,65, 0,75] autorizado por los cálculos ab initio de Materia
Nuclear Infinita consistente con el uso de la interacción NN de vacío en el canal de
emparejamiento [28]. La cercanía de las brechas de emparejamiento actualmente
calculadas con datos experimentales plantea preguntas legítimas, algunos de los cuales
se abordan brevemente a continuación y de manera más extensa en las refs. [23,28].
Por supuesto, es fundamental comprobar que el cálculo de la parte normal del auto
energía de primer orden directamente de las interacciones NN de bajo momento, en
lugar de la función semiempírica SLy4, no altera los resultados presentados aquí. Se
muestra en la referencia.

Las referencias [39,40] se centran en la partícula única de Hartree-Fock. Espectro de 40Ca


que muestra diferencias significativas con el correspondiente espectro generado por
Skyrme EDFs caracterizado por m ∗ 0 = 0,7 ma densidad de saturación nuclear. De todos
modos, eso Debe recordarse que 40Ca constituye una anomalía ya que para el espectro
generado por los EDF de Skyrme que es anormalmente denso alrededor de la energía de
Fermi [32,41]. Además, y aunque la densidad de estados debería regirse principalmente
por la interacción NN, un cálculo significativo de partículas individuales espectros basados
en interacciones microscópicas deben incluir el La interacción NNN, ya que se espera que
esta última contribuya significativamente a las divisiones de espín-órbita.
Los resultados presentados aquí difieren de los de árbitro.
[20] donde solo dos tercios del neutrón experimental La brecha de emparejamiento se
obtuvo en 120Sn a partir de un cálculo similar al realizado aquí, excepto que el núcleo
duro Se utilizó la interacción de vacío Argonne v14 NN [24] para construir el núcleo de
interacción de emparejamiento. Desde un punto de vista general, Primero es esencial
darse cuenta de que la expansión de muchos cuerpos esquemas depende crucialmente
de la suavidad de la NN e Interacciones NNN, tales que los resultados de orden finito para
soft y las interacciones duras no son equivalentes e inmediatamente comparable.
Por último, pero no menos importante, la brecha de emparejamiento obtenida
actualmente para 120Sn difiere del calculado en la ref. [42] usando la misma interacción
de bajo impulso en el canal de emparejamiento. Como se demuestra en la ref. [23], los
resultados de la ref. [42] son plagado con el uso de un potencial de Woods-Saxon
caracterizado por una masa efectiva m ∗ 0 = 0,7 m. Además de siendo reducida
artificialmente en momentos altos, tal masa efectiva también es independiente de la
posición, es decir, mantiene una valor reducido constante desde el interior hacia el
exterior del núcleo donde debe recuperar su valor puro, como es el caso de la Skyrme
funcional.

INVESTIGACIÓN EMPÍRICA EN CONTABILIDAD DE


GESTIÓN, ESTRATEGIA PARA EL ESTUDIO DE LOS COSTOS
DE CALIDAD EN LAS ORGANIZACIONES

Investigación empírica

“Sandra (FREITAS , 2009, págs. 165-181) Escribió este artículo de la


investigación empírica, con el tema INVESTIGACIÓN EMPÍRICA EN
CONTABILIDAD DE GESTIÓN, ESTRATEGIA PARA EL ESTUDIO DE LOS COSTOS
DE CALIDAD EN LAS ORGANIZACIONES, el 25 de mayo de 2009 fue recibido, el 29
de julio de 2009 fue aprobado y en diciembre de 2009 fue publicado por la revista
Venezolana de Análisis de Coyuntura, Su correo sandradfreitas@cantv.net . “

Resumen:
La calidad es un factor importante para la competitividad y el éxito empresarial, por ello
resulta una necesidad casi imprescindible para cualquier organización que apunte a la
obtención de beneficios financieros y a la permanencia en el mercado. Éste es el caso en
que cobra vida la investigación empírica en contabilidad de gestión, ya que la misma toma
datos de la realidad que son transformados con base en ciertas teorías contables de la
contabilidad de gestión. El objetivo de este artículo es realizar un análisis sobre las
investigaciones empíricas en contabilidad de gestión asociados a las organizaciones, con
miras a utilizar ésta como una herramienta que permita la obtención de datos ciertos
tomados de la realidad palpable y aplicable al análisis de costos de obtención de calidad.
Palabras claves: Investigación empírica, contabilidad de gestión, costos de calidad.

Abstract
Quality is an important factor for competitiveness and business success, therefore it is an
almost essential need for any organization that aims to obtain financial benefits and
permanence in the market. This is the case when the empirical research in management
accounting, since it takes data from reality that are transformed based on certain
accounting theories of management accounting. The objective of this article is to carry
out an analysis on empirical research in management accounting associated with
organizations, with a view to using this as a tool that allows obtaining certain data taken
from palpable reality and applicable to the cost analysis of obtaining quality.
Keywords: Empirical research, management accounting, quality costs.

INTRODUCCIÓN
Actualmente, y debido a la innovación tecnológica y la globalización de los mercados, se
ha presentado un cambio importante en las organizaciones. Este cambio se ha
caracterizado por la toma de conciencia sobre la necesidad de brindar cada día productos
y servicios de óptima calidad que vayan en procura de satisfacer las necesidades y
expectativas de los clientes, lo que se traduce en la aplicación de sistemas de gestión de
la calidad que ofrecen, entre otras cosas, la posibilidad de disminuir los costos totales de
las organizaciones a través de la óptima implementación, administración y análisis de los
costos de calidad.
La investigación empírica en contabilidad de gestión es una tarea que se encuentra
actualmente direccionada a visualizar la realidad de las organizaciones con el objetivo
primordial de respaldar las evidencias teóricas razonables sobre la correspondiente base
real estudiada. Por ello, se afirma que la investigación empírica en contabilidad de gestión
es un proceso en el que se puede diferente ciar la descripción de la realidad y la
formulación de las hipótesis que luego son contrastadas con la realidad.
El objetivo principal de este artículo es realizar un análisis sobre el aporte que la
investigación empírica en contabilidad de gestión ha brindado al estudio de los costos de
calidad de las organizaciones; particularmente, analizar algunos resultados de dichas
investigaciones que han servido de base para el estudio de los costos de calidad.

LA INVESTIGACIÓN EMPÍRICA
Al analizar la historia de la humanidad es posible visualizar una sucesión de cambios en
todos los aspectos de la vida. Tanto es así, que dentro de la investigación se vislumbran
grandes cambios que han hecho necesario direccionar las teorías hacia lugares no
imaginados. La investigación empírica no escapa a esta aserción, ya que el auge de la
misma nace como muchos autores lo han referido, de la necesidad de conectar la teoría
con la realidad; es así que para comienzos de los años sesenta se asienta el nacimiento
de la investigación empírica.

Comencemos entonces por definir la investigación empírica, visualizada inicialmente


desde la perspectiva de Bunge (1993), en la cual considera a la investigación empírica
como aquella que parte de los hechos, los respeta hasta cierto punto y vuelve a ellos. Los
datos empíricos o reales confirmados se obtienen con ayuda de teorías y son, a su vez,
materia prima de la elaboración teórica.
La investigación empírica es aquella que tiene como objeto de estudio un hecho o
fenómeno de la calidad empresarial que es sometido a observación y análisis con el fin
de entenderlo, y por esa vía poder contribuir a mejorar la gestión y desempeño de las
organizaciones, según Malaver et. Al (2000). La investigación empírica, según Tua (1992),
intenta validar hipótesis disintiendo con la realidad o el ambiente que los rodea.
Esta idea nos permite pensar entonces en que la investigación empírica intenta conectar
las ideas a la realidad. Por lo anteriormente expuesto, se puede afirmar que la
importancia de la investigación empírica radica en el hecho de que toda ciencia, para
nutrir su reflexión teórica, tiene necesidad de investigaciones empíricas, sin las cuales se
quedaría sólo en la especulación intelectual y analítica.

LA INVESTIGACIÓN EMPÍRICA EN CONTABILIDAD


La investigación empírica en contabilidad se remonta a principios de los años sesenta,
cuando para aquella época se apreciaba la saturación de la investigación a priori. Este
tipo de investigación consistía en formular teorías e hipótesis tratando de explicar de
manera rigurosa el conocimiento contable por medio de una capacidad explicativa y
predictiva, en la que el concepto de investigación como tal se asocia al desarrollo de las
teorías normativas. Las hipótesis planteadas dentro de la investigación a priori pretendían
realizar combinaciones de observaciones empíricas utilizadas en las prácticas contables.
Pero antes de tratar el tema de la investigación empírica en contabilidad comencemos
por definir lo que se entiende por contabilidad, para así entender hacia dónde apunta la
investigación empírica en contabilidad.
Partiendo del hecho de que la contabilidad es un proceso que permite, entre otras cosas,
analizar sus fases en un todo, se implanta y desarrolla la investigación empírica en
contabilidad. Para comienzos de los sesenta, utilizar el término de investigación en
contabilidad era sinónimo de la investigación a priori, ya que se relacionaba al desarrollo
de teorías normativas, donde su objetivo primordial era verificar el grado de implantación
de una práctica, la reacción que pudiesen presentar los usuarios ante normas o prácticas
específicas y, por ende, los alcances de los estados financieros en concordancia con
hipótesis normativas.
Muchos han sido los planteamientos sobre la razón fundamental del surgimiento de la
investigación empírica en contabilidad, pero el despertar de la misma vino de la mano del
cambio en el enfoque de los propósitos y objetivos de los estados financieros, al
integrarse el objetivo “medición del beneficio” por el de “suministro de información útil
al usuario”. Por ello, la razón básicamente sería el intento de contrastar positivamente la
utilidad.

LA INVESTIGACIÓN EMPÍRICA EN CONTABILIDAD DE GESTIÓN


Los investigadores de las ciencias contables concuerdan en que la contabilidad de gestión
es la rama de la contabilidad que capta, registra, valora, analiza y transmite información
financiera y no financiera, cuantitativa y cualitativa, con el objeto de facilitar la toma de
decisiones de los diferentes niveles de la organización, relacionada directamente con el
seguimiento y cumplimiento de los objetivos estratégicos y generales definidos por éstas,
y enfocados en particular en la planificación, control y desarrollo de las actividades de la
organización tanto internas como externas, con el apoyo imprescindible de las áreas
funcionales y con la participación activa de los responsables de su ejecución y la gerencia
general en la toma de decisiones.
La evolución de la investigación empírica en contabilidad de gestión se remonta a los años
cincuenta. Para aquella época el punto de vista del investigador estaba concentrado en
la determinación del costo y en el control financiero, realizado mediante los presupuestos
y la contabilidad de costos. Para mediados de los años sesenta, el principal objetivo era
proporcionar información para la planificación y el control de gestión, a través del uso de
tecnología como el análisis de decisión y la contabilidad de responsabilidad. Luego del
año 1985, la atención se centró en la reducción del despilfarro de recursos, utilizando
para ello el análisis de procesos y tecnologías de gestión de costos. Una década después,
se sitúa el énfasis en la creación de valor por medio del uso eficiente de los recursos,
analizando los determinantes del valor para los clientes y los accionistas, así como la
innovación organizacional.

LOS COSTOS DE CALIDAD EN LAS ORGANIZACIONES


Antes de poder definir los costos de calidad, las implicaciones que tienen en el desarrollo
de las organizaciones y cómo se relacionan con el éxito empresarial, se debe definir el
concepto de calidad y su contribución particular en el incremento de la satisfacción de
los clientes y en el logro de los objetivos de las empresas.
Bajo esta perspectiva la calidad significa aportar valor al cliente, esto no es más que
ofrecer unas condiciones de uso del producto o servicio superiores a los que el cliente
espera recibir a un precio razonable y accesible. También, la calidad se refiere a minimizar
las pérdidas que un producto o servicio pueda causar mostrando cierto interés por parte
de la empresa en mantener la satisfacción del cliente.
Los costos de calidad, o los costos relacionados con la calidad, son aquellos asociados con
todas las actividades llevadas a cabo cuando los productos y/o servicios no salieron bien
desde la primera vez; son los costos por corregir errores, desviaciones o anomalías; los
re trabajos, reprocesos, desperdicios. Pero también son los costos asociados con las
tareas de inspección y prueba, aquellas con las que nos cercioramos o verificamos que
un producto o servicio cumple su requisito de calidad. Y, por último, son todas las
actividades que realizamos para prevenir que un producto o servicio no cumpla con sus
requisitos de calidad, lo que hace que se acumulen costos de calidad (Campanella, 1992).

INVESTIGACIÓN EMPÍRICA EN CONTABILIDAD DE GESTIÓN BASADA EN


COSTOS DE CALIDAD DE LAS ORGANIZACIONES
Utilizar la investigación empírica en contabilidad de gestión para conocer e indagar sobre
las ventajas competitivas que aporta la implantación y análisis de los costos de calidad en
las organizaciones, permite recoger los datos directamente de las fuentes o de la realidad
empresarial con miras a contribuir con la mejora de la gestión y del desempeño de las
organizaciones.
Las principales investigaciones empíricas están enmarcadas en los diseños y aplicación
del sistema de costos de calidad en las organizaciones, particularmente las
investigaciones en esta área se centran en países como Cuba y España, donde han
profundizados sus investigaciones empíricas en la importancia que las empresas dan a los
costos de calidad, así como la disposición y utilización de informes de costos de calidad
suministrados por los departamentos de contabilidad. Estas investigaciones se están
desarrollando en algunas empresas industriales y de servicios.
El análisis de costos de calidad ha adquirido notoria presencia gracias a los resultados
obtenidos de la investigación empírica; por ello, con todo lo expuesto anteriormente, se
reafirma la importancia que tiene la medición de los costos de calidad en las
organizaciones a través de los aportes brindados por las investigaciones empíricas, lo que
nos permite indicar que la investigación empírica en contabilidad de gestión es una
óptima estrategia para el estudio de los costos totales de la calidad.

CONCLUSIONES
Al estudiar la importancia que tiene la implantación, administración y medición de los
costos de calidad en las organizaciones modernas, se hace necesario hablar sobre la
implementación de los sistemas de gestión de la calidad que entre otras cosas busca
mejorar los procesos y direccionar sus esfuerzos hacia cubrir las necesidades y
expectativas cada día más creciente de los clientes de las organizaciones.
Debido, particularmente, a la búsqueda de ventajas competitivas que permiten a las
organizaciones perdurar en el tiempo con rendimientos, expansión y reconocimientos,
es donde se apoya la investigación empírica, la cual no es más que el estudio de un hecho
o fenómeno de la realidad organizacional que posterioriormente son sometidos a
observación y análisis, con el fin de deducirlo y por esa vía poder contribuir a mejorar la
gestión y desempeño de las organizaciones.
La investigación empírica en contabilidad de Gestión parte primordialmente del hecho de
apoyar la maximización del beneficio financiero, por ello, es común encontrar autores
que indican que la meta de la investigación en contabilidad de gestión debería ser fijar
qué técnicas, existentes o nacientes, son usadas por las empresas en la actualidad, para
luego crear una base cierta de sustentación teórica. Hecho que ha permitido que en la
actualidad existan grandes investigaciones en contabilidad de gestión y, en particular, en
el análisis, aplicabilidad y verificación de los costos de calidad en las organizaciones.

Las principales investigaciones empíricas están enmarcadas en los diseños y aplicación


del sistema de costos de calidad en las organizaciones, particularmente las
investigaciones en esta área se centran en países como Cuba y España, donde han
profundizados sus investigaciones empíricas en la importancia que las empresas dan a los
costos de calidad, así como la disposición y utilización de informes de costos de calidad
suministrados por los departamentos de contabilidad.

¿Qué Es Un Paradigma? Análisis Teórico, Conceptual Y


Psicolingüístico Del Término

Articulo paradigma

“Fredy(GONZALEZ, 2005, págs. 13-54) Escribió este artículo


paradigma, con el tema, ¿Qué Es Un Paradigma? Análisis Teórico,
Conceptual Y Psicolingüístico Del Término, el 04 de mayo de 2004
fue recibido, el 10 de octubre de 2004 fue aprobado y en abril de 2005
fue publicado por la revista Investigación y Postgrado, su correo es
fredygonzalez2@yahoo.es . “

RESUMEN
Este trabajo constituye un ensayo en el cual se intenta aclarar la polisemia del vocablo
Paradigma. Para ello se utiliza una estrategia metodológica dual que procura, primero,
hacer un análisis del tránsito histórico que el término ha recorrido en el seno del discurso
científico y, simultáneamente, realiza un abordaje desde una perspectiva lingüística a
través del cual dilucida las dimensiones literal, holística, contextual y subliminal del
término. Con base en una indagación bibliográfica, se identifica un importante número
de definiciones de paradigma, luego se tabulan y comparan con el fin de establecer sus
diferencias y semejanzas en relación con sus dimensiones ontológica, epistemológica,
sociológica, axiológica, teleológica y metodológica. Se destaca la contribución de Thomas
Kuhn al desarrollo fecundo del concepto durante su edad de recurrencia. Las definiciones
revisadas constituyen variaciones sobre un mismo tema; siguen la línea metódica, con la
excepción de Moreno, quien propone la noción de episteme como un concepto más
abarcador que el de paradigma propuesto por T. S. Kuhn; y de Fritjoj Capra quien prefiere
hablar de paradigma social en lugar del paradigma científico Kuhnniano. La clarificación
semántica de este vocablo es una necesidad cuya superación se justifica en virtud de la
forma como recurrentemente esta palabra aparece en el discurso académico,
específicamente en los cursos de "Introducción a la Investigación" y de "Investigación
Educativa", los cuales se caracterizan, en general, por una superficialidad analítica que
conlleva el riesgo de que los participantes de dichos cursos adopten de manera repetitiva
vocablos como el que aquí se analiza sin tomar conciencia de sus connotaciones,
denotaciones, acepciones y concepciones implícitas.
Palabras clave: paradigma; epistemología; ontología; sociología; episteme.

Abstract
This article attempts to clarify the multiple uses of the term Paradigm. The methodology
applied is twofold: first, a historical recount of the term within the scientific discourse;
second, a linguistic approach that examines its holistic, contextual and subliminal
dimensions. Several bibliographical definitions of Paradigm are identified and compared
in order to establish a chart noting similarities and differences in six categories:
ontological, epistemological, sociological, axiological, teleological and methodological.
The contribution of Thomas Kuhn is highlighted due to its importance during the period
in which the word took root. The revised definitions are variations of the same theme;
they follow a methodological line, except that of Moreno who proposes the notion of
episteme as a more inclusive term than Kuhn's concept; and, that of Fritjol Capra who
prefers the idea of social paradigm instead of Khun's scientific paradigm. The semantic
clarification of Paradigm is a necessity given its recurrent misuse in academic circles.
Especially in introductory courses like "Introduction to research methods" and
"Educational research". Such analytical superficiality often results on repetitive adoptions
of the term by the students without the appropriate awareness of its connotations,
denotations, meanings and implicit conceptions.
Key words: paradigm, epistemology, ontology, sociology, episteme.

Introducción
No es sorprendente que la mayoría de las personas a quienes se les pida que definan el
término paradigma sean incapaces de ofrecer una expresión clara de su significado. El
propio Thomas Kuhn, la persona más responsable de introducir ese concepto en nuestra
conciencia colectiva, usó el término en no menos de 21 maneras diferentes E. G. Guba
La intención de este trabajo es desarrollar un conjunto de consideraciones teóricas y
conceptuales acerca del término paradigma para intentar aclarar las dimensiones
epistemológica, axiológica, sociológica, teleológica, ontológica y metodológica de este
vocablo que, durante las tres últimas décadas, ha predominado tanto en el universo
discursivo de la investigación (Ciencias Naturales), como en el de aquellas disciplinas que
abordan el ámbito de lo social. Específicamente en los ambientes académicos y, en
particular, en las instituciones encargadas de formar profesionales, entre cuyos planes
de estudio se incluyen cursos de "Introducción a la Investigación", "Metodología de la
Investigación" y otros similares, se observa el uso reiterado y, muchas veces inapropiado
del término paradigma, lo que ha conducido a una vulgarización del mismo; por ello,
parecen ser adecuados los estudios que se orienten hacia la recuperación de su sentido
y significado auténticos.
Igualmente, se presenta un análisis psicolingüístico del término paradigma, tales como el
Triángulo de Referencia de Schmidt (citado por Lizt, 1997) y el Esquema Epistémico
Cognitivo de la Palabra propuesto por Becerra (1998); el primero hace énfasis en las ideas
sugeridas por el término, mientras que el segundo enfatiza la subjetividad de su
significado.
El trabajo culmina con un ejercicio de aplicación del Esquema Epistémico sugerido por
Becerra, lo cual da lugar a caracterizaciones de la palabra paradigma, desde los puntos
de vista literal, holístico, contextual y subliminal.

Evolución del término Paradigma


Dado el carácter histórico y social del lenguaje, las palabras, y por ende todos los
elementos que componen el acervo léxico de una cultura, son depositarias del dinamismo
y adaptabilidad que refleja el progreso de los hablantes y demás usuarios de una lengua.
Por ello, es muy poco probable que hoy en día un determinado término esté sometido a
las restricciones que predominaron durante el período en que fue usado por vez primera.
Tal es el caso del vocablo paradigma, el cual ha alcanzado un grado tal de madurez que
lo ha convertido en una de las palabras de mayor trascendencia en el habla de los
cultivadores del hacer científico.
La edad de aparición, la edad de reactivación y la edad de recurrencia. La edad de
aparición corresponde a la época de nacimiento del concepto, a su génesis en el tiempo
histórico; la edad de ractivación, al momento de inserción del concepto dentro de un
sistema "que le da un nuevo sentido"; y la edad de recurrencia, a la etapa actual donde
se revela "la potencia de fecundidad" del concepto, su valor y su eficacia en el trabajo
científico efectivo.
"Con respecto de la historia ordinaria, cronológica, es la primera edad la que cuenta; con
respecto de la verdad de la sincronía del sistema, es la segunda; y con respecto de la
diacronía completa de las matemáticas, es evidentemente la tercera" (Li Carrillo, 1981,
pp. 78-79) (Las comillas fueron introducidas por Li Carrillo para distinguir lo tomado
textualmente por él a partir de la obra de Serres).
Quien reconoce la influencia que en su obra tuvieron los trabajos de muchos pensadores
dedicados a áreas muy disímiles que "aparentemente carecían de relación con la historia
de las ciencias" (p. 10) y entre los cuales destacan:

1.Alexandre Koyré, Émile Mayerson, Hélène Mitxger, Anneliese Maier: Historia de


las ideas científicas.
Epistemología Genética (Jean Piaget, quien distinguió las etapa del desarrollo
intelectual del niño).
Psicología de la Percepción (principalmente los trabajos de los investigadores
alemanes Max Wertheimer, Wolfgang Köhler y Kurt Koffka, quienes plantearon
que la percepción estaba muy influida por el contexto y la configuración de los
elementos percibidos; las partes derivan a menudo su naturaleza y su sentido
global, y no pueden entenderse separadas de éste. Más aún, la mera suma de las
partes no equivale al todo).
Efectos del lenguaje sobre la visión del mundo (B. L. Whort).
Problemas de Filosofía (W. V. O. Quine, conocido por su afirmación de que el
modo como el individuo usa el lenguaje determina qué clase de cosas está
comprometido a decir que existen
Además de las anteriores, una influencia crucial, aunque no suficientemente
reconocida por Kuhn, fue la que recibió del médico judío polaco Ludwik Fleck
quien, al padecer los rigores de la crueldad nazista en el Campo de Concentración
de Auschwitz, tomó conciencia de que las teorías científicas no son inocentes
(Mires, 1996).
En opinión de Mires (1996), Ludwik Fleck, como antecesor de Kuhn, ha sido "injustamente
olvidado" (p. 157), de allí que, por considerar que resulta pertinente, seguidamente se
expondrán algunos de los planteamientos de este autor que, en algunos casos,
contrastan con conceptos kuhnnianos y en otros han sido recogidos por Kuhn (1986)
"aunque (como él mismo dice) los lectores descubrieran pocas referencias en el texto a
esas obras o conversaciones, estoy en deuda con ellas en muchos más aspectos de los
que puedo recordar o evaluar hoy [esto último refiriéndose no sólo al trabajo de Fleck,
sino también al de los otros autores, Koyré, Piaget, Whort, Quine, etc] (Kuhn, 1986, pp.
11-12).
El comportamiento de las comunidades científicas se asemeja al de las de otros
ámbitos (v. g. religiosas o políticas) en cuanto: relaciones de poder, ceremonias
de iniciación y protocolo, papel que juegan las tradiciones, restricciones a la
libertad de expresión, etc.
Una idea clave en Fleck que quizás constituye el germen del concepto kuhnniano
de paradigma es la de "estilo de pensar" (Mires, 1996, p. 157) el cual se constituye
no sólo en virtud del accionar interno de una comunidad especializada específica,
sino, además, con el concurso de la denominada opinión pública, es decir, los
colectivos, profesionales o no, que se hallan en el exterior de dicha comunidad.
La forma constitutiva de un estilo de pensar es el lenguaje, "sobre todo su forma
gráfica, pues la grafía es el modo de fijar una idea para que no se esfume en el
tiempo" (Mires, 1996, p. 158).
En el esquema propuesto por Fleck para considerar la historia de una idea,
también puede vislumbrarse el germen del carácterrevolucionario que tiene el
progreso de las ciencias según Kuhn. En efecto, de acuerdo con Fleck, toda idea:
Las reflexiones anteriores fueron consignadas por Kuhn en el Prefacio de su célebre texto
La Estructura de las Revoluciones Científicas (a partir de aquí se utilizarán las siglas ERC
para hacer referencia a este texto), con el cual el término paradigma alcanza su máximo
impacto en el campo de las Ciencias Sociales (Kuhn, 1981; Farfán, 1988). Las
repercusiones teóricas de la obra de Kuhn, las discusiones que se han generado desde
entonces, y las precisiones, aclaratorias y desarrollos que se han elaborado en relación
con el concepto de paradigma, es lo que permite afirmar que hoy se está en presencia
del apogeo de la Edad de Recurrencia de dicho término.
Tentativas para aclarar el significado del término Paradigma
Desde que Kuhn publicara, en 1962, la primera edición de su célebre obra ERC, varias han
sido las tentativas para clarificar el sentido y significado del término paradigma para
reducir así su polisemia, ampliamente señalada y asumida por el propio Kuhn en el
Postscritum que hiciera para la segunda edición, el cual amplió en su texto Mis Segundos
Pensamientos sobre Paradigmas (Kuhn, 1981).
Tentativa de Margaret Masteman.
Esta autora (Masterman, 1975), en 1965 presentó, en el Coloquio Internacional sobre
Filosofía de la Ciencia que se celebró en Londres, la ponencia intitulada The Nature of a
Paradigm, la cual fue recogida en la publicación de Lakatos y Musgrave, Criticism and the
Growth of Knowledge, editada en 1970 por la Cambridge University Press, y en la que se
incluyen tanto las ponencias presentadas en el mencionado Coloquio, como algunos
trabajos elaborados con posterioridad al mismo, que tuvo como asunto central el debate
en torno a los planteamientos contenidos en el libro ERC de Kuhn, aun cuando esto no
haya sido admitido formalmente. En la discusión generada en el coloquio, puntualmente
o con posterioridad, además de la ya mencionada Margaret Masterman, participaron,
entre otros: Sir Karl Popper, Stephen Toulmin, Paul Feyerabend, Imre Lakatos y el propio
Kuhn, quienes "constituían la flor y nata de la filosofía de la ciencia de ese entonces"
(Arcángel Becerra, Comunicación Personal) lo cual da una idea de la trascendencia del
término paradigma alcanzada desde ese momento (apenas tres años después de haberse
publicado ERC).
Tentativa de Maritza Montero (1992).
Esta autora parte del trabajo de Masterman indicando que los grupos de significado que
ella identificó, aluden a sendas maneras de concebir los paradigmas, los cuales pueden
ser interpretados como: (a) entidades metafísico-filosóficas, (b) entidades sociológicas, y
(c) artefactos o constructos concretos.
Tentativa de Egon Guba.
Otro de los autores que intenta clarificar el significado del término paradigma es Guba
(1990, p. 18) quien, como criterios para distinguir entre paradigmas, utiliza las respuestas
que se den a las siguientes tres preguntas fundamentales: (a) Pregunta ontológica: se
refiere a la forma y naturaleza de la realidad y, por tanto, a lo que es posible conocer; (b)
Pregunta epistemológica que se refiere a la naturaleza de la relación entre el sujeto
cognoscente y el objeto que puede ser conocido y, en consecuencia, a la posición que
debe asumir el investigador respecto a su objeto de conocimiento y, (c) Pregunta
metodológica que se refiere a la forma como el investigador puede proceder para hallar
el conocimiento de aquella realidad que cree que puede ser conocida.

Análisis psicolingüístico del término Paradigma


En esta parte del trabajo, el vocablo paradigma será analizado tomando en consideración
recursos provenientes del campo de la Psicolingüística. Para ello se utilizarán el Triángulo
de Referencia de Schmidt (citado por Lizt, 1997) y el Esquema Epistémico Cognitivo de la
Palabra propuesto por Becerra (1998). Estos dos autores abordan el estudio de procesos
cognitivos de orden superior, tales como el entendimiento y la comprensión, a través de
los vínculos que pueden establecerse entre las palabras y las ideas, ubicando éstas
últimas en lugares y contextos históricos determinados, con lo cual incorporan
perspectivas tanto psicológicas como sociológicas en la interpretación del significado de
los términos que se utilizan para designar prácticas sociales, como es el caso del quehacer
investigativo que llevan a cabo los científicos.
El triángulo de referencia: énfasis en las ideas sugeridas
De acuerdo con Lizt (1997), "la palabra es la unidad natural e intuitiva de la investigación
lingüística" (p. 40). Para el estudio del significado de las palabras, este autor recurre al
Triángulo de Referencia propuesto por Schmidt (Lizt, 1997, p. 43) en cuyos vértices
coloca: (a) la palabra; (b) el objeto designado por la palabra y, (c) el concepto, es decir,
"las representaciones desencadenadas por los objetos" (ibid); esto último da lugar a que
la asignación de significado a una palabra, de algún modo, tenga carácter subjetivo por
cuanto constituye "el proceso de interpretación del signo (palabra) por el usuario, es
decir, su reacción al referente (objeto) y a la señal (palabra)" (Lizt, 1997, p. 43) (paréntesis
añadidos).

Esquema epistémico cognitivo de la palabra: la subjetividad del significado


Becerra (1996) afirma que existen varias formas de aprehender el significado de las
palabras: (a) según como las usen o empleen los demás; (b) por las acciones y reacciones
tanto conductuales como actitudinales de las personas; (c) por las acepciones que
aparecen recogidas en los diccionarios del idioma; (d) mediante definiciones
explícitamente formuladas que fijan en el discurso lo que se quiere que las palabras
denoten de modo consistente" (p. 95). Para este autor, las palabras son las "unidades
fundamentales de significación y sentido del lenguaje"; ellas constituyen "símbolos de las
ideas".

LOS PARADIGMAS DE LA INVESTIGACIÓN CIENTÍFICA


Artículo Paradigma

“Carlos (RAMOS, 2015, págs. 1-9) psicólogo. Investigador en Ciencias Sociales y


Comportamiento Humano. Docente de la Universidad de las Américas, Ecuador Escribió
este artículo paradigma ,con el título de LOS PARADIGMAS DE LA INVESTIGACIÓN
CIENTÍFICA, el 25 de mayo de 2015 fue recibido, el 15 de junio de 2015 fue
aprobado por la revista UNIFE,Su correo es ps_carlosramos@hotmail.com .”

Resumen
El positivismo, post-positivismo, teoría crítica y constructivismo son los paradigmas que
sustentan la investigación científica. Es importante que un investigador sepa en cuál de
ellos se posiciona para poder tener claridad en la concepción de la realidad de su
fenómeno de estudio, la relación que debe mantener con el fenómeno de interés y la
metodología que debe seguir para responder a las preguntas de investigación
propuestas. En el presente artículo se realiza una revisión de estos fundamentos
filosóficos y se los analiza en virtud de los dos enfoques clásicos de la investigación
científica: cuantitativo y cualitativo. Como conclusión se afirma la caracterización propia
de cada paradigma en la concepción ontológica, epistemológica y metodológica en el
proceso de investigación científica.
Palabras clave: investigación científica, paradigmas, positivismo, post-positivismo, teoría
crítica, constructivismo

Abstract
Positivism, post-positivism, critical theory and constructivism are the paradigms that
support scientific research. It is important for a researcher knows which of them is
positioned for being a clear conception of the reality of phenomenon under study. In this
article a review is made of these philosophical foundations and analyzes under the two
classical approaches to scientific research: quantitative and qualitative. In conclusion the
proper characterization of each paradigm is stated in the ontological, epistemological and
methodological conception in the scientific research process.
Keywords: scientific research, paradigms, positivism, post-positivism, critical theory,
constructivism.

Introducción Cuando el investigador se encuentra en la etapa inicial de la formulación de


un proyecto de investigación es indispensable el conocer y posicionarse en un
determinado paradigma que guíe el proceso investigativo, ya que, como lo afirman Guba
y Lincoln (1994), no se puede entrar al terreno de la investigación sin tener una clara
percepción y conocimiento de qué paradigma direcciona la aproximación que tiene el
investigador hacia el fenómeno de estudio.
Para Patton (1990) el paradigma indica y guía a sus seguidores en relación a lo que es
legítimo, válido y razonable. El paradigma se convierte en una especie de gafas que
permitirán al investigador poder ver la realidad desde una perspectiva determinada, por
tanto, éste determinará en gran medida, la forma en la que desarrolle su proceso
investigativo.
Dentro de tal contextualización, en este artículo se describirá lo qué se concibe por cada
uno de estos paradigmas, se buscará responder las preguntas mencionadas
anteriormente desde la perspectiva de cada uno de los paradigmas, y finalmente, se
describirá el método de investigación que se despliega en cada uno de los paradigmas de
investigación.

El positivismo
Según Hernández, Fernández y Baptista (2010) es Augusto Comte quien bautiza el
nacimiento del positivismo, cuando en 1849 publica su Discurso sobre el espíritu positivo,
lo cual genera el gran comienzo del paradigma positivista en la investigación.
El positivismo se inició como un modelo de investigación en las ciencias físicas o naturales
y posteriormente se lo adoptó en el campo de las ciencias sociales (Ricoy, 2006).
Las ciencias exactas son el origen de este paradigma, por tanto, únicamente es válido, lo
que se pueda investigar tal como se lo hace con los átomos, las moléculas, los planetas y
los invertebrados. En lo social y comportamental sirve de esquema para determinar
análisis de patrones de conducta de los seres humanos en diferentes edades o establecer
las causas de los trastornos mentales a nivel de toda la raza humana sin excepción
(Creswell, 2014).
El post-positivismo
Flores (2004) afirma que el post-positivismo es una versión modificada del paradigma
positivista. La diferencia con el positivismo radica en que en el post-positivismo la realidad
existe pero no puede ser completamente aprehendida. Lo real se lo entiende desde las
leyes exactas, sin embargo, ésta únicamente puede ser entendida de forma incompleta.
Una de las razones para no poder lograr una comprensión total y absoluta de la realidad
se basa en la imperfección de los mecanismos intelectuales y perceptivos del ser humano,
lo que lo limita para poder dominar todas las variables que pueden estar presentes en un
fenómeno.
En respuesta a la pregunta ontológica este paradigma afirma que la concepción de la
realidad no es ingenua como en el positivismo, sino que es desde una postura reflexiva,
en donde, si bien es cierto, la realidad puede considerarse como existente, ésta es
imperfectamente aprehensible porque los fenómenos son incontrolables y el ser humano
es imperfecto.
El enfoque de investigación cuantitativo
El positivismo y post-positivismo son los paradigmas que guían la investigación
cuantitativa, los cuales tienen como objeto explicar el fenómeno estudiado, para en una
última instancia, predecirlo y controlarlo (Guba & Lincoln, 1994).
En el diseño correlacional el investigador estudia las diversas relaciones que puedan
presentarse entre variables. Por ejemplo, analizar la relación existente entre una variable
X y una variable Y, como puede ser, el tiempo de estudio para los exámenes de la
asignatura de investigación (X) y la calificación obtenida (Y). En este diseño, a diferencia
de los dos previos, es importante el planteamiento de hipótesis que permitan aseverar lo
supuesto por el investigador. Las hipótesis que se plantearían siguiendo el ejemplo previo
son: a mayor X mayor Y, a menor X menor Y, a mayor X menor Y, y a menor X mayor Y.

La teoría crítica
Este paradigma se contextualiza en una práctica investigativa caracterizada por una
acción-reflexiónacción, que implica que el investigador busque generar un cambio y
liberación de opresiones en un determinado contexto social. La búsqueda de
transformación social se basa en la participación, intervención y colaboración desde la
reflexión personal crítica en la acción (Ricoy, 2006).
Un aspecto importante que se debe manifestar sobre el paradigma crítico es que su base
metodológica es la investigación acción (Guba & Lincoln, 2002), que implica que esta
forma de realizar investigación sea realmente un puente entre la teoría y la práctica, ya
que en este tipo de investigación, más allá de realizar una descripción del contexto social
de estudio, se busca aplicar una ideología como sustento para modificar una estructura
social.
El constructivismo
Este paradigma marca su aparecimiento en la búsqueda de contrastar las disciplinas
naturales o exactas con las de tipo social; siendo las ciencias cuestionadas, posibilitadas
de almacenar el conocimiento y aplicar métodos investigativos experimentales; en
contraste, el emergente constructivismo maneja la propuesta de abordar
acontecimientos históricos de alta complejidad, en donde el saber no se considera como
absoluto y acumulado, ya que en lo social, los fenómenos se encuentran en constante
evolución (Gergen, 2007).
La realidad se la construye socialmente desde diversas formas de percibirla.
• El saber se construye de forma social por los participantes en el proceso investigativo.
• La investigación no es ajena a los valores del investigador.
• Los resultados no pueden ser generalizados en forma ajena al contexto y el tiempo.

hermenéuticamente, y comparadas y contrastadas dialécticamente, con la meta de


generar una (o pocas) construcciones sobre las cuales hay un consenso substancial”
(Flores, 2004, p.5).
En el aspecto metodológico es importante tener presente que, como lo afirman
Hernández et al. (2010), los diseños de investigación cualitativa contienen sus
características propias, sin embargo, los límites entre cada uno no pueden estar
establecidos de manera rígida, por lo que, en alguna manera pueden utilizarse en apoyo
con los otros diseños, por ejemplo, dentro de un estudio etnográfico se podría tener
como un objetivo específico el describir los significados que un grupo de individuos
construye alrededor de un determinado rito, en donde la teoría fundamentada
permitiría, como un subdiseño dentro de dicha investigación, resolver dicho
planteamiento del estudio.
El enfoque de investigación cualitativa
Max Weber (1864-1920) citado en Cuenya y Ruetti (2010) es denominado el pionero del
estudio cualitativo, quien expone que en las ciencias sociales deben considerarse los
significados subjetivos y la comprensión del contexto donde ocurre un fenómeno, más
allá de las mediciones que se pudieran hacer sobre ellos.

Conclusiones
En el presente artículo se ha realizado una exposición y análisis de los paradigmas que
sustentan la investigación científica: positivismo, post-positivismo, teoría crítica y
constructivismo.
En cada uno de los paradigmas se ha respondido a los cuestionamientos ontológico,
epistemológico y metodológico, para luego realizar una breve descripción del enfoque
producto de cada paradigma.
El positivismo afirma que la realidad es absoluta y medible, la relación entre investigador
y fenómeno de estudio debe ser controlada, puesto que no debe influir en la realización
del estudio. Los métodos estadísticos inferenciales y descriptivos son la base de este
paradigma.
La teoría crítica considera a lo real como producto de un historicismo social. La relación
entre el investigador y el grupo investigado es importante, puesto que en su interacción
se modifican las estructuras sociales. La metodología clásica de este paradigma es la
investigación acción.

Los paradigmas de la investigación: un acercamiento


teórico para reflexionar desde el campo de la
investigación educativa

Articulo paradigma

“(BELTRAN & ORTIZ BERNAL, 2020, págs. 1-18) Escribieron este


artículo paradigma, con el tema , Los paradigmas de la investigación: un
acercamiento teórico para reflexionar desde el campo de la investigación
educativa, fue recibido en febrero de 2020,fue aprobado en agosto de 2020 y
publicado en diciembre de 2020 por la revista iberoamericana para la investigación
y desarrollo educativo, sus correos.
sorangela.miranda@uexternado.edu.com y jorge.ortiz@uexternado.edu.com “

Resumen
El presente artículo académico busca responder la pregunta: ¿qué configuraciones
teóricas se asumen desde los paradigmas de la investigación y qué nuevos retos se
plantean en torno a ellos desde la investigación educativa? Para ello, se parte de la
revisión teórica de los conceptos de conocimiento, epistemología y paradigma.
Particularmente, se profundiza en el concepto de paradigma en cuanto que este sirve de
marco para la comprensión de los fenómenos de la realidad y se identifican cuatro
variantes: positivista (las teorías como verdades absolutas), interpretativo (la
construcción de la realidad en las subjetividades), crítico (la emancipación para la
transformación social) y el paradigma emergente de la complejidad. Una vez hecho el
abordaje teórico, se determina que, en términos de la investigación educativa, es
necesario generar reflexión frente a tres elementos relevantes: los retos investigativos
frente a las dinámicas cambiantes de las sociedades, las miradas a los problemas propios
de la educación y la postura del investigador en razón a los ámbitos del conocimiento
desde los cuales parte para entender el fenómeno de estudio.
Palabras clave: complejidad, epistemología, investigación educativa, paradigma.

Abstract
This academic article seeks to answer the questions: What are the theoretical
configurations assumed from the research paradigms and what are the new challenges
posed around them from educational research? To do so, it starts with a theoretical
review of the concepts of knowledge, epistemology and paradigm. The paradigm concept
is deepened since it serves as a framework for the understanding of the phenomena of
reality and the identification of four paradigms is revealed: positivist (theories as absolute
truths), interpretative (the construction of reality in subjectivities), critical (the
emancipation for social transformation) and the emerging paradigm of complexity. Once
the theoretical approach has been made, it is determined that, in terms of educational
research, it is necessary to generate reflection on three relevant elements: the research
challenges in the face of the changing dynamics of societies, looks at the problems of
education, and the position of the researcher in terms of the areas of knowledge from
which they are supported in order to understand the phenomenon of study.
Keywords: complexity, epistemology, educational research, paradigm.
INTRODUCCION
Plantear los aspectos que, desde el punto de vista teórico, permiten comprender el
concepto de paradigma y su aplicación en el amplio campo de la investigación educativa
es un ejercicio que implica volver la mirada al debate sobre el conocimiento como la
posibilidad de acercarse al abordaje de las realidades y la epistemología como un punto
de reflexión de las ciencias sobre aquello que se concibe como el proceso de conocer.
En efecto, la temática propuesta para este artículo exige sentar las bases para que, a
partir de la teoría, se pueda lograr la comprensión sobre los valores, los saberes y los
métodos que, desde lo científico, procuran responder a los problemas emergentes en las
distintas dimensiones sociales y humanas.

El punto de partida: un acercamiento teórico a la noción de conocimiento y epistemología


Pérez (citado en Martínez, 2013) afirma que el conocimiento es una manera de acercarse
a la realidad para develarla y mejorarla, procurando una mirada al saber, ligada a la vida
del hombre y a sus relaciones con el entorno. Esta primera definición se consolida como
un planteamiento complementario a lo propuesto por Habermas (1973), quien menciona
que el conocimiento que producen los individuos o grupos está inmerso en la
cotidianidad y se deriva de sus necesidades naturales configuradas en escenarios
históricos y sociales, perspectiva que brinda las bases para asumir el saber como el
resultado de la evolución de múltiples factores que se complejizan en la interacción y la
multicausalidad.
Asimismo, Martínez y Ríos (2006) señalan la coexistencia de cuatro elementos
fundamentales en la construcción de los saberes: el sujeto que conoce, el objeto de
conocimiento, la operación de conocer y el resultado que se obtiene de dicho proceso.
Se trata de una aproximación al conocer derivada de la interacción permanente de
diversos factores que, de forma articulada, permiten acceder a la realidad, significarla y
darle sentido. En palabras de Skolimowski (2016), esta definición de conocer está ligada
a diversas formas de construir el mundo, formas que implican aprehender, contemplar y
captar el universo desde las dimensiones propias de la espiral del entendimiento.
El Paradigma y sus tipologías
Elementos de análisis En su obra La estructura de las revoluciones científicas, Kuhn
(1962) define paradigma como “un conjunto de suposiciones interrelacionadas respecto
al mundo social que proporciona un marco filosófico para el estudio organizado de este
mundo” (p. 82). Esta perspectiva ubica al paradigma como una estructura de índole
conceptual, fundamentada en creencias y supuestos teóricos y metodológicos, que, tal y
como lo afirma el autor, orienta a una determinada comunidad científica dentro de su
cosmovisión sobre el mundo, lo cual afianza los valores y saberes que comparten como
colectivo (Marín, 2007).
Dentro de este marco conceptual, Morín (citado en Marín, 2007) reflexiona sobre los
conceptos fundamentales o categorías rectoras y las relaciones lógicas de atracción y
repulsión entre dichos conceptos y dichas categorías que imprimen sellos semánticos e
ideológicos para darle sentido a las formas de ser, actuar y pensar de las comunidades
que se adhieren a un paradigma en específico.
Estas últimas afirmaciones ponen en evidencia cómo a partir del paradigma desde el cual
se ubique el investigador se aplican distintos métodos, principios e instrumentos durante
la labor de investigación, lo cual otorga cualidades y singularidades propias a cada uno de
los acercamientos (Ricoy, 2006).
El paradigma positivista. Las teorías como verdades absolutas
Este paradigma se ubica dentro de la teoría positivista; plantea la posibilidad de llegar a
verdades absolutas en la medida en que se abordan los problemas y se establece una
distancia significativa entre el investigador y el objeto de estudio. Desde el punto de vista
epistemológico, este paradigma brinda una distinción entre quien investiga como un
sujeto neutral y la realidad abordada que se asume como ajena a las influencias del sujeto
científico.
Adicional a estas características, se hace necesario reafirmar que, desde este paradigma,
se parte de un sistema hipotético deductivo que reafirma la relevancia de hacer del
conocimiento un proceso sistemático y medible dentro del marco del control empírico y
el análisis causal de los fenómenos, elementos que, para la investigación en educación,
implican la separación de las nociones subjetivas de quienes se hacen partícipes en el
ejercicio investigativo para proveer principios y leyes que, derivadas de diseños
metodológicos apoyados en las ciencias exactas, hagan plausible la comprensión de la
realidad expresada en generalizaciones, explicaciones aplicables en el ámbito universal y
análisis de variables dentro de la relaciones causa-efecto, dependencia-independencia.
El paradigma interpretativo. La construcción de la realidad en las subjetividades
Este paradigma encuentra su razón de ser en las dimensiones, en el sentido de que toma
en cuenta las experiencias para el entendimiento del mundo y reconoce en la
configuración de las subjetividades la influencia de aspectos históricos, culturales y
sociales. Así, el conocimiento puede asumirse como el resultado de un ejercicio de
construcción humana que no concluye al acercarse a las respuestas y soluciones frente a
los problemas, sino que se transforma y abre a otras posibilidades epistemológicas.
La fenomenología, por su parte, enfatiza en el ser y la conciencia; no descarta la
experiencia sensorial que resulta de las vivencias y la interacción, de la participación en y
con el objeto de estudio.
El paradigma crítico. La emancipación para la transformación social
El paradigma crítico sienta su base en la teoría crítica del conocimiento que posiciona la
reflexión y la emancipación social como respuesta a las hegemonías y las formas de
dominio, y hace de la conciencia el medio para lograr las reivindicaciones frente a la
justicia social y el alcance del bien común.
Los procesos investigativos son vistos como espacios de participación, responsabilidad
social y compromiso frente a las necesidades y expectativas de las comunidades que, con
base en las apuestas por la transformación emancipatorias, transitan por el camino para
la toma de decisiones en beneficio común.
El paradigma emergente de la complejidad

Marín (2007) parte de la idea de que los sujetos construyen el conocimiento alrededor
de incertidumbres y asumen la verdad como algo parcial que solo permite la inmersión
en una parte del saber, lo cual desequilibra las posturas radicales en las que el conocer
se enmarca en absolutismos, para convocar una lógica que incluye la indagación en un
sentido abstracto, dialógico y complejo.
Lo expuesto se complementa con la preocupación por entender dichos cambios y los
diferentes factores que inciden en estas transformaciones, y da paso a formas
emergentes de asumir los conceptos y los diferentes componentes de la realidad.
Apuntes finales
Como se evidencia en el desarrollo del presente artículo, los aportes para la
conceptualización de paradigma se consolidan como planteamientos fundamentales
para entender la manera en que las comunidades científicas asumen modelos que les
permiten pensar en los problemas y buscar soluciones frente a ellos. En términos de la
investigación educativa, una vez más, implica convocar a la reflexión respecto a tres
elementos relevantes: el primero, los retos investigativos en relación con las dinámicas
cambiantes de las sociedades; el segundo, las miradas a los problemas propios de la
educación, y el tercero, la postura del investigador en razón de los ámbitos del
conocimiento desde los cuales se apoya para entender el fenómeno de estudio.
La investigación educativa tiene como reto pensarse para trascender los problemas
emergentes en la educación, constituirse como una posibilidad para abrir caminos hacia
la reflexión, la comprensión de los hechos, las causas y los diferentes fenómenos que
integran lo educativo, apoyarse en creencias, valores y conocimientos (paradigmas) que
posibiliten el Vol. 11, Núm. 21 Julio - Diciembre 2020, e113 acercamiento a las realidades
y aporten de manera significativa en la consolidación de una de las muchas miradas frente
a problemáticas que coexisten en la educación.
Bibliografía
BELTRAN , M. S., & ORTIZ BERNAL, J. A. (DICIEMBRE de 2020). Los paradigmas de la
investigación: un acercamiento. (M. B. ORTIZ, Ed.) REVISTA IBEOAMARICANA PARA LA
INVESTIGACION Y EL DESAROLLO EDUCATIVO , 11(21), 1-18. Recuperado el FEBRERO
de 2020 , de file:///C:/Users/Familia/Downloads/717-
Texto%20del%20art%C3%83_culo-6100-3-10-20210205.pdf

CAPURRO, R. (25 de ENERO de 2010). Epistemología y ciencia de la información. (C. RAFAEL,


Ed.) ACIMED, 21(2º), 248-265. Recuperado el 25 de ENERO de 2010, de
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352010000200008

FREITAS , S. D. (JULIO de 2009). INVESTIGACIÓN EMPÍRICA EN CONTABILIDAD DE GESTIÓN,


ESTRATEGIA PARA EL ESTUDIO. (S. F. DIAZ, Ed.) Revista Venezolana de Análisis de
Coyuntura, 15(2º), 165-181. Recuperado el 25 de MAYO de 2009, de
https://www.redalyc.org/articulo.oa?id=36412216010

GONZALEZ, F. (ABRIL de 2005). ¿Qué Es Un Paradigma? Análisis Teórico, Conceptual Y


Psicolingüístico Del Término. (F. GONZALEZ, Ed.) Investigación y Postgrado, 20(1º), 13-
54. Recuperado el 04 de MAYO de 2004, de
http://ve.scielo.org/scielo.php?script=sci_arttext&pid=S1316-00872005000100002

LEDESMA, R. D., VALERO, M. P., & MOLINA, J. G. (14 de 06 de 2010). Un Software para la
Enseñanza de la Estadística y la Psicometría. (R. D.-M. Ledesma, Ed.) Revista Argentina
de Ciencias del comportamiento (RACC), 2(2º), 52-59. Recuperado el 18 de mayo de
2010, de file:///C:/Users/Familia/Downloads/Dialnet-
VistaUnSoftwareParaLaEnsenanzaDeLaEstadisticaYLaPs-3817259%20(2).pdf

LESINSKI, T., DUGUET, T., & BENNACEUR , K. (30 de ABRL de 2009). Densidad de energía de
emparejamiento no empírico funcional. (T. LESINSKI, T. DUGUET, & K. BENNACEUR,
Edits.) REVISTA ACADEMICA EUR. PHYS,J,A, 1(40), 121-126. Recuperado el 08 de ABRIL
de 2008, de https://link.springer.com/article/10.1140/epja/i2009-10780-y#citeas

LOPERA ECHAVARRIA , J. D., RAMIREZ GOMEZ, C. A., ZULUAGA ARISTAZABAL, M. U., & ORTIZ
VANEGAS, J. (JUNIO de 2010). EL MÉTODO ANALÍTICO COMO MÉTODO NATURAL. (J. D.
LOPERA ECHAVARRIA, C. A. RAMIREZ GOMEZ, M. U. ZULUAGA ARISTAZABAL, & J.
ORTIZ VANEGAS, Edits.) REVISTA CRITICAS DE CIENCIAS SOCIALES Y JURIDICAS , 25(1).
Recuperado el ENERO de 2010, de
https://www.redalyc.org/articulo.oa?id=18112179017

MARTINEZ, C., & PIEDAD, C. (21 de JULIO de 2006). El método de estudio de caso: estrategia
metodológica de la investigación científica. (P. C. MARTINEZ CARAZO, Ed.)
PENSAMIENTO Y GESTION(20), 165-193. Recuperado el 21 de JULIO de 2006, de
https://www.redalyc.org/articulo.oa?id=64602005

MEDALLO, C. (JUNIO de 2010). Análisis estructural de la investigación empírica sobre el


periodista latinoamericano. (M. CLAUDIA, Ed.) Comunicación y sociedad, 1(13º), 125-
147. Recuperado el 13 de AGOSTO de 2009, de
http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0188-
252X2010000100006
RAMOS, A. C. (15 de JUNIO de 2015). LOS PARADIGMAS DE LA. (C. RAMOS, Ed.) UNIFE, 23(1º),
1-9. Recuperado el 25 de MAYO de 2015, de
http://www.unife.edu.pe/publicaciones/revistas/psicologia/2015_1/Carlos_Ramos.pdf

TORRES, E. A. (28 de JULIO de 2011). La dialéctica en las investigaciones educativas. (E. T.


ALBERTO, Ed.) Revista Electrónica "Actualidades Investigativas en Educación, 11(2º), 1-
26. Recuperado el 28 de OCTUBRE de 2010, de
https://www.redalyc.org/pdf/447/44720020023.pdf

TORRES, T. M. (01 de AGOSTO de 2020). En defensa del método histórico-lógico desde la


Lógica como ciencia. (T. Torres-Miranda, Ed.) Revista Cubana de Educación Superior,
39(2º), 131-139. Recuperado el 1O de JUNIO de 2019, de
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0257-43142020000200016

También podría gustarte