Está en la página 1de 146

SEMINARIO DE INVESTIGACION

UNIDAD 1: LA CIENCIA DEL DERECHO

1. Evolución humana y conocimiento. La ciencia. La verdad científica. La relación dialéctica con la tecnología.
Ciencia y universidad: Los modelos humboltiano, napoleónico, norteamericano y reformista. Síntesis de las
políticas científicas en argentina.

EVOLUCIÓN HUMANA Y CONOCIMIENTO.


El conocimiento es una manera de relacionarse con la realidad, un modo de interpretarla, de dar cuenta de ella. Se
expresa en proposiciones que describen objetos o estados de cosas que existen, existieron o que podrían existir.
Los seres vivientes suelen aprender a partir de una estrategia basada en la selección natural, posibilitada por las
mutaciones y la genética. Lo que un ser viviente necesita saber para sobrevivir en su medio lo recibe por transmisión
biogenética, es decir, lo trae de fábrica. En cambio, lo que los seres humanos necesitamos saber para vivir como
tales, y no solo como seres vivientes, lo aprendemos por socio génesis (es decir, a través de otros seres humanos) y
ese aprendizaje surge de diversos medios ya no naturales, sino institucionales (escuela, familia, universidad), y por
diversas vías (lenguaje, escritura), haciéndonos humanos participando de experiencias sociales que tienen lugar en
esos entornos institucionales.
El protagonista del conocimiento es el ser humano. Es el único ser vivo que tiene consciencia de si y la posibilidad de
tomar decisiones que constituyan su vida sin algo previo que lo condicione (salvo sus ideologías). Es decir que es el
único ser vivo que puede decidir ser lo que quiere ser sin estar predestinado a ello.
Asi por ejemplo, una abeja no puede perder su abejidad (no puede decidir hacer paneles circulares en lugar de
hacerlos hexagonales, es decir, no puede dejar de ser lo que la naturaleza le predestino). Es por ello que el ser
humano es el único que puede decidir lo que quiere ser, como, por ejemplo, en algún momento de nuestra vida
hemos decidido ser abogados, sin estar predestinados a ellos, o teniendo incorporada una información genética que
nos diga que vamos a ser abogados. Es una decisión que adoptamos con ese propósito.
El conocimiento es parte de una estrategia para encontrar la verdad, para poder tomar decisiones. La conciencia de
la que están dotados les permite darse cuenta de que viven, a diferencia de los animales que no tienen conciencia
del fenómeno de la vida. Los seres humanos saben que viven y que en algún momento van a morir, mientras que los
animales no. Es por ello que el hombre ha originado distintas estrategias de supervivencia, que implican la capacidad
de adaptarse al medioambiente en el que se desarrolla ese individuo. El conocimiento como estrategia de
supervivencia interesa para la búsqueda de la verdad, y a la vez, la búsqueda de la verdad consiste en la necesidad
de ampliar el espacio vital parte del ser humano, para poder conocer y tomar decisiones.
El traspaso de la información biológica se da en todos los seres vivos, mientras que en el caso de los seres humanos,
se da la transmisión biogenética + cultura. En síntesis, todos los seres vivos han generado estrategias de
supervivencia que implican la capacidad de adaptarse al medioambiente en el cual se desarrollan (si no hubiesen
tenido tal capacidad se hubiesen extinguido, como por ejemplo, los dinosaurios). Los seres humanos desarrollaron
algo mas importante y determinante que la información biológica, lo cual se denomina cultura.
Han generado la capacidad de tener conocimiento científico que nos permite generar cultura. Los seres humanos no
solo cuentan con información biológica, sino también con cultura-conocimiento, que proviene del intelecto. Este
plus diferente que tenemos los seres humanos se debe a:
1. Poseemos elementos de la evolución distintos al resto de las especies (según los científicos los primates
comenzaron a tener fuertes cambios en ese proceso evolutivo).
a. Desarrollo del cerebro.El hombre experimento primero el desarrollo del cerebro. El mismo, comparado con
cualquier otro de distinta naturaleza, es más grande. Poseen en la parte delantera del cráneo un abultamiento
mayor, en donde se desarrolla la sensibilidad. A diferencia de los primeros homínidos que poseían la parte frontal
del cráneo chata.
b. Diseñados para el habla. Tenemos una mandíbula lo suficientemente eficaz para poder producir movimientos, los
dientes ubicados de manera que no entorpezcan la lengua y permitan la posibilidad de emitir sonidos. Tenemos
cuerdas vocales finísimas, a diferencia de las demás especies. Fuimos diseñados para el habla y además contamos

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

con cerebro (intelecto) para generar conocimiento. Si bien todas las especies se comunican de alguna manera,
ninguna lo hace con la complejidad que lo hacemos nosotros.
2. Con los primeros homínidos (según los antecedentes, personas parecidas a nosotros), aparece la nueva estructura
de la figura humana:
a. La bipedación (posibilidad de pararnos sobre los pies). Unos 100.000 años después de la aparición de los primates,
el hombre desarrolla la bipedestación, consistente en la habilidad de caminar con las manos libres, lo que permite
utilizarlas para la fabricación de herramientas, que posibilitaron la obtención de alimentos.
b. Nuestro cuerpo no está cubierto de escamas, plumas o pelajes que nos permitan protegernos del frio o del calor.
Conforme a estas circunstancias, podemos ver que somos biológicamente más vulnerables. Entonces, ¿Cómo es
posible que la especie más vulnerable sea la que domina el planeta? Esto se debe a que hemos tenido la enorme
capacidad de desarrollar Cultura-Conocimiento, es decir que el conocimiento es nuestra principal estrategia de
supervivencia, a diferencia de los demás seres vivos cuya estrategia de supervivencia es biológica o puramente
genética.
Así, por ejemplo, el hombre de cromañón (un hombre primitivo encontrado en Francia hace 50.000 años), tenía el
mismo cerebro que nosotros tenemos, y la misma capacidad para procesar información. Esto se debe a que en esos
50.000 años la cultura humana se ha desarrollado de manera fenomenal, es decir que el conocimiento humano ha
crecido y nosotros como especie hemos construido cultura, que nos permitió entre otras cosas, formar familias,
lenguajes, etc.
El hombre de cromagnon fue el primer representante del hombre actual (homo-sapiens). Se valían de trampas,
piedras y lanzas para cazar en grupo a los pequeños, mientras que las mujeres recolectaban frutos. Su adaptación y
capacidad física y cultural era muy superior a la del hombre de Neanderthal. Vemos aparecer en estas primeras
comunidades humanas una serie de rasgos desconocidos para cualquier forma de vida anterior a ellas. Entre ellas se
hallan:
a. Elaboración de herramientas que requieren procesos complejos de fabricación (tallado, pulido, grabado).
b. Ritos funerarios y culto a los muertos.
c. Creencias mágico religiosas.
d. Lenguaje y narraciones mitológicas.
e. Parentesco como sistema simbólico que rige las prescripciones y las prohibiciones de alianzas dentro del grupo.
Todos estos elementos nos hablan de una nueva forma de inteligencia, cuyo objetivo ya no es solo la supervivencia
biológica, sino la supervivencia del grupo y de las tradiciones de la cultura (al seguir las costumbres mantenemos viva
la cultura).
3. Ampliación del espacio vital. Con la ampliación del espacio vital se dan como consecuencia los problemas, y a su
vez a necesidad de conocer y responder a dichos problemas. En eso aparece el problema del conocimiento: la
ampliación del espacio vital implica la necesidad de conocer, y la necesidad de conocer envuelve que es lo real y que
es lo verdadero.
EVOLUCIÓN DEL CONOCIMIENTO.
1. Conciencia primitiva.En el primer estado de nuestro conocimiento, los homínidos tomaron conciencia de su
existencia: sabían que vivían y que se morían. Gracias al desarrollo del cerebro, comenzaron a utilizar
algunos elementos del intelecto, de la inteligencia y de la intuición con el propósito de lograr los primeros
conocimientos sobre algo muy básico:
a. Identificar alimentos (cuales hacen bien, mal o son sanadores)
b. Distinguir semejantes de predadores, con el propósito de poder defenderse.
c. Crear herramientas, hacer flechas, cazar.
d. Desarrollar arte, ritos, tradiciones y estrategias para transmitir a los descendientes conocimientos del pasado.
Al ser una especie que comía de manera salteada, se vio obligada a ser eficaz tanto en la utilidad de las manos como
en la transmisión de información a las nuevas generaciones sobre cómo hacer las cosas.
Con el paso del tiempo comenzaron a dominar los elementos de la naturaleza, emprender la agricultura, controlar la
producción que surge de la tierra y a domesticar animales. Como consecuencia de ello pudieron ir estableciéndose

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

en determinados lugares y vivir más tiempo (anteriormente la expectativa de vida no superaba los 20-25 años,
promedio que se prolongó a 35)
2. Saber mítico y religiosoUna vez que el ser humano logra dominar los elementos de la naturaleza,
establecerse en lugares donde hay agua, domesticar a los animales para luego comerlos, construir sus casas
y trabajar la tierra para obtener alimentos, amplía su espacio y su tiempo vital, surgiendo así dos tipos de
problemas:
a. Por un lado surgen las dudas existenciales: comienzan a plantearse el porqué de las cosas.
b. Y por otro lado surge la necesidad de organizarse como una comunidad: ya no eran nómades, sino pequeñas
aldeas y pueblos que requerían una organización.
Aparecen así en escena un conjunto de saberes mitológicos y religiosos que establecen normas de conducta que nos
permiten vivir en armonía, satisfaciendo la necesidad de organizarnos, a través de un sistema de premios o castigos,
y a su vez, respondiendo a las dudas existenciales centrales, enseñando y promoviendo pautas de comportamiento
colectivo.
La creencia en los dioses y en las religiones no solo establecían explicaciones y respuestas a las dudas centrales, sino
que también permitían la organización de las comunidades mediante los sistemas de premios o castigos según las
conductas de sus creyentes. Asi por ejemplo, si se comportaban de una determinada manera irían al cielo o no.
Cualquier religión parte de la existencia de un Dios, con el propósito de explicar todas las dudas existenciales y al
mismo tiempo organizar socialmente a las comunidades. Estas pequeñas aldeas y pueblos se fueron transformando,
a partir de lo cual ya no solo producían para comer, sino que lo hacían en exceso, posibilitándose el intercambio y la
relación con otras ciudades.
La necesidad de fuerza de trabajo hace aparecer la modalidad de producción esclavista. La sociedad se dividía en
esclavos, quienes trabajaban en la producción, otro grupo guerrero-militar y por ultimo un grupo reducido de
propietarios, varones mayores de edad que se transformaban en intelectuales (eran gente poderosa que había
nacido con cierta fortuna, la cual no trabajaba y tampoco era militar)
3. Saber filosófico.En esta etapa se produce la dedicación al ocio creativo: comenzaban a cuestionarse las cosas
y aparecen grandes iluminarios que discutían los problemas de la historia. Ya no bastaba con la respuesta
que daba la religión a las incógnitas de circunstancias socioeconómicas, y es así como aparece el “saber
filosófico”, donde se necesitaban más fundamentos para pensar.
El conocimiento se vuelve más meditado e impone una enorme racionalidad, dejando de haber dogmas para que
haya fundamentos y justificaciones.
Aparecen los políticos y con ellos la legislación.
El conocimiento parte de la idea del racionalismo, a diferencia de la idea de la religión que no tiene más justificación
que de la autoridad. En el racionalismo la búsqueda de la verdad se efectúa mediante convicciones lógicas,
razonables y fundadas, y no a partir de meras imposiciones dogmáticas.
Se cambia la idea de pensar que lago es real porque quien lo dice es considerado una autoridad, por el principio de la
experiencia, a partir del cual algo es real porque se puede demostrar o probar.
Cabe destacar que después del impulso de la filosofía gana gran lanzamiento la religión, quedando la anterior
reducida a los ámbitos intelectuales dominantes de la época, pero minoritarios.
La roma imperial toma la decisión de dejar de lado gran parte del conocimiento filosófico y se impone el
conocimiento mayoritario religioso.
Se produce un cambio del dodo de producción esclavista al feudal.
La religión tiene explicación para todo, para la existencia, la forma del comportamiento, etc. Por lo cual no había
necesidad de plantearse nuevos desafíos racionalistas.
4. Saber científico.El saber científico no aparece de manera espontánea. Durante los siglos XV y XVI suceden
acontecimientos que golpean el saber hegemónico religioso, dándose una etapa de florecimiento de la
filosofía, la cual luego se apaga, imperando nuevamente la religión y apagándose esta con la posterior
aparición de la ciencia como nuevo saber.
a. En el siglo XV se da el renacimiento europeo: aparecen nuevos cuestionamientos y con ellos nuevas vertientes de
reflexión humana. Nacen nuevos artistas, científicos, pensadores y filósofos que importan un cambio.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

b. En el mismo siglo se produce el descubrimiento de américa, algo que no estaba previsto y da un nuevo panorama
de lo que era el mundo.
c. En el siglo XVI, se da una crisis de las instituciones religiosas, debido a que un conjunto de cristianos cuestionaba la
vinculación del Papa con los gobiernos de Europa. Como consecuencia de ellos la iglesia se parte en dos grupos: los
católicos y los protestantes.
d. Aparecen las revoluciones burguesas: se producen grandes cambios a nivel económico, político y social. En lo
económico, se abandona el modo de producción feudal por el sistema capitalista, el cual tiene como eje el
intercambio y la producción de bienes y servicios. En cuanto a la política, esta se encontraba dominada por la
monarquía, aristocracia y el clero, situación de la cual la burguesía renegaría y decidiría no seguir soportando. Se da
la revolución inglesa de 1960, la norteamericana, la francesa de 1789, y a partir de allí la burguesía pasa a tomar las
riendas del poder político, implicando el cambio de un estado monárquico a un estado de derecho como modo de
organización, produciéndose en ese contexto el nacimiento de la ciencia moderna.
e. Hasta ese momento funcionaba la infalibilidad de la iglesia: es decir que la verdad era lo que la iglesia decía. Al ser
despojada por la burguesía se establecen conocimientos cono el saber científico. La verdad es verdad porque puede
ser probada. Es decir que la ciencia es la aproximación a lo cierto o probado por el método científico, apoyado en
evidencia empíricas.
La filosofía puede dar definiciones, reflexiones del ser, pero no puede probar al igual que la ciencia. Por otro lado, la
religión no tiene como base la experiencia sino la creencia.
Galileo Galilei destruye la escuela religiosa y la académica, es decir que la teoría de la autoridad, que establece que
algo es real porque quien lo dice es considerado una autoridad, se dio hasta el siglo XV, donde cambia dicho
principio por el de la experiencia, donde algo es real porque puedo demostrarlo, probarlo, a través de la
comprobación.
TIPOS DE CONOCIMIENTO.
a. Conocimiento vulgar. Es el conocimiento ordinario y cotidiano, como, por ejemplo: andar en bicicleta, encender
fuego, etc. No son metódicos, y se obtienen por la experiencia cotidiana mediante la simple observación de la
realidad, o mediante la imitación de la conducta de otros. Se adquiere de los fenómenos que circundan al ser
humano sin profundizar en sus causas. Puede ser transmitido de generación en generación y se nutre de la
experiencia humana y social.
b. Conocimiento filosófico. Surge de las propias indagaciones respecto al origen del universo y el destino final de los
hombres. Tiene la pretensión de ser universal: valido en todo tiempo y lugar; y no parte de supuestos previos. Es un
saber general que atiende a descubrir la esencia universal de los fenómenos independientes de las circunstancias
espacio-temporales.
c. Conocimiento de divulgación. Es el que se transmite a través de un medio impreso o grabado, a diferencia del
conocimiento científico original o de primera mano, donde la información se transmite a través de revistas o libros.
El conocimiento de divulgación popular es aquel que ha sido sometido a un cambio para fines específicos, así la
información pierde su aporte original y pasa a tener un nivel científico muy bajo.
d. Conocimiento científico. Según De la Mora, el conocimiento es todo aquello que capta la mente humana de los
fenómenos que lo circundan.
Se entiende por conocimiento al conjunto de enunciados que denotan o describen objetos. Dichos enunciados son
llamados “denotativos” susceptibles de ser declarados verdaderos o falsos (quedan excluido del conocimiento otro
tipo de enunciados).
Ahora bien, no todo conocimiento es “científico”, o dicho de otro modo, no todo enunciado denotativo es científico.
Si bien el conocimiento científico este compuesto de enunciados que informan algo acerca de objetos o sucesos,
estos deben presentar además dos condiciones:
1. Los objetos a los que se refieren deben ser accesibles, de modo recurrente directa o indirectamente, en
condiciones de observación explicitas.
Así por ejemplo, “Dios existe”, es un enunciado denotativo, pero se refiere a un objeto inaccesible a la observación,
por lo tanto no es un enunciado de la ciencia. En cambio, “Las ballenas son mamíferos”, es un enunciado que denota
un objeto que se puede conocer mediante observaciones y por tanto validarse en la experiencia.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

2. Se tiene que poder decidir si los enunciados pertenecen o no al lenguaje considerado pertinente por los
científicos.
Es así que cada disciplina define los requisitos con los que deben consistirse los enunciados para formar parte de
ellas, excluyendo a los que no los reúnen. Así por ejemplo 2+2=4 puede formar parte del discurso de la matemática,
pero no E=MC2, enunciado que responde a las reglas del discurso de la física. Estas reglas están sujetas a cambios
históricos.

CARACTERÍSTICAS DEL CONOCIMIENTO CIENTÍFICO.


a. Es verificable, puesto que obtiene conocimientos comprobables sobre los hechos que lo rodean (se prueban en la
experiencia).
b. Es objetivo, obtiene conocimientos que concuerdan con la realidad del objeto tal cual es y no como nosotros
deseamos que fuese. Lo contrario sería la subjetividad (ideas que nacen de los perjuicios, costumbres o tradiciones).
Sin embargo, siempre existirá una carga de subjetividad, es por ello que la ciencia no es estrictamente objetiva, sino
que pretende serlo.
c. Es racional, ya que utiliza la razón para llegar a los resultados, trabajando con conceptos y razonamientos y
dejando de lado las sensaciones e impresiones. La racionalidad aleja al conocimiento científico de la religión porque
en esta aparecen elementos no racionales.
d. Es sistemático, ya que es organizada en su búsqueda y está vinculada a la generalidad, tratando de que cada
conocimiento parcial sirva como puerta para alcanzar una comprensión de mayor alcance.
e. Es falible, se reconoce la posibilidad de equivocación, autocorrección y superación. Se abandona la idea de
verdades absolutas y finales, ya que por el contrario la ciencia llega a conclusiones o verdades provisoriamente
definitivas, sujetas a revisión y a discusión

LA CIENCIA.
Klimovsky define a la ciencia como un acopio de conocimientos que utilizamos para comprender el mundo y
modificarlo. Etimológicamente la palabra ciencia deriva del latín “Scientia” que significa saber, conocer, en el sentido
de tener noticia, de estar informado. La ciencia, en su sentido general alude a toda clase de saber.
En la actualidad, el termino ciencia se entiende:
a. Como proceso: Cuando se utiliza para designar un conjunto de actividades, cuya esencia es investigar problemas.
b. Como metodología cognoscitiva: Cuando se la utiliza para referirse a los métodos y procedimientos que emplean
los científicos.
c. Como producción de conocimientos: Cuando se la emplea para aludir al resultado de esos métodos y
procedimientos.
d. Como cuerpo sistemático: Cuando se la utiliza para designar un cuerpo sistemático de conocimientos, teorías y
leyes.
En términos generales, cuando se habla de Ciencia, se hace referencia a un conjunto de conocimientos razonables,
de tipo conjetural, que pueden ser verdaderos o falsos (nunca se tiene certeza absoluta), y que se obtienen de una
manera metódica, y se verifican en su validez y fiabilidad mediante la constatación empírica. A medida que la ciencia
evoluciona, los conocimientos se modifican y corrigen, lo que implica la posibilidad de biodegradabilidad de todo
enunciado científico.

CARACTERES
a. Conocimiento racional: No todo conocimiento es racional (existe el poético, intuitivo, etc.), pero cuando se trata
de la ciencia, el tipo de conocimiento propio es el racional, en el que se da una sistematización coherente de
enunciados fundados y contrastables. Este tipo de conocimiento exige la racionalidad, que consiste en la aplicación
de principios de coherencia a los datos aportados por la experiencia.
b. De tipo conjetural y probabilístico, que puede ser verdadero o falso. La ciencia no es un conjunto de verdades
definitivas, sino que aspira a una verdadera descripción del mundo o de algunos de sus aspectos, pero nunca se
puede saber con certeza si sus hallazgos son verdaderos, aunque a veces se pueda demostrar razonablemente que

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

una teoría es falsa. Ninguna conclusión es definitiva, sino que ofrece conocimientos probables mas que totalmente
demostrados. Son conocimientos conjeturales y probabilísticos, ya que su certeza se funda en datos verificados
empíricamente, aptos para describir fenómenos y hacer predicciones. Son verdades parciales sujetas a corrección
cuando nuevos datos o experiencias demuestran la necesidad de ratificación o rechazo.
c. Obtenidos mediante la aplicación del método científico. La ciencia posee exigencias metódicas que ofrecen
mayores posibilidades de garantizar la verdad relativa del saber científico. No son conocimientos adquiridos al azar,
sino de manera sistemática y controlable. Son sistemáticos ya que posee técnicas y procedimientos para dar con las
respuestas a los interrogantes, y controlable ya que su validez se verifica empíricamente por la evidencia fáctica y la
coherencia interna.
d. Verificados en su contrastación con la realidad.La ciencia solo se ocupa de los fenómenos o hechos que son
comprobables, contrastables y refutables empíricamente en la realidad, a través de condiciones experimentales
precisas, procedimientos rigurosos y de lenguaje claro y exacto. Las afirmaciones o enunciados que no pueden ser
observados de manera clara, repetible y bien definida, es decir que no puedan ser sometidos a pruebas de
verificación o refutación no entran en el ámbito de la ciencia
e. Cuerpo de conocimientos orgánicamente sistematizados. No se trata de conocimientos dispersos, sino de un
cuerpo de conocimientos ordenados lógicamente, constituyendo un sistema de generalizaciones y principios que
relacionan los hechos entre si, explicando determinados acontecimientos. Los conocimientos se incorporan como
parte de un sistema tridimensional, que contempla los hechos fenoménicamente, analíticamente y temáticamente.
f. Relativos a hechos y fenómenos de una misma naturaleza. Hace referencia a objetos pertenecientes a un
determinado aspecto de la realidad, que guardan entre si caracteres de homogeneidad, y acerca de los cuales se
afirma algo.
g. Modificable y corregible. Nunca un conocimiento es definitivo. Lo verificado y verificable hoy, no necesariamente
revela toda la verdad acerca de esa parte de la realidad expresada en un enunciado científico. Cuando más se avanza
en la adquisición de certezas, más amplio es el horizonte de la incertidumbre. La ciencia tiene conciencia de su
propia insuficiencia.
h. Susceptibles de ser transmitidos. Los conocimientos o contenidos de una ciencia deben ser transmisibles a través
de un lenguaje o vocabulario que le sea propio, respondiendo a las exigencias de rigor, coherencia y precisión. El
desarrollo de la ciencia debe ser transparente, para facilitar que sus enunciados y aserciones puedan ser refutados.
No debe tratarse de expresiones poeticas y literarias que no tienen contenido o son parloteos sin sentido, donde
falta la claridad y exactitud exigidas por el trabajo científico.

CLASIFICACIÓN
Las ciencias se clasifican en Formales (matemática, lógica), y en fácticas, que a su vez se subdividen en naturales
(biología, física, química, astronomía, psicología, medicina) y sociales (historia, geografía, sociología, psicología,
antropología)
Cabe aclarar que posteriormente nos referiremos al “Método” como el camino para llegar a un resultado. Ello es así
porque para lograr un conocimiento científico, es preciso seguir determinados procedimientos que nos permitan
alcanzar el fin que nos proponemos, es decir, es necesario seguir un método, un camino que nos aproxime a esa
meta determinada.
 Ciencias formales.
Las ciencias formales son aquellas que se ocupan de cuestiones que solo existen como productos racionales, creados
por la mente de los hombres.
a. Objeto: El objeto de esta ciencia son entes formales, que solo tienen existencia ideal (como por ejemplo, números,
figuras geométricas, etc.). No son entidades captadas por la experiencia sensible, sino por la mente humana, la cual
va descubriendo sus relaciones y propiedades.
b. Enunciados: Son relaciones entre signos vacíos de contenido empírico. Son tautológicos: su valor de verdad se
extrae del simple análisis de su forma gramatical.
c. Método: El método esencial de conocimiento es la deducción, con lo que se logra la demostración racional de sus
postulados sin apoyo alguno en la experiencia.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El método utilizado es la demostración lógica. Se muestra como un enunciado se deduce de otros por inferencias
lógicas. Los postulados, definiciones y reglas de inferencia son necesarias y suficientes para la puesta a prueba de sus
enunciados.
d. Para hallar la verdad, debe darse la coherencia del enunciado dado, con el sistema de ideas admitido
previamente. Un enunciado es coherente cuando lo que afirma no entra en contradicción con otras proposiciones
admitidas dentro de un sistema de ideas y se infiere de ellas.
 Ciencias fácticas
Las ciencias fácticas son aquellas que se ocupan de cosas y hechos que se verifican en la realidad tangible.
a. Objeto: El objeto de estas ciencias son los entes materiales (hechos, objetos, procesos), que poseen existencia
independiente de la mente humana, y que son directa o indirectamente captables a través de la experiencia. Elabora
conceptos teóricos con los que explica los fenómenos.
b. Enunciados: Son denotativas, se refieren a sucesos y procesos facticos. Se remite a un contenido empírico. Su
valor de verdad necesita ser confrontado con la experiencia.
c. Método: El método utilizado es la confirmación o refutación a través de observaciones y experimentos. Se
contrastan los enunciados con los hechos para determinar si dichos enunciados son verdaderos o falsos.
d. Para hallar la verdad, se requiere el uso de la coherencia más la verificación empírica. La verificación de la
hipótesis siempre es incompleta y temporaria. Nunca se está seguro de la verdad, puesto que futuras observaciones
pueden refutarla.
Dentro de las ciencias fácticas se pueden distinguir dos grupos:
a. El de las ciencias naturales (que se ocupan del conocimiento de los cuerpos materiales, es decir, de los entes con
existencia material en la naturaleza). Estudian al mundo físico y biológico.
El método de conocimiento de las ciencias naturales es la experimentación, por lo que también se las denomina
empíricas, fácticas o experimentales, en razón de que sus postulados, son resultados de la observación que pueden
comprobarse en la realidad por medio de experiencias que pueden repetirse a voluntad en razón del determinismo
propio de las leyes de la naturaleza.
b. El de las ciencias sociales (que estudian el comportamiento del hombre en sociedad y sus productos culturales).
Son aquellas que se ocupan de los hechos creados por los propios hombres como consecuencia de su acción en
comunidad, es decir, como producto de la cultura: lenguajes, costumbres, religión, derecho, etc. Las ciencias sociales
estudian las organizaciones humanas y sus actividades. Todas las instituciones que estudian al hombre no en tanto
ser biológico, sino en poseedor de habla, libertad y cultura, son ciencias sociales. Su objeto de estudio es el
fenómeno humano, entendiendo al hombre como individuo o como parte de un sistema social.

LA VERDAD CIENTÍFICA.
La verdad se emparenta en cosas que son reales.
Con el surgimiento de la ciencia, se deja de lado el principio de la autoridad (que establece que algo es “real” porque
quien lo dice es considerado una autoridad), por el principio de la experiencia (a partir del cual algo es “real” porque
se puede demostrar o probar”. La posibilidad de creer que algo es cierto o verdadero surge de la prueba de los
fenómenos. Para que algo sea verdadero debe probarse en la experiencia, rompiendo así la ciencia el principio de la
autoridad por el de la experiencia.
Hay verdades mentales o subjetivas y verdades reales u objetivas: por un lado, tenemos la apariencia, o lo percibido,
y por otro la esencia o lo real de los fenómenos. Ejemplo: la puesta del sol o la salida de la luna. Todas las tardes
presenciamos con nuestros propios sentidos como el sol se pone. Pese a que subjetivamente lo observamos tal cual,
es decir que el fenómeno se presenta como una realidad objetiva ante nuestro sentido común, no existe la puesta
del sol en términos reales. En la realidad, el sol no se pone y la luna no sale, sino que lo que causa tal percepción es
que la tierra está en constante rotación sobre su eje y a cierta hora del día este movimiento nos da la impresión de
que se está poniendo el sol o que está saliendo la luna. Se evidencia que por un lado se da la realidad mental
(percibido) y por otro la realidad objetiva.
El conocimiento científico sirve para conocer el mundo real, tal como objetivamente existe y opera.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La ciencia no es un conjunto de verdades definitivas, sino que aspira a una verdadera descripción del mundo o de
algunos de sus aspectos, pero nunca se puede saber con certeza si sus hallazgos son verdaderos, aunque a veces
pueda demostrar razonablemente que una teoría es falsa. Ninguna conclusión es definitiva, sino que ofrece
conocimientos probables más que totalmente demostrados. Son verdades parciales sujetas a corrección cuando
nuevos datos o experiencias demuestran la necesidad de ratificación o rechazo.
La ciencia reconoce la posibilidad de equivocación, autocorrección y superación, y abandona la idea de verdades
absolutas y finales por verdades provisoriamente definitivas, sujetas a revisión y discusión.
● Por correspondencia (Aristóteles): entendía que algo es verdadero cuando la idea de verdad coincide con la
idea de ese algo, es decir, la coincidencia entre lo que se dice o juzga y lo que sucede o lo que de hecho es. Esto es
por el principio de identidad. Para Aristóteles solo es verdad lo real, y es real aquello a lo que tengo acceso (cosas
materiales, banco, silla, mesa) así por ejemplo como las sirenas no existen en ningún lado no son reales.
● Por coincidencia (Kant): hay un concepto social de lo que es un objeto, un acuerdo entre todos de llamarlo
así. Sostiene que aquello que existe, existe porque el hombre ha alimentado esa existencia, sostiene que no solo
existe aquello a lo que tenemos acceso sino también aquello que inventamos, como por ejemplo los números. No
solo todo lo que existe es verdadero, hay cosas que no existen por sí mismas pero son verdaderas, como por ejemplo
los sentimientos.
● Como ilusión (Nietzche): dice que nosotros entendemos "la verdad" por medio del lenguaje, y las palabras
no son más que metáforas que no tienen ninguna relación directa ni necesaria con la realidad. Afirma que todo el
conocimiento que tenemos no es más que un castillo de papel que flota sobre la mar. La verdad vendría a ser
entonces como lo socialmente conveniente, o lo individualmente consolador. La realidad es imposible de abstraer,
por lo tanto si la palabra verdad designa lo que realmente ocurre o es la realidad, entonces la verdad es un
imposible. Y si la palabra verdad designa a todo aquello de lo cual estamos convencidos por costumbre, entonces no
tiene mayor importancia. Lo verdadero no existe, depende de una construcción social.
● Como Hermenéutica (Gadamer): como interpretación, no hay verdades en sí, tomo algo y lo interpreto y de
ahí surge la utilización de métodos. Son interpretaciones apegadas a los hechos, puede haber disparidad de
verdades.
● Como revolución (Marx): hay mundo objetivo y detrás de ese mundo hay un velo que oculta, al velo llama
falsa consciencia y como eso es encontrar la verdad, lo único verdadero es la revolución.
● Pragmática (Rorty): discute sobre la utilidad, si algo es útil es verdadero. Si algo no es útil se desecha.
● Dialogo (Habermas): consensuada, sigue la tradición de Marx, plantea un conocimiento científico de acuerdo
a intereses.

LA RELACIÓN DIALÉCTICA CON LA TECNOLOGÍA.


El cientificismo es una concepción acerca de la ciencia dominante en nuestra sociedad. Esta concepción restringe lo
“científico” a un solo tipo de teoría y práctica de la ciencia, basada en el modelo de la física moderna:
Establecimiento de leyes universales, formalización de los fenómenos, experimentación y predicción. Exige que toda
investigación que pretenda ser científica se adapte a dichos parámetros.
Se llama ciencia pura o básica, a aquellas investigaciones científicas en las que solo se busca obtener conocimiento
de un determinado sector de la realidad, con la única finalidad de enriquecer el saber. Es pura, ya que no tiene otra
finalidad que la búsqueda del conocimiento por el conocimiento mismo, excluyendo intereses prácticos, y básica, ya
que constituye la base teórica de conocimientos sobre la que se apoya la ciencia aplicada o la tecnología. Ej: virólogo
que estudia las propiedades comunes de todos los tipos de virus, sin importar ningún tipo de aplicación posible ni
querer modificar la realidad. Esta ciencia es libre de elegir sus problemas y métodos, y decidir los planes de
investigación o cambiarlos.
Se llama ciencia aplicada a las investigaciones teóricas o experimentales que aplican los conocimientos de la ciencia
básica a problemas prácticos (por ej. El virólogo que estudia los virus en tanto estos causan enfermedades humanas).
Tanto en la ciencia básica como en la aplicada se plantean problemas y sus productos son conocimientos. Pero la
ciencia aplicada, en lugar de ocuparse de problemas generales, utiliza los conocimientos de la ciencia básica en vista

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

a posibles aplicaciones prácticas. Se la puede planificar, pero no es libre de elegir sus problemas de investigación, ya
que estos surgen de las necesidades y demandas de la sociedad.
Se llama tecnología al uso de las teorías científicas para su adaptación a determinados fines, a la producción de
artefactos útiles. Para la tecnología el conocimiento científico es un medio para modificar la realidad. Desde el punto
de vista técnico, la ciencia como búsqueda de saber no constituye un fin en si mismo. La tecnología se propone
resolver problemas prácticos y controlar sectores de la realidad con ayuda de conocimientos de todo tipo. No busca
producir conocimientos sino artefactos o planes de acción entre otras posibilidades. Ejemplos de artefactos:
computadoras, vacunas, etc. Ejemplos de planes de acción: técnicas de enseñanza, estrategias psicoterapeutas, etc.

CIENCIA Y UNIVERSIDAD: LOS MODELOS HUMBOLTIANO, NAPOLEÓNICO, NORTEAMERICANO Y REFORMISTA.


 MODELO NAPOLEONICO. La universidad profesionalizante: una universidad al servicio de las necesidades
Estado.
El modelo francés. También llamado napoleónico, tuvo por objetivo formar a los profesionales que necesitaba el
Estado. Las universidades se convirtieron en parte de la administración del estado para formar a los profesionales
que ese mismo Estado necesitaba. Los profesores se harían funcionarios públicos, servidores del Estado y forman
parte de cuerpos nacionales de funcionarios.
La universidad napoleónica separo y aisló la docencia de la investigación.
Facultades: Las antiguas facultades siguieron siendo instancias de administración curricular, integradas por escuelas
profesionales encargadas de elaborar los curricular de cada profesión. Fueron el centro de poderes en las
Universidades.
Escuelas: comenzaron a otorgar licencias para ejercer legítimamente la profesión en la sociedad. Eran atendidas por
profesionales habilitados para enseñar, pero no necesariamente maestros, dedicados a la investigación y al cultivo
del saber. Orientadas a la formación de profesionales que demandaba al Estado.
Institutos: para agrupar a quienes quisieran dedicarse a las labores de investigación científica, se formaron nuestras
estructuras, los institutos, totalmente dedicados al estudio y a la investigación y solo eventualmente a la docencia.
Algunos de ellos, a través de la alta especialización, llegaron a constituir politécnicos y se dedicaron a formar
expertos en algún campo especifico de la practica profesional. En estos casos, la ciencia pura quedo en manos de los
institutos universitarios de investigación, mientras que la ciencia aplicada y la docencia técnica paso a ser
responsabilidad de los institutos tecnológicos.
Escuelas de altos estudios: unidades en las cuales para su ingreso se requeria haber cursado alguna carrera en las
facultades universitarias.
 MODELO HUMBOLDTIANO. Una universidad investigadora, una universidad al servicio del conocimiento. Se
sustenta en dos concepciones:
1) la universidad como imagen o reflejo de la ciencia: estudiar o investigar es hacer ciencia y hacer ciencia es
cultivar conocimiento.
2) Finalidad científica: una sociedad con personas formadas científicamente seria capaz de hacer avanzar al
conjunto de la sociedad en sus facetas sociales, culturales y económicas.
La universidad alemana del siglo XVIII tiene como punto de referencia a la Universidad de Berlin, organizada por
Guillermo Humboldt, reintroduce la ciencia y la investigación; también relaciona esta con la docencia.
Se habla de la libertad de catedra, puede citarse a este modelo como un ejemplo de equilibrio entre estado y
universidad. El ideal universitario esta basado en: “la unidad y la libertad de la investigación y de la enseñanza” crear
estudiantes bien calificados, con gran responsabilidad y autonomía.
Existe autonomía de la academia a pesar de la financiación del estado.
Hay AUTONOMIA tanto de las universidades como de los científicos y estudiantes.
 MODELO NORTEAMERICANO.Sostuvo que a fines del siglo XX la educación estadounidense fue débil y
defectuosa en niveles elementales y secundario, pero fuerte y eficaz en el nivel terciario, reconocido por ser “un
nivel académico y de los más buscados mundialmente”. Da servicios a su estado y región, pero al mismo tiempo
trata de establecer una mayor actividad de investigación y de entrenamiento doctoral.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Se caracteriza por pluralidad de instituciones, combinación con departamentos especializados y la combinación de


investigación con educación.
Hubo aumento de financiación para investigación de fuentes privadas, invirtiendo en laboratorios para mayor
efectividad avalados por patrocinantes privados y gubernamentales.
 MODELO REFORMISTA.PRINCIPIOS REFORMISTAS.
COGOBIERNO. Este principio sintetiza el gobierno de la universidad compartido por los diferentes sectores de la
comunidad universitaria: docentes, graduados y estudiantes.
ASISTENCIA LIBRE – DOCENCIA LIBRE. La Reforma Universitaria sostiene que es fundamental respetar todas las
corrientes del pensamiento y las tendencias de carácter científico y social, sin censuras ni prejuicios de ningún tipo.
El principio de libertad de cátedra sostiene que cada cátedra tiene completa libertad para investigar y enseñar, y no
puede ser supervisada académicamente. A su vez, la cátedra paralela sostiene la necesidad de que existan múltiples
opciones para los estudiantes, quienes a su vez deben poder elegir entre ellas libremente, y la cátedra libre es el
derecho de todo intelectual, científico, o artista, con idoneidad suficiente, a tener una cátedra para difundir su
conocimiento.
PUBLICIDAD DE ACTOS UNIVERSITARIOS. Para los reformistas de 1918 es fundamental que la Universidad respete el
carácter público de la información, que se difundan todas y cada una de sus medidas de gobierno para que todos los
integrantes de la comunidad universitaria puedan ser participar democráticamente.
AUTONOMÍA UNIVERSITARIA. La concepción reformista considera que la universidad debe ser autónoma y auto-
gobernada, la comunidad universitaria debe elegir sus propias autoridades sin injerencia del poder político, y darse
sus propios estatutos y programas de estudio. La Universidad necesita libertad para que la investigación, docencia y
extensión se concreten con excelencia
EXTENSIÓN UNIVERSITARIA. La Reforma Universitaria supone el despliegue de la función de extensión que permite
recrear la misión social de la Universidad a partir de asumir al conocimiento como una construcción social en donde
la sociedad se beneficia con sus aportes y la Universidad se enriquece con otros saberes. La consolidación de
espacios de diálogo con actores sociales, productivos, culturales y gubernamentales permite la construcción de
agendas de trabajo colectivas y el fortalecimiento de las políticas públicas, especialmente para beneficiar a los
sectores más vulnerables.
EDUCACIÓN LAICA Y ACCESO PARA TODOS. Según los ideales reformistas, la Universidad debe ser laica, es decir
desvinculada de cualquier credo religioso, para que pueda cumplir con sus funciones en un campo de amplia libertad
espiritual, diversidad de opiniones y saberes. A su vez, debe favorecer el acceso de todos a la Educación Superior,
pues la enseñanza no puede quedar restringida a determinados grupos. Los estudiantes reformistas sembraron la
semilla de la lucha y defensa por la educación gratuita y el ingreso irrestricto que daría frutos dos décadas después.
UNIVERSIDAD Y CIENCIA. La Reforma Universitaria promueve que la investigación científica sea realizada dentro de
las universidades, para consolidar un sistema científico de excelencia, y con especial atención a los problemas y
demandas de la región, y que los investigadores transmitan sus conocimientos al resto de la comunidad universitaria
y a la sociedad, por medio de la enseñanza.
AYUDA SOCIAL AL ESTUDIANTE. El movimiento reformista, desde sus orígenes, fue un proceso democratizador,
impulsor del libre pensamiento, modernizador. Por lo tanto, plantea que el conocimiento de alta calidad es un
derecho de todos y cada uno de los ciudadanos/as, y no solamente reservado para una élite, como sucedía a
principios del Siglo XX en nuestro país y el mundo. Así, la Universidad reformista ha desarrollado políticas activas que
promueven el acceso a la educación superior y a lograr la permanencia de los estudiantes en la Universidad.
Surgieron de este modo los sistemas de becas y ayuda al estudiante, y se ha desarrollado el área de Bienestar
Estudiantil, al calor de los principios reformistas.
RELACIÓN OBRERO – ESTUDIANTIL. Los protagonistas del movimiento reformista plantearon lazos de solidaridad con
el movimiento obrero, compartían sus preocupaciones y su visión se basaba en la idea de una universidad de puertas
abiertas a la sociedad, y a todos los ciudadanos.
PROYECCIÓN LATINOAMERICANA. La Reforma Universitaria de 1918 fue un movimiento de proyección
latinoamericana, los estudiantes del continente formaron sus agrupaciones y federaciones para luchar por mejor
educación para todos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El movimiento estudiantil se constituyó en un actor político protagonista de su tiempo. Este clima de época, imbuido
de las ideas democráticas, liberales y de libre pensamiento, que se respiraba a principios del siglo XX, se extendió a
las federaciones estudiantiles que comenzaban a formarse en todo en América Latina y el Caribe.
Las demandas por universidades democráticas hicieron eclosión en Córdoba, el 15 de junio de 1918. El movimiento
se extendió de inmediato a las demás universidades del país, impulsado principalmente por el movimiento
estudiantil organizado en la recién creada Federación Universitaria Argentina (FUA), y a varias universidades de
América Latina, produciendo reformas en los estatutos y leyes universitarias, que consagraron la autonomía
universitaria, el cogobierno, la extensión universitaria, la periodicidad de las cátedras, los concursos de oposición y el
acceso para todos a los estudios universitarios.

SÍNTESIS DE LAS POLÍTICAS CIENTÍFICAS EN ARGENTINA.


El MODELO REFORMISTA se relaciona al gobierno de Hipólito Yrigoyen y se centra en la promoción de la autonomía
universitaria y en privilegiar el desenvolvimiento de las disciplinas humanas y sociales. Fue una concepción cultural
de raíz vanguardista que se vinculó al contexto del país agroexportador y de servicios de principios del siglo xx.
Dicha noción supone que la ciencia se desarrolla plenamente si se separa del Estado y de la democracia de masas
privilegiando las decisiones internas del cogobierno universitario o de los ámbitos propios de la actividad de los
científicos. Implica que los recursos humanos y de investigación queden estrechamente ligados al interés individual
de los profesionales y los académicos y que no se vinculen a la planificación de las políticas del Estado. La ciencia se
torna en su comportamiento anarquista y favorece que cada investigador se desenvuelva en su acción de manera
inorgánica e individualista. Los hombres de ciencia en la tradición reformista no inscriben su práctica en el desarrollo
nacional, sino que elaboran sus acciones atendiendo solamente sus inquietudes personales o académicas propias de
su pequeño espacio de acción: el docente, investigador o poseedor de beca se cree dueño de los recursos públicos.
Las concepciones reformistas en la actualidad son un reflejo de nuestra dependencia social, económica y política.
El MODELO PERONISTA de ciencia y técnica se vincula al nacimiento y al impulso en el país de la planificación
científica estatal de carácter integral y a la promoción de la innovación tecnológica cuya finalidad es industrializar la
argentina. Esta concepción establece que no hay posibilidad de desarrollo científico pleno e independiente en el país
sin consolidar previamente la industrialización y la inserción de los sectores populares a la planificación de las
políticas públicas. La ciencia y la innovación se organizan desde el Estado y el sector privado en función de los
intereses nacionales y no viceversa como en la concepción reformista.
El peronismo científico es la política que busca resolver el problema de la dependencia: planificar la ciencia con la
finalidad de consolidar el desarrollo integral del país. El peronismo profundizó el desarrollo científico en áreas de
importancia estratégica nacional como eran la producción de automotores, de aviones, de maquinaria agrícola, de
energía atómica, petróleo, derecho, geopolítica, salud o comunicaciones. Dicha tarea implicó la formulación de
Planes Nacionales de Desarrollo integral y sustentable (Quinquenales) y la organización y/o promoción de
instrumentos institucionales como fueron el Consejo Nacional de Posguerra, el Ministerio de Educación, la
Universidad Obrera, los consejos económicos sociales, las escuelas técnicas, las Academias Culturales, la Comisión
Nacional de Energía Atómica (CNEA) o de Fabricaciones Militares. El modelo de desarrollo nacional implicó cambios
radicales en la composición y en el funcionamiento de las instituciones educativas y científicas en relación a la
tradición reformista: la educación y la ciencia en el modelo peronista fueron masivas y planificadas desde el Estado -
dentro y fuera de las universidades-.
La educación científica se tornó popular con la gratuidad universitaria (1949), con la construcción de obras de
infraestructura, la multiplicación de institutos privados y públicos de innovación o con la aparición de los centros de
investigaciones antecedentes del actual CONICET. El Estado promocionó carreras y líneas de investigación
estratégicas del estilo de Ingeniería en Petróleo o en industrias o las ya mencionadas en energía atómica o salud. La
aplicación de las dedicaciones exclusivas permitió que las universidades investiguen además de impartir docencia.
No fue casualidad que el primer peronismo dispuso de las acciones de científicos e intelectuales prominentes como
Ramón Carrillo (medicina), Manuel Savio (siderurgia, química y fabricaciones militares), Leopoldo Marechal (arte)
Arturo Enrique Sampay (derecho), Raúl Mende (planificación), Arturo Jauretche (ensayista político) o Carlos Astrada

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

(filosofía). Para estos intelectuales la conciencia nacional era el punto de partida para desarrollar la actividad
científica y tecnológica.
Ambas corrientes ideológicas y políticas están vigentes en la actualidad y sostenemos a modo de hipótesis, que el
reformismo tradicional corre el peligro de tornarse una concepción regresiva para el desarrollo nacional. Dentro del
REFORMISMO no se producen debates demasiado profundos sobre un modelo científico nacional. El reformismo
izquierdista ve en la universidad y en la estructura científica un medio para extraer militantes y no un instrumento
para desarrollar la nación.
En la actualidad el PERONISMO sigue siendo el sector más dinámico para la organización científica y técnica, ya que
propone industrializar el país e implementar a partir de aquí, una acción intelectual y de innovación tecnológica
integral. En la política científica iniciada en el año 2003 coexisten ambas tradiciones y es innegable, que en varias
universidades y en organismos como el CONICET, siguen predominando prácticas caracterizadas por su desconexión
con el modelo nacional de desarrollo.
Estas dos tendencias y tomando distancia de los estudios académico en educación superior, no dividen al campo
intelectual entre los supuestos promotores de los modelos humboltianos o napoleonicos. La forma en que se
construye la historia de la ciencia y de la educación argentina es una de las manifestaciones de nuestra dependencia
cultural: queremos encorsetar nuestras prácticas a los sucesos europeos desconociendo los procesos nacionales. Ni
la ciencia, ni la política argentina son asimilables linealmente a los modelos de Alemania o a Francia.

2. El conocimiento de la realidad jurídica como un proceso de investigación. Reflexión y formulación del tema,
selección del texto jurídico y planteamiento del problema de investigación en derecho. Primeras indagaciones
sobre el conocimiento acumulado disponible: antecedentes, revisión de la literatura y estado del arte.

EL CONOCIMIENTO DE LA REALIDAD JURÍDICA COMO UN PROCESO DE INVESTIGACIÓN.


El proceso de investigación es una actividad vinculada a la búsqueda de conocimiento y respuesta a un problema o a
una pregunta. No es una mera búsqueda de información, no se queda con la apariencia (lo superficial), sino que
busca la esencia de los fenómenos
Consiste en el proceso de aplicación de métodos y técnicas científicas que se aplican a hechos y situaciones
concretos de la realidad, para encontrar soluciones a esos problemas que nos planteamos, para generar un
“conocimiento nuevo” (finalidad de la investigación)
Ahora bien, conocimiento científico no es sinónimo de investigación científica. El conocimiento científico es el
producto de la actividad de la investigación científica.
Conjunto de actuaciones, sucesivas, coordinadas destinadas a la conceptualización de la realidad. Parte de la teoría y
termina en la teoría, pero nunca se aparta de la realidad.
Investigación: La palabra investigar proviene del latin investigare, que significa registrar, indagar, descubrir. Es la
actividad vinculada a la búsqueda de conocimientos y respuestas a un problema. La misma puede ser vulgar
(cualquier tipo de búsqueda de información), o científica (atraviesa la apariencia para llegar a la esencia del
fenómeno).
Proceso: Implica una serie de transformaciones que le comienzan a ocurrir a cierta cosa hasta que finalmente se
alcanza cierto estado. Se compone de: A. un estado inicial de cierto asunto o cosa, B. una serie de operaciones de
transformación que comienzan a suceder y siguen sucediendo; C. hasta que aparece un estado final: el producto en
el que el proceso se extingue.
La investigación científica es el proceso de aplicación del método y técnicas científicas a el problema, situación o
fenómeno que se investiga, para buscar respuesta a ellos y obtener nuevos conocimientos (finalidad de la
investigación). Atraviesa la apariencia para llegar a la esencia del fenómeno. Conocimiento científico no es lo mismo
que investigación científica, para lograr el primero se recurre al segundo.
El proceso de investigación es el conjunto de operaciones por medio de las cuales el investigador intenta validar
cuatro tipos de hipótesis diferentes: sustantivas; indicadoras o instrumentales; de generalización y retóricas
El proceso de investigación científica se compone de tres nociones:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

a. El asunto o sus condiciones de realización (es el conjunto de conocimientos, creencias, contextos institucionales y
técnicos que preceden y ponen las condiciones de contorno de todo proceso de investigación. Estas condiciones de
realización proveen la materia prima y los medios para el proceso científico)
b. Los cursos de acción (El curso de acción hace referencia a los procedimientos científicos que deben llevar a cabo
para lograr un doble objetivo: Descubrir aspectos desconocidos de los objetos; demostrar la verdad de un
conocimiento que ya se cree tener). Presentan dos modos de operación:
1. Modo de descubrimiento: Destinado a encontrar respuestas a nuevas preguntas.
2. Modo de validación: Cuyo fin es encontrar, proveer y organizar las pruebas para validar ante la comunidad
científica y la sociedad política las respuestas que se creen son verdaderas. (se buscan validar cuatro tipos de
hipótesis diferentes: sustantivas, indicadoras, de generalización y retoricas.
En este componente del proceso se encuentran los temas y concepto específicos de la metodología como disciplina
científica
c. El producto (Como resultado, el científico logra un producto que hace referencia a las descripciones y
explicaciones que pretende lograr como resultado de las operaciones de investigación. Este resultado pasará a
integrar el acervo de conocimientos consagrados como científicos y en consecuencia se transformará en punto de
partida para nuevos procesos de investigación)

MOMENTOS O FASES DEL PROCESO DE INVESTIGACIÓN


Los momentos de la investigación no establecen un modelo rígido con pautas fijas a seguir, sino que solo son
orientaciones que ayudan a entender el proceso investigativo.
a. Momento Logico-Epistemologico.
En un primer momento el investigador ordena y sistematiza sus inquietudes, formula sus preguntas y elabora
organizadamente los conocimientos que constituyen su punto de partida. Esta delimitación del área temática nos
lleva a plantear un objetivo de investigación: es decir, a precisar lo que no sabemos. El objeto de la investigación nos
plantea problemas, interrogantes que se intentan resolver a través de la investigación.
Una vez precisado el objeto, se comienza a reflexionar sobre las categorías teóricas que permiten el abordaje al
mismo, y delimitar cuales son las metas u objetivos que se intentan alcanzar con la investigación. Este momento se
denomina lógico-epistemológico
b. Momento metodológico.
Luego el investigador intenta elaborar una estrategia para abordar los problemas que desea investigar. Para ello
formula una metodología general, un modelo metódico operativo que le permita acercarse al objeto y conocerlo tal
cual es. A este momento se lo denomina momento metodológico.
c. Momento técnico
Una vez elegidos los métodos o estrategias generales que han de servir para abordar al objeto, es preciso tomar
decisiones sobre las formas y procedimientos concretos que nos permitan recolectar y organizar la información. A
este momento se lo denomina momento técnico.
d. Momento de análisis-síntesis
Finalmente, cuando el investigador ya dispone de los datos que le proporcionan los objetos de estudio, se abre un
nuevo momento caracterizado por los propósitos de realizar una nueva elaboración teórica en función de los datos
adquiridos. Los datos necesitan un trabajo de ordenación y clasificación, que se realiza de acuerdo al objeto y
objetivos planteados en la investigación. Esta tarea denominada procesamiento de datos, implica una labor de
análisis crítico de la información para poder sistematizarla, ordenarla y arribar a conclusiones de acuerdo a los datos
disponibles, lo que implica realizar un proceso de síntesis e interpretación teórica de los mismos. A esta fase se la
denomina momento de análisis-síntesis.

REFLEXIÓN Y FORMULACIÓN DEL TEMA, SELECCIÓN DEL TEXTO JURÍDICO Y PLANTEAMIENTO DEL PROBLEMA DE
INVESTIGACIÓN EN DERECHO.
a. Reflexión y formulación del tema

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El tema de investigación es un interés a saber, que se expresa en una frase o formulación (enunciado o proposición).
Dicho enunciado constituye en rigor el tema de investigación.
La primera fase del proceso de investigación es la elección del tema, que consiste en determinar qué es lo que vamos
a investigar. Eso que vamos a estudiar consiste en un problema, un interrogante que nace de las diferentes causas-
visiones-subjetivas del investigador.
Formular un tema de investigación consiste en elegir un tema y conocerlo. Como punto de partida el investigador
debe conocer en profundidad el tema para realizar la investigación, debe realizar una búsqueda de conocimiento
amplio sobre el tema, mediante la revisión de la bibliografía, contacto con expertos, etc.
Pero antes de formular/seleccionar el tema, debemos preguntarnos si es útil (si constituye un aporte nuevo y
original); si es factible (si vale la pena gastar energía, tiempo y recursos en el mismo), y por último, si tendrá
contribuciones significativas para la ciencia.
1) Buscar un problema de investigación que resulte de real interés:
La práctica de la investigación nos enfrenta a dificultades que generan ansiedad, tareas rutinarias que se pueden
volver tediosas, a un esfuerzo intenso y sostenido. Por ello es conveniente que sintamos una verdadera curiosidad
por lo que vamos a estudiar, así tendremos la motivación para desplegar los mejores esfuerzos para superar los
inevitables inconvenientes que enfrentaremos.
Cabe aclarar que el interés de conocimiento puede originarse de dos maneras. La primera se da cuando una
institución establece de manera obligatoria al investigador la realización de un determinado estudio (esto sucede
generalmente en universidades e instituciones, donde los estudiantes deben llevar a cabo investigaciones científicas
como parte de la estructura curricular de la institución); Otro caso es el de las grandes empresas, por ejemplo, los
laboratorios donde el empleado cumple con un perfil laboral. Otras veces el interés de conocimiento no deriva de
una obligación institucional, sino que se origina en el investigador por un impulso exploratorio personal (curiosidad).
2) Escoger una temática conocida:
No se puede pretender aportar nuevos conocimientos si no se tiene una idea bien definida acerca de los cuales son
los ya existentes. Conviene centrar el problema de investigación dentro de un área que nos resulte familiar. Por más
que haya muchos posibles temas de interés que excitan la curiosidad del investigador, éste no puede trabajar sobre
áreas del conocimiento que apenas si conoce superficialmente o de las cuales no ha obtenido aún la información
básica.
3) Buscar áreas de trabajo en las que pueda contarse con una ayuda efectiva.
Se requiere ayuda efectiva para que no se nos presente una muralla imposible de escalar. Debe haber presencia
activa de un tutor, que es la persona capaz de orientar al tesista en su trabajo.
4) Seleccionar un tema bien concreto y accesible: No se puede alcanzar un conocimiento sobre temas amplios y
complejos en la primera o segunda práctica como investigador, es por ello preferible definir un tema concreto, bien
delimitado y preciso, sobre el que pueda encontrarse suficiente bibliografía y sea factible recoger datos de interés.
b. Selección del texto jurídico
Cabe aclarar que la ciencia se concentra en ciertos temas y explora hasta el final algunos interrogantes, dejando a
algunos otros en la penumbra y se desentiende casi por completo de los demás. Esta selección del tema de estudio
no es un producto del azar, sino que obedece a causas personales y sociales, a los conocimientos previos y a las
distintas inquietudes que se dan en cada época y que adquieren predominio en la comunidad científica.
Al formular el investigador su tema de investigación científica, nombra y escoge automáticamente un fenómeno
entre la infinidad de fenómenos del universo y lo hace resaltar. Es decir, al seleccionar el investigador su tema de
investigación, selecciona una parcela o un aspecto de la realidad mundial y la enfatiza por encima de todos los
demás fenómenos. Al enunciar el investigador, por ej. El tema “el aborto en Argentina en 2019”, excluye o niega por
el mismo acto, todos los demás fenómenos del cosmos como objetos de su atención.
Con respecto a la selección del texto jurídico, dependerá de la multiplicidad de intereses de conocimiento que se
expresan en oraciones tópicas. Así, por ejemplo, en el tema “el aborto en argentina en 2019”, para entender el
fenómeno a fondo, el estudiante debe revisar todas las obras pertinentes a la teoría medica en general y gineco-
obstetrica en particular. Si le interesa el aspecto legal, la legislación y jurisprudencia argentina. Si se agrega el
aspecto moral, se necesita estudiar la doctrina anti-aborto de la iglesia católica.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

c. Planteamiento del problema de investigación en derecho.


El planteamiento del problema es la delimitación clara y precisa (sin ambigüedades) del objeto de investigación,
realizada por medio de preguntas, lecturas, trabajo manual, encuestas pilotos, entrevistas, etcétera.
Esta delimitación se realiza mediante 5 pasos:
a. La delimitación del objeto en el espacio físico-geográfico.
b. Su delimitación en el tiempo
c. El análisis semántico (de significado) de sus principales conceptos mediante enciclopedias y libros especializados
d. La formulación de oraciones tópicas
e. La determinación de los recursos disponibles.
La función del planteamiento del problema consiste en revelarle al investigador si su proyecto de investigación es
viable dentro de sus tiempos y recursos disponibles.
Debe aclararse la relación entre el tema de investigación y el objeto de investigación (porque con frecuencia se
identifica el tema del análisis con su objeto, sin explicar la diferencia:
a. El tema de investigación es un interés a saber de una o varias personas que se expresa en una frase o formulación
(enunciado, proposición): como “la contaminación en México”, dicho enunciado constituye en rigor, el tema de
investigación
b. El objeto de investigación, en cambio, es el fenómeno real a que se refiere el enunciado (la frase), como, por
ejemplo: la basura en los ríos y en las calles, las partículas suspendidas en el aire, etc. Es un fenómeno real, objetivo
y comprobable que existe en el universo de manera independiente del interés de conocimiento y tema de
investigación que pudiera tener alguna persona. Consiste en una parcela de la realidad destacada por nuestro
interés de conocimiento. por ejemplo: tema de investigación (interés a saber que se expresa en un enunciado “los
abortos en argentina”); objeto de investigación (fenómeno real o parcela del universo a que se refiere el enunciado
“aborto”); universo (otros fenómenos que no interesan)
1)Delimitación en el espacio físico-geográfico.
Consiste en la concretización del objeto dentro del espacio físico-geográfico.
Se requiere que el investigador opte por delimitar el objeto de investigación, dentro de un espacio físico-geográfico
que sea apto conforme a sus razones de tiempo, dinero, tecnología, etc.
Así, por ejemplo, supongamos que un estudiante elige como tema “opiniones de la juventud mexicana sobre la
sexualidad”, abarca todo el inmenso espacio físico-geográfico de la república mexicana, de modo tal que el
estudiante no podría llevar adelante una investigación de tal magnitud. Conforme a ello, el estudiante tendrá que
optar por delimitar el objeto de investigación aún más en su dimensión de espacio físico geográfico, seleccionando,
por ejemplo “opiniones de los estudiantes de primer año de la UNNE sobre la sexualidad”
2) Delimitación en el tiempo
No se refiere al tiempo de investigación del que dispone el investigador, sino del tiempo del objeto que le interesa
más para su análisis: así, por ejemplo, el enunciado “Los problemas del aborto” abarca cronológicamente, conforme
a su fenómeno biológico, en su forma natural, desde la aparición histórica del ser humano, y como practica social,
hace miles de años hasta el presente. Por ende, el alumno deberá reducir el objeto de investigación a un periodo
que le interese y del cual consiga los datos necesarios para su trabajo.
3) Delimitación Semántica
La delimitación semántica del tema/objeto resulta más complicada. Se trata de aclarar los significados de los
términos (palabras, conceptos, categorías, símbolos) usados en el tema de investigación. Esto se debe a que
frecuentemente un término tiene diferentes connotaciones.
El interés de conocimiento nace generalmente de manera espontánea y se expresa en términos del sentido común y
del lenguaje cotidiano, que se caracterizan por la falta de precisión y claridad. Es por ello que el investigador debe
analizar y definir el sentido de las principales categorías que piensa utilizar.
a. El primer paso es subrayar y enumerar los conceptos del tema de investigación, conforme a su grado de dificultad
o complejidad, empezando con los términos más sencillos y terminando con los mas difíciles.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

b. El segundo paso en la delimitación semántica, después de haber subrayado y enumerado por grado de dificultad,
es consultar enciclopedias, diccionarios o textos especializados en la temática, empezando por los conceptos más
sencillos.
c. El tercer paso consiste en la selección definitiva de las definiciones o conceptualizaciones que más se adecuan a
sus objetivos de indagación. Tal decisión puede que trascienda su nivel de conocimiento y capacidad de decisión, por
lo cual puede ser necesaria la consulta al docente para que lo asesore. En el caso de que no encuentre una definición
que lo satisfaga, tiene que formular una propia para mejorar la deficiente, tarea para la cual también puede requerir
la colaboración del docente.
d. Por último, es necesaria la reflexión sobre las relaciones sintácticas posibles y permitidas entre las palabras y
signos que forman el tema (enunciado) de investigación.
4) Formulación de las oraciones tópicas.
La oración tópica es un enunciado sobre el tema de investigación que expresa en forma breve cual es la intención de
conocimiento científico del investigador, respecto al objeto de investigación. Ayuda al investigador a clarificar su
interés o sus intereses de conocimiento. El texto debería comenzar así: el propósito de esta investigación es:
“Conocer, analizar, saber”, etc.
Mientras el tema de investigación nos indica el interés de conocimiento general que tenemos, las oraciones tópicas
expresarían intereses de conocimiento particulares, es decir, a cada interés específico de saber corresponde una
oración tópica. Por ejemplo, para el tema “abortos en Argentina en el año 2019”, el investigador podría formular las
siguientes oraciones típicas:
-O.T 1: “El propósito de esta investigación es conocer aproximadamente la cantidad de abortos realizados en
Argentina en el año 2019.”
-O.T 2: “El propósito de esta investigación es saber en qué mes se dio la concentración más alta de abortos en
Argentina en el año 2019.”
-O.T 3: “El propósito de esta investigación es, conocer las causas fundamentales que llevan a las mujeres a
practicarse el aborto en Argentina en el año 2019”.
Luego, se debe seleccionar entre esos múltiples intereses particulares aquellos que son factibles de ser indagados
teniendo en cuenta el tiempo y los medios investigativos que posee el investigador a su alcance.
Hay dos tipos de oraciones tópicas:
a. Oraciones tópicas de primer grado: Son aquellas que pretenden averiguar la presencia o ausencia de un
fenómeno, o de una característica o propiedad de un fenómeno.
b. Oraciones tópicas de segundo y tercer grado / de relación causal y de relación estadística: Son aquellas que se
formulan para conocer la causa de un efecto o una asociación entre dos variables, es decir, se refieren a una relación
entre factores.
El tema/objeto de investigación, aun después de delimitado, tiene tantos aspectos potenciales de investigación, que
puede abarcar varios enunciados temáticos, tanto de primer grado como de segundo y tercer grado. De este modo,
el investigador se da cuenta que el tema/objeto de investigación pierde cada vez más su extensión y generalidad,
para volverse cada vez más específico.
5) La determinación de los recursos disponibles.
El ultimo procedimiento para depurar el tema/objeto de investigación consiste en un inventario de los recursos
disponibles para el trabajo a realizar. El más importante es la fuerza de trabajo disponible (cantidad de
personas/tiempo que participan en la investigación y su calidad en cuanto a conocimientos, habilidades, disposición
y disciplina pertinentes para el trabajo.

PRIMERAS INDAGACIONES SOBRE EL CONOCIMIENTO ACUMULADO DISPONIBLE: ANTECEDENTES, REVISIÓN DE LA


LITERATURA Y ESTADO DEL ARTE.

ANTECEDENTES

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Al seleccionar el estudiante su tema/objeto de investigación, delimita el tiempo del objeto que le interesa (como por
ej. “El aborto en Argentina en 2019”), de este objeto de investigación, delimitado en el tiempo y el espacio y el
significado, se deriva el marco teórico.
Ahora bien, todos los conocimientos sobre el fenómeno que no pertenecen a su marco teórico, y que se refieren al
objeto antes de 2019, constituyen su marco histórico, es decir, los conocimientos del marco histórico se definen por
dos elementos: a. no son parte del marco teórico; b. se refieren a tiempos del objeto de investigación que son
anteriores a los tiempos definidos en el tema de investigación.
En síntesis, los conocimientos existentes sobre el pasado del tema/objeto de investigación, partiendo de la fecha
hacia atrás, constituyen los antecedentes históricos del objeto, es decir, los conocimientos existentes sobre su
pasado.
Esta extensión de los antecedentes históricos del objeto, dependerán de los intereses y recursos de conocimiento
del investigador.

REVISIÓN DE LA LITERATURA.La idea detrás de la revisión de la literatura, es que, para producir un conocimiento
científico nuevo, más avanzado que el existente, hay que estar a la altura de los conocimientos teóricos
metodológicos actuales, y tomarlos como punto de partida para la investigación propia. Es decir que hay que
dominar el conocimiento científico más reciente cuando se pretende investigar un aspecto de la realidad a fin de
aportar nuevos saberes. Consiste en la realización de una revisión de la literatura especializada, que contiene el
saber imprescindible para profundizar nuestro conocimiento del objeto de investigación.
La revisión de la literatura, en síntesis, consiste en revisar, evaluar y sintetizar el conocimiento producido por otros
para construir el punto de partida del propio estudio. La clave del éxito es seleccionar una sensata y actualizada, no
necesariamente siendo exhaustiva, en un sentido amplio, bibliografía.
Cabe aclarar que para Dieterich, el procedimiento de la revisión de la literatura, se entiende como sinónimo de la
construcción del marco teórico.

ESTADO DE ARTE.
El estado de arte no es un marco teórico. Consiste en una compilación de resultados de otras investigaciones que se
han realizado sobre el tema de investigación escogido. Tiene el propósito de mostrar el estado de conocimiento
acumulado en sobre un tema, es decir establecer que se ha hecho recientemente sobre el mismo. Son conclusivos,
deben establecer que se investigó, a través de que metodología y que resultados se obtuvieron.
Al revisar otras investigaciones respecto del tema escogido, se puede establecer de que formas otros investigadores
han estudiado el tema y así saber cómo abordarlo. Sirve para no repetir temas de investigación, definir
metodologías, etc.
En este “estado de arte”, en síntesis, nos damos cuenta de todo lo que se conoce acerca del fenómeno estudiado. Su
propósito, una vez definido el objeto de investigación, es ver como este se ubica en una línea o programa de
investigación, mostrando las discusiones o diferencias respecto de otras. Permite evaluar la “actualidad” del tema u
objeto de investigación
El Marco Teórico, es pues un instrumento conceptual metodológico que se construye sobre la base de la información
pertinente al problema de investigación, más precisamente con la o las teorías que dieron sustento a otras
investigaciones.
A la información seleccionada que nos muestra el avance de lo logrado en investigaciones anteriores y que están
relacionadas con el problema de investigación, se le denomina, Estado del Arte, y será el que sirva de base para la
construcción del Marco Teórico. En el Estado del Arte se precisa saber cuál será la teoría que servirá de base para
sustentar el trabajo en cuestión.
¿Cómo se hace un estado del arte? En primer lugar hay que hacer una selección de bibliografía, se debe recurrir a
otros investigadores, docentes y asesores, para establecer un primer cuadro de referencias bibliográficas,
recurriendo a documentos científicos como tesis y trabajos de grado, artículos de carácter científico, libros y
publicaciones científicas, etc. En segundo lugar hay que clasificar las investigaciones, establecer criterios de
organización de la información seleccionada. También hacer un cuadro con las referencias bibliográficas, bien

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

organizado anotando todos los referentes posibles con los datos pertinentes. Hay que evitar referencias de páginas
web, blogs, y fuentes no científicas. Hay que saber sintetizar, evitando comentarios anecdóticos, que no aportan
nada al tema escogido. Hay que leer en diagonal, no se trata de leerlo todo, la mayoría de los documentos científicos
tienen un resumen y una introducción en la que explican claramente lo que se requiere para un estado del arte.
Sirve para: no repetir temas de investigación, definir metodologías, concluir.
Se hace a través de: una buena selección bibliográfica y mediante la clasificación de las investigaciones.
Se recomienda: hacer un buen cuadro de referencias bibliográficas, leer en diagonal, y sintetizar.

Unidad 2: Decisiones epistemológicas y metodológicas en la investigación jurídica.

1. Elaboración del marco teórico. La epistemología jurídica y la relación del derecho con la moral y la política. El
iusnaturalismo como ruptura epistemológica. El iuspositivismo como primera escuela científica. El conocimiento
jurídico en la teoría pura de Kelsen, en las teorías formalistas, realistas y críticas. Los aportes teóricos y
metodológicos de Dworkin, Rawls, Bobbio, Nino y Habermas.
Marco teórico.

Según dieterich, el marco teórico es el resultado de la selección de teorías, conceptos y conocimientos científicos,
métodos y procedimientos, que el investigador requiere para describir y explicar o comprender el objeto de
investigación. Pero para el conocimiento profundo que queremos adquirir mediante el marco teórico, ya no son
suficientes los datos y aclaraciones que hemos tomado de las enciclopedias generales durante la delimitación
semántica del objeto de investigación. Esta presento una aproximación importante y nos sirvió de punto de partida,
pero hay que pasar ahora a la literatura especializada, que contiene el saber imprescindible para profundizar nuestro
conocimiento del objeto de investigación. ¿De dónde voy a seleccionar las teorías que necesito? ¿Quién me indica
cuales me sirven y cuáles no? La respuesta es sencilla, ya que es el mismo objeto de investigación quien le dice al
investigador cuales son las teorías que ha de utilizar en el análisis.
1. El universo constituye la totalidad de los fenómenos existentes.
Al formular el estudioso su tema de investigación científica, nombra y escoge automáticamente un
fenómeno entre la infinidad de fenómenos del universo y lo hace resaltar, es decir
2. al seleccionar el alumno su tema de investigación, selecciona una parcela o un aspecto de la realidad mundial y la
enfatiza por encima de todos los fenómenos. La afirmación del objeto (tema) de investigación por parte del
estudiante implica, de manera automática e inevitable, la negación de los demás objetos del universo
3. La enunciación del tema de investigación, determina el objeto de investigación, que es un fenómeno o una parcela
del universo.
4. El universo científico o teórico, se compone del conjunto de teorías, métodos, conceptos y conocimientos
científicos existentes, es decir, de una multiplicidad de disciplinas científicas desarrolladas a lo lardo de la historia
hasta la actualidad.
5. El objeto de investigación determina el marco teórico. A cada objeto de investigación, parcela del universo o
fenómeno le corresponden una o varias disciplinas científicas. Al enunciarse el tema, se determina no solo el objeto,
sino también una parcela del universo científico o teórico: las teorías, métodos conceptos y conocimientos
necesarios para explicar el objeto de investigación
En síntesis, al formular el investigador el tema de investigación (enunciado que expresa un interés a saber),
determina automáticamente el objeto de investigación (es decir, escoge un fenómeno de la infinidad de fenómenos
del universo, y lo enfatiza por encima de los demás). Ahora bien, a cualquier objeto de investigación, le corresponde
una o varias disciplinas científicas que contienen el conocimiento específico para explicarlo. Dicho de otro modo, al

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

enunciar el tema de investigación, se determina el objeto de investigación (parcela del universo), y a su vez, dicho
objeto de investigación (como por ej. “aborto”), determina una parcela del universo teórico o científico (conjunto de
teorías, métodos conceptos y conocimientos objetivos necesarios para explicar el objeto de investigación). Así, por
ejemplo, el tema “el aborto en argentina en 2019”, posee un objeto o fenómeno biológico, por lo cual requiere de la
teoría medica en general y ginecológica en particular, y si interesa el aspecto legal, la legislación y jurisprudencia
argentina.
El marco teórico es el resultado de la selección de teorías, conceptos y conocimientos científicos, métodos y
procedimientos que el investigador requiere para describir y explicar objetivamente el objeto de investigación, en su
estado histórico, actual o futuro. Como consecuencia de ello, el mismo objeto de investigación es quien determina
cuales son las teorías que han de utilizarse en el análisis. El marco teórico no es sinónimo de teoría.
Según Sautu, es un conjunto de conceptos que van desde lo más abstracto/general, a lo más concreto/especifico con
respecto al objeto de investigación. Es decir que constituye un corpus de conceptos que tienen diferentes niveles de
abstracción, que se encuentran articulados entre sí, de modo tal que orientan sobre la forma de aprehender la
realidad.
Comprende supuestos de carácter general acerca del funcionamiento de la sociedad (paradigmas y teoría general), y
conceptos específicos (teoría sustantiva) sobre el tema que pretende analizar.

Elaboración del marco teórico.


Una vez planteado el problema de investigación, el siguiente paso es sustentar teóricamente el estudio. La
elaboración del marco teórico, consiste en analizar y exponer aquellas teorías, enfoques teóricos, investigaciones y
antecedentes en general, que se consideran válidos para el correcto encuadre del estudio. A esta etapa los autores la
denominan “elaboración del marco teórico”
Lo que denominamos marco teórico de una investigación es en realidad un argumento que engloba paradigmas
(ideas acerca del conocimiento mismo y como producirlo válidamente), teorías generales (concepciones generales
de la sociedad), y teorías sustantivas (conceptos e ideas del tema específico a investigar).
Para construir el marco teórico de una investigación hay que diferenciar entre, paradigmas, teoría general y teoría
sustantiva.
a. En el nivel más general de la teoría encontramos el paradigma, este constituye un conjunto de conceptos teorico-
metodologicos que el investigador asume como un sistema de creencias básicas que determinan el modo de
orientarse y mirar la realidad. Estos principios funcionan como supuestos que orientan la selección misma del
problema o fenómeno a investigar, la definición de los objetivos de investigación y la selección de una estrategia
metodológica para abordarlos.
En síntesis, los paradigmas, consisten en la visión de cómo ve el mundo el investigador. Definen la cosmovisión del
mundo que tiene el investigador, es la idea que él tiene de cómo influyen los valores en la investigación (son las
subjetividades del investigador, las cuales varían entre uno y otro, ya que cada persona ve el mundo de manera
diferente), consiste en su postura sobre: la definición de la realidad, como esta se puede conocer, papel que juegan
los valores del investigador, cuales son los métodos adecuados para llevar a cabo la investigación.
b. La teoría general se encuentra en un nivel más genérico, está constituida por un conjunto de proposiciones
lógicamente relacionadas que sirven para explicar procesos y fenómenos. Implica una visión de la sociedad, del lugar
que las personas ocupan en ella y las características que asumen las relaciones entre el todo y las partes. Al llevar
implícitos los supuestos acerca del carácter de la sociedad, la teoría general, influye sobre lo que puede o no ser
investigado, condiciona las preguntas que realizamos al objeto de investigación y el modo en que intentamos
responderlas.
c. La teoría sustantiva son teorías específicas que abordan el problema de investigación. Se encuentra en un nivel
menor de abstracción. Está conformada por proposiciones teóricas especificas a la parte de la realidad que se
pretende estudiar. A partir de ella se definen los objetivos específicos de la investigación y se toman decisiones
acerca de etapas de diseño, como por ejemplo, sobre las técnicas de recolección de los datos de investigación que se
utilizaran.
La epistemología jurídica

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La EPISTEMOLOGIA que se enfoca en la amplitud y contradicciones del derecho, estudia la norma dilucidando su
carácter ontológico a priori y a posteriori. ¿Qué hacemos acá? ¿Cuál es la esencia y la finalidad? ¿Cuál es la esencia
cuando yo escribo esta norma? y ¿Cuál es la finalidad cuando yo aplico? Que pueden ser totalmente dos cosas
distintas, yo puedo estar buscando algo cuando sanciono una ley pero cuando lo aplico me doy cuenta que en
realidad la consecuencia es otra, una evaluación previa y posteriori.
La relación del derecho con la moral y la política.
El iusnaturalismo como ruptura epistemológica.
Iusnaturalismo
Habla de un derecho natural en, donde más se va hacer hincapié, pero que va ir evolucionando en cuestiones
morales, cuyo origen es la naturaleza, después fue evolucionando y esto se modificó un poco, igual la moral siempre
es la base. Sería como un derecho que surge de la naturaleza, el objeto del derecho era la conducta humana, la
naturaleza es externa al hombre, estaba antes de que el hombre llegue a la tierra y va a estar después de que el
hombre deje de existir. Entonces el hombre no tiene ninguna implicancia con estos derechos naturales, el no infiere
en nada y los derecho naturales, como la naturaleza, es una en todo el mundo, son universales para esta postura. Lo
que acá es un derecho natural y es basado en la moral de lo que es legal, de lo que hace al derecho en un país, al
otro lado del mundo debería ser lo mismo porque la naturaleza en si es la misma, es universal. Esta postura se va a ir
modificando a lo largo del tiempo así como la humanidad fue avanzando, uno de los primeros escritores sobre esta
postura fue SOCRATES ,el plantea que el derecho natural existe por encima de los hombres, hay dos mundos de
mayores objetivos que estaban antes de que nosotros estemos acá y que va a estar después; nos excede porque son
un conjunto de valores y principios que estaban desde antes y va a seguir estando después y el hombre de alguna
manera lo interpreta en su paso por la tierra, es dado por la naturaleza y en consecuencia a ello actúa, no lo crea el.
Si el derecho es algo dado por la naturaleza ¿El Estado de dónde surge? ¿de un grupo de personas que estén dictando
leyes? Para él también es algo natural, la idea de estado y la conformación de estado para él también surge de la
naturaleza. Además dice que no somos la única especie que está organizada hay muchas especies de animales que
están organizadas, que son un conjunto donde hay un líde,r que se distribuyen actividades, donde hay un mimbro de
la comunidad que cumple una función y otro que cumple otra función, no somos la única especie que tiene este
sentido de orden. El considera que las especies traen consigo eso y por eso nos organizamos de esta manera, que el
estado en realidad tiene un origen natural y no humano.
Después evolucionó a lo que PLATON llamo la DOCTRINA DE IDEAS, saca un poco de lado la palabra natural y el
origen natural, y el ya habla de ideas, sigue siendo algo superior, algo externo al hombre que le es dado, que en
teoría como es superior al hombre es mejor. El plantea una doctrina de las ideas en donde él considera que va haber
una idea que sea máxima y superior, y las ideas o leyes que hagan los hombres, tienen que acercarse lo máximo
posible a esta idea superior, siempre tratando de acercarse a un mandato superior que es impartido por alguien
externo que sabe más que el hombre y es superior porque tiene mayores conocimientos que hombre y nosotros
intentamos acercarnos a ese ideal. La Polis (estado) si es una creación del hombre, pero que solo puede alcanzarse
estas leyes que se acercan lo máximo posible a la idea superior a través del estado, el hombre crea al estado para
acercarse lo máximo posible a esta idea superior.
Finalmente antes de pasar a la época de Roma tenemos a ARISTOTELES, en donde él tiene un concepto de leyes
según la naturaleza. Lo justo es natural; todo lo que sea justo es natural ahora lo justo también es legal si se da una
situacion que es justa entre dos personas hay un inconveniente hay que llegar a la justicia para resolver ese
inconveniente para llegar a lo que es justo va a ser legal. Entonces lo natural es legal si lo justo es natural, y lo justo
es legal entonces lo natural es legal, sigue basándose en la naturaleza para saber de adonde surge el derecho, dice
que si hay una situacion justa que se da entre los hombres tiene que ser natural y cuando hay una situacion justa esa
situacion justa es legal, entonces de a dónde surge la ley de lo natural.
En ROMA le introducen pequeños cambios que muestran como la humanidad fue evolucionando, CICERON lo que va
a decir es que el derecho tiene su última base en la naturaleza y que esa ley tiene una procedencia sobre las normas
humanas. Acá empieza a surgir que hay una base natural, pero que también existen normas humanas, ahora la
normas humana va a tener una base natural, antes se hablaba solamente de una norma natural ahora hay

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

diferencia, la naturaleza me va a decir a mí que hacer pero el hombre lo traduce en una norma y esa norma ya no es
natural esa norma es humana.
Y la última etapa del IUSNATURALISMO PURO CON SANTO TOMAS DE AQUINO acá ya existe la iglesia católica, y toma
esta idea de ley natural pero ya no llama mas ley natural ahora se va a llamar Ley Divina. Entonces ya deja de
provenir de la naturaleza en sí, ahora va a provenir de Dios, no de cualquier Dios, sino de Dios de la Iglesia Católica
Apostólica Romana. Entonces esa va a ser la ley en esta etapa del iusnaturalismo. La ley que diga en que se va a vasar
y que el hombre va a llegar a eso a través de revelaciones, a través de la Biblia y la tradición católica

El iuspositivismo como primera escuela científica.


El positivismo lógico :
El objeto de este grupo es dado , a conocer a través de un manifiesto de carácter programático titulado :
manifiesto científico universal, el circulo de viena en el dejan claro su objetivo ; lograr, sobre la base de una
concepción científica del mundo, la unificación de todas las ciencias a partir de la unificación de su lenguaje, el
método para lograr la unificación es un análisis lógico del lenguaje, que incorpora las técnicas y métodos
introducidos por la nueva lógica matemática , pero despojada ahora de toda metafísica . la clara inspiración
empirista del movimiento lo lleva a rechazar como ilegitimo todo enunciado que no tenga su fuente en la
experiencia directa o que no pueda ser reconducido a ella . Asi de acuerdo con la ya conocida ‘tesis de
intencionalidad’ los enunciados de un orden mas altos como las hipótesis científicas , deben ser reducidos a sus
enunciados elementales o básicos , llamados por los positivistas lógicos ‘enunciados protocolares’ estos
enunciados protocolares constituyen el objeto ultimo de reflexión del teórico y su sentido depende directamente
de la posibilidad de su confrontación con los hechos, es decir de su verifiacion empírica . a partir de aquí , los
empiristas lógicos enuncian su conocido ‘’principio de verificación’ esto es que una oración tendrá sentido siempre
y cuando podamos decir que operaciones empíricas hay que hacer para comprobarla .

Iuspositivismo:
El derecho positivo dice que las normas van a ser aquellas que solamente emanen de una autoridad competente
siguiendo un procedimiento en un momento determinado y que tiene una característica que es la más importante:
se va a separar totalmente de la moral, la moral es para la casa no tiene nada que ver con el estado y con la ley. Si el
estado imparte una ley con todas las legalidades se tiene que cumplir por más que en mi conciencia a mí me parezca
que es inmoral, esa ley es ley, yo después en mi casa puedo pensar si está bien o no pero igual va a ser ley.
Uno de sus principales precursores va a ser COMTE que se va a vasar en dos autores Hum y Kant, Hum va a ser un
poco más cerrado entonces de la parte de Kant va a tomar una visión más amplia, ¿Qué toma de Hum?Hum dice que
el conocimiento está limitado a los acontecimientos actuales de la existencia, no se puede ir más allá porque no
acepta que existan ideas innatas ya que todos los contenidos de la conciencia provienen de la experiencia, el no
acepta los dogmas generales porque todo se limita a la experiencia de cada persona, más allá de eso no existe nada
más, no hay una idea general si yo no la puedo experimentar. Con Kant va a tomar un poco más de apertura, Kant
sigue esta idea de que uno está limitado por sus propias experiencias que no puede ir mas allá de eso y que no
puede compartir una experiencia porque otra persona le cuente sino que solamente tiene que ser propia entonces
dice está bien, los conceptos que uno toma provienen de la experiencia de uno ahora la aplicación de estos
conceptos nunca pueden ir más allá de la experiencia, para Hum había un mundo por persona y solamente adentro
de esa persona se podían imponer ciertas normas porque esta persona veía el mundo de cierta manera que el de
alado no lo veía; Kant dice NO! El mundo es uno solo, la realidad es una sola, pero yo solo puedo opinar de lo que yo
experimento, acota un poco es solo un pero yo opino solo de lo que yo viví. Esto como base para determinar que va
a ser lo justo, lo justo va a ser lo que yo solamente podre considerar en base a lo que yo viví, no puedo poner una
norma general que trate de englobar a todos porque todos vivimos cosas distintas. Entonces tomando esta idea
como base el derecho positivo va a ser siempre relativo porque todos vivimos cosas distintas porque todos vemos al
mundo de una manera distinta entonces no puede haber algo general, fijo y universal tiene que ser siempre algo
relativo a la sociedad.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Esta idea se sigue en parte por el UTILITARISMO el principal precursor fue Bentham, él dice que a la sociedad o a
cada individuo lo mueven dos cosas: el placer, aumentar el placer y el dolor, tratar de disminuir el dolor, a nivel
sociedad situaciones de placer pueden ser por ej. Tener mejores centros de salud pero a la vez que bajen los
impuestos. De esa forma el considera que se mueven las personas y las sociedades en todo momento y el
positivismo toma esto para el momento en que redacta el derecho positivo, es una manera de ver cómo podemos
movilizar a la sociedad sacando lo moral y tomando como base una cuestión de que todo es relativo y evaluar en
cada sociedad que son las cosas que aumentan el placer y que disminuyen el dolor en cada lugar, en cada sociedad
en un momento determinado.

CLASES:
El POSITIVISMO IDEOLOGICO esta totalmente desacreditado pero que dice, el derecho es el derecho y hay que
cumplirlo, debe ser obedecido y el hecho de que haya una ley dictada de manera correcta es razón suficiente para
justificarme moralmente por más de que quizás en mi conciencia no lo estuviera haciendo.
El POSITIVISMO FORMAL el derecho legislado es un sistema lógico, no tiene lagunas y la única interpretación valida
es la literal. Para el formalismo mientras haya una ley escrita yo no tengo que interpretar, yo la tengo que aplicar y
por más que a mí me parezca que dada la circunstancia se creó una laguna yo la tengo que aplicar igual y si ese caso
que yo tengo en realidad es porque hay una laguna de alguna manera pasa por debajo de la ley entonces esa ley no
se aplica.
El IMPERATIVISMO no se fija tanto en el texto sino en la autoridad, quien es la autoridad de que emana la norma. La
norma valida se identifica con un mandato valido del soberano donde hay una habitual obediencia, el derecho es un
sistema de normas que reglamentan el uso de la fuerza que está respaldada por la coacción, la ley es la fuente del
derecho predominante.
El IUSPOSITIVISMO METODOLOGICO O CONCEPTUAL, la tesis de que el derecho se encuentra conceptualmente
separado de la moral por lo que puede ser identificado sin hacer referencia a derechos morales, ya no se fija tanto
en el mandato, ya no se fija en lo literal se quiere asegurar que no haya cuestiones morales de por medio. Luego se
produce un punto de quiebre donde los jueces se preguntan ¿Se puede realmente dejar la moral en la casa? ¿Se
puede separar el derecho de cualquier implicancia moral? Ahí es como se intenta otra vez en este momento
finalmente volver un punto medio y bueno mezclemos las dos cosas.

El conocimiento jurídico en la teoría pura de Kelsen, en las teorías formalistas, realistas y críticas.
Ahí aparece KELSEN con la TEORIA PURA el intenta como solucionar de alguna manera este problema diciendo,
bueno saquemos todo del derecho que no quede nada, que no quede ni visiones políticas salgamos de todo esto que
nos trae tanto problemas y hagamos algo puro sin política y sin valores morales. La idea en si era una teoría
depurada de toda ideología política y de todo elemento de la ciencia de la naturaleza y consientes de tener un
objeto regido por leyes que le sean propias, una ley que tenga de esencia una ley, entonces le empiezan a plantear
pero bueno ¿de dónde van a venir esas leyes? De algún lado tienen que venir porque si no vienen de la naturaleza
vienen de una persona, vienen de una ideología política, de algún lado vienen y ahí es cuando él se enreda y dice
vienen de una NORMA HIPOTETICA FUNDAMENTAL. Esto suena otra vez a que es algo superior, estamos hablando
de algo o alguien que sabe algo que nosotros no sabemos y le dicen bueno escribí cual es esta norma hipotética
fundamental y a él se le ocurre decir EL DERECHO INTERNACIONAL ,pero ¿de dónde va a surgir el derecho
internacional? Él lo que hace es plantear dos maneras de ver al derecho: plantea una perspectiva estática en donde
hay un sistema establecido que serían las leyes y después un punto de vista dinámico que son los distintos actos por
los cuales se crean los derecho que serían las conductas sociales, entonces esta conducta va a generar que esto se
aplique, esto se queda siempre quieto (leyes) y como esto necesita de gente que lo sepa analizar, el consideraba por
ej. Que la Constitución tenía que ser analizada solo por jueces que sean constitucionales. Finalmente la teoría queda
en la nada porque en un momento cuando llegan las críticas él no sabe defender.

Los aportes teóricos y metodológicos de Dworkin, Rawls, Bobbio, Nino y Habermas.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Dworkin
RONALD DWORKIN pone al derecho como una práctica social similar más o menos a lo que veníamos diciendo, el
derecho debe concebirse como una práctica social observable y describible separada de la moral y desarrollado por
las autoridades estatales, sobre todo los jueces. Él va a analizar una sentencia Riggs Vs. Palmer en donde va a ver
una cuestión que interfiere un poco con la postura que viene sosteniendo, este caso era sobre una persona que
había asesinado a otra y no sé si motivado por eso o de casualidad también era su heredero, entonces hay una
norma que dice que nadie puede aprovecharse de su propio crimen, en Argentina tenemos una norma que dice que
es causal de desheredación la persona que asesina a una ascendiente o a la persona que va a heredar ¿Cuál es la
base de esta norma? Son cuestiones morales, porque de ultima el crimen y la sanción es no matar. Yo puedo ir preso
por matar porque yo incumplí con eso, ahora porque yo estando preso no lo puedo heredar?, yo podría estar preso
pero heredar, ahora cuando yo lo desheredo ya es por una cuestión , ya hay algo por detrás que ya no suena bien;
porque en realidad por el delito no matar yo podría ir preso por haber matado y nada mas, no todo lo otro. Ahí al
analizar esto, cuando observa, dice que no se separan las leyes de hoy en día, por más que este bien o este mal; las
leyes actuales no están separadas. Esto fue pregunta de examen ¿cuáles son las leyes que hoy en día se aplica?
Si vamos a contrastar positivistas con la idea de Dworkin para ver cuáles son sus diferencias como debería obrar ante
un caso donde tanto Dworkin como el realismo jurídico me digan que prevalezca lo social, que prevalezca la práctica
y que el juez evalué ¿Cómo obro ante un caso que sea medio polémico? Para los positivistas el juez tiene que actuar
con discrecionalidad, idear derechos para el contexto especificado en este caso, Dworkin entiende que no hay lugar
para la creación de derecho aun en el caso de hallarse ante un caso difícil, porque incluso en estos casos el sistema
ha establecido y puede ser interpretado, siempre va haber una norma para él en algún lugar que pueda ser
interpretada y que al interpretarse pueda ser aplicable al caso, no van a quedar lagunas.
Rawls
JOHN RAWLS dice en cuanto a su idea de que es justicia y que es derecho , el ve a la justicia como equidad, para él lo
que es justo no es lo natural ni es la ley sino que es lo equitativo y en base a eso va haber que dictarse las distintas
normas. Para decir esto plantea dos principios:
 el primer principio dice tal persona debe tener un derecho igual al esquema más extenso de libertades
básicas iguales compatibles con un esquema similar de libertades para otros. Cada persona, tomemos dos
(personas), estas tienen un montón de libertades, no me refiero a la libertad física sino que a la libertad en
general, uno esta como bastante escaso de libertades prácticamente no tiene libertades,pero tampoco
quiere decir que este preso. Lo que él hace es crear un escenario para explicar su teoría, en esta creación de
escenario el saca sus jugadores y los arma en cierto orden; en este contexto te dice el que cada persona
tiene que tener un derecho igual al esquema más extenso de libertades básicas. Acá están las libertades
básicas (dibujo en el pizarrón una línea de largada donde están los jugadores) este es el básico de la libertad
(un jugador se encuentra detrás de esa línea de largada) este es el mínimo en este escenario de libertad A
está detrás de ese mínimo tiene menos del mínimo, B (el otro sujeto) excede bastante al mínimo. En el
escenario que él quiere crear no es que B (el otro sujeto) le tiene que dar su otra mitad y quedar igual, no
hace falta que queden iguales, simplemente él quiere que A (el sujeto con menos libertades) alcance el
mínimo, B puede seguir teniendo exceso, ahora A tiene que tener el mínimo. El equilibrio se alcanza. los dos
están en un lugar en donde ninguno de los dos pueden mejorar o empeorar sin causarle al otro perjuicio, si
yo tengo cuatro manzanas y tengo que dividir entre dos seria dos para cada uno, pero en el momento que en
el escenario en que uno de ellos pasa a tener tres manzanas si o si el otro empeora para que el otro mejore o
viceversa, entonces en este escenario se da el equilibrio donde ninguno de los dos puede ni mejorar ni
empeorar sin causarle daño al otro. Volviendo a la línea de largada el que se encuentra detrás, en este
escenario (A) va llegar al mínimo pero no va a empeorar a B (el otro sujeto) simplemente va a quedar en un
escenario donde todavía no va a ver un equilibrio pero tampoco va a empeorar, va a ser una situacion
intermedia.
 El segundo principio acá colocamos a uno (el sujeto) en una situacion de mínimas libertades ya solucionamos
la cuestión de libertad ahora pasamos a la desigualdad social y económica ¿Cómo arreglamos este
escenario? Para resolver la desigualdad económica vamos a tener dos sub principios: Primero vamos a

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

resolverlo de modo tal que resulte en el mayor beneficio de los miembros menos aventajados de la
sociedad, entonces como lo resolvemos: más beneficios para los menos aventajados ahí si vamos a actuar de
una mera distinta. Y en Segundo lugar los cargos y puestos (no piensen en solo cuestiones laborales) en todo
sentido, la gente ocupa distintos cargos y roles en la sociedad, en una familia que se van dando por las
habilidades y personalidades de cada uno, entonces esto el cargo impuesto es también a un nivel social
quien va a ser el líder, quien va a ser el que ayude al líder, quien va a ser el que esté detrás de escena
trayendo las cosas, no es solo una cuestión de trabajo. Deben estar abiertos para todas las personas bajo
condiciones de igualdad de oportunidades, entonces creamos un escenario en donde los que no tenían
ninguna libertad ahora llegan por lo menos al mínimo el que tenia de más sigue teniendo de más,
beneficiamos a los que estaban menos aventajados en esa sociedad y además dejamos todos los cargos y
puestos abiertos para toda la gente en igualdad de condiciones, ahora una vez que cumplimos con entender
este escenario detrás de escena, este es una línea de largada de una carrera (imaginaria hecha en el
pizarrón) pero acá en esta línea de largada va haber algo que Rawls llama Velo de la Ignorancia, que hace
este velo de la ignorancia no permite a la gente que esta acá (detrás de la línea de largada) vea que hay acá
(después de la línea de largada) yo estoy atrás de una puerta con un velo puesto y cuando se levante el telón
yo arranco pero yo antes no sé qué hay . Él dice que cuando nosotros estemos detrás de este escenario en el
previo a la largada de alguna manera, en esa situacion en donde nos pusimos en un principio en una libertad
mínima para todos, en más ventaja para los más aventajados y liberamos todos los puestos y cargos para las
personas que estén en iguales condiciones. Cuando estemos atrás del velo nosotros vamos a escribir las
reglas del juego que van a ser las leyes antes de largar nos ponemos a pensar cómo va a ser la carrera que
vamos a correr y cuáles son las reglas, entonces como no vamos a saber que hay detrás la vamos a hacer
antes de iniciar la carrera y con el velo de ignorancia de por medio, Rawls va a considerar que estas normas
que hagamos acá (atrás de la línea de juego) van a ser justas y lo que va a ser el derecho, ese es su objeto del
derecho en esta realidad, porque cuando yo este acá (detrás de la línea de largada) no voy a saber si a mí
me va tocar ser el jugador A o B, si yo voy a tener las libertades mínimas o si yo voy a tener exceso de
libertades, yo no sé si voy a ser uno de los menos aventajados que le dieron más beneficios o si voy a ser uno
de los que tenía beneficios suficientes, incluso el habla de que yo no voy a saber cuestiones físicas y
psicológicas mías ¿Qué pasa cuando yo no sé nada de eso? Cuando nos pongamos a discutir como corremos
esta carrera yo voy a pensar dos veces antes de dictar una norma que me pueda perjudicar, porque al
levantarse el telón yo no sé si a mí me toca esa situacion desventajosa que yo dicten en una norma.
Entonces el considera que estas normas van a ser lo justo y el derecho solo en esta situacion, entonces
cuando se levante el telón y corramos la carrera el que llegue primero al cargo o puesto va a ser realmente
quien estaba capacitado para ese cargo y puesto, ya sea a nivel social, a nivel de ser el líder, etc.

Bobbio:
1. Bobbio .teórico del derecho y filósofo de la política. bobbio es conocido a nivel internacional por sus estudios
sobre el Estado, gobierno y la democracia. Sin embargo, su campo de interés y de influencia va mucho más
allá. Entre ellos: la cultura, la filosofía, la política, derecho, entre otras.
si tuviéramos que indicar el aspecto más relevante del pensamiento de Norberto Bobbio, señalaríamos sin
duda el vínculo que estableció entre democracia y derecho; más precisamente: entre democracia, derecho,
razón y paz. Bobbio es conocido por el gran público principalmente como filósofo de la política y como
teórico de la democracia al igual que Kelsen y más aún que Kelsen, ha superado la separación y la
incomunicabilidad entre estudios de teoría del derecho y estudios de filosofía política que caracterizan
desde la época de la Ilustración en adelante el estado de nuestras disciplinas. La obra e Bobbio se extiende a
lo largo de tres cuartos de siglo, y, en consecuencia, puede ser considerada como un espejo intelectual
particularmente representativo del siglo XX. Es de remarcar que la consolidación de su obra se ubica en el
período más trágico de la historia, conocido como “el siglo de los extremos” Su producción intelectual de

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

mayor trascendencia se coincide con el arco del tiempo que va de 1943-1946 a 1989-1991, períodos en las
que se dieron las transiciones que significaron con mayor énfasis en Europa el perfil de la segunda mitad del
siglo XX. Defensor del positivismo en el campo de la filosofía del derecho, donde se ve la marcada influencia
Kelseniana en su pensamiento incluso, reconocida por el mismo Bobbio al señalar que dos pensadores
marcaron en particular su trayectoria , refiriéndose a Hans Kelsen y Thomas Hobbes, donde el primero
ocupa un lugar fundamental en sus estudios de teoría del derecho y de teoría política.
Obras trascendentales.
Las obras que le dieron fama a Bobbio y que hicieron de él el intelectual más influyente en materia política,
se ubican precisamente en la segunda parte del siglo XX .
a) Thomas Hobbes (1965). 11 Bobbio define a Hobbes junto con otros más como autores clásicos. Bobbio,
se dedica no ha su contextualización histórica, sino a la identificación y clarificación de los conceptos y
temas fundamentales, al análisis de los argumentos y a la reconstrucción del sistema. En la obra que
realiza sobre Thomas Hobbes, analiza dos legados fundamentales del pensamiento político moderno de
dicho autor. El primero es un legado de carácter metodológico, que consiste en dar prioridad a la
demostratio por encima de cualquier forma de interpretatio. El segundo es el individualismo, cuyas
diferentes declinaciones son decisivas para fundar, medir y valorar las diversas fórmulas políticas que el
Leviatán, en cuanto esencia del Estado moderno, puede albergar.
b) El futuro de la democracia (1986). Como su título lo sugiere, propone un ágil y cuidadoso análisis acerca
de las promesas aún no cumplidas y los obstáculos que ha tenido la democracia para surgir y
consolidarse dentro de la sociedad mundial en principio, cree que la democracia y la democratización del
mundo ha sido ante todo dinamismo y posibilidades de ampliar la cobertura de participación y derecho
al voto. Para Bobbio, las transformaciones por las que ha pasado el sistema democrático demuestran
que hay un futuro para la democracia moderna, porque allí donde los derechos de libertad y
participación de los ciudadanos han sido reconocidos constitucionalmente, la posibilidad de un retroceso
a sistemas dictatoriales es conjurada por la existencia misma de la democracia, y aunque haya riesgos,
amenazas y caídas, el espíritu de la democracia vive como realidad y anhelo de los seres humanos
organizados socialmente. Bobbio concibe la democracia como un conjunto de reglas procesales para la
toma de decisiones colectivas en el que está prevista y propiciada la más amplia participación posible de
los interesados.
c) El problema de la guerra y las vías de la paz (1991). Las reflexiones de Bobbio sobre la guerra y el
derecho y la no violencia se insertan en una larga tradición filosófica de resistencia contra las falsas
excusas de lo inevitable o incluso insondable de nuestras tendencias destructoras. En su planteamiento
de las posibilidades de la paz y del derecho a la no violencia, Bobbio subraya la actualidad del famoso
escrito de Kant sobre la paz perpetua y demuestra que su defensa del derecho irrenunciable del
individuo no parte de una posición individualista sino que constituye el principio para entender el
concepto de un individuo universal.
d) Liberalismo y democracia (1993). En esta obra publicada en 1985, Bobbio analiza desde una perspectiva
histórica y político-filosófica la relación gestada entre el liberalismo como concepción de Estado y,
democracia como forma de gobierno, En opinión del autor el binomio liberalismo-democracia debe
entenderse ante todo como una relación de necesidad, donde el liberalismo y democracia están ligados
necesariamente en el sentido de que sólo la democracia es capaz de realizar en plenitud los ideales
liberales y sólo el estado liberal puede ser la condición para la práctica de la democracia El punto
irreconciliable entre socialistas y liberales siempre será la propiedad privada. Los primeros exigiendo
para el futuro su total desaparición, o al menos su reducción cuantitativa; los segundos, considerándola
como base para el desarrollo. Y cada cual estableciendo sus propias relaciones con la democracia: el
liberalismo viéndola desde su óptica capitalista, representativa, política y nominal; y el socialismo,
viéndola desde el proletariado, directa, política, económica, nominal y de hecho.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

e) El tercero ausente (1997). En esta obra Bobbio de manera enfática sostiene que el porvenir de la paz se
encuentra vinculada de forma fundamental en el reconocimiento de las libertades cívicas y políticas que
impidan la instalación de un poder despótico.

Nino:

Habermas:
Habermas describe tres intereses cognoscitivos cuasi trascendentales e irreductibles, es decir, básicos, inevitables,
originados por nuestra condición humana, estos son el interés técnico, el práctico y el emancipatorio. Estos tres
intereses constitutivos del conocimiento sirven como base a tres formas distintas de conocimiento y a tres tipos
diferentes de disciplinas, cada una de las cuales tiene su enfoque metodológico propio, su campo de dominio y sus
objetivos. Así, el interés técnico guía a las ciencias empírico-analíticas, el intereses práctico a las ciencias histórico-
hermenéuticas. y el interés empancipatorio a las ciencias sociales críticamente orientadas cada uno de estos
intereses cognitivos arraiga en una dimensión de la existencia social humana : trabajo , lenguaje y poder
emancipatorio . Así el interés técnico arraiga en el trabajo, el interés práctico arraiga en el lenguaje que convella
interacción simbólica, y el interés emancipatorio arraiga en el poder en tanto capacidad empancipatoria arraiga en el
poder en tanto capacidad emancipatoria
Describiremos los tipos de ciencias en los que están implicados los intereses mencionados
1-las ciencias empírico-analíticas. Estas ciencias representan una investigación que se plasma en un saber
técnicamente utilizable. El análisis empírico explora la realidad desde el punto de vista de la manipulación técnica
posible de los procesos naturales, es la esfera de la actividad instrumental; la realidad se constituye aquí como la
suma de lo que puede ser experimentado desde la perspectiva de la transformación técnica, es el campo de las
ciencias naturales. En estas condiciones se configura el lenguaje de los enunciados empírico analíticos; es un
lenguaje formalizado o formalizable ,un lenguaje puro , este lenguaje puro va unido a una experiencia restringida y
es el resultado de operaciones con signos o cuerpos móviles . Este recorte de la realidad realizado desde una
perspectiva exclusivamente instrumental tiene como un interés cognoscitivo técnico. Para habermas se trata solo de
un tipo de conocimiento y no constituye el modelo de todo el conocimiento, como afirma el positivismo
2-un segundo ámbito de la actividad científica está dado por la investigación hermenéutica esta aporta una forma
metódica a un proceso de compresión entre individuos (y de auto comprensión) proceso que se da en un nivel pre
científico, en lo que constituye lo que habermas llama interacciones simbólicamente mediadas. Esto quiere decir que
el ámbito objetual de las ciencias histórico-hermenéuticas ya está constituido, y es la compresión del sentido la que
abre el acceso a los hechos, en lugar de la observación como ocurre en las ciencias empírico – analíticas. En lugar de
contrastación aquí hay interpretación. La investigación hermenéutica abre la realidad guiada por el deseo de
conservar y ampliar la intersubjetividad de una compresión orientadora de la acción. La hermenéutica asegura la
intersubjetividad de una compresión posible que oriente a la acción. La hermenéutica asegura la intersubjetividad de
una compresión posible que oriente a la acción en la interpretación tanto de la cultura propia como de la ajena.
En este ámbito la realidad se constituye en el marco de las formas de vida que se organizan según el lenguaje
ordinario, asi es real lo que puede ser experimentado dentro de las interpretaciones de una simbología vigente. En
las ciencias empírico analíticas , el lenguaje resulta cerrado por que la acción queda separada de la comunicación y
reducida al plano al plano de la aplicación instrumental repetible. Aquí se suprimen las condiciones de la acción
comunicativa en cambio en las ciencias histórico –hermenéuticas la interpretación se dirige a un mismo tiempo a las
experiencias construidas en el mundo a través del lenguaje ordinario , y a las reglas gramaticales de constitución es a
la vez análisis lingüístico y experiencia. Al mismo tiempo , estas interpretaciones hacen posible una orientación de la
acción bajo tradiciones comunes
3- el tercer grupo de ciencias al que se refiere habermas es el que se denomina como ciencias sociales críticamente
orientadas cuyo interés cognitivo es el emancipatorio. No todas las ciencias sociales están críticamente orientadas .
El psicoanálisis y la critica de la ideología son las dos únicas producciones que incluyen un intereses emancipatorio.
Estas formas de conocimiento son autorreflexivas . esto es portan una reflexión consiente de su interés cognitivo
reflexión que esta ausente en los dos tipos de ciencias ya descriptos. De este modo las ciencias críticamente

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

orientadas aparecen como una instancia superadora de las ciencias empírico – analíticas e histórico- hermenéuticas.
Para comprender el alcance de esta afirmación de habermas es necesario realizar una mostración critica del
positivismo presente en las ciencias empírico – analíticas y en las histórico – hermenéuticas aunque en menor
medidas . tal mostración dejara al descubierto como los intereses técnico y practico son desconocidos , ignorados y
pasan inadvertidos ante el interés mas fuerte de objetividad científica al cual aspiran estos dos grupos de ciencias .

2. La formulación de los objetivos en función de la experiencia y del enfoque teórico elegido. Las hipótesis
científicas.

La formulación de los objetivos en función de la experiencia y del enfoque teórico elegido.


Los objetivos son lo que se pretende de la investigación. Deben expresarse con claridad para evitar desviaciones en
el proceso de investigación y deben ser viables (susceptibles de alcanzarse). Son las guías del estudio y hay que
tenerlos presentes durante todo su desarrollo para no desviarnos del eje de la investigación.
Para formular de manera adecuada los objetivos hay que tener presente:
-La diferencia entre objeto/tema de investigación y los objetivos
-Incluir en los objetivos solo los conceptos definidos en el marco teórico.
-Tener en cuenta la delimitación espacio-temporal fijada en el objeto.
-Diferenciar entre objetivos generales y específicos.
-No confundir los objetivos con los pasos a seguir (planificación de actividades), para llevar adelante la investigación.
-Elegir apropiadamente los verbos con los cuales se expresan los objetivos (esta última recomendación es
importante, ya que no todos los verbos que se pueden utilizar tienen los mismos significados. Sería un error común
utilizar de modo indistinto verbos como explicar, comprender, analizar, etc.
Los objetivos en general, son situaciones deseables que se espera alcanzar en un periodo determinado. En un
proyecto de investigación, cuantitava y cualitativa , los objetos son los resultados que se espera alcanzar , si los
problemas en un proyecto de investigación se plantean en forma interrogativa , los objetos se definen mediante
proposiciones de carácter prescriptivos, que el investigador debe lograr o alcanzar . no son proposiciones de carácter
afirmativo ni negativo , son prescripciones a realizar .
¿Es necesario formular los objetivos de la investigación?
En un proyecto de investigación y dentro del planteamiento del estudio la definición de los objetivos es necesario y
juega un papel fundamental por que permite orientar hacia donde va la investigación para que se investiga.
-Formulacion de los objetivos
-Problema principal de investigación. Ejemplo .
¿Cuáles son los métodos, técnicas y estrategias pedagógicas que se utilizan en la en la enseñanza-aprendizaje del
área CTA, en colegios secundarios de menores, en la ciudad de Abancay
Objetivo general de investigación . Ejemplo
Determinar la importancia, y características de los métodos, técnicas y estrategias pedagógicas que se utilizan en la
enseñanza-aprendizaje del área de CTA en colegios secundarios de menores en la ciudad de Abancay-
a. Objetivos generales: Indican cual es la meta central, el fin último de la investigación. Coincide con el título de la
misma. Determinan cuales son los conocimientos que se obtendrán al haber finalizado el estudio. Este objetivo
expresa el resultado del conocimiento más complejo que desea alcanzar. Se tiene solo un objetivo general (idea
expresada en el título de la investigación, propósito global o fin último del proyecto). Del mismo se desprenden los
objetivos específicos.
Son cualitativos (no expresan operaciones concretas, sino más bien situaciones globales o generales), integrales
(porque integran a los objetivos específicos), terminales (porque expresan un logro terminal, que se alcanza en un
mediano plazo)
A)cualitativo . en la medida que no expresa magnitudes , operaciones concretas sino mas bien situaciones globales,
generales
B)integral, porque integra a los objetivos específicos
C) terminal : expresa un logro terminal , que solo se alcanza en un mediano plazo

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

b. Objetivos específicos: Son pequeños pasos, metas que tiene el investigador para llegar al objetivo general.
Consisten en metas concretas y puntuales, que se irán obteniendo durante la investigación y que son realizados por
el investigador para lograr el objetivo general. Estos objetivos se deducen de los objetivos generales. Se requieren al
menos 3 objetivos específicos.
Son operativos (señalan operaciones y logros concretos), conductuales (indican lo que debe hacerse para alcanzar el
objetivo), específicos (precisan, detallan las operaciones y logros concretos)
Formulación de objetivos.
Los objetivos deben redactarse utilizando verbos en infinitivo, con terminación en “ar”, “er”, “ir”. Los más utilizados
suelen ser: determinar, precisar, calcular, identificar, explicar, comprobar, mejorar, etc.
El objetivo final de toda investigación científica es generar conocimiento, por lo tanto, los verbos utilizados en su
planteamiento deben ser cogerentes con ello. Los posibles verbos a utilizar en el planteamiento de un objetivo de
investigación son:
- Describir, cotejar, desarrollar, bosquejar, clasificar, explicar, reconstruir, relacionar, especificar, comparar,
generalizar, demostrar, deducir, discernir, interpretar, evaluar, definir, justificar, analizar, etc.
La estructura para redactar un objetivo es la siguiente:
Verbo + variable + unidad de análisis +contexto.
Verbo (verbo en infinitivo, con terminación en ar, er, ir.) + variable (los distintos valores que puede adquirir la unidad
de análisis) + unidad de análisis (cosa sobre la cual se realiza el estudio, quienes van a ser medidos, realidad que se
pretende estudiar) + contexto (ej: ciudad de Córdoba, universidad UNNE, etc.).
Ejemplo de objetivo general: “Describir (verbo) el uso (variable) que los niños de entre 5 y 10 años (unidad de
análisis), de la ciudad de Córdoba (contexto), hacen de la televisión”
Ejemplo de objetivo específico: “Analizar el tiempo que estos niños pasan, en promedio, frente al televisor”
Se da un triángulo entre TEORIA, METODO Y OBJETIVO.
-La investigación social es una forma de conocimiento que se caracteriza por la construcción de evidencia empírica
elaborada a partir de la teoría aplicando reglas de procedimiento explicitas. De esta definición podemos inferir que
en toda investigación están presentes tres elementos que se articulan entre si: MARCO TEORICO, OBJETIVOS Y
METODOLOGIA.
El marco teórico constituye un corpus de conceptos de diferentes niveles de abstracción articulados entre sí que
orientan la forma de aprehender la realidad.
La teoría general está constituida por un conjunto de proposiciones lógicamente interrelacionadas que se utilizan
para explicar procesos y fenómenos. Influye acerca de lo que puede o no ser investigado y condiciona las preguntas
que nos hacemos y el modo en que intentamos responderlas.
La teoría sustantiva está conformada por proposiciones teóricas especificas a la parte de la realidad social que se
pretende estudiar. A partir de ella se definen los objetivos específicos y se toman decisiones acerca de otras etapas
de diseño.
Los objetivos, constituyen una construcción del investigador para abordar un tema o problema de la realidad a partir
del marco teórico seleccionado.
La metodología, está conformada por procedimientos o métodos para la construcción de evidencia empírica. Esta se
apoya en los paradigmas y su función en la investigación es discutir los fundamentos epistemológicos del
conocimiento.
Las hipótesis científicas.
Según Sierra Bravo las hipótesis científicas son en general suposiciones, enunciados teóricos supuestos, no
verificados pero probables, frente a variables o a relación entre variables
Cuando hablamos de hipótesis “científicas”, nos referimos a las hipótesis en las ciencias empíricas o fácticas, cuyos
objetos de investigación son fenómenos del universo real, ya sean de la naturaleza o de la sociedad. Mientras las
hipótesis de las ciencias fácticas son proposiciones aplicables a un determinado aspecto del universo natural o social,
la hipótesis matemática o lógica es una proposición sobre las relaciones entre entidades abstractas o mentales, o sus
implicaciones.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La demostración o falsedad de ambos tipos de hipótesis es diferente. En la ciencia empírica, se considera


comprobada, cuando los datos arrojados durante su contrastación confirman la predicción original, mientras que en
las ciencias formales la prueba de las hipótesis no se puede realizar sometiéndolas a contrastación con la realidad
mediante el experimento, la encuesta, observación, etc. Por el simple hecho de que no se refieren al universo real.
La prueba de la verdad se reduce a su consistencia frente al sistema abstracto, lógico o matemático al que
pertenece.
-Cuando se han delimitado o determinado los intereses de conocimiento del investigador, y el objeto de
investigación mediante los procedimientos del planteamiento del problema y del marco teórico, el investigador tiene
que dar el paso a la formulación de las hipótesis. Consiste en una afirmación razonada, objetivamente sobre la
propiedad de algún fenómeno o sobre alguna relación funcional entre variables.
-Las suposiciones de la vida cotidiana muestran una serie de falacias que son incompatibles con la suposición
científica, tales como generalizaciones indebidas, por ej. “las mujeres manejan mal”. Tienden a utilizar géneros
ambiguos y contradicciones lógicas y razonamientos que no son verificables en la realidad.
-Una hipótesis científica es un enunciado, afirmado o formulado por alguien, un hombre de la ciencia o una
comunidad científica, en cierto lugar, en ciertas circunstancias y en cierto momento de la historia. Si por fortuna se
lo pudiera verificar, dejara de ser una hipótesis y se convertirá en un enunciado verdadero, es decir, en un
conocimiento científico probado. Puede también ocurrir que se pruebe la falsedad, y en tal caso, también deja de ser
una hipótesis.

Clasificación de las hipótesis


1. Hipótesis de constatación (de primer grado)
Es una proposición científica, un enunciado que, con fundamento en el conocimiento científico, trata de establecer y
constatar, la presencia o ausencia de un fenómeno o una propiedad (característica) del fenómeno. A este fenómeno
o propiedad se lo denomina metodológicamente “variable contrastable”. Por ejemplo: El 60% de estudiantes de la
UNNE son mujeres. Una proposición es una frase que afirma o niega algo, y que en su forma clásica se compone de
tres elementos: Sujeto-verbo-complemento.
Establece la presencia o ausencia de un fenómeno, o de una propiedad. El fenómeno se denomina variable
contrastable
2. Hipótesis causal (de segundo grado)
Es un enunciado que trata de explicar una relación de dependencia causal entre dos o más variables del objeto de
investigación. En síntesis, busca explicar una relación causa-efecto entre dos variables; llamada metodológicamente
variable independiente y variable dependiente; la primera es la que entendemos como causa del fenómeno y la
segunda es el efecto, la consecuencia. Por ejemplo: el calor dilata los cuerpos.
Busca explicar la relación causa-efecto entre dos variables: independiente (causa), dependiente (efecto)
3. Hipótesis de relación estadística o asociación (de tercer grado)
Es un enunciado que, con fundamento en el conocimiento científico, trata de explicar una relación de dependencia
estadística, o correlación entre dos o más variables del objeto de investigación. La diferencia con la hipótesis causal o
de segundo grado, es que la variable independiente y la variable dependiente pueden invertir su lugar, lo que no es
posible en la causal. Por ejemplo: a mayor nivel educativo, mayor ingreso; inversión: A mayor ingreso, mayor nivel
educativo. Existe una influencia recíproca entre ambos factores.
Trata de explicar una relación de dependencia estadística entre dos variables, donde la variable dependiente e
independiente pueden cambiar de lugar.

Formulación de las Hipótesis


a. Las hipótesis no deben contener palabras ambiguas o no definidas. Los significados de todos los términos que la
componen deben estar determinados, por ejemplo, si se realiza una hipótesis sobre el aborto, debe quedar claro si
el concepto se refiere al aborto natural, al inducido o a ambos. Corresponde que la definición del concepto se realice
de modo que otros estudiosos lo entiendan de la manera en que fue definido por el investigador.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

b. Si las hipótesis contienen términos generales o abstractos, estos tienen que ser oparacionalizables . Es decir que
deben tener referentes o correspondencias empíricas. Por ejemplo, si formulo la hipótesis “La crisis económica de
2002 ha aumentado el número de suicidios en la Argentina”, no queda claro lo que significa crisis económica en la
práctica. Se operativiza este concepto desglosándolo en sus componentes: tasa de desempleo, tasa de inflación,
devaluación de la moneda, déficit del presupuesto nacional, etc.
c. No pueden formar parte de las hipótesis términos abstractos que no tengan referente empírico. Por ejemplo
“Dios es la base de la sociedad y del estado”; el termino Dios es un conjunto vacío, no hay fenómeno real que lo
satisfaga; esto se debe a que el termino Dios no puede ser contrastado de manera empírica.
d. Las hipótesis no deben contener términos valorativos. Esto se debe a que los términos valorativos no son
comprobables.
e. Las hipótesis no pueden tener la forma de una prescripción o interrogación. La forma sintáctica de las hipótesis
debe ser la de una proposición simple (hipótesis de primer grado), o compuesta (hipótesis de segundo y tercer
grado)
f. La hipótesis causal debe constar de dos variables. Esto es así para poder dar cuenta de la relación entre la variable
independiente (causal) y la dependiente (efecto). Por ejemplo, si formulo la hipótesis “la inflación produce
desempleo, pobreza y criminalidad”, la misma tiene una variable independiente (inflación), y 3 variables
dependientes (desempleo, pobreza y criminalidad). En este caso conviene realizar tres hipótesis distintas.
g. Las hipótesis deben excluir tautologías (afirmaciones obvias). Son enunciados o argumentos circulares que no
proporcionan información sobre la realidad, porque el sujeto es idéntico total o parcialmente al predicado. Por
ejemplo “la democracia es la dominación del pueblo.”
h. Debe evitarse el uso de disyunciones. Porque reducen el valor informativo. Por ejemplo, “Mañana de 8 a 12
habrá sol”. El valor informativo de este enunciado es alto, pero si se agrega la disyunción “mañana de 8 a 12 habrá
sol o lluvia”, el valor informativo baja. Si se agrega otra disyunción “mañana de 8 a 12 habrá sol, lluvia o heladas”,
entonces la hipótesis se vuelve más estéril aun frente a la realidad, porque ya no tiene utilidad práctica. Debe estar
basada en el conocimiento científico ya comprobado, y no contradecirlo.
i. Debe ser doblemente pertinente. En referencia al fenómeno real de investigación y en el apoyo teórico que la
sostiene.
j. Debe referirse preferentemente a aspectos de la realidad que no han sido investigados aún . Dado que la
finalidad básica es la producción de nuevos conocimientos.
k. Tiene como principal característica su falibilidad. Las hipótesis comprobadas pueden irse perfeccionando en el
tiempo.

Estructura de las hipótesis


Los elementos estructurales de las hipótesis son: las unidades de observación, las variables y las relaciones que las
unen.
-Las unidades de observación se refieren a las personas, grupos, objetos, actividades, instituciones, y
acontecimientos cobre los que versa la investigación. Ahora bien, las modalidades y características (cuantitativas o
cualitativas), de las unidades de observación, constituyen las variables.
-Las unidades de observación son las realidades que se pretenden observar, como tales constituyen en la
investigación, el objeto global de estudio. De ellas se obtienen los datos empíricos necesarios para contrastar las
hipótesis, o para la elaboración de enunciados que permitan descubrir la teoría sustantiva.
-Se diferencia de la unidad de análisis, ya que en esta no se toman sujetos individualmente, sino al conjunto de
sujetos, por ej. “los que votan a determinado partido”, “los que están a favor o en contra de “: Es necesario distinguir
entre “unidades de observación “y “unidades de análisis”. En la investigación social, la unidad de observación puede
ser un sujeto, pero, las unidades de análisis nunca son los sujetos tomados individualmente, sino un conjunto de
sujetos, formado por ejemplo por: “los que votan a un determinado partido”, por “los que están a favor o en contra
de”, “los que comparten las ideas positivistas” etc.
-Por variable entendemos cualquier característica o cualidad de la realidad que es susceptible de asumir diferentes
valores, es decir, que puede variar, aunque para un objeto determinado que se considere pueda tener un valor fijo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Cuando nos referimos a una característica estamos hablando de una cualidad que pueda tener el objeto de estudio,
pero nunca del objeto mismo. Por ejemplo: Una mesa no es una variable, pero si nos referimos a la altura de la mesa
esta característica constituye una variable, que puede tener diversos valores o que puede variar de un caso a otro.
Al hablar de valor, utilizamos el término en un sentido amplio y no reducido al de magnitud numérica, y en
éste sentido se distingue entre variables cuantitativas y cualitativas.
Las variables presentan las siguientes particularidades:
 Son características observables de algo.
 Son susceptibles de cambio o variación con relación al mismo u otro objeto.
 Se presentan a la observación vinculadas en su variación unas a otras, según diversos tipos de relaciones.
 La variable es un aspecto del objeto capaz de asumir diferentes valores, a los cuales se denominan
categorías.
 El marco teórico guía la selección de atributos o variables, que no refieren a la totalidad del objeto de
estudio sino a algunas propiedades consideradas estratégicas.
 Las construcciones de un sistema de categorías dependen de las decisiones teóricas y empíricas que realiza
el investigador. Un sistema de categorías debe ser exhaustivo, contener categorías mutuamente excluyentes
y ser pertinente para el universo que se está estudiando.
Las variables pueden clasificarse de distintas maneras. Un modo posible de clasificación es:
Según su naturaleza
 Cualitativas: sus elementos de variación no son susceptibles de medición numérica. Ej. Sexo
 Cuantitativas: sus propiedades se presentan en diversos grados de intensidad y tienen un carácter numérico.
Ej. Nivel de ingresos, deserción escolar.
Por el tipo de unidad de análisis
 Individuales (ej. posición en la familia, sexo, edad, etc)
 Agregadas: porcentaje de votos, porcentaje de una clase social en una unidad geográfica
Por el nivel de abstracción
 Generales: se refieren a realidades no inmediatamente medibles
 Intermedias: expresan aspectos parciales de las variables generales pero más concretas y cercanas a la
realidad.
 Indicadoras o empíricas: representan los aspectos más concretos y cercanos a la realidad.
Por la escala o nivel de medición
 Nominales: comprenden la distinción entre diversas categorías, sin implicar ningún orden entre ellas.
 Ordinales: implican orden entre sus categorías, pero no grado de distancia iguales entre ellas.
 De intervalo: suponen un orden y grado de distancia igual entre las diversas categorías, su origen es
convencional no natural. De razón; comprenden a su vez los aspectos de distinción, orden, distancia y
origen natural.
Por su status teórico metodológico en las relaciones causales.
 Dependientes: reciben este nombre las variables a explicar, o sea el objeto de investigación que se trata de
explicar en función de otros elementos. Ej. Evaluación del sistema educativo sus partes y roles.
 Independientes: las variables explicativas o sea las partes o elementos susceptibles de explicar las variables
dependientes. Ej. Educación formal
 Intermedias o intervinientes: cuando en el análisis de la relación causa-efecto, se introduce una o más
variables de enlace interpretativo entre las variables dependientes e independientes. Están vinculadas
funcionalmente a la variable dependiente e independiente y producen un efecto en la relación existente
entre esas variables. Ej. Actitudes con respecto a la educación formal
Las variables teóricas o conceptos pueden presentar distintos niveles de abstracción y en consecuencia
diferentes dificultades para su medición. El proceso de pasaje de las variables generales a las intermedias y de éstas
a los indicadores con el objeto de transformar las variables generales a inmediatamente operativas se denomina
operativización de las variables.
En este procedimiento se pueden distinguir los siguientes pasos:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

1. Representación del concepto de variable: implica la definición de la variable, de modo que resulten
expresadas en una noción teórica los rasgos principales que presenta el objeto a estudiar.
2. Especificación del concepto encontrado: involucra el análisis de los aspectos y dimensiones aplicadas en la
representación del concepto de la variable, es decir la especificación de los aspectos que aluden al contenido
del concepto.
3. Elección de indicadores o circunstancias empíricas concretas: implica llevar la concreción hasta su límite
máximo, buscando todos los indicios que en la realidad se puedan considerar como muestra de la dimensión
de que se trata. Por ejemplo: una dimensión de la variable “clase social” es la “posesión de los medios de
producción” y como indicadores de variable se pueden tomar:” las fuentes de rentas” y”la acumulación de
los medios de producción”.
4. Construcción de índices: una vez seleccionados los indicadores que parezcan mas importantes y aptos para
la investigación, es normal que no se pueda asignar a todos la misma importancia. De allí la necesidad de
construir un índice que agrupe en una medida común todos los indicadores referentes a una dimensión,
mediante la asignación de un valor a cada uno de ellos de acuerdo a su importancia. Para integrar varios
indicadores a un índice, estos deben tener entre sí dependencia teórica. Los instrumentos de medición que
se utilizan generalmente en ciencias sociales son los índices sumatorios (nivel económico) tipologías (tipos
de hogar) escala para la medición de actitudes.

3. Las decisiones sobre la estrategia teórico-metodológica en ciencia jurídica. El método: definiciones,


características y reglas. Las técnicas como medios operativos del método. Las diferentes alternativas cualitativas y
cuantitativas. El diseño de investigación jurídica. Tipos según objetivos y límites éticos.

Las decisiones sobre la estrategia teórico-metodológica en ciencia jurídica.


Las decisiones sobre la estrategia teórico-metodológica están orientadas por el paradigma. Este constituye un
conjunto de conceptos teórico-metodológicos que el investigador asume como un sistema de creencias básicas que
determinan el modo de orientarse y mirar la realidad
La metodología está conformada por procedimientos o métodos para la construcción de la evidencia empírica. Esta
se apoya en los paradigmas, y su función en la investigación es discutir los fundamentos epistemológicos del
conocimiento. Existen dos tipos de metodologías: cualitativas y cuantitativas, cada una con diferentes supuestos
teóricos y procedimientos para obtener la evidencia empírica.
La decisión sobre la estrategia teórico-metodológica, consiste en definir, en términos generales, el tipo de
metodología con la que desea trabajar: esto es, resolver si va a desarrollar una estrategia cualitativa, o va a
desplegar una metodología cuantitativa, o bien, combinar ambas.
La elección de la estrategia metodológica debe ser justificada, el investigador debe explicitar porque considera que
los procedimientos seleccionados son pertinentes para obtener evidencia empírica de aquello que desea investigar.
Ninguna metodología de investigación es más importante o superior que otra. Más bien, hay una pregunta de
investigación que resolver, y la misma debe ser abordada de la mejor manera. Esta pregunta de investigación es
quien guía la forma en que se llevara a cabo el proceso de investigación y determinara la metodología y técnicas a
utilizar, ya sean cuantitativas, cualitativas o ambas.
En resumen, en un proceso de investigación podemos optar por diferentes enfoques: El enfoque cualitativo o
cuantitativo. Estos métodos no son incompatibles, por lo cual pueden ser utilizados de manera complementaria en la
investigación, sin caer en contradicciones. Tanto la elección de uno u otro, o el momento de la investigación en el
que se utilizaran el uno o el otro, dependerá del objetivo planteado en la investigación.
La principal diferencia que se da entre uno u otro, es la profundidad con la que se desea estudiar el fenómeno. De
este modo, la estrategia cualitativa profundizará en determinados aspectos (por ejemplo: estudia el árbol dentro del
bosque), mientras que la cuantitativa nos dará una imagen general, un enfoque global del fenómeno (por ejemplo:
estudia el bosque.)
La lógica cualitativa permite la comprensión de la realidad social, mientras que la lógica cuantitativa tiene como
objeto la explicación de los fenómenos sociales.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

Las denominadas metodologías cuantitativas, tienen por objeto la “explicación” de los fenómenos sociales, y se
caracterizan por hacer uso extensivo del método experimental y por encuesta, y de técnicas estadísticas de análisis,
mientras que las cualitativas tienen como objeto la “comprensión” de la realidad social, y privilegian entre otros los
estudios de casos basados en entrevistas no estructuradas, la observación y el análisis del discurso.
En el siguiente cuadro se presentan las principales características de los marcos teóricos que dan lugar a
investigaciones cualitativas y cuantitativas, respectivamente.

Elementos que debe contener el marco teórico que da lugar a diferentes estrategias metodologicas: Según Sautu.
CUANTITATIVAS CUALITATIVAS
-Énfasis mayor en teorías sustantivas. Conceptos teóricos -Énfasis mayor en aspectos epistemológicos que guían el diseño de
que darán lugar a las variables. toda investigación, y en planteos más recientes axiológicos y
-Modelo en el que se postulan las relaciones entre dichas éticos.
variables. -Definiciones de los términos teóricos más abstractos.
-Recorte espacio-temporal del universo teórico. -Énfasis en las prácticas sociales cotidianas.
-Teoría observacional en la cual se apoyan las definiciones -Marco teórico compuesto por conceptos sensibilizadores, es
de las variables. decir, guías que ofrecen un marco de referencia para formular los
-Marco teórico factible de ser transformado en objetivos de investigación: identidad social, estigma.
proposiciones deducibles entre sí, entre las cuales se
encuentran las hipótesis.

Diferencias entre investigación cualitativa y cuantitativa

Investigación cualitativa Investigación cuantitativa

Centrada en la fenomenología y comprensión Basada en la inducción probabilística del positivismo lógico

Observación naturista sin control Medición penetrante y controlada

Subjetiva Objetiva

Inferencias de sus datos Inferencias más allá de los datos

Exploratoria, inductiva y descriptiva Confirmatoria, inferencial, deductive

Orientada al proceso Orientada al resultado

Datos "ricos y profundos" Datos "sólidos y repetibles"

No generalizable Generalizable

Holista Particularista

Realidad dinámica Realidad estática

Ventajas e inconvenientes de los métodos cualitativos vs cuantitativos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Métodos cualitativos Métodos cuantitativos

Propensión a "comunicarse con" los sujetos del estudio Propensión a "servirse de" los sujetos del estudio

Se limita a preguntar Se limita a responder


 
Comunicación más horizontal... entre el investigador y los
investigados... mayor naturalidad y habilidad de estudiar los
factores sociales en un escenario natural

Son fuertes en términos de validez interna, pero son débiles Son débiles en términos de validez interna -casi nunca sabemos
en validez externa, lo que encuentran no es generalizable a la si miden lo que quieren medir-, pero son fuertes en validez
población externa, lo que encuentran es generalizable a la población

Preguntan a los cuantitativos: ¿Cuan particularizables son los Preguntan a los cualitativos: ¿Son generalizables tus hallazgos?
hallazgos?
En general, las investigaciones cualitativas enfatizan la discusión del paradigma y los principios que sustentan la
posición metodológica, mientras que las investigaciones cuantitativas se centran en la teoría sustantiva del problema
a investigar, ya que de ahí se derivan las proposiciones o conceptos que luego serán incorporados al objetivo de
investigación. Los tres componentes mencionados –paradigma, teoría general y sustantiva– condicionan a través de
la formulación del objetivo las orientaciones metodológicas y el método que es teóricamente pertinente utilizar en
un diseño determinado, así como los criterios de muestreo en la investigación cuantitativa, o la selección de los
casos en la investigación cualitativa (Cuadro 1.6).
Los supuestos epistemológicos son aquellos relacionados con la postura del investigador frente a lo que
desea investigar. Para las investigaciones cuantitativas, el investigador (sujeto) debe separarse de su objeto de
estudio para poder generar conocimiento objetivo sobre él; hay una realidad de naturaleza objetiva, y los valores del
investigador no deben influir en el proceso de conocimiento. Esta imagen de la ciencia como a-valorativa heredada
del positivismo que tomó este modelo de las ciencias naturales ha dominado a las disciplinas sociales durante mucho
tiempo, y aún hoy sigue vigente (Denzin, 2005). Los investigadores cualitativos, en cambio, postulan que la realidad
es subjetiva e inter-subjetiva, y ellos mismos, en tanto actores sociales intervinientes, contribuyen a producir y
reproducir el contexto de interacción que desean investigar. De acuerdo con este supuesto, los investigadores
cualitativos han insistido más en reflexionar acerca de las implicancias de su rol como investigadores, de los efectos
de sus propias prácticas de investigación sobre aquello respecto de lo cual se construye conocimiento. Asimismo, los
investigadores cualitativos, en tanto una corriente contra hegemónica en algunas disciplinas de las ciencias sociales,
se vieron obligados en mayor medida a fundamentar sus prácticas para legitimar sus formas de conocimiento. En la
investigación cuantitativa, los supuestos epistemológicos también son relevantes; sin embargo, no se reflexiona
1tanto sobre ellos debido a que se asumen como generales, como parte constitutiva de la práctica de investigación.

METODOLOGI METODOS TECNICAS DE PRODUCCION DE DATOS


A
CUANTITATIVA -Experimental -Cuestionarios
-Encuesta -Recopilación de datos existentes (censos, encuestas,
-Análisis cuantitativos de datos estadísticas continuas)
secundarios (estadística) -Análisis de contenido de documentos, textos, films,
etc.
CUALITATIVA -Etnográfico -Entrevistas interpretativas
-Análisis cultural -Entrevistas etnográficas
-Estudio de casos -Observación participante y no participante
-Biográfico -Análisis de documentos
-Análisis de conversaciones -Análisis de material visual/audio

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

-Grupos focales.

El método: definiciones, características y reglas. Las técnicas como medios operativos del método.

Definiciones
La metodología hace referencia al estudio de los procedimientos utilizados por los métodos, y que han sido
formulados explícitamente en orden a la consecución de un objetivo. Estudia los supuestos que subyacen en la
formulación de los métodos.
Para lograr un conocimiento científico, es preciso seguir determinados procedimientos que nos permitan alcanzar el
fin que nos proponemos, es decir, es necesario seguir un método (un camino que nos aproxime a eta meta).
Precisamente la palabra método deriva del griego y significa “camino para llegar a un resultado”.
El método es el camino a seguir orientado por un conjunto de reglas y un orden de operaciones y procedimientos de
los que se vale una ciencia, praxis o arte para alcanzar determinados resultados. Consiste en el conjunto de pasos
que el investigador sigue en el proceso de producir una contribución al conocimiento.
La diversidad de métodos se deriva de la naturaleza del fenómeno que se va a estudiar. No hay que caer en el error
de que para estudiar cada fenómeno existe un método único. Si puede afirmarse que entre todos los métodos hay
uno más adecuado para el fin propuesto. Tampoco debe pensarse que los métodos son totalmente transferibles
(como por ej. Que los métodos de las ciencias naturales puedan utilizarse sin más en las ciencias sociales); de todos
modos, ello no implica que no haya métodos y procedimientos que no sean válidos para diferentes disciplinas.
El método siguiendo el camino de la ciencia, se ha dividido en:
a) Método general: de la ciencia es aquel que debe aplicarse universalmente y en forma lógica a toda ciencia
vista en su conjunto. Se ha tenido que dividir en 4 sub-métodos que se relacionan formando un conjunto
sistemático y dependiente y pueden considerarse generales para todas las ramas de las ciencias y son:
análisis, síntesis, inducción, deducción. Además de estos 4 sub-métodos genéricos y universales, existen
otros como por ejemplo “método dialéctico”, el cual se caracteriza por su universalidad, es decir aplicable a
todas las ciencias.
El método inductivo-deductivo estudia individualidades para llegar a una conclusión o norma general.
Inductivo: parte de datos particulares para llegar a conclusiones generales; deductivo: parte de datos
generales aceptados como válidos para llegar a una conclusión de tipo particular. El método analítico-
sintético descompone una unidad en sus elementos más simples, examina por separado volviendo a agrupar
las partes para considerarlas en conjunto. Descompone las partes de un todo para estudiarla de manera más
profunda.
b) Métodos particulares: Obedece a la gran diversidad de las ciencias, que para desarrollarse requieren de
estos métodos propios de las mismas. Ej. Métodos matemáticos – Métodos experimentales. Es decir, son
aquellos que se aplican a las ciencias particulares.
c) Métodos específicos: Son aquellos que se utilizan dentro del proceso de investigación científica y que, en
algunos casos, pueden ser también empleados de manera interdisciplinaria. Ejemplo de métodos
particulares y específicos: el método experimental, el estadístico, el de observación.
La palabra método puede utilizarse con un doble significado:
a. Como estrategia cognitiva (métodos de investigación social). En este caso, el método consiste en aplicar una serie
de procedimientos lógicos, sistematizados de tal manera que permitan estudiar, con una fundamentación científica,
hechos, fenómenos, acontecimientos y procesos acerca de los cuales se quiere tener un mayor conocimiento.
b. Como estrategia de acción (métodos de intervención social). El método hace referencia a reglas prescriptivas y a
una serie de procedimientos operativos que orientan las actividades prácticas traducidas en actividades humanas,
cuya intencionalidad es la de transformar una determinada situación social.
Características
El modo de conocer y proceder que tiene la ciencia se ha dado en llamar método científico. Ahora bien, este método
tiene algunas características que suelen considerarse esenciales.
A continuación, señalamos las más importantes, entendidas cada una de ellas en conexión y armonía con las otras.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

a) Esfáctico en el sentido de que los hechos son su fuente de información y de respuesta. Sin embargo, aun
cuando siempre tenga una referencia empírica, el método científico va más allá de los datos empíricos.
b) Trasciende los hechos: Si bien el método científico parte del conocimiento de los hechos particulares, no se
detiene en ellos, los trasciende. El científico no se aleja de los hechos y fenómenos, pero los trasciende
problematizándolos, de modo que puedan ir más allá de las simples apariencias. Se trata de conocer,
comprender y explicar los hechos, no de describirlos.
c) Se atiene a reglas formalizadas por las que se articula un conjunto de operaciones y procedimientos
establecidos de antemano y que hay que realizar para alcanzar un resultado determinado. Si bien todo
método tiene un fuerte énfasis en lo procedimental, no por ello desecha o subestima la intuición y la
imaginación a la que puede apelar el investigador.
d) Se vale de la comprobación empírica para formular respuestas a los problemas planteados y para apoyar
sus propias afirmaciones, exigiendo una constante confrontación con la realidad que lleva a la
problematización aun de lo ya admitido
e) Es objetivo, ya que el investigador, como sujeto/observador/conceptuador, debe alterar lo menos posible lo
que observa, en cuanto su subjetividad también está en juego.
f) Sus formulaciones son de tipo general. No se trata de que el método científico “ignore la cosa individual o el
hecho irrepetible; lo que ignora es el hecho aislado”, puesto que sus enunciados son universales.
g) Esta permanente confrontación hace que el método científico sea, además, auto correctivo y progresivo; es
auto correctivo en cuanto va rechazando, corrigiendo o ajustando las propias conclusiones en la medida en
que nuevos datos demuestran la existencia de algún error u omisión; Es progresivo ya que, al no tomar sus
conclusiones como infalibles y finales, está abierto a nuevos aportes y a la utilización de nuevos
procedimientos y de nuevas técnicas.
Reglas
Mario Bunge define al método científico como la estrategia de la investigación científica que afecta al ciclo completo
de la investigación y es independiente del tema en estudio y del conocimiento respecto de dicho tema. No existe un
método científico único, se encuentran muchas interpretaciones según sean las corrientes del pensamiento.
Fundamentalmente, el método científico consiste en establecer unas reglas o procedimientos generales que, al
formar parte de una estrategia cognitiva, proporcionen una cierta garantía en la obtención de los resultados
propuestos en la investigación.
Según Bunge, estas reglas o pasos operativos pueden resumirse en los siguientes puntos:
• formular correctamente el problema;
• proponer una tentativa de explicación verosímil y contrastable con la experiencia;
• derivar consecuencias de estas suposiciones;
• elegir los instrumentos metodológicos para realizar la investigación;
• someter a prueba los instrumentos elegidos;
• obtener los datos que se buscan mediante la contrastación empírica;
• analizar e interpretar los datos y la información recogida;
• estimar la validez de los resultados obtenidos y determinar su ámbito de validez: hacer inferencias a partir
de lo que se ha observado o experimentado.

Técnicas como medios operativos del método


La acepción corriente y más generalizada de la palabra “técnica” hoy alude al “conjunto de procedimientos y
recursos de los que se sirve una ciencia, un arte, un oficio o una actividad intelectual.
Dentro del contexto del tema que estamos analizando, cabe señalar la relación que existe entre las técnicas y los
métodos.
El método no basta ni lo es todo; se necesitan procedimientos y medios que “traduzcan” el método a nivel de reglas
prácticas aplicadas. Es lo que hoy se denominan (dentro de nuestro campo) las técnicas de investigación social.
Éstas, como los métodos, son respuestas al “cómo hacer” para alcanzar un fin o resultado propuesto, pero están al
servicio de los métodos, a modo de dispositivos auxiliares que permiten la aplicación del método por medio de

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

elementos prácticos, concretos y adaptados a un objeto bien definido. Nunca las técnicas se han de considerar
aisladamente en su mero carácter instrumental; han de estar siempre articuladas y al servicio de los métodos.
Cuando las técnicas o procedimientos se utilizan de manera aislada, se corre el riesgo de caer en una concepción
tecnocrática de la investigación social o en una especie de fetichismo metodológico.
Entonces ¿cuál es la relación que existe entre método y técnica? Mientras las técnicas tienen un carácter práctico y
operativo, los métodos se diferencian de ellas por su carácter más global y de coordinación de operaciones. Las
técnicas se engloban dentro de un método y, a la inversa, un método comporta el uso de diferentes técnicas; sin
embargo, en la práctica de determinadas tecnologías sociales, no siempre resulta fácil delimitar claramente las
fronteras que separan los métodos de las técnicas. Lo que está bastante claro en el pensamiento actual es la
estrecha relación que existe entre el método y las técnicas, y entre las ciencias y la tecnología.
Podríamos resumir todo lo concerniente a la comparación y las relaciones entre metodología, método y técnica, en
las siguientes ideas:
• La metodología hace referencia al estudio de los métodos y de los supuestos subyacentes en éstos.
• El método puede expresarse como una forma de estrategia cognitiva (para adquirir conocimientos) o como
estrategia de acción (que oriente de manera práctica las formas de intervención social). En uno y otro caso son un
conjunto de reglas, procedimientos y actividades orientadas al logro de objetivos.
• Las técnicas son los procedimientos o conjunto de actuaciones que hacen operativos a los métodos; están siempre
al servicio de un método.
• Un método se basa en una serie de reglas o procedimientos generales de carácter abierto; las técnicas son un
conjunto de actuaciones pre-establecidas que tienen un carácter más rígido y cerrado.
Abundando en la idea ya expuesta acerca de la validez relativa de los métodos y las técnicas, recordamos con Bunge
que ningún método o técnica de investigación es exhaustiva o infalible. No basta leerlas en un manual, hay que
vivirlas para comprenderlas. Ni dan resultado todas las veces. El que resulten depende no sólo de la táctica o
método, sino también de la elección del problema, de los medios (conceptuales y empíricos) disponibles y, en menor
medida, del talento del investigador. El método no suple el talento, sino que lo ayuda.

Las diferentes alternativas cualitativas y cuantitativas.


Investigación cuantitativa.
a. Supuesto lógico-epistemológico: Se basan en una lógica cuantitativa con la intención de explicar la realidad social
b. Intención del investigador: Es hipotética y deductiva. Busca la explicación, verificación de la teoría y
generalizaciones estadísticas.
c. Problemas o preguntas de la investigación: Las preguntas al objeto se realizan en términos de variables y
relaciones para establecer una relación causa-efecto. Las preguntas orientan investigaciones descriptivas o
explicativas.
d. Función de la teoría: Se trata de poner a prueba una teoría. De refutarla o verificarla.
e. Selección de los casos: Los casos se seleccionan a través del criterio de muestreo estadístico. Se apoya en las
nociones de la probabilidad y la representación estadística.
f. Función del investigador: Se mantiene a distancia del objeto real.
Investigación cualitativa:
a. Supuesto lógico-epistemológica: Se basa en una lógica cualitativa con la intención de comprender la realidad
social.
b. Intención del investigador: Se trata de una inducción analítica y de buscar la comprensión.
c. Problemas o preguntas de la investigación: Demanda preguntas que conduzcan a la flexibilidad y libertad para
explorar el fenómeno en profundidad. La pregunta inicial es amplia y se vuelve progresivamente más focalizada
durante el proceso de investigación.
d. Función de la teoría: Por lo general no se formulan hipótesis, pueden aparecer una vez que se realice el primer
análisis para la información. La teoría orienta al trabajo con el propósito de generar nuevas teorías y nuevos
conceptos relacionados con las manifestaciones observadas.
e. Selección de casos: Se dan pocos casos, seleccionados a partir de un muestreo intencional y otro teórico.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

f. Función del investigador: El investigador se introduce en la investigación. Se sumerge en el objeto real. Las
vivencias del investigador se convierten en datos.
Es en este marco en donde se debería abordar también otra dicotomía que ha ganado el campo investigativo en
ciencias sociales en los últimos tiempos. Nos referimos a la separación entre investigaciones cualitativas y
cuantitativas, como instancias metodológicas antagónicas, señalando la contraposición entre dos lógicas de
investigación: la lógica cualitativa que permite la “comprensión” de la realidad social, y la lógica cuantitativa cuyo
objeto es la “explicación” de los fenómenos sociales. Contraposición que, recordemos, tiene su origen en la discusión
acerca del status epistemológico de las ciencias sociales y su diferenciación con las ciencias naturales que ha
atravesado el pensamiento filosófico y científico durante los siglos XIX y XX. Situación que se corrobora con la actitud
de investigadores que sostienen que el llamado método científico, asociado a una lógica cuantitativa es apropiado
para las ciencias naturales. Mientras que una realidad multifacética como la social, necesita de propuestas
metodológicas especiales, generando una gran proliferación de técnicas cualitativas que se adoptan como las
indicadas para las ciencias sociales. Esta postura puede clarificarse a partir del siguiente cuadro comparativo, que
permite entender cuáles serían los criterios que se toman en cuenta para sostener dicha dualidad.

(desgrabado de clases)
El proceso de investigación puede llevarse adelante a través de dos enfoques diferentes: uno de ellos es el enfoque
cuantitativo y el otro el enfoque cualitativo. ¿De qué va a depender la elección de uno u otro enfoque? Va a
depender de los objetivos de la investigación, de lo que nos propongamos en la investigación; y también
fundamentalmente de la profundidad con la cual yo quiera estudiar el fenómeno o el objeto de investigación sobre
el que se va a trabajar.
El enfoque cuantitativo nos ofrece como resultado final de nuestra investigación una imagen general del fenómeno,
superficial. A diferencia del enfoque cualitativo que lo que va a hacer es profundizar en determinado aspecto del
fenómeno, vamos a bucear en el fenómeno para llegar a un conocimiento profundo.
Enfoque cuantitativo: imagen en conjunto- global; superficial del fenómeno.
Enfoque cualitativo: profundizamos hasta llegar a aspectos profundos de un fenómeno.
Enfoque cuantitativo: ejemplo un bosque en su totalidad, en su globalidad. Vemos flora, fauna, vemos la actividad
del sol, la superficie. Vemos una imagen en conjunto del fenómeno.
Enfoque cualitativo: ejemplo un árbol. En el enfoque cualitativo se vuelve a hacer un zoom sobre determinados
elementos del fenómeno. Se va a estudiar determinados aspectos del fenómeno en profundidad. No se va a
estudiar el ecosistema bosque sino las características botánicas que presenta la especie árbol, características en
cuanto a producción de frutos, en cuanto a su crecimiento. SE INDAGA EN ASPECTOS CONCRETOS Y EN
PROFUNDIDAD DEL FENOMENO.
La diferencia entonces entre estas dos técnicas es la profundidad con la que se pretende estudiar determinado
objeto de investigación. Grado de profundidad.
-Enfoque cualitativo
¿En qué se basa?
Se basa en el análisis, en el estudio del comportamiento de los sujetos, de los individuos, y su significación o su
influencia, o de su determinación en la interacción social.
¿Qué demandan las técnicas de enfoque cualitativo?
Demandan en la generalidad de los casos un largo periodo de estadía del investigador en el campo de estudio
normalmente.
Demandan interacción entre el investigador y de los individuos o sujetos que forman parte del fenómeno en estudio.
Además ir realizando narraciones, descripciones detalladas, de lo que vamos observando como investigadores y
tomar registros cuidadosos de todo lo que se va observando. De eso se trata los enfoques cualitativos.
En los enfoques cualitativos el investigador es instrumento de medida ¿Por qué? Porque él va a ir directamente a
involucrarse con los integrantes que forman parte del fenómeno de estudio. El se va a insertar en el fenómeno. No
va a ser un mero estudio bibliográfico, en donde va a estudiar datos secundarios. El investigador va a ir al fenómeno,
se va a insertar, va a interactuar, con los integrantes, con los sujetos del fenómeno social que está siendo estudiado.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Por eso decimos que él mismo es un instrumento de medida, en este tipo de estudio, o de investigaciones, por la
envergadura o profundidad de este tipo de estudio, por la profundidad con el que estudia los fenómenos, es que
normalmente se lleva a cabo este tipo de enfoques en investigaciones de pequeña escala.
Ejemplo una investigación dentro de un enfoque cualitativo, en todo el curso de seminario, en determinados
aspectos de cada uno, en detalles, no se terminaríamos nunca. Entonces se va a tener que reducir nuestra muestra,
estudiamos con tanta profundidad los fenómenos, que la investigación se reduce.
No tiene reglas de procedimiento: las técnicas dentro de los enfoques cualitativos son técnicas flexibles,
normalmente las hipótesis, los conceptos, se van elaborando en la medida que se va realizando la investigación.
Excepción: no partimos de la regla, es decir, de tener la hipótesis previamente para salir al campo a investigar. Sino
que directamente en este caso se sale al campo porque no tenemos todavía un conocimiento profundo de la
cuestión, se sale con un conocimiento muy vago. Incluso en algunas técnicas se requiere que el investigador no
conozca tan en detalle el tema.
Entonces vamos a salir desde la realidad empírica, vamos a relacionarnos con el fenómeno y recién cuando
empecemos a comprenderlo vamos a ir elaborando la hipótesis.
Puede que el hecho de conocer el tema antes de elaborar la hipótesis le puede sesgar los resultados, porque puede
influir este conocimiento, en el análisis que el investigador haga de los datos y no necesariamente de la propia
realidad. Puede llegar a tener una tendencia subjetiva, si se instruye antes. Por ende se sugiere en las distintas
técnicas que no se conozca tanto el tema, así también como saber dónde ir a buscar el dato.

TÉCNICAS QUE CONFORMAN ESTE TIPO DE ENFOQUE.


Las técnicas que conforman este enfoque cualitativo son aquellas que interfieren lo menos posible, es decir, aquellas
que alteren lo menos posible el fenómeno de estudio. Como el investigador debe insertarse en el fenómeno que
esta por estudiar, deben utilizarse técnicas que influyan lo menos posible en el devenir cotidiano, normal y natural
de ese fenómeno.
Encontramos las siguientes: fenomenología, teoría fundamentada, interaccionismo simbólico, etnometodologia,
análisis del discurso, etnografía,

Enfoque cuantitativo
¿En qué se basa?
Se basa en el uso de técnicas estadísticas para conocer ciertos aspectos de interés sobre la población que se está
estudiando, es decir que las partes representan el “todo”. Es por ello que utiliza una muestra, lo que le permite
generalizar los resultados adjudicando a cierta porción el todo. Las variables a estudiar pueden ser tanto objetivas:
número de hijos, cantidad de ingreso, etc. O subjetivas: opiniones, valoraciones, etc.
¿Qué demandan las técnicas de enfoque cuantitativo?
TÉCNICAS QUE CONFORMAN ESTE TIPO DE ENFOQUE
Encuesta.
El diseño de investigación jurídica.
Se da un paralelismo entre la formulación del marco teórico de la investigación (que tiene por finalidad analizar el
objeto en tanto construcción teórica, para permitir una aproximación conceptual) y la elaboración del diseño de la
investigación (que se ocupa de abordar el mismo objeto en tanto fenómeno empírico, para lograr confrontar así la
visión teórica del problema con los datos de la realidad)
Si el conocimiento es un proceso intrínsecamente teórico-práctico, donde las ideas e hipótesis deben ser
confrontadas permanentemente con los hechos empíricos, para poder afirmarlas o negarlas, se comprende la
importancia de trazar un modelo conceptual, y otro operativo que nos permita efectuar ese cometido.
El diseño de investigación se ocupa de proporcionar un modelo de verificación que permita contrastar hechos con
teorías, y su forma es la de una “estrategia” o “plan general” que determina las operaciones necesarias para hacerlo.
Así, por ejemplo, si nuestra aproximación teórica nos lleva a suponer que la esquizofrenia tiene un origen orgánico,
tendremos que elaborar un método para poder comprobar si tal afirmación se corresponde o no con la realidad.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Definir qué pruebas de laboratorio, qué observaciones y análisis de conductas son los pertinentes para llegar a esa
comprobación, es lo que llamamos elaborar un diseño. Resulta claro, entonces, el sentido de lo que hemos
denominado momento metodológico de la investigación: en el mismo no se trata ya de definir qué vamos a
investigar, sino cómo vamos a hacerlo.
Realizar el diseño de una investigación significa llevar a la práctica los postulados generales del método científico,
planificando una serie de actividades sucesivas y organizadas donde se encuentran las pruebas a efectuar y las
técnicas a utilizar para recolectar y analizar los datos. El diseño es, pues, una estrategia general de trabajo que el
investigador determina una vez que ya ha alcanzado suficiente claridad respecto a su problema y que orienta y
esclarece las etapas que habrán de acometerse posteriormente.
El diseño de investigación es la planificación de actividades que deben llevarse a cabo para solucionar los problemas
o contestar las preguntas planteadas. Sirve para poder situar al investigador en el mundo empírico y saber las
actividades que tendrá que realizar para poder alcanzar el objeto sugerido.
El diseño de investigación consiste en la planificación de tres tipos de acciones:
a. Las destinadas a establecer que se va a investigar.
b. Las destinadas a establecer cómo se va a investigar (requiere métodos, técnicas e instrumentos específicos)
c. Y las acciones destinadas a interpretar los hallazgos.
Se pueden distinguir tres dimensiones para la formulación de un diseño de investigación:
a. Dimensión epistemológica: Hace referencia a las decisiones que el investigador realiza para la construcción del
objeto de investigación (marco teórico: conceptos y categorías teóricas, objetivos fuentes y antecedentes de la
investigación)
b. Dimensión de la estrategia general de la investigación: Se refiere a las decisiones que el investigador toma acerca
de las líneas generales previstas como sustento o andamiaje de la investigación, las cuales guardan coherencia con
las decisiones tomadas en la dimensión epistemológica y fundamentalmente con los objetivos de la investigación. Es
decir, si el objetivo general es explicar, comprender o interpretar los fenómenos.
c. Dimensión de las técnicas de recolección y análisis de la información: Corresponde al conjunto de decisiones que
el investigador toma en relación con la elección y aplicación de técnicas de recolección y análisis de información
empírica. Cobra sentido solo en relación a la lógica de la investigación. Se eligen e implementan las técnicas de
relevamiento y análisis

Tipos según objetivos y límites éticos.


En función del tipo de datos puede hablarse de: Diseños bibliográficos y diseños de campo.
a. Diseños de campo.
En los diseños de campo los datos de interés se recogen de forma directa de la realidad, mediante el trabajo
concreto del investigador y su equipo. Estos datos, obtenidos directamente de la realidad empírica son llamados
“primarios” (son datos de primera mano, originales, producto de la investigación en curso sin intermediación de
ninguna naturaleza).
Si bien dan un mayor nivel de confianza en cuanto a la información obtenida (debido a que el investigador puede
cerciorarse de las verdaderas condiciones en que se han conseguido sus datos, posibilitando su revisión o
modificación en el caso de que surjan dudas respecto a su calidad), los diseños de campo poseen una limitación o
desventaja en cuanto a su reducido alcance. Esto se debe a que muchas veces no puede haber un contacto directo
entre el investigador y el objeto de estudio, haciendo imposible que ciertos datos puedan alcanzarse por esta via, ya
sea por restricciones espaciales o temporales (por ejemplo, la historia, donde el investigador no puede volver al
pasado), por carencia de recursos, etc.
De este modo quedan reducidas a un sector más pequeño de la realidad, aunque este se puede abordar con mayor
precisión y seguridad. Los diseños de campo más frecuentes son: El diseño experimental; El diseño post-facto; El
diseño encuesta; El diseño panel; Los diseños cualitativos; El estudio de casos.

Diseño/método experimental

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Consiste en someter el objeto de la investigación a un estímulo, es decir, a la influencia de una variable para
observar cómo reacciona ante el mismo, en condiciones controladas y conocidas por el investigador. Asi por
ejemplo, si tomamos de objeto un trozo de algún material y lo hacemos sufrir esfuerzos mecánicos (presiones,
tensiones, etc), que medimos cuidadosamente, podremos alcanzar un conocimiento muy seguro y claro con
respecto a la resistencia de ese material.
No hay limitaciones en cuanto a los estímulos o variables, excepto que el objeto de estudio sea un humano, donde
habrá limitaciones de carácter ético y lo referente a los derechos humanos.

Diseño/método experimental en las ciencias sociales


Si bien es un método propio o característico de las ciencias naturales, ello no obsta su aplicación a las ciencias
sociales. En el caso de experimentar con objetos sociales (personas, grupos o instituciones), se da una limitación en
cuanto a la experimentación, a partir de la cual solo puede usarse en contados casos, debido a las consideraciones
éticas y prácticas que impiden su realización. Así, por ejemplo, si quisiéramos conocer los efectos que la desnutrición
aguda ejerce sobre los grupos humanos, deberíamos buscar formas de comprobación ajenas al experimento, ya que
por razones obvias no se puede aplicar el estímulo desnutrición aguda a un conjunto humano. Ningún fin científico
justifica realizar acciones que puedan lesionar a otros hombres, ya sea en lo físico o en lo moral.

El diseño experimental se puede aplicar a las ciencias sociales de la siguiente manera:


- Antes y después con un solo grupo: antes y después de un estímulo variable
El objeto en estudio queda constituido por un grupo social, generalmente reducido, previamente definido en cuanto
a sus características fundamentales. Supongamos que nos interese medir el efecto de una buena iluminación sobre
la productividad de los trabajadores. Para ello tomaríamos un grupo de trabajadores que estén realizando sus tareas
con una iluminación determinada y mediríamos (antes del experimento) su productividad. Luego introduciríamos el
estímulo, en este caso una mejor iluminación, para después volver a medir la productividad del grupo. Si
encontramos alguna diferencia significativa en esta variable podemos atribuirla al cambio de las condiciones de
iluminación. Este es el esquema más simple de experimentación y tropieza con la dificultad de que las
modificaciones que se producen en la variable medida pueden tener su origen en el estímulo o, tal vez, en alguna
otra variable que no hemos tenido en cuenta. Con una repetición suficientemente grande de experimentos, sin
embargo, podemos lograr resultados muy confiables con este esquema tan simple.
EJ: El ANTES Y DESPUES DEL ESTIMULO. Ej. ¿Cómo influye la luz natural en el rendimiento natural de los empleados
de una empresa?
1º ANTES: Empleados trabajando CON LUZ ARTIFICIAL. (PARÁMETRO)
2º DESPUÉS: empleados trabajando+ Estimulo: luz natural/ área con ventanas= RESULTADO
RESULTADO FINAL= HIPOTESIS: LA INFLUENCIA DE LUZ NATURAL MEJORA EL RENDIMIENTO LABORAL DE LOS
EMPLEADOS.

- Solamente después con dos grupos: grupo experimental que sufre la aplicación del estímulo y grupo de
control que no sufre los estímulos.
En este caso debemos construir dos grupos, que se denominarán grupo experimental (destinado a recibir el
estímulo) y grupo de control (que nos sirve de punto de referencia para apreciar las variaciones que se produzcan en
el anterior). Como es necesario efectuar las mediciones comparando los resultados entre ambos grupos éstos deben
ser, en todas las características de relevancia que sea posible controlar, lo más semejantes posibles, ya que no
iguales. Esta tarea de igualación de los grupos se denomina homogeneización, y para llevarla a cabo se apela a
procedimientos de muestreo. En este tipo de experimento no se realizan mediciones antes de la aplicación del
estímulo: se aplica éste solamente al grupo experimental y se mide finalmente a ambos grupos. Siendo los grupos
previamente homogeneizados se puede inferir que toda variación significativa que encontremos entre ellos
obedecerá a la influencia del estímulo aplicado.
Ej: SOLAMENTE DESPUES CON DOS GRUPOS:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

1º GRUPO DE CONTROL: no sufre ninguna variable: grupo trabajando normalmente con luz artificial.
(PARÁMETRO)
2º GRUPO EXPERIMENTAL: se le aplica la variable/ estimulo: grupo trabajando con luz natural/ ventanas
COMPARACIÓN GRUPO DE CONTROL CON GRUPO EXPERIMENTAL= RESULTADO- HIPOTESIS
Es lo mismo que el antes y después solo que en ese caso el parámetro estaba dado por el mismo grupo ANTES, es
decir, se mide antes y después.
Es el segundo caso solamente se mide el DESPUES, cuyo parámetro esta dado por el grupo de control, el cual no
sufrió ninguna variable.
- Antes y después con un grupo de control
Se basa en los mismos principios que el método anterior, pero con la diferencia de que aquí las mediciones se hacen,
antes y después del estímulo, a ambos grupos. Ello nos previene contra los posibles defectos de la igualación y nos
permite también tener en cuenta la influencia de cualquier situación que pueda originar variaciones simultáneas en
ambos grupos y que de otro modo no detectaríamos. Entre estas situaciones es preciso tomar en cuenta la
alteración que nuestras mediciones, o el posible conocimiento de hallarse en situación experimental, siempre
originan sobre la conducta de los grupos. Si llamamos GE al valor de la medición inicial para el grupo experimental y
GC al valor de la misma para el grupo de control, y designamos con GE’ y GC’ a los valores respectivos de las
mediciones finales para ambos grupos, el efecto e, producido por el estímulo, puede calcularse de la siguiente
manera:
e= (GE’ - GE) B (GC’ - GC)
Los esquemas antedichos son los más simples que se emplean, pero existen modelos que se denominan Antes y
después con dos grupos de control, Antes y después con tres grupos de control, y otras variaciones sobre estos
modelos básicos. Estas formas más sofisticadas resultan especialmente útiles para medir influencias no consideradas
previamente y para descartar inadvertidos errores de medición. Dan lugar, por lo general, a conocimientos más
precisos y valiosos, aunque su ejecución es más costosa y su aplicación más delicada.
EJ:
1º EVALUACIÓN ANTES DE LOS DOS GRUPOS
2º EVALUACION DE AMBOS GRUPOS DESPUES
RESULTADO= EFECTOS DEL GRUPO EXPERIMENTAL INFLUYERON EN EL GRUPO DE CONTROL. ESTO DEMUESTRA QUE
EL GRUPO DE CONTROL PUEDE VARIAR: puede ser que el grupo de control (empleados trabajando con luz artificial,
no estén de acuerdo con que el otro grupo experimental este trabajando con luz natural, en mejores condiciones.
En este caso redujo el rendimiento.
Diseño no experimental o post-facto
El experimento post-facto quiere decir “experimento que se realiza después de los hechos”. Por su método no se
trata de un verdadero experimento, pues en él, el investigador no controla ni regula las condiciones de la prueba,
pero si puede considerárselo como tal si nos atenemos al procedimiento lógico del cual se vale, que es idéntico al de
los experimentos propiamente dichos.
Consiste en tomar como experimentales situaciones reales que se hayan producido espontáneamente, trabajando
sobre ellas como si efectivamente se hubieran dado bajo nuestro control. Si en un país tenemos dos regiones
geográficas A y B, por ejemplo, que en cuanto a una serie de variables tienen un comportamiento similar, y ocurre
un hecho en una sola de ellas, digamos la apertura de una carretera troncal, podemos tomar a este hecho como si
fuera un estímulo y atribuir a él las modificaciones que se produzcan luego en esta región y no en la otra. Ello resulta
legítimo en tanto éste haya sido el único factor de importancia que diferencie ahora a las dos regiones, que hasta
entonces considerábamos básicamente como homogéneas. En este ejemplo, podemos atribuir un incremento del
comercio o un cambio de pautas sociales de comportamiento a los efectos directos o indirectos del mayor contacto
que supone esa vía de comunicación. Idéntico procedimiento se emplea para estudiar la influencia de fuerzas
tectónicas sobre la corteza terrestre, la evolución de una epidemia. Como se ve, nuestro razonamiento en nada
difiere del que hacíamos en método experimental. Sólo los hechos son diferentes en el experimento post-facto, pues
son hechos espontáneos, incontrolados, no producidos por el investigador. Por esta última razón sus conclusiones
tienen menos validez, en términos generales, que las de un experimento en sentido estricto, aunque pueden

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

tomarse como ciertas si las mediciones se han hecho con cuidado y se contemplan los principales factores
intervinientes.
En síntesis, el investigador se vale de un estímulo que se produce de manera espontánea (no es generado por el)
para poder estudiar el fenómeno. Por ej. ¿Cómo reaccionan los grupos humanos ante las catástrofes? El investigador
no va a provocar un tornado, sino que se va a valer del estímulo cuando el mismo (tornado) se produzca para
investigar el fenómeno
-Se realiza después del hecho.
-No es el investigador quien va a generar el estímulo: SE PRODUCE DE MANERA ESPONTANEA.
-Diferencia con el método experimental, está dada en HECHOS – ESTIMULOS EXPONTANEOS. En los métodos
experimentales el investigador provoca el estímulo o somete un hecho a una variable, en cambio, //en el método
experimental post facto, el estímulo se produce espontáneamente.
Clasificaremos dichos diseños por la cantidad y distribución de los momentosen los cuales se recolectan datos: así
tenemos los diseños transversales y los diseños longitudinales.
1) Diseños transversales
Los diseños de investigación transversales recolectan datos en un solomomento, en un tiempo único. Su propósito
es describir variables (o describir comunidades, eventos, fenómenos o contextos) y analizar su incidencia o
interrelaciónen un momento dado. Es como tomar una fotografía de algo que sucede. Por ejemplo, un censo, donde
la información se recoge toda en un mismo día, y los resultados (que se conocen varias semanas después) nos
describen el estado en que estaba la población, en el momento en que se recolectó la información. Puede abarcar
varios grupos o subgrupos de personas, objetos o indicadores; así como diferentes comunidades, situaciones o
eventos. Pero siempre, la recolección delos datos ocurre en un momento único.
A su vez, los diseños transversales se dividen en tres, de acuerdo a su alcance:
exploratorios, descriptivos y correlacionales/causales.
-Diseños transversales exploratorios:Se trata de una aproximación inicial a un fenómeno, en un momento
específico, con objeto de encontrar cuales son los aspectos más importantes del fenómeno investigado, que luego se
podrán estudiar con mayor profundidad. Por lo general, se aplican a problemas de investigación nuevos o poco
conocidos, y constituyen el preámbulo de otros diseños. Son muy utilizados dentro del enfoque cualitativo para lo
que hemos denominado “inmersión inicial del campo”. Por ejemplo, este tipo de estudio se realizaría como sondeo
de opinión para conocer quiénes podrían ser los candidatos a gobernador dentro de una provincia.
-Diseños transversales descriptivos: Tienen como objetivo indagar los valores en que se manifiestan una o más
variables (dentro del enfoque cuantitativo) o proporcionar una visión de una comunidad, un fenómeno o una
situación (describir, como su nombre lo indica, dentro del enfoque cualitativo). Por ejemplo, si un estudio
exploratorio ya determinó quienes podrían ser candidatos a gobernador, un estudio descriptivo serían las encuestas
provinciales sobre las tendencias de los votantes. Su objetivo es describir el número de votantes en una provincia
que se inclina por los diferentes candidatos en un momento previo a la elección. Es decir, se centran en la
descripción de las preferencias del electorado (cuyo enfoque es fundamentalmente cuantitativo).
-Diseños transversales correlacionales-causales: Estos diseños describen relaciones entre dos o más categorías,
conceptos o variables en un momento determinado. Se tratatambién de descripciones, pero no de categorías,
porcentajes, conceptos ni variables,sino de sus relaciones. Lo que se mide (enfoque cuantitativo) o analiza (enfoque
cualitativo) es la asociación entre categorías, conceptos o variables en un tiempo determinado. Pueden limitarse a
establecer relaciones entre variables sin precisar sentido de causalidad. Cuando se limitan a relaciones no causales
se fundamentan en ideas o hipótesis correlacionales; y cuando buscan evaluar relaciones causales, se basan en ideas
o hipótesis causales. Debemos recordar que la causalidad implica correlación pero no todacorrelación significa
causalidad. Primero establecemos correlación y luego causalidad. Cuando establecen relaciones causales el estudio
pasa a ser explicativo.
2) Diseños longitudinales
Analizan los cambios a través del tiempo en determinadas variables, o en las relaciones entre estas.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Los diseños longitudinales, recolectan datos varias veces a lo largo de unperíodo de tiempo, para hacer
descripciones o inferencias sobre los cambios que vansufriendo una o varias variables, sus determinantes y sus
consecuencias, a través deltiempo.
La frecuencia con que se recolectará la información en el tiempo, por lo común se especifican de antemano en el
enfoque cuantitativo, y se van determinando conforme avanza el estudio en el enfoque cualitativo (en las
modalidades mixtas pueden ocurrir ambas cosas). Suelen dividirse en tres tipos: diseños de tendencia (trend),
diseños de análisisevolutivo de grupos (cohort) y diseños panel.
-Diseños longitudinales de tendencia: Son aquellos que analizan cambios a través del tiempo (en conceptos,
variables o sus relaciones), dentro de alguna población engeneral. Por ejemplo, una investigación para analizar
cambios en la actitud hacia la eutanasia en la población de Córdoba. Dicha actitud se mide y cuantifica (enfoque
cuantitativo) o se recolecta información (enfoque cualitativo) en varios puntos en el tiempo (durante 10 años por
ejemplo) y se examina su evolución a lo largo de este periodo. Cada vez que se recolecte información, se tomará una
muestra, sin necesidad de que cada muestra esté constituida por los mismos sujetos cada año.
-Diseños longitudinales de evolución de grupo: Los diseños de evolución de grupo o estudios de cohortexaminan
cambios a través del tiempo en subpoblaciones o gruposespecíficos. Su atención son las cohortso grupos de
individuos vinculados de alguna manera, generalmente la edad. Un ejemplo podría ser el formado por las personas
que nacieron en Argentina durante la última dictadura militar (1976-1983). Tales diseños hacen seguimiento de los
grupos a través del tiempo. Cuando se fundamentan en el enfoque cuantitativo, por lo común se extrae una muestra
cada vez que se recolectan datos sobre el grupo o la subpoblación. Su característica distintiva es entonces quesiguen
a un grupo específico, no a una población en general, pero cada vez que se recolecta información, la muestra no está
necesariamente constituida por los mismos sujetos.
Diseño encuesta
El “diseño encuesta” (también se lo conoce con el nombre de diseño descriptivo) es exclusivo de las ciencias sociales
y parte de la premisa de que, si queremos conocer algo sobre el comportamiento de las personas, lo mejor, más
directo y simple es preguntárselo directamente a ellas. Se trata de requerir información a un grupo socialmente
significativo de personas acerca de los problemas de estudio para luego, mediante un análisis de tipo cuantitativo,
sacar las conclusiones que se correspondan con los datos recogidos.
-Censos: Hablamos de censo cuando por medio de este diseño se recaba información a todas las personas
involucradas en el problema en estudio. Presentan dificultades materiales en cuanto a su realización, pudiendo ser
solo acometidos por los estados o instituciones de amplios recursos. Son útiles para cualquier trabajo de indagación
social, pero por la gran cantidad de personas a entrevistar, no es factible obtener una información detallada, ya que
serían trabajos difíciles de analizar y ejecutar. Por estas razones los censos se realizan normalmente cada cierto
tiempo, cinco o diez años, por ejemplo, tratando de que sus resultados sean comparables para permitir apreciar el
cambio histórico en las poblaciones y sus condiciones de vida.
-Encuestas por muestreo: En lugar de los censos, suelen utilizarse las encuestas por muestreo, que consisten en la
elección mediante procedimientos estadísticos de una parte significativa de todo el universo, que se toma como
objeto a investigar.
Las conclusiones que se obtienen para este grupo se proyectan luego a la totalidad del universo teniendo en cuenta,
eso sí, los errores muéstrales que se calculen para el caso.
De esta forma los hallazgos obtenidos a partir de la muestra pueden generalizarse a todo el universo con un margen
de error conocido y limitado previamente por el investigador.
Las ventajas de este método consisten en que su conocimiento de la realidad es primario y por tanto menos
engañoso; permite agrupar los datos en forma de cuadros estadísticos haciendo más accesible la medición de las
variables en estudio. Es un método de trabajo relativamente económico y rápido.

Diseño panel
El “diseño panel” surge como respuesta al panorama estático que ofrecen las encuestas, y pretende superar esa
dificultad a través de la repetición de mediciones normalizadas. Se llama panel a toda sucesión de mediciones que se
hacen en condiciones regulares y se aplica a determinar los valores de una variable, para un cierto objeto. Es una

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

forma de presentación secuencial de datos que proporciona información acerca de sus variaciones en el tiempo. Se
utiliza en todos los casos un mismo instrumento de recolección de datos, que permite la exacta comparación de los
resultados y posibilita hacer analisis de tendencias.
De este modo, este tipo de diseño se aplica para diversas variables, como, por ejemplo, la información económica,
debido a que no tiene sentido hablar del producto territorial bruto de un país, o de su tasa de inversión si no
ubicamos estos datos dentro de una perspectiva histórica. Lo mismo ocurre respecto del porcentaje de la población
humana, que solo adquiere verdadera significación cuando se conocen en su tendencia evolutiva.
En síntesis, el panel vendría a ser una encuesta repetida, es decir, un mismo cuestionario que se administra a una
misma muestra para observar la evolución y las modificaciones en las respuestas, para lograr conocer así las
tendencias de las variables estudiadas.
Una dificultad que presenta este diseño es lo que se denomina mortandaddel panel, que consiste en la progresiva
reducción de la muestra por diversas causas: traslados, fatiga y otros problemas semejantes. Al reducirse el número
total de entrevistados el error muestral aumenta progresivamente, lo cual repercute de modo negativo sobre la
calidad de los resultados. El otro problema que se asocia a los paneles mediante encuestas es lo que se denomina
saturación del panel, que consiste en una especie de actitud de rechazo progresivo por parte de los entrevistados.
Después de ser sometida a responder tres, cuatro o cinco veces a las mismas preguntas, la gente tiende a cansarse
de ellas: surgen respuestas estereotipadas, de mala voluntad, hay apresuramiento para responder y otros problemas
similares que incrementan sensiblemente los errores.
Los diseños cualitativos.
En las ciencias sociales el objeto de estudio es, muchas veces, el propio sujeto humano, complejo y singular, cargado
con su propia historia, irreductible casi a cualquier tipo de simplificación que no lo mutile arbitrariamente. En todo
caso él es siempre el punto de referencia, directo o indirecto, imprescindible para la comprensión profunda de los
problemas. Los diseños cualitativos, exclusivos de este campo del conocimiento, intentan recuperar para el análisis
parte de esta complejidad del sujeto y de sus modos de ser y de hacer en el medio que lo rodea. Lo íntimo, lo
subjetivo, por definición difícilmente cuantificables, son el terreno donde se mueven por lo tanto los métodos
cualitativos. Los métodos cualitativos reconocen antecedentes en las investigaciones de antropólogos y etnógrafos y
se emplean en el trabajo de diversas corrientes sociológicas: el interaccionismo simbólico de George Mead, la
fenomenología de Alfred Schutz, la etnometodología de Garfinkel y la dramaturgia de Goffman, entre otras. Cada
una de estas maneras de abordar los problemas del sujeto en su medio social implica supuestos y técnicas
diferentes, bastante sutiles en la mayoría de los casos y no siempre compatibles entre sí. Los relatos biográficos, las
llamadas historias de vida, son piezas claves dentro de los diseños cualitativos. Con esta técnica se conoce no sólo la
historia del sujeto sino también la historia de su medio, pues cada individuo se encuentra en permanente interacción
con el ambiente que lo rodea, y se puede así profundizar en su sistema de valores y representaciones, creencias y
expectativas.
El estudio de casos.
Consiste en el estudio profundizado y exhaustivo de uno o muy pocos objetos de investigación, lo que permite
obtener un conocimiento amplio y detallado de los mismos (lo cual es casi imposible de alcanzar mediante los otros
diseños considerados). Tiene como base la idea de que si estudiamos con atención cualquier unidad de conjunto
determinado estaremos en condiciones de conocer algunos aspectos generales de este.
Así, si nuestro interés es conocer la estructura y el funcionamiento de las universidades, podemos partir del
supuesto de que todos los objetos que pertenecen a la categoría universidad tienen algunas características en
común, que precisamente permiten ubicarlos dentro de esta categoría general. Si estudiamos una universidad
cualquiera podremos, entonces, reconocer esas líneas comunes o por lo menos obtener un punto de partida para
ello.
Si conocemos previamente el universo de los objetos investigados, y en vez de tomar un solo caso estudiamos una
variedad de ellos, será posible extraer conocimientos mas confiables. Para ello hay que seleccionar casos de interés
de acuerdo a ciertos criterios como los sigueintes
Buscar casos típicos: se trata de explorar objetos que, en función de la información previa, parezcan ser la mejor
expresión del tipo ideal que los describe. Es preciso definir concretamente aquéllo que llamamos tipo ideal y luego

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

encontrar un caso que responda a este modelo. De esta forma podremos conseguir una apreciación más profunda
sobre todo el conjunto implicado. Seleccionar casos extremos: se pueden tomar algunas de las variables que
intervienen en el problema y escoger casos que se ubiquen cerca de los límites de las mismas. Así podríamos
considerar una universidad muy antigua y otra de reciente creación, o una grande y otra pequeña, etc.
Tomar casos desviados o marginales: se trata aquí de encontrar casos atípicos o anormales para, por contraste,
conocer las cualidades propias de los casos normales y las posibles causas de su desviación. Es una forma que la
medicina y la psiquiatría han usado frecuentemente, analizando los casos patológicos para, por oposición, llegar a
determinar en qué consiste un individuo sano. Es muy conveniente, cuando es posible, confrontar casos desviados o
marginales con casos típicos, tomando un elemento de cada una de estas características.
Diseño exploratorio
El diseño exploratorio es aquel que procede en los casos en que no hay indagación previa del tema. Proponen una
visión general, aproximada o comprensiva acerca de un fenómeno que todavía es poco conocido. El diseño
exploratorio se subdivide en:
a. Diseños descriptivos: Trata de narrar, especificar propiedades ya sea de personas, grupos o cualquier otro
fenómeno sometido a análisis. Lo importante es explicitar con todos los detalles los diversos aspectos del fenómeno
a investigar. Según Mario Bunge este tipo de diseño consiste en responder: ¿Qué es? ¿Dónde está? ¿De que esta
hecho? ¿Cómo se interrelacionan sus partes? Ej. el censo
Tienen por finalidad brindar una narración en detalle, de manera profunda acerca del fenómeno y especificar
propiedades del tipo. Lo que hace es describir al fenómeno sujeto a investigación. Por ejemplo: perfiles de los
graduados. Por ejemplo, el censo nacional (el objetivo es medir una serie de características de un país en
determinado momento, aspectos de vivienda, sus bienes, ingreso, alimentación, edades, sexo, lugar de nacimiento,
etc.
b. Diseños explicativos: Son de tipo causal, y consiste en explicar el comportamiento de las varialbes y las relaciones
que se establecen entre ellas. Busca establecer el origen o causa de ciertos fenómenos, determinando cual es la
incidencia de una variable sobre otra. Indaga en las causas, motivos, etc. Por ej: fenómeno de la evaporación y
formación de nubes determina el fenómeno climático de la lluvia.
Son aquellos que dan cuenta de las reacciones causales: son de tipo causal, tratan de explicar el origen o la
consecuencia de un fenómeno. Explican el comportamiento de las variables y las reacciones existentes entre ellos.
Explican la relación de causalidad entre las distintas variables que componen un fenómeno, una hipótesis. Ej. La
desocupación es la causal de la disminución de estudiantes que ingresan a la universidad.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

UNIDAD 3: METODOLOGÍA CUALITATIFVA EN INVESTIGACIONES JURÍDICAS (PRIMERA PARTE)

1. Investigación cualitativa en ciencias jurídicas: compresión del campo de investigación, selección intencional de
los casos y la lógica del muestreo teórico. Características del proceso. Flexibilidad e interactividad del diseño.
I
NVESTIGACIÓN CUALITATIVA EN CIENCIAS JURÍDICAS:
En un proceso de investigación, podemos optar por diferentes enfoques: el cualitativo y el cuantitativo. La elección
de uno u otro enfoque, dependerá de la profundidad con la que se desea estudiar el objeto de investigación.
De este modo, la estrategia cualitativa, profundizara en determinados aspectos del fenómeno, es decir que bucea en
el mismo, para llegar a un conocimiento profundo. Por ejemplo, estudia el árbol dentro del bosque (no estudia el
ecosistema bosque, sino, por ejemplo, las características botánicas que presenta la especie árbol, las características
en cuanto a la producción de sus frutos, de su crecimiento, etc. Se indaga en aspectos concretos y en profundidad
del fenómeno)
Mientras que la estrategia cuantitativa nos dará una imagen general, un enfoque global del fenómeno (por ejemplo,
estudia al bosque como un conjunto global)
La lógica cualitativa permite la comprensión de la realidad social, mientras que la lógica cuantitativa tiene como
objeto la explicación de los fenómenos sociales.
-Mientras que el “enfoque cuantitativo” se basa en el uso de técnicas estadísticas para conocer ciertos aspectos de
interés sobre la población que se esta estudiando. Es decir que las partes representan al todo. Es por ello que utiliza
la muestra, lo que le permite generalizar los resultados adjudicando a cierta porción el todo. Las variables a estudiar
pueden ser tanto: a. Objetivas: número de hijos, cantidad de ingreso, etc.; o b. Subjetivas: opiniones, valoraciones,
etc.
El enfoque cuantitativo:
a. Presta escasa atención a los estados subjetivos de los individuos.
b. Tiene una perspectiva “desde afuera”.
c. Es generalizable, extiende la muestra a la totalidad.
d. La relación entre el investigador-sujeto/objeto es de independencia y neutralidad.
e. El investigador debe estar libre de valores y tender a la objetividad.
a. Supuesto lógico-epistemológica: Se basa en una lógica cualitativa con la intención de comprender la realidad
social.
b. Intención del investigador: Se trata de una inducción analítica y de buscar la comprensión.
c. Problemas o preguntas de la investigación: Demanda preguntas que conduzcan a la flexibilidad y libertad
para explorar el fenómeno en profundidad. La pregunta inicial es amplia y se vuelve progresivamente más
focalizada durante el proceso de investigación.
d. Función de la teoría: Por lo general no se formulan hipótesis, pueden aparecer una vez que se realice el
primer análisis para la información. La teoría orienta al trabajo con el propósito de generar nuevas teorías y
nuevos conceptos relacionados con las manifestaciones observadas.
e. Selección de casos: Se dan pocos casos, seleccionados a partir de un muestreo intencional y otro teórico.
f. Función del investigador: El investigador se introduce en la investigación. Se sumerge en el objeto real. Las
vivencias del investigador se convierten en datos.
El “enfoque cualitativo” se basa en el análisis profundo del comportamiento y su significado. Indaga sobre aspectos
concretos. Se basa en el estudio del comportamiento de los sujetos y su interacción social, incluyendo la
participación intensiva y a largo plazo con los sujetos, y el hecho de que el investigador es el instrumento de medida
que se va a insertar e interactuar con el fenómeno. Por la profundidad de los estudios se realiza en pequeña escala,
no tiene reglas de procedimiento y se basa en la intuición y en la flexibilidad.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El enfoque cualitativo se basa en el análisis profundo del comportamiento y su significado en la interacción social,
incluyendo:
a. Participación intensiva y a largo plazo con los sujetos.
b. Descripción detallada, narración.
c. Registro cuidadoso de lo que acontece.
d. El investigador utiliza instrumentos de medida y realiza estudios intensivos en pequeña escala.
e. No suele probar las hipótesis, sino que las genera.
f. No tiene reglas de procedimiento, sino que se basa en la intuición, lo cual da flexibilidad.
g. Su posición es holística, abarca el fenómeno en su conjunto y no lo divide en variables.
h. El diseño de la investigación se va elaborando a medida que la misma avanza.
i. No permite, en general, un análisis estadístico.

COMPRESIÓN DEL CAMPO DE INVESTIGACIÓN


Diseñar una investigación cualitativa es tomar decisiones para articular y hacer explícitos fines y medios, buscando
los caminos y definiendo las tareas necesarias que lo segundos sean capaces de cumplir con los primeros.
Los fines son las razones del investigador para conocer. Los medios son las acciones necesarias para llegar a
establecer con claridad que se necesita conocer para lograr los fines, como se hará para conseguirlos y evaluar la
validez de los hallazgos y como finalmente se harán estos públicos en el contexto de la ciencia social para la que
fueron producidos. Las acciones configuran un proceso interactivo que exigen insistir una y otra vez en las mismas
tareas, pero haciéndolo siempre con mayor profundidad y comprensión de lo que está pasando con los elementos
de la investigación, que serán el fruto de esas acciones: objeto, método, técnicas y hallazgos.
La investigación cualitativa tiende a representarse a sí misma “como un proceso no sistematizable, marcadamente
artístico, en el que el genio, la intuición y la creatividad del investigador juegan un papel del todo irreductible.
Cuando este punto de vista, sin dudas fundado en alguna medida, se adopta como principio básico, en la concepción
de la investigación cualitativa, todo intento sistematizador, metodológico y técnico, pasa a un segundo plano y es
tenido, incluso, como un sometimiento bastardo a los intereses y normas epistemológicas impuestas por el
imperialismo positivista”.
En cuantos a decir que la investigación cualitativa es el único camino para conocer lo social como resulta una
afirmación errónea antes las posibilidades de variabilidad y matices explicativas y comprensivas que los métodos y
sus combinaciones permiten construir.
Corresponde analizar algunos atributos que hacen a los objetos privilegiados par ser abordados con la investigación
cualitativa, mencionando en ese movimiento algunos campos de aplicación que esos atributos van
abordando.Posteriormente se analizan los métodos más transitados por la investigación cualitativa.
Objeto privilegiado. Debe reunir los siguientes atributos:
• Densidad subjetiva. El sujeto está encerrado en la intensidad de sus emociones, en experiencias muy
individuales y muy privadas atravesadas por valores y significados que alientan el mantenimiento de la privacidad.
También se incluyen las experiencias de la intimidad del sujeto, que sin remitir necesariamente a cuestiones sociales
censuradas no se consideran dignas de ser expuestas ante otros.
• Abstracción:
• Complejidad: porque se presenta en un ambiente de turbulencia, desequilibrio e imprevisibilidad, y por estar
en proceso de transformación súbita, constituido por elementos aleatorios, cambios de decisión, interacciones,
retroacciones.
• Un estado en el que muchos factores interactúan entre sí, dando lugar a la emergencia de propiedades
globales.
• Intolerabilidad social: se refiere a una situación en la que la exposición del objeto amenaza a los actores con
el estigma y la exclusión, o cuando meramente remite a prácticas que instan o se asocian a la nomia y también,
cuando el objeto desluce los valores que se espera prevalezcan en un sujeto o grupo
• Precariedad: los grandes grupos y multitudes transitorias constituyen comportamientos colectivos difíciles
de analizar con métodos cuantitativos por la dificultad de prever más allá de algunas pocas variables de estudios. La

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

investigación cualitativa es abierta y holística y permite examinar las relaciones sociales insipientes que solo se hacen
evidentes a la investigación cualitativa cuando están muy generalizadas en la sociedad
• Sobredeterminación simbólica, ideológica i/o imaginaria.
Métodos: las posibilidades de encontrar nuevos campos de aplicación de la investigación cualitativa están ligadas a
la capacidad del investigador para elegir y combinar las distintas alternativas que el paradigma a concebido y que el
investigador. Entre ellos:
• Fenomenología: el estudio de la experiencia vivida. Desarrollada por Husserl, tiene como objetivo centrarse
en el campo de los fenómenos tal como son vividos y experimentados por los individuos; solo el sujeto que las
experimenta puede conocerlas. Puede enfocar la tensión sobre cuatro existenciales básicos de la tradición
fenomenológica: el espacio vivido (especialidad), el cuerpo vivido (corporidad), el tiempo vivido, temporalidad y las
relaciones humadas vividas, relacionabilidad y comunidad. El interés gira entonces, alrededor de la búsqueda de
acceso a la comprensión de ese conjunto de existenciales básicos.
• Hermenéutica: el entendimiento de textos orales y escritos. Es un mecanismo de comprensión de la
intencionalidad del otro, intencionalidad que solo puede comprenderse en su contexto. Por eso, parte de la
estrategia de la hermenéutica de conocimiento es que quien interpreta en el dialogo conozca ese contexto. Puede
tratarse de una entrevista o el dialogo de un lector con un texto; el entendimiento no llega en virtud de la
comprensión del dialogo aislado, sino a partir de una reconstrucción que lo situa en su historicidad e intersujetividad
• Interaccionismo simbolico: el estudio de los procesos de interaccion dotados de significado. El objetivo del
interaccionismo simbolico es el estudio de los procesos de interaccion a través de los cuales se produce la realidad
social dotada de significado. Blúmer establecio tres premisas básicas de este enfoque: primero los humanos actúan
respecto de las cosas sobre las bases de estas significaciones que estas cosas tienen para ellos, o lo que es lo mismo,
la gente actua en función del significado que atribuyen a los objetos y a las situaciones que la rodean; segundo, la
significación de estas cosas deriva, o surge de la interaccion social que un individuo tiene con los demás actores; y
tercero estas significaciones se utilizan como un proceso de interpretación efectuado por la persona en su relación
con las cosas que se encuentran, y se modifican a través de dicho proceso.
-El campo es donde ocurre la observación, el lugar en el que se materializa el problema y emerge el objeto de
investigación. No constituye un lugar físico, sino una estructuración que surge de la concepción del objeto y de los
recursos que ofrezca el método. Este cruce pondrá a disposición de la observación cierta estructuración de lo real.
Podrá ubicarse a los espacios, a los actores, los eventos y situaciones en los que ellos interactúan y las variaciones de
tiempo y lugar de las acciones que desarrollan. Por ejemplo, si el método es el grupo de discusión, el campo se
circunscribe a ese encuentro artificial y no a todo lo que ocurre en el edificio en el que se produce el encuentro. Para
un etnógrafo que le interesa la cultura fabril, constituirán el campo todas las personas y sus relaciones, todos los
objetos y discursos que circulen.
Cabe aclarar que es el objeto de investigación el que determina el campo, e ira suscitando ante el investigador
aspectos y estructuras, relaciones y dinámicas, sentidos y significados de la realidad social, que habrán de abordarse
con los recursos que proporciona el método y los instrumentos de recolección y análisis de datos.
SELECCIÓN INTENCIONAL DE LOS CASOS Y LA LÓGICA DEL MUESTREO TEÓRICO.
Definimos como muestra al individuo o al conjunto de individuos que se extraen de la población, mediante algún
procedimiento específico y sobre el o los que se llevará a cabo el estudio. Consisten en una parte o fracción de un
conjunto de la población o universo, que ha sido obtenida con el fin de investigar ciertas características del mismo.
El muestreo es el conjunto de operaciones que se realizan para obtener una muestra.
La selección de una muestra en el diseño cuantitativo, es distinta a la de los diseños cualitativos. En la primera, la
muestra reproduce el conjunto de todas las clases de elementos y sus proporciones básicas, logrando una
representación por extensión de la población original. El objetivo del muestreo en la investigación cualitativa no es
extender al universo los conocimientos obtenidos a partir del estudio de la muestra, sino aprehender en toda su
riqueza la perspectiva de los actores, por lo tanto, se busca captar en profundidad, y NO por extensión, sus vivencias,
sentimientos y razones. A este objetivo, responde con mayor propiedad que un muestreo aleatorio, un muestreo
intencional.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La noción de representación del muestreo cualitativo es emblemática, busca la ejemplaridad y no la relación


estadística.
Selección de los casos que se van a considerar en la investigación: Pocos casos Seleccionados según:
1. Muestreo intencional: casos seleccionados como punto de partida de mi trabajo en terreno.
2. Muestreo teórico: procesos progresivos y secuenciales de ampliación o reducción de la muestra según las
categorías teóricas que van emergiendo en el camino de la obtención y análisis de la información.
a. Selección intencional de casos.
Hay distintos tipos de muestreo NO probabilístico: Muestreo por cuotas, muestreo intencional o por conveniencia,
bola de nieve, muestreo discrecional.
El muestreo intencional es una técnica de muestreo no probabilístico donde los sujetos son seleccionados dada la
conveniente accesibilidad y proximidad de los sujetos por el investigador.
-Según maxwell, el muestreo intencional permite alcanzar cuatro metas: primero logra mayor representatividad en
las conclusiones, seleccionando los contextos, individuos o actividades que se consideran “típicos”, en segundo
lugar, capta adecuadamente la heterogeneidad de la población, seleccionando sistemáticamente individuos,
contextos o momentos que representen las variaciones posibles más importantes. En tercer lugar, examina
deliberadamente los casos críticos para la teoría que se esté desarrollando o estudiando, los cuales sirven muchas
veces de prueba crucial. Y por último, permite establecer comparaciones para hallar las razones de las diferencias
entre contextos, momentos o individuos.
-Tanto en la investigación cuantitativa como en la cualitativa, las unidades de observación y análisis pueden ser muy
diversas: Personas, familias, grupos, instituciones, áreas geográficas o culturales, periodos, programas, documentos,
etc. Toda esa diversidad, da lugar a una amplia gama de alternativas para la elección de las unidades con las cuales
se va a trabajar, pero la lógica en la que estas se eligen, es distinta en cada una de ellos.
En los diseños cualitativos, se trabaja con números relativamente pequeños de unidades de observación, incluso en
ocasiones con un único caso. Cada unidad, o conjunto de unidades, es cuidadosa e intencionalmente seleccionada
por sus posibilidades de ofrecer información profunda y detallada sobre el asunto de interés para la investigación.
De ahí que a este procedimiento se le conozca como muestreo intencional. El interés fundamental no es aquí la
medición, sino la comprensión de los fenómenos y los procesos sociales en toda su complejidad.
- La selección intencional de casos se realiza con un propósito: lograr un conocimiento intensivo, profundo y
detallado de y sobre los casos en los que tiene lugar el fenómeno de interés, generalizable para otras situaciones en
las que dicho fenómeno ocurre.
b. Lógica del muestro teórico.
Con respecto a la elección de las unidades de observación y de análisis, hay diversas estrategias conforme al
propósito específico de cada estudio. La lógica que orienta este tipo de muestreo, reside en lograr que los casos
elegidos proporcionen la mayor riqueza de información posible para estudiar en profundidad la pregunta de
investigación.
En el muestreo teórico la integración de la muestra se va decidiendo sobre la marcha, conforme van emergiendo los
conceptos al ir recabando información. las unidades o situaciones a incorporar se eligen a partir del conocimiento
teórico que se va construyendo sobre la marcha, con la información que va emergiendo a lo largo del estudio
Muestreo teórico: se selecciona los datos que se consideran de relevancia para poder ampliar o profundizar los
primeros datos de la primera etapa de la investigación. Se van a seleccionar los datos que el investigador considere
que sirven para poder ampliar o profundizar los datos obtenidos en la primera etapa.

CARACTERÍSTICAS DEL PROCESO.


Para seleccionar una muestra, hay que definir la unidad de análisis: Consiste en La población o universo, es decir,
definir el conjunto total de los objetos de estudio (sobre que o quienes se van a recolectar los datos: personas,
organizaciones, institutos, etc.). Se determina “quienes van a ser medidos”, lo cual dependerá del enfoque elegido
(cuantitativo, cualitativo o mixto), del planteamiento del problema y de los alcances del estudio. Por ejemplo, si
quisiéramos llevar adelante una investigación sobre el uso de los videojuegos por parte de los niños, la unidad de
análisis son los niños. Pero, ¿Cuál es la población o universo?, ¿todos los niños del mundo?, ¿todos los niños de la

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Argentina? Sería prácticamente imposible referirnos a poblaciones tan grandes. Así, la población se delimita
tomando, por ejemplo, los niños de Córdoba capital, de entre 8 y 12 años, al momento de realizarse el estudio. Para
el enfoque cualitativo, “la muestra” puede ser solo una unidad de análisis o un grupo reducido de ellas, sobre la(s)
cual(es) se habrán de recolectar datos, e incluso pueden elegirse por conveniencia del investigador, sin utilizar
procedimientos estadísticos.
a) Intencionados: no al azar, teorético: aquí se realiza una tabla con una serie de datos y de análisis de datos
para comprobar la hipótesis de trabajo, luego se dirige a obtener el número necesario de todos los tipos de datos
exigidos para cubrir las diferentes casillas de la tabla
b) Por cuotas: donde se asigna un numero de entrevistas, encuestas a realizar correspondientes a cada
extracto, dejando al arbitrio del entrevistador la elección de las unidades (para muestras mayores al 50% del
universo)
c) Por conjuntos: se da cuando las unidades son de análisis o talla, y se puede seleccionar un conjunto entero
para realizar el relevamiento, se utiliza la herramienta del sorteo, o tablas, o sistemático
d) Sucesivos: cuando el relevamiento se efectúa cada cierto periodo debido a la evolución de la población de
estudio, se puede utilizar las mismas unidades o cambiarlas (es lo más aconsejable)cf
e) Compuestos: cuando comprenden dos o más muestras distintas que abarcan parte del fenómeno estudiado,
ejemplo campo-ciudad.

FLEXIBILIDAD E INTERACTIVIDAD DEL DISEÑO.


El diseño en la investigación cualitativa se caracteriza por ser flexible. Esto se debe a que el diseño inicial debe tener
una capacidad de adaptación a las nuevas exigencias que el desarrollo de la investigación ponga de manifiesto. Esto
tiene su razón de ser en la propia naturaleza del objeto de estudio, las realidades humanas. Cuando el investigador
entra en el campo de estudio, sabe poco y nada sobre el fenómeno en cuestión. Este desconocimiento inicial, hace
que, aunque entremos en el campo habiendo hecho el primer esfuerzo de planificación, este último necesite ir
evolucionando y redefiniéndose en función de las necesidades que vayan emergiendo del propio campo de estudio.
De este modo, a medida que la investigación avanza se irán dando modificaciones.
Por ejemplo, en el caso de una investigación participante, el investigador al familiarizarse con el contexto de estudio
puede redefinir los objetivos. Esta redefinición estará condicionada por la emergencia de nuevas preguntas de
investigación que anteriormente no habían estado al alcance del mismo. Así, inicialmente, el objetivo principal se
centraba en “conocer las necesidades de salud y barreras de acceso a los servicios de salud de las personas
transexuales”, para posteriormente pasar a ser “explorar y describir el proceso transexualizador tal como es
percibido por las propias mujeres transexuales”.
En síntesis, la flexibilidad e interactividad del diseño, significa que aunque los objetivos, métodos y perspectivas
teóricas sean pensadas y elaboradas en la etapa del proyecto, en el desarrollo de la investigación estos componentes
pueden ir variando y adquiriendo su forma definitiva.
El “enfoque cualitativo” no tiene reglas de procedimiento: las técnicas dentro de los enfoques cualitativos son
técnicas flexibles, normalmente las hipótesis, los conceptos, se van elaborando en la medida que se va realizando la
investigación.

2. La entrevista: enfoques y tipos. La planificación y la realización de la entrevista. Técnicas de entrevistas


grupales. Grupos focalizados. Registros de datos de entrevistas individuales y grupales. Cuestiones de análisis e
interpretación: la transcripción y el dilema entre la legibilidad y la fidelidad. Formación de opinión.

LA ENTREVISTA: ENFOQUES
Consiste en un proceso dinámico en el cual se da una interacción entre el entrevistado y el entrevistador, que ira
produciendo un relato en el cual están comprometidas subjetividades. Es una forma de “interacción social”, una

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

conversación sistematizada cuyo objeto es obtener, recuperar y registrar las experiencias de vida conformadas en la
memoria de la gente. La ventaja que poseen es que son los mismos actores sociales quienes proporcionan los datos.
Permite registrar manifestaciones de ideas u opiniones, emociones, expresiones textuales, posturas y reacciones
mediante una relación directa entre el entrevistador y el entrevistado. La finalidad de este método es obtener
respuestas personales, no sugeridas, y veraces que se ajustan a la realidad del entrevistado.
A través de ella se pueden observar y analizar datos objetivos (características físicas, económicas, profesionales,
etc.), como así también subjetivos (ideas, creencias, opiniones, sentimientos, conductas, etc.)
El instrumento de este método es el cuestionario (pliego de preguntas), que no siempre es fijo y estandarizado.

TIPOS.Modalidades:
a. Se utiliza como técnica de recolección de datos e información (entrevista periodística)
b. Se utiliza en diferentes ámbitos de la actuación profesional (entrevista terapéutica)
Instrumentos de observación: el cuestionario
c. No es siempre físico y estandarizado
d. Entrevistador y entrevistado están en interacción reciproca que alteran y modifican la inmediatez y pureza de la
observación

TIPOS DE ENTREVISTA
Las entrevistas pueden ser: Estructuradas, semiestructuradas y no estructuradas o informales.
1)- Entrevistas estructuradas: Son aquellas que predeterminan en mayor medida las respuestas a obtener y se
desarrollan en base a un listado fijo de preguntas. Poseen un “protocolo de preguntas” previamente establecido, el
cual es igual para todos con el fin de facilitar el análisis de las respuestas.
En síntesis, son guiadas por un cuestionario previamente establecido, donde el entrevistador no puede saltearse ni
cambiar palabras y tampoco repreguntar.
Esta forma de entrevista se realiza sobre la base de un formulario previamente preparado y estrictamente
normalizado, a través de una lista de preguntas establecidas con anterioridad. Toma la forma de un interrogatorio en
el cual las preguntas establecidas con anterioridad se plantean siempre en el mismo orden y con los mismos
términos.
2)- Entrevistas semi-estructuradas: Son aquellas que contienen preguntas básicas que simplemente sirven como
guía, pudiéndose agregar otras o ampliarlas. En este tipo de entrevistas se permite la improvisación y se caracterizan
por la flexibilidad. No existe un cuestionario al que se tenga que ajustar el entrevistador, sin embargo pueden existir
algunas preguntas que sirvan como punto de referencia. Esto otorga un amplio margen de flexibilidad y libertad en
el desarrollo de la entrevista.
3)- Entrevistas no estructuradas: Son aquellas en las que no existe un cuestionario. Discurren de un modo más
espontaneo y libre, no sujetándose a un canon establecido. Existe una gran libertad tanto para los entrevistados
como para el entrevistador, aunque este debe tener, al menos en su mente, un listado de temas sobre los cuales
debe obtener información.
Dentro de ellas podemos encontrar:
a-Entrevistas abiertas o clínicas: Son aquellas que no se reducen a un esquema previo y se realizan con un fin
terapéutico. Se trata de hacer hablar al entrevistado de modo de obtener la mayor información posible. Suele
utilizarse en fases iniciales de estudios exploratorios, recurriendo a informantes claves que pueden ser expertos en
el tema de estudio. En el trabajo de investigación, es uno de los principales procedimientos para realizar historias de
vida y estudio de caso. Algunos incluyen en este tipo de entrevista las que realizan médicos y enfermeros para hacer
un diagnóstico por ej.
b-Entrevistas en profundidad: Son aquellas que tratan sobre un tema principal. Están dirigidas a un análisis más
profundo de las opiniones, actitudes y hasta de la personalidad del individuo interrogado. Busca la comprensión de
las perspectivas que tienen los informantes respecto a sus vidas, experiencias o situaciones tal como expresan sus
propias palabras.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

c-Entrevistas focalizadas: Son aquellas que también son libres y espontaneas, pero tienen la particularidad de
enfocarse sobre un tema. Se emplea normalmente con el objeto de explorar a fondo alguna experiencia vivida por el
entrevistado, o cuando nuestros entrevistados son testigos presenciales de hechos de interés, o actores principales
de ciertos hechos históricos. Para que la misma sea útil debe haber especificidad, es decir, se procura que el
entrevistado responda de manera concreta y específica, y se de una profundidad y contexto personal.
d-Entrevistas no dirigidas: Son aquellas donde el informante tiene completa libertad para expresar sus sentimientos
y opiniones, donde el entrevistador tiene que animarlo a hablar sobre un determinado tema y orientarlo. Se trata de
invitar y alentar al sujeto encuestado a que hable en torno a una cuestión que se le ha planteado, comenzando por
donde quiera y diciendo lo que estime mas oportuno.

LA PLANIFICACIÓN Y LA REALIZACIÓN DE LA ENTREVISTA.


 Formas de realizar la entrevista:
a. Personal: La más recomendada
b. Por teléfono: Se escapan datos sobre la situación personal o su aspecto físico y demás cualidades y sensaciones.
c. Por correo: Además de las mismas críticas que la anterior, esta forma lleva implícita un margen de reflexión, y en
la generalidad de los casos, no es espontanea la respuesta.
d. Por medios o redes sociales.
 Ventajas
Las ventajas de la entrevista consisten principalmente en su mejor coste (menor costo) y exigencia personal.
Analfabetos que no saben leer y escribir pueden realizarla. Se da una información mas completa, profunda y rica
sobre el tema en cuestión.
La mayor importancia que los encuestados suelen conceder a la entrevista con relación a la frecuentemente escasa
importancia que conceden a los cuestionarios simples.
Lograr una comprensión de las condiciones psicológicas y ambientales del entrevistado y de su intensión y
disposición de ánimo en la contestación de preguntas, así como aclarar el sentido de estas cuando no sean
suficientemente claras. La entrevista permite obtener una información más completa, profunda y rica, sobre todo en
cuestiones comprometedoras.
 Desventajas
Pueden darse tanto por suponer opiniones o imponer opiniones. También puede darse un divorcio ente lo que se
dice y lo que se hace. Errores frecuentes: recapitulación y verborragia
1) Planificación.
Debe establecerse el contenido del cuestionario, teniendo en cuenta las variables que guían la investigación.
Definirse el formato y la secuencia de las cuestiones a tratar.
Presentar la entrevista en un lenguaje entendible para el entrevistado: ni simple, ni demasiado complicado.
Decidirse la forma de registro de respuestas.
2) Presentaciones previas.
Debe enviarse una nota que anuncie su visita y explique los motivos de la entrevista. Se deben evitar las sorpresas:
es decir que debe ser consensuada. La entrevista también debe realizarse en el tiempo oportuno.
3) Ejecución
-En cuanto al ambiente, este debe ser agradable y acogedor, y no debe estar cubierto de miradas y oídos indiscretos.
Debe darse una postura cómoda, como, por ejemplo, sentados y tomando algo.
-El entrevistador debe ser y mostrarse educado, simpático y atractivo, bien vestido.
-El entrevistado debe conocer y comprender el objeto de la entrevista.
-De corresponder, debe destacarse el carácter confidencial y el anonimato de la información. Garantizar el
anonimato para evitar que tergiverse sus ideas.
 Formulación de preguntas
-Usar el cuestionario de manera informal: No tiene que dar la impresión de que es un examen o interrogatorio.
-Debe evitarse todo aquello que implique critica, sorpresa, aprobación o desaprobación en sus palabras o en sus
gestos (ser neutral)

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

-Formularse en tonos de voz neutral y de conversación, con cierta rapidez, no dejando descanso entre pregunta y
pregunta. Debe ser dinámico para no obtener respuestas objetivas.
-Las preguntas deben ser formuladas en el mismo orden que figuran en el cuestionario.
-El entrevistado debe saber que nos interesan e importan sus palabas.
-En cuanto a la anotación de todas las respuestas, esta debe ser directa, mientras se desarrolla la entrevista. Mejor
aún, si puede contarse con el auxilio de un grabador, si se cuenta con el consentimiento del interrogado.
 Fin de las preguntas (terminación de la entrevista)
En cuanto al fin de la entrevista, esta debe terminarse con un clima de cordialidad, dejándose la puerta abierta para
próximos encuentros. Ante mentiras o bromas, el entrevistador deberá hacerle ver que es su trabajo, pedirle que
tome la entrevista enserio. Si no hay rectificación, terminar la entrevista, no olvidándose de consignar el estado de
ánimo del entrevistado.

TÉCNICAS DE ENTREVISTAS GRUPALES.


Las entrevistas grupales o colectivas con aquellas realizadas entre un entrevistador y varios entrevistados. Se realiza
la entrevista a un grupo de personas reunidas en un mismo lugar. No solo permite recoger información, sino también
contrastarla y matizarla, puesto que es posible percibir la reacción de los entrevistados en relación con lo que cada
uno dice. La entrevista grupal se diferencia del grupo focal, puesto que en la primera, se da una comunicación
unidireccional de cada participante con el coordinador o entrevistador.
La técnica grupal es aquella que se utiliza para responder a distintas problemáticas a través del decir de los actores
en el transcurso de interacciones grupales, donde se tendrán en cuenta los conocimientos, acciones y opiniones. No
es un sinónimo de entrevista grupal, porque en esta última predomina la comunicación unidireccional de cada actor
con el coordinador, en cambio, en el grupo focal lo que interesa es la interacción entre los actores: actitudes,
emociones, creencias, opiniones, experiencias, disensos, consensos, etc.
Por ejemplo: un grupo de personas discutiendo y a través de un vidrio hay un grupo de investigadores analizando lo
que acontece dentro del salón. Estos grupos son constituidos en forma social por el investigador para que discutan
sobre un tema que el investigador proporciona, sobre el cual va a averiguar los datos (desgrabado de clases)
 Reglas habituales:
a. duración de cada reunión: no más de 2 hs
b. Nº de integrantes de 6 a 12.
c. Numero de reuniones ¨criterio de saturación¨, cuando la información se repite no es necesario continuar las
reuniones.
d. Presencia de un observador que ayude al coordinador o moderador del grupo a recabar la información.
 Composición del grupo:
Preferentemente homogéneo para facilitar la interacción verbal, pero heterogénea en cuanto a la información que
posee cada uno de los miembros.
 Etapas:
Explicación del procedimiento a seguir – presentación de los miembros del grupo – iniciar el debate con un estímulo,
por ejemplo, una película, exposición de un problema concreto, una foto, etc. – desarrollar el debate: lograr la
participación de todos los miembros, la interacción de los que se abstengan y calmando a los que sean dominantes.
 Cierre:
Con una breve síntesis de parte del moderador acerca de los expuesto.

GRUPOS FOCALIZADOS.
Grupos focales o de discusión (Apunte Guillermo)
Método de recolección de datos que intenta responder a distintas problemáticas a través del decir de los actores en
el transcurso de interacciones grupales, donde se observan: CONOCIMIENTOS, ACCIONES Y OPINIONES.
Se basa en organizar un grupo de personas para que discutan un tema determinado, objeto de investigación.
• Interrelación cara a cara
• Diálogo

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

• Las conversaciones aspiran a la puesta en común de los distintos puntos de vista


• Ha de prevalecer el “nosotros/as” grupal por encima del predominio del yo individual.
• Los sujetos no se conocen entre sí, lo que impide que cualquier vínculo previo dificulte la adaptación a la
nueva situación grupal.
• El diálogo debe transformarse en un discurso centrado en el tema social objeto de estudio.
Es un constructo:
•Un grupo creado, cuyos miembros son seleccionados por un agente externo con un propósito predeterminado.
•La interacción está controlada por el investigador que crea la situación discursiva.
•Está diseñado para dar cuenta de la manera en que los sujetos y los grupos construyen y dan sentido a los
acontecimientos y circunstancias de su vida.
•No requieren que se logre consenso
•Se recomiendan grupos homogéneos, pero también pueden ser heterogéneos duración: no más de 2 horas.
Integrantes: entre 6 y 12.
(Desgrabado de clases) Es un grupo de personas que es convocado por el investigador los cuales van a discutir sobre
un problema determinado, tema determinado durante un periodo de tiempo y el investigador va a observar
actitudes, pensamientos, opiniones, que surjan de esas discusiones.
Se caracteriza justamente por consistir en una interacción cara a cara entre los integrantes del grupo focal o de
discusión, naturalmente se dan en un determinado marco de dialogo, las discusiones aspiran a que cada persona
pueda poner en común sus ideas, sus conceptos, con respecto a los problemas que se están discutiendo.
Los sujetos no se conocen previamente entre sí.
El dialogo, discusión, debe estar plenamente centrado en el tema de análisis. Donde la discusión se va por las ramas
el investigador puede intervenir, apuntalando, para que la discusión se mantenga dentro de ese rango que a mi
como investigador me interesa evaluar o estudiar.
Es un constructo, es una realidad artificial, generada por el investigador, seleccionados por un agente externo, que
es el mismo investigador, que es el que crea la discusión discursiva de que se trata el tema, es el que señala el
problema de discusión y además es quien va a controlar el desenvolvimiento de ese grupo de discusión en el proceso
de discusión.
Mediante esta técnica los distintos sujetos construyen los acontecimientos, le dan sentido a los hechos de la vida
social, no requiere el grupo focal que se logre consenso entre los que están discutiendo, basta que cada uno exponga
en común su pensamiento, ideología, concepto sobre determinada cuestión, no requiere que lleguemos a un
consenso al final de la discusión.
Duración: se sugiere que no se extienda más de 2 hs la discusión. Entre seis a doce participantes es lo ideal.
¿Cómo se inicia el debate? Naturalmente mediante un estimulo, ejemplo una película. Después se abre al debate,
puede ser una imagen, una fotografía, puede ser la exposición de determinados temas, o una pregunta abierta para
que ellos puedan reflexionar y luego discutir.
El desarrollo del debate cuenta con la intervención del investigador para justamente enfocar el tema en lo que a él le
interesa-
Le interesa ir encauzando la discusión. Además darle participación a aquellos que están más inhibidos en la discusión
y poniendo frenos a aquellos más dominantes en el grupo, porque le interesa obtener una visión del problema por
parte de todo el grupo.
Se cierra con una breve síntesis de conclusiones preliminares que el investigador esta en condiciones de dar al final
de la discusión.
El grupo sabe que va a ser estudiado. Es citado por el investigador a esos efectos.
Finalidad de la conformación de esos grupos: analizar como se construyen las opiniones, como las opiniones se van
transformando, como se van alterando, como se van suprimiendo, como se van reafirmando frente a otras culturas,
a otros sujetos. Interacción dentro del marco de los grupos sociales, eso es lo que estudiamos. A diferencia del grupo
nominal.
Nominal (Apunte Guillermo)
Se trata de:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

- Determinar los problemas prioritarios de las comunidades.


- Establecer la estrategia para lidiar con los problemas identificados.
- Discusión para ayudar a conseguir consenso y así llegar a una decisión de grupo.
- Generalmente consta de 1-3 preguntas.
- Prevé una participación heterogénea
- Ideal para establecer políticas públicas.
- Normalmente requiere varias sesiones.
- Los participantes se pueden conocer
- Los participantes representan grupos
Técnica nominal: Etapas (apunte Lorena)
a) Los miembros del grupo generan ideas de manera silenciosa e independiente acerca de un tema o problema
b) Cada participante presenta al grupo la idea
c) La discusión aparece luego para aclarar ideas, combinarlas y evaluarlas
d) Se generan explicaciones sobre los consensos
e) Cada integrante califica de manera privada cada idea mencionada en orden de importancia
f) Discusión de las calificaciones para alcanzar un consenso
(Desgrabado de clases) Presentan la misma estructura que los grupos nominales o de discusión, la diferencia es que
los grupos nominales se utilizan con el fin de lograr políticas públicas. ¿Vamos a poner a un grupo de personas a
discutir, pero en este caso si quiere lograr o elaborar políticas públicas? Se va a necesitar consenso. En el primer caso
de grupos focales, teníamos una sesión de dos horas y se terminaba, exista o no consenso, en este caso de grupos
nominales se necesita lograr consenso por lo cual probablemente necesitemos más de una sesión.
En este caso también de los grupos nominales las discusiones se dan entre sujetos que representan socialmente a un
grupo.
Ejemplo: grupo nominal para discutir sobre el aumento de boleto de transporte. Vamos a tener un grupo constituido
probablemente por un representante de los alumnos universitarios, de los alumnos secundarios, un representante
de los docentes, concejales, son sujetos que tienen la representación de un grupo social determinado.
Grupos nominales: como grupos heterogéneos. A diferencia de los grupos focales donde se buscaba homogeneidad
entre los integrantes que lo iban a conformar.
Como se busca que las discusiones terminen en políticas públicas, se va a tener probablemente que recurrir a más de
una sesión para llegar a un acuerdo.
En los grupos nominales, los participantes pueden llegar a conocerse (son en muchos casos representantes de los
grupos sociales, que probablemente ya se vieron en otras sesiones de otras cuestiones vinculadas a los grupos de
quienes ellos son representantes) que se conozcan entre sí no invalida la muestra.
Se les da de una a tres preguntas para que ellos vayan discutiendo la problemática
Delphi (Apunte Guillermo)Técnica para conseguir consenso en un grupo de expertos sin que los integrantes se
reúnan físicamente a través de una serie de cuestionarios que se responden de manera anónima. Es un proceso
estructurado en que una serie de cuestionarios son aplicados de forma secuencial en el tiempo. Los expertos deben
ser consultados al menos dos veces sobre la misma pregunta, de modo que puedan reconsiderar sus respuestas,
ayudados por la información recibida de los demás expertos.
El anonimato es importante en todo el proceso. En cuanto el número de expertos convocados, depende
principalmentede los recursos disponibles y el tipo de problema a tratar (de 10 a 18 expertos).
Procedimiento:
Se envía una tanda de cuestionarios para que se respondan por los expertos previamente especificados. Tras recibir
las respuestas se las evalúa, y se envían junto con un nuevo cuestionario (idéntico al anterior) a los mismos expertos
que volverán a contestar
Técnica Delphi(Apunte Lorena). Es el juicio de expertos informados con experiencia para dar respuestas o soluciones
a los interrogantes que se presentan, no interesa la proximidad que se tenga con los informantes.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Cada experto responde individualmente sin conocer quiénes son los otros miembros del grupo. Ningún miembro
puede reaccionar frente a la opinión del otro experto, aunque si se produce un feedback, los expertos deben emitir
opinión en varias ocasiones. Aquí se pregunta y repregunta.
Luego de las preguntas generales se realizan las particulares y detalladas, de manera que las respuestas sean cada
vez más ricas en información y presentando posibles variaciones o cambios en la percepción o posturas de los
interrogados.
Aspectos procedimentales: existencia de un problema; selección del grupo de investigación que puede constituirse
de 2 a 5 personas; seleccionar el grupo de expertos de 10 a 18; los expertos deben conocer el tema objeto de
estudio
Etapas de diseño y elaboración de cuestionarios:
a) Se analizan las respuestas
b) Se formulan las preguntas
c) Se ordenan las preguntas
d) Discrepancias y argumentos
Proporcionar los resultados finales a los expertos y usuarios que esperan y necesitan esos resultados.
(Desgrabado de clases) Es una técnica para lograr consenso sobre determinada cuestión. Es una técnica de
recolección de datos, pero para lograr la búsqueda de consenso.
¿Para qué se quiere consenso? Voy a consultar a un grupo determinado de expertos para que ellos opinen sobre un
especifico tema de mi interés para poder teorizar (hacer una teoría) sobre un determinado tema.
¿Cómo procedo con la técnica Delphi? Como investigadora voy a trabajar sobre determinada cuestión que me
interesa indagar y voy a enviar a 15 expertos que están en distintas partes del mundo (una de las características de la
técnica Delphi, los expertos a través de los cuales voy a buscar consenso en la ciencia no se encuentran físicamente
próximos, no están en el mismo lugar, no se les puede unir para discutir un tema).
¿Necesito que ellos logren consenso sobre algún problema? ¿Cómo se hace? Según la técnica Delphi se le va a enviar
a cada uno un formulario de encuesta, vinculado con el tema de investigación a tratar, sobre el objeto de estudio
que a mí me interesa que ellos opinen.
Ellos van a responder esos formularios. Y le van a devolver al investigador.
El investigador recibo las 15 encuestas, por ejemplo, voy a hacer 15 dossiers de copias y le voy a enviar unos dossiers
de copias de todas las encuestas respondidas por todos los demás investigadores a cada uno, junto con un
formulario igual que se le mando la primera vez, pero en blanco, las respuestas van anónimas, los expertos no saben
que otros expertos están opinando sobre el mismo tema. ¿para qué? Porque si se quiere buscar consenso en la
ciencia a lo mejor de esos 15 que se han entrevistado 7 que opinan A y 8 que opinan B, ¿Cómo construyo la teoría en
base a lo que opinan los expertos? Si opinan distinto, entonces para lograr consenso se envía a cada uno de ellos
todas las respuestas de los demás para que las puedan leer y así poder lograr que cambien su visión o criterio,
deciden cambiar el criterio y completar el formulario que se manda en blanco. Se puede volver a repetir el envío de
copias, hasta lograr el consenso absoluto.
La técnica Delphi puede realizarse un mínimo de dos veces, pero pueden ser más veces.
Los expertos deben ser preguntados dos veces por la misma pregunta para poder ver si reconsideran sus respuestas,
ayudada por la información recibida de los demás expertos, el anonimato es importante en todo proceso.
El número de expertos convocados depende principalmente de los recursos disponibles y el tipo de problema a
tratar. Se sugiere de 10 a 18 encuestados.

REGISTROS DE DATOS DE ENTREVISTAS INDIVIDUALES Y GRUPALES.


La experiencia demuestra que la anotación posterior a la entrevista presenta dos inconvenientes: los límites de la
memoria humana, que no pueden retener con fidelidad toda la información, y la distorsión que se produce por causa
de elementos subjetivos que se proyectan en la reproducción de la entrevista. Lo más recomendable para recoger
con fidelidad y veracidad la información que proporcionan las personas entrevistadas, es la anotación directa
mientras se desarrolla la entrevista, mejor aún si puede contarse con el auxilio de un grabador.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Algunas recomendaciones para registrar las respuestas son: comenzar a anotar apenas el entrevistado empieza a
hablar contestando la pregunta, subrayar o usar signo de exclamación cuando el tono de respuesta así lo exija,
utilizar las mismas palabras del entrevistado, evitar resumir o parafrasear las respuestas, incluir lo que atañe al
objetivo de la pregunta y anotar en síntesis las digresiones, aunque estas no se refieran directamente al asunto. La
escritura debe ser clara y legible, no hay que olvidar que los cuestionarios han de ser leídos por otras personas.

CUESTIONES DE ANÁLISIS E INTERPRETACIÓN: LA TRANSCRIPCIÓN Y EL DILEMA ENTRE LA LEGIBILIDAD Y LA


FIDELIDAD.
Lo mas recomendable para recoger con fidelidad y veracidad la información que proporcionan las personas
entrevistadas, es la anotación directa mientras se desarrolla la entrevista. Mejor aun si puede contarse con el auxilio
de un grabador, pidiendo consentimiento al entrevistado para utilizarlo.
La preocupación por recoger fielmente los datos no debe llevar al entrevistador al temor de perder una simple
información, quizá de poco valor, confundir, olvidar, omitir o tergiversar los puntos mas valiosos y esenciales.
Si se trata de una entrevista estructurada, pueden ser útil:
- Disponer el cuestionario sobre una mesa o superficie lisa que permita hacer las anotaciones sin dificultad
- Situar en una misma línea visual el cuestionario y al entrevistado, con objeto de poder mirar a uno y otro sin
hacer grandes movimientos, centrando la información en el informante.
- Anotar algunos gestos y actitudes del entrevistado que posean alguna significación útil (encogimiento de
hombros, entrecejo fruncido, etc)
- Comenzar a anotar apenas el entrevistado empieza a hablar contestando a la pregunta
- Subrayar o usar signo de exclamación cuando el tono de respuesta asi lo exija
- Utilizar las mismas palabras del entrevistado y evitar resumir o parafrasear las respuestas
- Incluir todo lo que atañe al objetivo de la pregunta y anotar en síntesis las digresiones, aunque estas no se
refieran directamente al asunto.
La escritura debe ser clara y legible, para poder ser entendida por otras personas.

FORMACIÓN DE OPINIÓN. Para el análisis de datos cualitativos existen pautas metolologicas para plasmarlos.
a) Codificación de la información. El sentido del análisis es reducir, categorizar, clarificar, sintetizar y compara la
información con el fin de obtener una información lo mas completa posible del fenómeno observado.
La reducción de datos implica seleccionar, focalizar, abstraer y transformar los datos brutos de forma que puedan ir
estableciéndose hipótesis de trabajo. La base del proceso de reducción de datos es la codificación. Es decir se le
asigna un código que identifica una unidad de significado relevante a cada frase o párrafo. Se denomina código a
UNA ABREVIATURA O SIMBOLO QUE SE APLICA A UNA FRASE O PARRAFO DE LA TRANSCRIPCION DE UNA
ENTREVISTA O DEL DIARIO DE CAMPO. Estos códigos permiten clasificar el tipo de información que contiene el texto
según diferentes intenciones analíticas. Se pueden identificar distintos tipo de códigos, tales como:
- Códigos descriptivos. Describen el contenido de la oración analizada. Serian una especie de etiquetas que el
investigador va asignando a cada frase según el tema principal a que se refiera.
- Códigos explicativos o interpretativos: surgen luego de que se haya etiquetado todo el material discursivo.
Podrían agruparse ciertos códigos distintos que responden a la misma categoría o están relacionadas con
otros.
- Códigos patrón. Designan patrones explicativos de las relaciones entre los eventos o acontecimientos y
poseen un cariz inferencial y explicativo.
Generalmente la tarea de la codificación utiliza el primer tipo de códigos.
La codificación es entonces el PROCEDIMIENTO POR MEDIO DEL CUAL LOS DATOS SEGMENTADOS SON
CATEGORIZADOS DE ACUERDO A UN SISTEMA ORGANIZADO QUE SE DERIVA DE LA LECTURA DE LOS DATOS.
b) Exposición y presentación de los datos. Consiste en presentar la información en forma sistematica y que
permita visualizar las relaciones mas importantes entre las categorías construidas anteriormente. En este
momento el investigador trata de establecer algunas conexiones entre diferentes fenómenos, observa
ciertas regularidades, detecta patrones de interacción entre propiedades de una situación.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La forma mas habituales de organización son las matrices. Mediante estas se ordena en un plano con distintas
coordenadas la información textual producida por cada caso. Según el interés, la finalidad del estudio o el momento
en el cual se las utilice, las matrices pueden adoptar un orden temático, temporal o ambos simultáneamente. A su
vez las matrices pueden ser descriptivas o explicativas. Estas ultimas aportan explicaciones, razones y causas del
fenómeno observado, se usan en la fase posterior del análisis, y en ellas se vinculan determinados procesos con
ciertos efectos, productos o resultados.
También se utilizan las redes que se configuran en torno a enlaces de categorías que se unen entre sí. Las redes son
muy útiles para describir datos y facilitar la clasificación y comunicación del tema analizado. Expresan una
ordenación de las categorías a diferentes niveles de complejidad y facilitan la comparación entre sujetos en base a
una estructura comparativa comun.
Otra forma de representación son los mapas conceptuales. Estos representan conceptos que las personas tienen
sobre si mismas o sobre lo que hacen. Permite mostrar diferentes relaciones y articulaciones entre las propiedades
de una situación.
c) Elaboración de conclusiones. El aspecto manipulativo de los datos y las tareas de reducción se limitan
considerablemente. El investigador tiene que aguzar su ingenio interpretativo y argumental para poder
elaborar una narración coherente que contenga los matices, las artiuclaciones, las relaciones causales, las
influencias reciprocas entre determinadas situaciones o aspectos personales.
Un modo típico de avanzar en la producción de explicación es mediante la elaboración de tipologías. Es decir, se
identifican tipologías de respuestas, de situaciones o de prácticas. Como resultado de este proceso el investigador
obtendrá una teoría sustantiva provisoria del fenómeno. La formulación de una teoría supone que se supere la mera
descripción de la situación observada. Es necesario que se integre el modelo teórico elaborado en un marco más
amplio, para ello debe tratar de esforzarse por insertas aspectos particulares en categorías más amplias y
abarcativas y establecer claramente cuales son las propiedades que caracterizan al fenómeno, cuales son los factores
que lo condicionan y de que modo las interacciones sociales, las practicas y los lenguajes de los sujetos contribuyen a
modificarlo, a conservarlo o darle nuevos significados.
d) Verificación del marco teórico. El trabajo con los datos es exhaustiva y se combina en diferentes niveles y
con diferentes tipos de datos. El análisis se hace extensivo hasta que los nuevos datos no aportan o regeneran
nuevos desarrollos teóricos. La manipulación de lo datos durante análisis es ecléctica y eminentemente dialéctica.
Por ello no existe un único camino correcto para acceder al análisis e interpretación de la información. El
investigador debe explorar cual es la viamas adecuada y sobre todo fructífera para acceder al conocimiento de su
objeto de estudio. La única garantía del investigador es lo que llaman su “sensibilidad teórica”, es decir, su capacidad
para descubrir relaciones, contradicciones, complejidades donde otros ven información.
La tarea del investigador es configurar los elementos de los datos en una historia que unifica y da significado a los
datos, con el fin de expresar la vida de los actores teniendo sumo cuidado en no manipular la voz de los
participantes. El resultado del análisis del investigador es una trama o argumento que le permite unir temporal o
temáticamente los elementos, dando una respuesta comprensiva de por qué sucedió algo.

3. La observación. El involucramiento internacional. Observación participante. Claves sobre las formas de


registrar. El dilema de escribir lo observado.

LA OBSERVACIÓN.
La observación es aquella que permite obtener información sobre un fenómeno o acontecimiento tal y como este se
produce. Es un proceso sistemático mediante el cual el investigador recoge por si mismo información relacionada
con cierto problema. El problema da sentido a la observación y es el que determina que y como se observa, cuando
se registran las observaciones y como se analizan los datos obtenidos. La observación hace referencia a la acción de
advertir, examinar o reparar la existencia de cosas, hechos o acontecimientos mediante el empleo de los sentidos,
tal y como se dan en un momento determinado.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

En síntesis, la observación es una técnica de recolección de datos, que consiste en el registro sistemático, valido y
confiable de comportamientos o conductas manifiestas, elaborando un saber sobre el objeto de estudio.
Elementos: sujeto, estimulo, objeto, respuesta, percepción, registros.
Carácter científico: para que la observación sea científica debe reunir las condiciones de servir a un estudio ya
formulado de investigación, ser planificada y sistemática, relacionada con proposiciones científicas generales, que se
empleen técnicas objetivas sujetas a control
 Características
-Procedimiento de recolección de datos que se basan en lo percibido por los propios sentidos del observador. Por
ello se diferencia de la investigación documental, por cuestionario y entrevista, que se fundan en las percepciones
contadas de palabra o por escrito de otras personas.
-Se basan en el estudio de fenómenos existentes naturalmente o producidos espontáneamente y no provocados
artificialmente como en los experimentos puros.
-Realiza el examen de fenómenos o acontecimientos actuales, tal como son o tienen lugar en la realidad del
momento presente, y no sobre hechos y acontecimientos pasados.
-Puesto destacado en la inducción, el paso de los datos a la teoría, de modo que esta surja de aquel.

EL INVOLUCRAMIENTO INTERACCIONAL. Se trata de un procedimiento interactivo de recogida de datos. En el, se


requiere la implicación del investigador en el terreno de la investigación. Dicha implicación requiere de la
participación del investigador en la vida social, y compartir asi las actividades fundamentales que realizan las
personas que forman parte de la unidad de observación.
Se requiere un “involucramiento interaccional”, con el fin de comprender el mundo del otro, y no se estudió desde
una exterioridad. La observación puede darse de manera externa (no participante), lo cual implica si se quiere una
neutralidad, o bien, de manera interna (observación participante), lo que implica un involucramiento del
investigador en el campo de investigación, y si interacción con la unidad de observación.
En este caso, la participación es un mal menor para lograr la observación. Esto se debe a que, para acceder a los
significados de los miembros de una unidad social, necesariamente es importante la vivencia. El separamiento o
involucramiento del investigador, dependerá de las interacciones que se vayan produciendo en el campo con los
sujetos de investigación
La observación es definida como una investigación caracterizada por interacciones sociales profundas entre
investigador e investigado, que ocurren en el ambiente de estos y promocionan la recogida de informaciones de
modo sistematizado. Su objetivo traspasa la simple descripción de los componentes de la situación, permitiendo la
identificación del sentido, la orientación y dinámica de cada instante. Debido a la proximidad de la esencia del
campo, la observación permite la aprehensión de la realidad vivida.

OBSERVACIÓN PARTICIPANTE.
La observación puede ser participante o no participante.
a. Observación participante: Es uno de los procedimientos más utilizados en las investigaciones sociales. La
observación participante consiste en un procedimiento interactivo de recogida de datos, en la que se requiere la
implicación del investigador en el terreno de la investigación. Dicha implicación requiere la participación del
investigador en la vida social, y compartir las actividades fundamentales que realizan las personas que forman parte
de la unidad de observación, sin interferir en el normal desenvolvimiento de los hechos.
El investigador se enrola en el grupo observado, interactúa y se mezcla con el mismo, participando de sus
actividades. De este modo, se vuelve “uno más” de ellos (sin interferir en el normal desenvolvimiento de los hechos).
Al convivir con el grupo observado durante un periodo más o menos prolongado, permite la comprensión de la
realidad desde adentro.
Requiere la astucia del observador y la decisión de que registrar, acorde con el tema y marco teórico.
Dentro de los problemas de esta información encontramos que el comportamiento del grupo puede no ser natural o
espontaneo y que no nos suministren información fidedigna

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

b. Observación no participante: La observación no participante es aquella en la que se observa desde afuera la


situación en la que se encuentra el grupo. La actuación del investigador se limita a “mirar lo que sucede” y registrar
los hechos, intentando implicarse lo menos posible. Se encuentra separado del grupo, de modo que solo observa y
registra los hechos mirados desde afuera, ya que no hay interacción con el objeto de estudio.
Dentro de sus fases encontramos
-descriptiva: de carácter holístico, global
-focalizadas: guiadas por el problema y los objetos de investigación
-selectiva: actividades y acontecimientos reveladores de información significativa, información aún más específica y
concreta

CLAVES SOBRE LAS FORMAS DE REGISTRAR. El problema es lo que da sentido a la observación, y determina que y
como se observa, y como y cuando se registran las observaciones y como se analizan los datos obtenidos.
Antes de iniciar la observación hay que tener alguna idea de lo que se va ha observar, ello ayuda a focalizar la
atención. Por ello, es conveniente clarificar el problema que guía la observación y tener presente que la misma
forma parte de una estructura teórica o esquema conceptual previo.
Una guía de observación, es un documento que permite encausar la acción de observar ciertos fenómenos. Esta
guía, por lo general, se estructura a través de columnas que favorecen la organización de los datos recogidos. Es una
lista de puntos importantes que son observados para realizar una evaluación de acuerdo a los temas que se estén
analizando. Para que una investigación se lleve a cabo satisfactoriamente se requiere entender la raíz del problema o
situación estudiada y esta guía facilita esa función.
Cumple dos propósitos fundamentales, el primero le recuerda a las personas los puntos clave y la relación que
puedan llegar a tener con otros temas y el segundo es que sirve como una base para realizar una reflexión sobre el
papel que tomó el observador, ya sea si tuvo aportaciones o su trabajo afecto en algo las observaciones
El registro de la información a lo largo del trabajo de campo en las técnicas de observación, posee tres elementos:
a. El diario de campo. Consiste en el relato escrito cotidianamente de las experiencias vividas y de los hechos
observados. Suele ser redactado al final de una jornada o al finalizar una actividad considerada como importante en
el trabajo de campo. De el se extrae la mayor parte de la información para organizar el análisis en las categorías
establecidas en la fase de planteamiento de la investigación.
b. El cuaderno de notas. Es la libreta que el observador lleva siempre encima con el objeto de anotar sobre el terreno
todas las informaciones, datos, expresiones, opiniones, etc. Que pueden ser de interés para la investigación. Estas
anotaciones se incorporan con posterioridad de manera organizada al diario de campo. Existen, por lo general tres
tipos de notas:
- Observacionales: descripciones de los hechos y contenidos captados.
- Teóricas: relaciones y nexos de lo observado con el marco teórico construido en el planteamiento de la
investigación.
- Metodológicas: comentarios sobre aspectos técnicos del trabajo de campo.
Por otra parte, se recomienda complementar estas herramientas con información de carácter grafico o audiovisual.
Fotografías, videos, registros de audio, etc. Los cuales constituyen un apoyo importante para el análisis de la
información (siempre que estos registros no provoquen excesiva reactividad en la población observada)
Entre las técnicas habituales de observación se puede distinguir entre: sistemas categoriales, sistemas descriptivos,
sistemas narrativos y sistemas tecnológicos de observación
-En los sistemas categoriales, la observación se realiza a partir del establecimiento de categorías que son prefijadas
por el observador. Para establecer un sistema de categorías el investigador define con claridad las categorías de
estudio que se corresponden con cada caso a estudiar, dichas categorías deben ser mutuamente excluyentes de
forma que la asignación de un caso a una categoría impida que pueda ser asignada a otra, debe ser exhaustiva es
decir ningún caso puede quedar sin poder ser asignado a una categoría y debe ser homogéneo es decir mantener
una relación lógica con la variable categorizada. Por lo general en un sistema de categorías el registro y la
codificación se producen simultáneamente. Hay que considerar su posibilidad de generalización, es decir si puede o
no aplicarse a una variedad de situaciones.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El siguiente esquema sirve de guía para la construcción de un sistema de categorías.


• Preguntas al objeto: ¿Qué preguntas se desea responder?
• Marco Teórico: ¿Qué supuestos están en la base de la explicación con respecto al objeto?
• Objeto de Observación: ¿Qué comportamientos se pretenden observar?
• Sistema de categorías.
- En que consiste el comportamiento a observar?
- ¿Cuál es la unidad de registro?
- ¿Recogen las categorías comportamientos directos? Si no es así ¿se necesita realizar inferencias?
- ¿Se va ha observar y registrar al mismo tiempo? ¿Cómo se realiza la codificación?
- ¿Son específicas a una situación las categorías definidas? ¿Pueden extenderse a una generalidad de
situaciones?
- ¿Cómo se registra
- ¿Cómo se codifica?
• Análisis: ¿Cómo se analizarán los resultados? ¿A partir de qué categorías?, ¿comparando sujetos o
situaciones?, ¿Determinando diferencias o relaciones?
• Interpretación: ¿A qué tipo de conclusiones llevan los resultados? ¿Para qué sirvió la observación?
-Los sistemas descriptivos de observación son abiertos y en ellos la identificación del problema puede realizarse de
un modo explícito aludiendo a conductas, acontecimientos o procesos. Por lo general, se comienza con una
observación descriptiva, aún no se tiene en claro qué se observará, se prosigue con una observación focalizada,
luego del primer análisis de los datos recogidos en la observación, y se culmina con una observación selectiva, se
ajusta el lente observando solo aquello que nos conduce a constatar las hipótesis planteadas.
-Los sistemas narrativos admiten la posibilidad de un registro exhaustivo del objeto de estudio. Permite obtener
información acerca de un comportamiento concreto o una práctica específica. Se trata de recoger información no
sistematizada previamente, sino del modo más natural posible. En éste tipo de procedimientos, por lo general, en un
primer momento se registra todo lo que pueda parecer de interés para el investigador. Se parte de un amplio
registro las unidades de observación, determinando luego las más específicas y posteriormente las unidades de
análisis.
-Los sistemas tecnológicos son sistemas abiertos y se caracterizan por que buscan dar respuesta a problemas
salvando el carácter relativo y temporal de la información recogida. Las unidades de observación son decisiones que
el observador toma a posteriori de la primera recogida de datos conforme al objeto y objetivos de la investigación,
pueden ser frases, sonidos, imágenes o una combinación entre ellas.

EL DILEMA DE ESCRIBIR LO OBSERVADO.


Se trata de un procedimiento de recolección de datos que se basan en lo percibido por los propios sentidos del
observador. Es por ello que se diferencia de la investigación documental que se basan en las percepciones contadas
de palabra o por escrito de otras personas. Se realiza el estudio de fenómenos que existen naturalmente o se
producen espontáneamente y no están provocados artificialmente.
En cuanto al dilema de “escribir” lo observado, se produce una desventaja debido a la limitación de los sentidos
humanos, y por la dificultad de captar en profundidad las relaciones sociales. Esto conlleva a frecuentes errores de
percepción difícilmente evitables en la investigación social. El hecho de que el observador forme parte de aquello
que es observado (sociedad), dificulta que sea totalmente neutral.
La tarea critica en cuanto a la observación, esta en conservar la objetividad. Esto se debe a que puede suceder que el
investigador se involucre demasiado con el objeto de estudio, entonces podría ser que los resultados y análisis de los
mismos puedan estar sesgados, influenciados por subjetividades. Hoy en día hablar de objetividad pura de la ciencia
es algo superado, hoy en día una característica del conocimiento científico es que intenta ser objetivo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

4. Método etnográfico. Técnicas de observación y participación. Trabajo en el campo. Registro de observaciones.


Los métodos fenomenológicos e interaccionismo simbólico.

MÉTODO ETNOGRÁFICO. (Desgrabado de clases)


La etnografía deriva del griego “etnos”, que significa pueblo, y “Graphia”, que es el estudio de los pueblos. Es el
estudio de las culturas, de las distintas sociedades.
La etnografía consiste en el estudio del fenómeno social desde adentro del mismo, permitiendo al investigador
vivenciarlo y comprenderlo. Implica el estudio directo de personas, grupos, mediante por ejemplo, la realización de
entrevistas, observación participante, etc. Para comprender las interacciones entre ellos. El riesgo es que le quita
objetividad a la investigación.
Posee relación con la fenomenología, puesto que, en el caso de la etnografía, se realiza una comprensión empática
del fenómeno social, insertándose el propio investigador en el grupo social, donde procederá a estudiar
determinado aspecto, para comprender el objeto de estudio desde la mirada de aquellos que forman parte del
fenómeno. En síntesis, se busca comprender el fenómeno desde el lugar de aquellos que lo viven (ponerse en los
zapatos del otro).
La diferencia que se da entre las mismas es que en la etnografía, al momento de contemplar al fenómeno y de dar
sus conclusiones, el investigador también tendrá en cuenta el punto de vista externo, o sea que también
preponderará su propio punto de vista. Es decir que por un lado se estudia al fenómeno conforme lo viven los
individuos que forman parte del mismo, pero también se tiene en cuenta la visión del investigador; mientras que la
fenomenología se centra exclusivamente en la visión del fenómeno por parte de aquel sujeto que lo sufre.
Estas investigaciones son de carácter inductivo, no surgen de la teoría, sino que surgen de la propia realidad, del
mundo empírico. Comienza el proceso de investigación, la recolección de datos, y luego de estos datos recién
podremos obtener una hipótesis posible. (las hipótesis deben surgir de manera inductiva)
El proceso de verificación es deductivo (partimos de una teoría y bajamos a la realidad); pero el proceso de
teorización es inductivo (partimos de una realidad y subimos a la teoría).
En el caso de la etnografía tenemos un proceso de naturaleza inductiva, similar al proceso de teorización, partimos
de la realidad empírica y recién desde la realidad empezamos a elaborar teorías desde la comprobación empírica, la
misma hipótesis.
Partimos en la etnografía como principal técnica de la observación participante de recolección de datos. La principal
herramienta en el tipo de técnica etnográfica es la observación. Permitiendo modelos, hipótesis, y posibles teorías
explicativas de la realidad objeto de estudio. Demanda largo tiempo de permanencia en el campo, interactuando con
los sujetos.
La desventaja o problemática de la etnografía consiste en conservar la objetividad, ya que puede darse que el
investigador se involucre demasiado con el objeto de estudio, y asi tanto los resultados como los análisis podrían
estar influenciados por subjetividades. Si bien hoy en dia hablar de objetividad pura de la ciencia es algo superado, el
conocimiento científico tiene la característica de que al menos intenta ser objetivo.
(Apunte de Guillermo y otros) La etnografía surge con Molinovsky. Tiene sus antecedentes en Europa donde se
trataba de justificar el acceso al poder mediante la segmentación de la sociedad en dos clases: la salvaje y la
moderna
El objetivo de la etnografía es proporcionar una vía de conocimiento a la cultura como totalidad compleja que abarca
las creencias, costumbres, conocimientos, normas, capacidades y hábitos que el hombre adquiere por y para ser
miembro de la sociedad.
En cuanto a la técnica de recolección de evidencia empírica, se procura comprender, observando y preguntando
acerca del comportamiento de las personas, los artefactos culturales (vestimenta, accesorios, herramientas, etc.), y
los discursos productores y producidos de la cultura en estudio.
El problema que presenta es que los sujetos interrogados y evaluados pueden responder con datos falsos o no
responder, por prejuicios, otro problema es el de la falta de tiempo, se subdivide en la micro y macro etnografía.
Método: entrevista, historia de vida, observación.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

El objetivo de la misma es ver el punto de vista del sujeto estudiado, y que significado dan los sujetos a los hechos
producidos. Se busca comprender observando y preguntando acerca del comportamiento de las personas, los
artefactos culturales y los discursos de la cultura en estudio. Existen diversas interpretaciones del método
etnográfico. Para algunos se trata de un registro del conocimiento cultural, y para otros, de una descripción
detallada de patrones de interacción o de un análisis holístico de las sociedades.
Desde la perspectiva de Gómez, la etnografía es un método de investigación por el que se aprende el modo de vida
de una unidad social concreta. Lo que se persigue es la descripción o reconstrucción analítica de carácter
interpretativo de la cultura, forma de vida y estructura social del grupo investigado. La preocupación del etnógrafo
es el estudio de la cultura en sí misma, delimitando en una unidad social particular (una familia, una clase, etc.),
cuales son los componentes culturales y sus interrelaciones, de modo que sea posible realizar afirmaciones explicitas
acerca de ellos. Al realizar la etnografía de una determinada unidad social, estamos intentando construir un
esquema teórico que recoja y responda lo más fielmente posible las percepciones, acciones y normas de juicio en
esa unidad social

TÉCNICAS DE OBSERVACIÓN Y PARTICIPACIÓN.


Partimos en la etnografía como principal técnica de la observación participante de recolección de datos. La principal
herramienta en el tipo de técnica etnográfica es la observación. Permitiendo modelos, hipótesis, y posibles teorías
explicativas de la realidad objeto de estudio.
Demanda largo tiempo de permanencia en el campo, interactuando con los sujetos.
La etnografía parte de un proceso de observación participante. En el caso de la etnografía se hace referencia a una
comprensión empática del fenómeno social, el investigador va a ir a insertarse al fenómeno a ese grupo social donde
el va a estudiar determinado aspecto para comprender el objeto de estudio desde la mirada de aquellos que forman
parte del fenómeno. Por eso también tiene raíz fenomenológica, pero de manera empática. Por eso lo vemos desde
los ojos de ellos. Es tratar de comprender el fenómeno desde el lugar de aquello en que lo viven, ponerse en los
zapatos del otro.
Pero a diferencia de la fenomenología en la etnografía al momento de contemplar el fenómeno, de dar conclusiones,
vamos a tener en cuenta el punto de vista externo o sea también se va a considerar el punto de vista del
investigador. No es como en la fenomenología que nos centramos únicamente en la visión del fenómeno por parte
de aquel sujeto que lo sufre. En la etnografía una parte si se estudia el fenómeno conforme lo viven los individuos
que forman parte del fenómeno, pero también desde la visión del investigador. Por lo general como investigadora se
puede ser perteneciente a otra cultura. Hay dos puntos de vista (uno interno, pero también el punto de vista
externo).
Estas investigaciones son de carácter inductivo, no surgen de la teoría, surgen de la propia realidad, del mundo
empírico. Vamos a iniciar nuestro proceso de investigación, de recolección de datos, y después luego de empezar a
obtener ciertos datos, cierta información, yo voy a obtener o voy a poder comenzar a pensar en mi hipótesis posible.
La hipótesis en estos casos debe surgir de manera inductiva.
El proceso de verificación es de deducción, porque partimos de una teoría bajamos a la realidad, el proceso de
teorización es inductivo, de la realidad, del objeto subimos a la teoría. En el caso de la etnografía tenemos un
proceso de naturaleza inductiva, similar al proceso de teorización, partimos de la realidad empirica y recién desde la
realidad empezamos a elaborar teorías desde la comprobación empírica, la misma hipótesis

TRABAJO EN EL CAMPO.
La etnografía consiste en el estudio del fenómeno social desde adentro del mismo, permitiendo al investigador
vivenciarlo y comprenderlo. Implica el estudio directo de personas, grupos, mediante por ejemplo, la realización de
entrevistas, observación participante, etc. Para comprender las interacciones entre ellos. El riesgo es que le quita
objetividad a la investigación.
Se el propio investigador en el grupo social, donde procederá a estudiar determinado aspecto, para comprender el
objeto de estudio desde la mirada de aquellos que forman parte del fenómeno. En síntesis, se busca comprender el
fenómeno desde el lugar de aquellos que lo viven (ponerse en los zapatos del otro).

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

REGISTRO DE OBSERVACIONES.
Con respecto al registro de observaciones:
-Se realiza un registro descriptivo muy amplio.
- Se registran todos los emergentes contextuales que puedan aportar a los problemas.
-Se registran lugares, actores, tiempos y toda circunstancia que se considere significativa para identificar la situación
de observación
-El investigador se involucra con el objeto de investigación.
Los registros pueden ser tanto escritos o como grabados, y ambos requieren notas de identificación para que se los
pueda ubicar en tiempo y contexto. Se procura construir un esquema teórico que recoja y responda lo más fielmente
posible a las percepciones, acciones y normas de juicio de esa unidad social.

LOS MÉTODOS FENOMENOLÓGICOS E INTERACCIONISMO SIMBÓLICO. (Desgrabado de clases)


La fenomenología es una técnica de recolección de datos, que estudia o hace hincapié en los fenómenos sociales tal
cuales son vividos y experimentados por los sujetos, por los individuos. Son experiencias que solo aquel que las vivió,
las palpo, las puede conocer. Por ejemplo ¿Cuál es la experiencia de vivir con sida?
A través de la fenomenología se intenta captar el dato, pero desde el punto de vista, o desde la visión del sujeto que
lo vive, padece o experimenta. Tiene por objeto comprender el mundo en torno a esos sujetos, pero desde la visión
de ellos mismos.
¿Cómo lo vamos a hacer? Mediante el recurso de lo que se denomina “los 4 existenciales básicos”: que son las
fuentes que nos van a llevar a la comprensión de ese fenómeno vivido por el sujeto que estamos estudiando. Estos 4
existenciales son los siguientes:
1. La corporeidad o el cuerpo vivido.
2. La espacialidad o el espacio vivido.
3. La temporalidad o el tiempo vivido.
4. La racionabilidad o las relaciones humanas vividas.
A través del estudio de esos 4 existenciales voy a llegar al conocimiento de cómo vive esa persona ese determinado
fenómeno.Ejemplo: Fenómeno maternidad
1. Corporeidad o el cuerpo vivido. (Mediante este existencial voy a indagar la vivencia del propio cuerpo concreto de
la embarazada en cuestión, como va llevando las transformaciones que va sufriendo su propio cuerpo, como influye
el embarazo anímicamente, los cambios o transformaciones que percibe en cuanto a su propio cuerpo)
2. Espacialidad o el espacio vivido. (conexiones entre el cuerpo y el cuerpo gestado y el espacio)
3. Temporalidad o el tiempo vivido. (Se indaga las percepciones subjetivas, los sentimientos dentro de los nueve
meses, sus días y sus noches)
4. Racionabilidad o las relaciones humanas vividas. (Se indaga como influye este periodo de gestación en la
proximidad del nacimiento, en las relaciones con la pareja, con demás hijos, con otras mujeres o con sus propios
progenitores)
A partir del estudio de estos 4 existenciales, vamos a llegar a la comprensión del fenómeno tal cual lo vive,
experimenta y lo siente esa persona que estoy entrevistando, que es lo que como investigador interesa.
(Apunte Guillermo y otros) La fenomenología implica la descripción de los significados en los que estamos inmersos
en nuestra vida cotidiana, es decir que busca conocer los significados que los individuos dan a su experiencia. El
fenomenólogo intenta ver las cosas desde el punto de vista de otras personas, describiendo, comprendiendo e
interpretando. El resultado de esta investigación es una narración que dibuja un modelo, una descripción de un
determinado tipo de experiencia.
El objetivo de la investigación fenomenológica es centralmente el campo de fenómenos tal como son vividos y
experimentados por los individuos. El método fenomenológico abre las puertas al estudio de las experiencias vividas
que solo el sujeto que las experimenta puede conocer. Por ejemplo, la pregunta sería ¿Cuál es la experiencia de vivir
con sida?

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Metodológicamente, esta técnica enfoca su atención en 4 existenciales básicos como puente utilizado hacia el
conocimiento de las vivencias:
-Corporeidad: El cuerpo vivido.
-Espacialidad: El espacio vivido.
-Temporalidad: El tiempo vivido.
-Racionabilidad: Relaciones humanas vividas.
Así, por ejemplo, en el fenómeno “maternidad” se daría asi:
-Corporeidad: Vivencia del propio cuerpo, sus transformaciones.
-Espacialidad: Conexiones entre ese cuerpo vivido y el nuevo cuerpo gestado en relación con la vivencia del espacio.
-Temporalidad: Percepciones subjetivas del transcurrir de esos 9 meses, de sus días y noches.
-Relacionabilidad: Vivencia de las transformaciones en las relaciones con la pareja, con la madre, con otras mujeres,
con sus hijos.
INTERACCIONISMO SIMBÓLICO (Desgrabado de clases).
El interaccionismo simbólico, estudia la interacción que se presenta entre el sujeto y la sociedad. No estudia al sujeto
en su individualidad. Tampoco estudia a la sociedad de manera autónoma, sino que estudia las relaciones que se dan
entre el individuo y la sociedad en la que forma parte.
Pone énfasis en la interacción del individuo y en la interpretación de los procesos de comunicación que se van dando
entre los distintos sujetos (individuos que conforman el núcleo social que se estudia, o grupo social que interactúan
entre ellos). Es decir que se interesa en la interacción y en los procesos de comunicación que se van dando entre los
sujetos.
Busca comprender lo social, es decir, el fenómeno desde la interacción desde la comunicación.
Las personas no se limitan a “reaccionar” ante las acciones ajenas como los animales, sino que previamente
interpretan la acción de otro, es decir, la dotan de algún significado, lo cual se denomina “construcción de signos o
de símbolos, determinada conforme a la significación que tiene un objeto, una acción, o situación dentro de una
comunidad determinada” (interpretación subjetiva de las cosas)
Como sociedad procedemos de esta manera: interpretamos, tratamos de comprender, ¿Qué significa esa acción del
otro para conmigo? Que constituyen la base de la interacción que se va dando entre los distintos sujetos de una
sociedad.
Este enfoque se asienta sobre las siguientes premisas, que se aplican concretamente a lo que se va a estudiar.
a. En primer lugar, los sujetos actúan sobre las cosas (objetos, instituciones, etc.), en base al significado que esas
cosas tienen para ellos.
b. En segundo lugar, ese significado no surge de la cosa en sí misma, sino de un contexto social: es la sociedad la que
le da el significado a las cosas. Entonces, a través del interaccionismo simbólico vamos a estudiar los distintos
significados que las comunidades les dan a las cosas para comprender la realidad.
Ej: estamos frente a un náufrago, en una isla desierta y hace cinco meses que está perdido, sólo, en una isla muy
pequeña donde no hay prácticamente fauna- resulta que de repente a este náufrago se le presenta la opción de
elegir entre un auto Mercedes Benz último modelo y una bolsa con comida. ¿Cuál cosa tiene más valor para el
náufrago? La comida.
Si se traslada la situación a una ciudad, elegiría el auto. Lo que significa que una misma cosa cambia de significado en
cuanto a su valor de acuerdo al contexto social en que se presenta la situación.
c. Se adquiere distinto significado conforme al contexto social en que se encuentra. La sociedad es la que le va a dar
valor significado a la cosa, no la cosa misma. Lo que se va a estudiar en el interaccionismo simbólico son esos
significados, esos símbolos que son propios de cada grupo humano. Todo el mundo tiene un sistema de símbolos,
que significan algo.
¿Entonces en qué consiste el interaccionismo simbólico? En aprehender el mundo, aprehender la realidad,
aprendiendo los significados de las cosas, objetos.
La gente los grupos creamos significados compartidos a través de la interacción social. Y estos significados ¿qué son?
¿Qué constituyen? Su realidad. las cosas concretas abstractas existen en tanto y en cuanto se otorgue un significado
determinado. Existen a partir del significado que le es adjudicado y por lo tanto el interaccionismo simbólico ¿de qué

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

se encarga? De estudiar la interpretación de estos símbolos, que están nacidos en la interacción social. ¿A fin de
qué? De comprender, de entender la realidad.
(Apunte Guillermo)El objetivo del interaccionismo simbólico es el estudio de los procesos de interacción a través de
los cuales se produce la realidad social dotada de significado. Este enfoque posee tres premisas básicas:
-En primer lugar, los humanos actúan respecto de las cosas, en base al significado que estas cosas tienen para ellos
(la gente actúa en función del significado que atribuye a los objetos y a las situaciones que lo rodean).
-En segundo lugar, la significación de estas cosas surge de la interacción social que un individuo tiene con los demás
actores.
-En tercer lugar, los actores sociales asignan significados a situaciones, a otras personas y a las cosas a través de un
proceso que tiene lugar en un contexto social.
Tiene por objeto los significados subjetivos que los actores sociales le asignan a sus actividades en la acción social
orientada recíprocamente y el carácter simbólico de la misma. Su premisa básica es que el significado de las cosas
nace de la interacción social y que en el proceso se realizan mudanzas. Los sujetos otorgan significados e
intencionalidades a las cosas, lo que nos permite ponernos en el lugar del otro y a la vez predecir el comportamiento
de los demás. Esta técnica se utiliza en los análisis de rituales, personales, interpersonales, etc. Método: entrevista.
UNIDAD 4. METODOLOGÍA CUALITATIVA EN INVESTIGACIONES JURÍDICAS. SEGUNDA PARTE.

1. LA TÉCNICA DEL FICHAJE EN LA INVESTIGACIÓN. TIPOS Y FORMAS DE LA TÉCNICA. ANÁLISIS DE DOCUMENTOS.


TIPOS DE TEXTOS JURÍDICOS (LEYES, SENTENCIAS, DOCTRINAS) Y EXTRAJURÍDICOS. LA SEMIÓTICA VISUAL:
SOPORTES EN VIDEOS, PELÍCULAS, FOTOGRAFÍAS, PARATEXTOS. INTERNET, DOCUMENTOS ONLINE Y REDES
SOCIALES. TÉCNICAS PARA LA RECONSTRUCCIÓN DE LOS SISTEMAS SEMÁNTICOS. ESTRATÉGICAS DE SELECCIÓN
DE MATERIAL DOCUMENTAL.

TECNICAS DE LA INVESTIGACION

Técnica. Es el conjunto de instrumentos y medios a través de los cual se efectúa el método y solo se aplica a una
ciencia. La diferencia entre método y técnica es que el método se el conjunto de pasos y etapas que debe cumplir
una investigación y este se aplica a varias ciencias mientras que técnica es el conjunto de instrumentos en el cual se
efectúa el método.
Técnicas de la investigación . La técnica es indispensable en el proceso de la investigación científica, ya que integra la
estructura por medio de la cual se organiza la investigación, La técnica pretende los siguientes objetivos: 
• Ordenar las etapas de la investigación. 
• Aportar instrumentos para manejar la información. 
• Llevar un control de los datos. 
• Orientar la obtención de conocimientos. 
En cuanto a las técnicas de investigación, se estudiarán dos formas generales: técnica documental y técnica de
campo. 
La técnica documental permite la recopilación de información para enunciar las teorías que sustentan el estudio de
los fenómenos y procesos. Incluye el uso de instrumentos definidos según la fuente documental a que hacen
referencia. 
La técnica de campo permite la observación en contacto directo con el objeto de estudio, y el acopio de testimonios
que permitan confrontar la teoría con la práctica en la búsqueda de la verdad objetiva.

TÉCNICA DEL FICHAJE EN LA INVESTIGACIÓN.

Cada tema de investigación que se aborde resultará en la elaboración de un fichero. El cual indicará distintos tipos de
fichas: Bibliográficas, de lectura, de citas, etc. Estas fichas sobre un tema específico tienen a posteriori un alto valor,

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

no sólo para el investigador que las confeccionó (podría ampliar la investigación en el futuro y tendría que hacer uso
de ellas) sino para otros investigadores que toquen el mismo tema o algunos aspectos secundarios. En consecuencia,
estos ficheros pueden prestarse o cederse a otra persona.

El fichaje es el proceso de recopilación y extracción de datos importantes en nuestro proceso de investigación, trata
tanto de información bibliográfica como no bibliográfica.
Las fichas son tarjetas pequeñas de cartulina donde se anotan las referencias del material documental. Adquieren
diferentes nombres según su finalidad:
a. Bibliográficas: aquellas que sirven para transcribir datos esenciales de un libro. Se encuentran en las bibliotecas
públicas en ficheros. Estas fichas están clasificadas y ordenadas de mnaera alfabética por autor, tema o título de la
obra.
b. Hemerograficas: aquellas que sirven para anotar los datos de una revista y contiene la misma información que la
ficha bibliográfica, exceptuando el nombre del artículo de la revista (autor del artículo, nombre del artículo, título de
la revista, editorial, numero de la revista y fecha de la misma, y paginas donde se encuentra el artículo en la revista)
c. De trabajo: aquellas que se utilizan para transcribir la información bibliográfica o hemerografica del material de
referencia que servirá de soporte para enjuiciar la hipótesis o reforzar la tesis
d. Textual: aquella que transcribe lo expuesto por el autor.
e. De referencia cruzada: se menciona la ficha a la que se puede remitir para encontrar la información.
f. De resumen: se redacta en pocas palabras la idea del autor
TIPOS Y FORMAS DE LA TÉCNICA.

En cuanto a la elaboración de fichas bibliográficas, una parte muy importante de la investigación documental lo
constituyen los diferentes tipos de fichas: las variantes están dadas en función del tipo de material y de la fuente de
la que se extrae la información.
-Tipos
Entre las fichas más comunes tenemos:
a. Ficha bibliográfica (libros)
b. Ficha hemerografica (revistas, periódicos)
b. Ficha audiografica (material sonoro)
c. Ficha videografica (material de video)
d. Ficha icnográfica (material de fotografías, pinturas)
e. Ficha epistolar (cartas)
f. Ficha de información electrónica
Ficha bibliográfica. La ficha bibliográfica se realiza cuando es necesaria la información en forma resumida de la vida
de un autor o autores. Contienen datos de identificación de un libro o de algún documento escrito sobre el objeto
de estudio.

Ahí debe aparecer la siguiente información:


1. Año y lugar de nacimiento y muerte del autor. Nacionalidad.
2. Estudios que realizo, profesión.
3. Obras más importantes que escribió.
4. Temas que estudio. Teorías que desarrollo.
5. Importancia científica de su época.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

-FORMAS DE HACER UNA FICHA. A medida que uno va investigando, hay que ir haciendo un registro de los datos
correspondientes de las teorías consultadas, es muy importante no descuidar ninguno de ellos. El formato mas
común visualizado para la estructuración de las fichas bibliográficas, es en cartulina blanca de medida estándar de
12.5x7.5 cm. Estas tienen la enorme ventaja de facilitar el ordenamiento, ya sea por autores, temas, títulos, fechas
de región, etc.

-Se registra a partir del Angulo superior izquierdo de la tarjeta, el apellido del autor, nombre con mayúsculas: el
nombre y apellido del coautor si los tuviera, tres espacios y seguida el titulo del libro subrayado.
Los índices que se refieren a los libros se encuentran generalmente en cajones que contienen tarjetas de 3x5
pulgadas, ordenadas alfabéticamente.
Los datos que se enumeran a continuación son los que se registran en las fichas:
1. Nombre del autor: primero los apellidos y después de una coma los nombres de pila, después punto y seguido.
2. Título del libro subrayado, después punto.
3. Subtitulo (si lo hay), también subrayado, separado del titulo por dos puntos, después de los cuales se comienza
con mayúscula.
4. Traductor, prologuista si es que el original se escribió en otro idioma.
5. Edición (solo a partir de la 2da, si es la primera no se anota), después punto.
6. Numero de volumen (si cuenta con más de uno), después punto. (ej: 3 vols.)
7. Lugar donde se editó la obra (se pone la ciudad, no el país, ej buenos aires), después dos puntos
8. Editorial, después coma
9. Fecha de edición (año), después punto.
10. Número total de páginas, laminas, ilustraciones si es un solo volumen, después punto (ej: 657 p.)
Ejemplo
Cardozo, Cristian. Seminario de investigación. 2. Ed. 3er. Vol. 3.
Buenos aires Editorial San Andrés, 1998. 198 p.

Colección o serie.
Los datos que corresponden al 7, 8 y 9 (Lugar donde se editó la obra, editorial y fecha de edición), se conocen como
“pie de imprenta”.
Entre paréntesis, rectangulares o corchetes, se anotan los datos que se deseen agregar: si contiene mapas,
ilustraciones, comentarios, etc. Cuando no aparecen algunos datos indispensables se usan las siguientes
abreviaturas.
[et. al.]: Cuando son varios autores se anotan los datos del primero y esta abreviatura significa “y otros”.
[s. tr.]: Significa “sin traductor”
[s.l.]: Significa “sin lugar”
[s.f.]: Significa “sin fecha”
[s. e.]: Significa “sin editorial”
[sep.]: Significa “sin pie de imprenta”
Las anotaciones particulares hechas por el investigador para su empleo personal se encierran también entre
corchetes. En algunas fichas se incluye también un breve resumen del libro y/o indicie de contenido. A este fichero
se recurre cuando se conoce el nombre del autor del libro que se desea consultar. Otras veces se recurre a ficheros
clasificados por temas y por títulos, porque se desconoce el nombre del autor. En ocasiones, cuando no hay
referencia en el fichero sobre el concepto investigado, se debe buscar sinónimos o temas afines.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

Fichas de documentos nacionales:


a. Titulo
b. Lugar
c. Fecha
d. Archivo
e. Legajo
f. Foja
g. Demás especificaciones
h. Numero de paginas
i. Características de interés particular, si el investigador juzga indispensable registrarlas.
Fichas de documentos internacionales:
a. Órgano responsable
b. Titulo
c. Número, clave o codificación
d. Lugar donde se publico
e. Editor o conducto por el que se da a conocer
f. Fecha.

ANÁLISIS DE DOCUMENTOS. Se entiende por documento cualquier entidad que informa. El análisis de documentos
es una fuente de gran utilidad, porque brinda información respectiva acerca de un determinado hecho. Se agrupan
en documentos oficiales y documentos personales. Los primeros son toda clase De registros disponibles como fuente
de información. Por ejemplo, registros de organismos, informes gubernamentales, etc. Los documentos oficiales
pueden clasificarse en internos, que hacen referencia a los documentos generados y disponibles en una organización
y en externos, que son los producidos por la institución para comunicarse con otras. Los documentos personales son
relatos producidos por una persona que relata sus propias experiencias y creencias, mostrando sus acciones a nivel
individual y a nivel social. Describimos estos documentos como diarios y cartas personales, autobiografías, etc.

Los documentos se pueden clasificar en documentos primarios, que son los originales, informes de investigación,
comunicaciones, ponencias, y en secundarios, que son síntesis de escritos previos, eliminan la información técnica y
aportan referencias, como por ejemplo, bibliografías, repertorios y directorios.

La recopilación documental es una técnica cuya finalidad es obtener datos e información a partir de documentos
escritos o no, a fin de ser utilizados según los objetivos de la investigación. Es una tarea ardua, por ello es importante
saber seleccionar el material conforme al problema. Debemos evitar la acumulación de información sin criterios de
selección y la búsqueda sin intencionalidad. Cuando se realiza sabiendo lo que buscamos, nos permite ahorrar
esfuerzos, orientar fuentes, etc.

TIPOS DE TEXTOS JURÍDICOS (LEYES, SENTENCIAS, DOCTRINAS) Y EXTRAJURÍDICOS.

El texto jurídico se utiliza con efectos legales, ya que tiene consecuencias jurídicas, como su nombre lo indica. Es por
eso que su emisión tiene una serie de requisitos que debe contender para que sea formal. Su contenido tiene un
gran carácter conservador, tanto el lenguaje empleado como la estructura.

a. Leyes

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La ley es una norma jurídica dictada por el legislador, es decir: un precepto establecido por la autoridad competente,
en que se manda o prohíbe algo en consonancia con la justicia cuyo incumplimiento conlleva a una sanción

b. Sentencias

Resolución de un juez o un tribunal con la cual se concluye un juicio o un proceso.

c. Doctrinas

La doctrina jurídica es lo que piensan los distintos juristas respecto de los distintos temas del derecho, respecto a las
distintas normas. Se reduce al conjunto de opiniones que sirven de guía para ejercer el derecho. Carece de toda
fuerza obligatoria, aunque desempeña un papel fundamental en la elaboración, el desarrollo progresivo y la reforma
del derecho, por medio de sus enseñanzas y sus obras, a través de la formación de los juristas que serán futuros
legisladores y jueces.

LA SEMIÓTICA VISUAL: SOPORTES EN VIDEOS, PELÍCULAS, FOTOGRAFÍAS, PARATEXTOS. INTERNET, DOCUMENTOS


ONLINE Y REDES SOCIALES.

La semiótica visual es una rama de la semiología (semiótica) que trata sobre el estudio o interpretación de las
imágenes, objetos e incluso gestos y expresiones corporales, para comprender o acoger una idea de lo que se está
visualizando. Por ejemplo, una persona que asiste a una exposición de pintura, utiliza la semiótica visual, para
interpretar la imagen observada.

Las imágenes, fotografías, diseños, películas y videos, proporcionan material sin procesar para analizar e interpretar,
porque muestran escenarios de los hechos, recuerdos, expresiones, conductas, acontecimientos, la vida cotidiana,
una determinada actividad, un episodio social, detalles que otorgan veracidad a la descripción de la realidad. El
medio que se usa determina el tipo de información: visual, gestual y/o verbal. La ventaja es que la información
registrada queda almacenada para verla y analizarla tantas veces como se quiera.

Las fotografías, más que mostrar la realidad son un espejo con memoria, porque quedan registrados en papel
episodios que ocurren. Son documentos que cubren el bache de la información oral, reflejan actitudes y gestos que
no son vistos por el observador. Son representaciones de la realidad que proyectan un sentido verbal. Se utilizan
como técnica de recogida de información, de análisis y de comprensión de determinadas situaciones.

A. Videos y películas. Se trata de material sin procesar para analizar e interpretar. Muestra el escenario de los
hechos, expresiones, conductas, acontecimientos, detalles, etc. El medio que se use determina el tipo de
información, que puede ser visual, gestual y/o verbal. Posee la ventaja de que se obtiene mucha información, de
manera objetiva y que se puede almacenar para así determinar mediante la observación pautas de conducta. Las
desventajas son: el costo, la posibilidad de que se grabe material irrelevante, el operador puede ser selectivo, etc.

b. Fotografías. Reflejan actitudes, gestos, miradas que no son vistos por el observador. La verdad está dada por el
fotógrafo, quien puede puntualizar o ampliar el campo visual, lo que a su vez le da un carácter selectivo. Ayudan a
entender conductas. Las ventajas son las siguientes: Una imagen vale 1.000 palabras, ilustran situaciones, propician
el dialogo, completan la información y permiten el uso reiterado. Las desventajas son que capta lo singular, su costo,
y que no capta una visión verbal ni auditiva.

c. Paratextos. El término paratexto designa al conjunto de los enunciados que acompañan al texto principal de una
obra, como pueden ser el título, subtítulos, prefacio, índice de materias, etc.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

d. Internet Red informática de nivel mundial que utiliza la línea telefónica para transmitir la información.

e. Documentos online. Un documento es el testimonio material de un hecho o acto realizado en el ejercicio de sus
funciones por instituciones o personas físicas, jurídicas, públicas o privadas, registrado en una unidad de información
en cualquier tipo de soporte (papel, cintas, discos magnéticos, películas, fotografías, etcétera) en lengua natural o
convencional. Es el testimonio de una actividad humana fijada en un soporte. En nuestro caso los documentos serán
de tipo digital, es decir en online, a través de la red.

f. Redes sociales. Una red social es una estructura social compuesta por un conjunto de usuarios que están
relacionados de acuerdo a algún criterio.

ESTRATÉGICAS DE SELECCIÓN DE MATERIAL DOCUMENTAL.

Los documentos se pueden clasificar de la siguiente manera:

a. Según el contenido informativo


-Documentos primarios: los documentos originales, informes de investigación, comunicaciones, ponencias, etc. Son
textuales, gráficos, materiales, personales.
-Documentos secundarios: síntesis de escritos previos, eliminan información técnica y aportan referencias. Por
ejemplo: boletines, guías documentales, bibliografías, repertorios y directorios.

b. Según la perspectiva de elaboración de la información.


-Contenidos específicos
-Internos/externos
-Actuales/históricos.
-Elaborados/espontáneos.
-Individuales/colectivos.
c. Según el tipo de codificación de la información
-Analógicos o descriptivos, icónicos o visuales.
-Arbitrarios o convencionales digitalizados.
-Directos o no media dios, indirectos o mediados.

d. Según el tipo de soporte:


-Papel
-Magnético
-Óptico
-Natural.
La recopilación documental es una técnica que tiene como finalidad obtener datos e información a partir de
documentos, con el fin de usarlos conforme a los objetivos de la investigación. En cuanto a las estrategias de
selección del material, es importante saber seleccionarlo conforme al problema, de modo de evitar la acumulación
de información sin criterios de selección y la búsqueda sin intencionalidad. Hay que realizar la búsqueda sabiendo
que buscamos, lo cual nos permitirá ahorrar esfuerzos, orientar fuentes, etc.

2. ANÁLISIS CRÍTICO DEL DISCURSO. NOCIONES DE DISCURSO, TEXTO, ENUNCIADOS, ENUNCIADOR Y LOCUTOR.
TEXTO Y CONTEXTO: SEMÁNTICA Y PRAGMÁTICA. ACD Y TRABAJO CON FUENTES SECUNDARIAS:
RECONSTRUCCIÓN, DETECCIÓN Y CATEGORIZACIÓN DE ARGUMENTOS.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

ANÁLISIS CRÍTICO DEL DISCURSO. (Desgrabado de clases)

El análisis del discurso parte de la premisa de que el lenguaje es una señal de una realidad determinada, y, además,
una forma de crear la realidad. Considera útil leer, analizar y estudiar los discursos para poder comprender la
realidad.
No se aplica únicamente la interpretación de textos escritos, sino que además puede recurrirse a esta técnica para el
estudio o análisis de material fotográfico, que nos puedan aportar datos, como así también archivos de sonidos,
películas e incluso grupos focales.
El análisis del discurso es una labor analítica que rompe, que descompone el texto (No solo el texto escrito) rompe y
descompone el mensaje, para luego suturarlo y recomponerlo interpretándolo.

Proceso:

a. Hay que establecer el problema de investigación (lo que se quiere resolver, el objeto de la misma).

b. En segundo lugar, hay que ver cuál es el punto de partida. La noción, la idea concreta, clara de que el fenómeno
que se quiera estudiar en lo social no está solamente mediatizado mediante el lenguaje, sino que esta creado por el
lenguaje. Se buscan materiales, fuentes que desarrollen básicamente el fenómeno que yo quiero estudiar, y
finalmente demostrar mediante los distintos textos o fuentes de mensaje, del discurso (no literalmente sino como
medio portador de mensajes, puede ser un discurso oral, puede ser un discurso escrito, una imagen, una película)-
recorrer los textos buscando todas las posibles lecturas e interpretaciones que hacen los distintos autores o
emisores de esos mensajes sobre el fenómeno que estamos estudiando.

Este tipo de técnica implica tanto la posibilidad de conocer lo que el mensaje en sí mismo dice, como así también de
conocer aspectos que subyacen del mismo (como ser, aspectos sociales, culturales, ideológicos de quien emite el
mensaje, etc.). Nos permite conocer no solo el elemento externo, sino también, el interno. El análisis del discurso
revisa las relaciones entre los textos o mensajes y la realidad. El estudio no se refiere al texto en si, sino a algo que
esta dentro de este, como ser, características sociales, económicas, problemas sociales, culturales que rodeen o
caractericen el mensaje

Ejemplo: Cumbia: Donde refleja cómo viven determinadas personas. La política: Los medios de comunicación se
encargan exclusivamente de dar mensajes que transmiten más de lo que los mensajes dicen. Se estudia el fenómeno
no solo mediante lo que subyace del mensaje, sino también mediante lo que hay detrás del mismo.

(Apunte de Guillermo)

Dijk desarrollo el análisis del discruso para observar la relación entre discurso (especialmente de los medios de
comunicación, y la sociedad). Analiza las estrategias de manipulación de la información, de parte de los formadores
de opinión, mediante consensos o disensos que influyen en los lectores. Se detiene en la estructura de las noticias,
desglosando la macroestructura (se expresa mediante los titulares y los encabezamientos: que resumen la temática
de la nota), de las microestructuras (que se refieren a las partes que componen el texto: titulo, copete,
acontecimientos principales, actores involucrados, antecedentes, consecuencias, comentarios)

El análisis del discurso (o estudios del discurso) es una transdisciplina de las ciencias humanas y sociales que estudia
sistemáticamente el discurso escrito y hablado como una forma de uso de la lengua, como evento de comunicación y
como interacción, en sus contextos cognitivos, sociales, políticos, históricos y culturales

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Los métodos de este son en general cualitativos: Descripción detallada de las estructuras y estrategias de los
discursos escritos o hablados, en varios niveles: sonidos y estructuras visuales y multimedia, la sintaxis (estructuras
formales de las oraciones), la semántica (las estructuras del sentido y de la referencia), la pragmática (los actos de
habla, la cortesía, etc.), la interpretación y la conversación, los procesos y representaciones mentales de la
producción y de la comprensión del discurso, las relaciones de todas esas estructuras con los contextos sociales,
políticas, históricas y culturales.

El análisis del discurso se distingue del análisis de contenido (este es un método más bien cuantitativo de las ciencias
sociales que se aplica a grandes cantidades de textos, por ejemplo, con una codificación de propiedades observables
de los textos)

Estudia cómo influyen los medios de comunicación en la sociedad. Analiza la estrategia de manipuladores de la
información de parte de los formadores de opinión mediante la creación de consensos y disensos que influyeron en
los lectores. Analiza la estructura de las noticias en forma macro (títulos, imágenes, resúmenes) y micro estructural
(actores, comportamientos, noticia en sí misma).

El lector analiza el texto y su significado, se tiene en cuenta:

a) Lo no dicho o verdad sobreentendida


b) Uso de la palabra y estructura con valoración negativa
c) Existir siempre una relación entre el texto y el contexto
d) Diferencia entre enunciación y enunciado, el primero es quien lo dice y lo que dice, y el segundo
únicamente lo que dice

NOCIONES DE DISCURSO, TEXTO, ENUNCIADOS, ENUNCIADOR Y LOCUTOR.

a. Discurso. Enunciado o conjunto de enunciados con que se expresa, de forma escrita u oral, un pensamiento,
razonamiento, sentimiento o deseo.

b. Texto. Conjunto de enunciados que componen un documento escrito. Cuerpo de un escrito, prescindiendo de las
notas, los comentarios, las portadas, las ilustraciones, etc.

c. Enunciados. En pragmática, un enunciado es un acto de habla mínimo, realizado mediante una oración o una
expresión sintáctica más pequeña que una oración. Informalmente se usa enunciado como sinónimo de oración,
aunque pragmáticamente existen diferencias

d. Enunciador y locutor

LOCUTOR: Es la persona responsable del enunciado, un emisor, que puede describirse según la función que cumple
social, cultural o políticamente. ENUNCIADOR: (En) es el mismo LOCUTOR, pero representa cada vez una intención
comunicativa con el Enunciado hacia un enunciatario. Esta intención se da en actos de habla.

Por locutor (L) se entiende la instancia que produce el enunciado. En palabras de Ducrot, el locutor, es el
responsable del enunciado. En cuanto al enunciador (o enunciador), corresponde (en) a una posición enunciativa
que adopta el locutor en su discurso y hace (n) referencia a diferentes voces que el locutor convoca en este discurso

TEXTO Y CONTEXTO: SEMÁNTICA Y PRAGMÁTICA.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

-Texto y contexto

Por ejemplo, un texto es una obra literaria, una noticia periodística, un discurso público, etc., pero no así una frase
suelta carente de sentido. El contexto, como mencionamos antes, es el entorno físico y social, ya sea cultural,
político, histórico, etc., en el que se considera un hecho.

-Semantica y pragmática

La Semántica es el estudio del significado de los signos lingüísticos, esto es, palabras, expresiones y oraciones.
Quienes estudian la semántica tratan de responder a preguntas del tipo "¿Cuál es el significado de X (la palabra)?".
Para ello tienen que estudiar qué signos existen y cuáles son los que poseen significación, esto es, qué significan para
los hablantes, cómo los designan (es decir, de qué forma se refieren a ideas y cosas) y por último, cómo los
interpretan los oyentes. La finalidad de la semántica es establecer el significado de los signos, lo que significan,
dentro del proceso que asigna tales significados

Desde el punto de vista de la semántica tradicional, una forma como “Preparas un café exquisito” tiene un solo
significado. Su significado se puede especificar completamente, independientemente de los contextos. En cambio,
desde el punto de vista de la pragmática, la misma forma puede tener varios significados. Dependiendo del contexto,
de la situación, la misma idea se comunica en diferentes formas: como médico a su paciente, como un buen amigo a
otro o como un padre a su hijo de 15 años. La oración “Ya es tarde”, semánticamente tiene un sentido claro;
pragmáticamente tiene posibilidad de otros sentidos (“no quiero quedarme”, “quiero comer”, etc.) Si en una
investigación se hace referencia explícita al hablante o al usuario de una lengua, entonces la asignamos al campo de
la pragmática.

En síntesis, la semántica analiza el sentido o la interpretación del significado lingüístico a partir de la representación
del significado y su referente o elemento real. Con la pragmática se plantea el estudio del significado en contexto.

ACD Y TRABAJO CON FUENTES SECUNDARIAS: RECONSTRUCCIÓN, DETECCIÓN Y CATEGORIZACIÓN DE


ARGUMENTOS.

FUENTES SECUNDARIAS

Son libros y artículos en los que otros investigadores informan de los resultados de su investigación sobre la base de
datos o fuentes primarias. Se cita o se hace referencia a ellos para apoyar la propia investigación. Se trata de los
instrumentos de trabajo que sirven para recoger la información escrita en una forma que sea ordenada y fácil de
manejar, se les conoce con el nombre de fichas. Las fichas son tarjetas pequeñas de cartulina donde se anotan las
referencias del material documental. Las fichas adquieren diferentes nombres, según su finalidad

3. EL MÉTODO BIOGRÁFICO: HISTORIA DE VIDA, DIARIOS, CARTAS PERSONALES Y ANECDOTARIOS,


AUTOBIOGRAFÍA Y BIOGRAFÍAS. RECONSTRUCCIÓN DEL UNIVERSO SOCIAL Y SIMBÓLICO. LOS ESTUDIOS DE CASO.
VARIEDAD DE DISEÑOS Y CRITERIOS A EVALUAR PARA SU UTILIZACIÓN

EL MÉTODO BIOGRÁFICO:

El objeto del método biográfico es ‘Reconstruir desde el actor situaciones contextos, comportamientos , asi como
percepciones y evaluaciones , el eje es reconstruir un proceso ubicado históricamente es decir esta constituido por
una o varias personas ubicadas históricamente que tienen en común haber sido actores en los sucesos que narran .
Tecnicamente el principal insumo sobre el cual se trabaja en el método biográfico es el testimonio , relatos de vida ,

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

experiencias autobiografías , narraciones sobre determinados momentos y periodos en la vida de una persona o
grupo particular siempre enraizada en espacios y contextos socio-historicos determinados, interesa una percepción
particular de las cosas los sucesos son constantemente revalorados reasumidos y reinterpretados mediante un
proceso activo de la selectividad de quien relata por lo tanto los recuerdos del pasado la descripción del presente y
las proyecciones hacia el futuro que la gente elabora se encuentran mediatizados a la vez por la subjetividad y por el
contexto social de sus experiencias y su ubicación en la sociedad. No se buscara reconstruir desde estos testimonios
una visión objetiva de los hechos , sino la versión que los actores determinados por las creencias anhelos temores
inquietudes y valores que sostienen han construido sobre ellos . La entrevista rescata no solo informaciones sino
también formas de hablar , temores , imaginarios sociales . y de manera relevante la propia identidad del sujeto
construida en el relato . Hay que situar las experiencias narradas en el discurso dentro de un conjunto de
regularidades y pautas explicables sociohistoricamentes , pensando que el relato de vida responde a una realidad
socialmente construida y sin embargo no se puede dejar de atender a que esa vida es también completamente única
y singular .

Un ejemplo de aplicación seria un estudio sobre los procesos de privatización de empresas publicas desde un
enfoque psicosocial se podrá entrevistar a personas que hubieran trabajado desde el periodo estatal en compañías
que luego se privatizaron .No se trataría de inquirirlas para obtener una información sino de escuchar los relatos que
construyen sobre sus vidas, como fueron cambiando , que derrotero tomo ese trabajador cuando lo despidieron que
planes hizo con la indemnización , cuales de ellos pudieron concretarse y cuales no , y por que.. Quizás el empleado
desplazado utilizo el dinero de la indemnización en instalar un pequeño comercio entonces su relato privado ira
entretejiéndose con otros momentos por caso cuando asumió un gobierno o hubo una devaluación de la moneda y
relatara los avatares de su comercio durante esos periodos . de este modo podría comprenderse el fenómeno de las
privatizaciones en su dimensión subjetiva enlazando la vida de los protagonistas , sus anhelos ,dificultades y
oportunidades con los cambios sociales económicos o políticos en los que esas biografías individuales se desplegaron
y lograr un conocimiento , siempre desde la perspectiva del actor . como la vive el y como procura que lo perciban
los otros . con esta lógica el método biográfico ah abordado el estudio de la inmigración, las trayectorias
profesionales o comerciales y su relación con los entornos sociales y económicos en lo que se desplegaron las
trayectorias de vida , de sujetos excluidos y la mirada de los mismos sobre el entorno que los expulsa , las
trayectorias de genero etc .

HISTORIA DE VIDA

¿En que consiste la historia de vida?

Una narración de la vida de una persona contada en una serie de conversaciones o entrevistas habladas’’, la historia
de un individuo es un punto de intersección con el medio social y con el proceso histórico focaliza su atención en uno
de sus factores (el individuo).La historia de vida revela el mundo subjetivo de las personas, las interpretaciones que
realiza sobre los contextos y el sentido que atribuye a las situaciones en las que participa como miembro de una
cultura, contextualizada en un espacio y en un tiempo.

Son relatos subjetivos, obtenidos por el entrevistador, mediante una secuencia de entrevistas, donde se revelan
tanto los acontecimientos como las valoraciones que una persona hace de su propia vida. Son documentos que
describen como percibe la persona su propia historia.

Se diferencia de la autobiografía ya que esta narra retrospectivamente una experiencia de vida donde la persona
selecciona aquello que desea dar a conocer, mientras que, en la historia de vida, es el investigador quien reconstruye
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

la experiencia de vida de alguien. La metodología ofrece un marco interpretativo que trata de captar el punto de
vista de su entrevistado, para llegar a comprender los significados que la persona le atribuye a cada proceso o
fenómeno social.

Diferentes técnicas y modalidades de las historias de vida.

La historia total: el investigador trabaja sobre un relato que comprende toda la vida del sujeto (desde el momento
mas antiguo hasta el momento final de su relato)

Temático: centrado en un tema o cuestión que estudia a todo o largo de la vida del sujeto.

La biografía preparada por el investigador que en ultima instancia es el responsable del producto final, a través de
una tarea de escuchar, anotar , cortar , seleccionar , ordenar y reestructurar hasta llegar a configurar un formato y
contenido final a la historia .

Tipos de historia de vida, supone igual variedad de técnicas:

Técnicas de relato único: Obtenido de una sola persona, este tipo de historia de vida se puede realizar partiendo de
autobiografías encargadas o relatos producidos a través de entrevistas en profundidad .

Técnicas de relatos cruzados: Se trata de la historia de varias personas de un mismo entorno (familiar , vecinal o
compañeros de una institución) .

Técnicas de relatos paralelos: son historias que no necesariamente transcurren en el mismo medio.

El método y los procedimientos para hacer una historia de vida. Los relatos de vida son utilizados de manera muy
diversa.

● Marco microsociologico:

-perspectiva temporal -Ecologia social

-Condiciones socioeconómicas de vida

● Pautas psicológicas de vida:

-familia y grupos -Pautas culturales de valores , normas , experiencia y


roles

● Características individuales:

-Autodescripciones e interpretaciones

-intereses , actividades , y ocupaciones de tiempo libre

-Fines , aspiraciones y conflictos

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Fases para construir una historia de vida:


1. Marco de relación: Debe existir un contrato verbal entre la persona y el investigador, es decir, un acuerdo inicial sobre
los temas, sus inicios, números de sesiones, lugar, hora duración etc.
2. Ética: Garantizar el respeto moral mutuo, responsabilidad en el uso de información, anonimato, etc.
3. Selección del sujeto: Se seleccionarán aquellas personas que se destaquen por su marginalidad, por su excelencia, o
por su representatividad.
4. Duración del estudio.
5. Registro de la información: Puede ser realizado a través de transcripciones de las entrevistas, registros temáticos,
diarios de campo con reflexiones personales del investigador.
Las limitaciones están dadas por lo que recuerda el sujeto, como lo recuerda, el carácter selectivo, los acontecimientos
imaginarios, lo que quiere contar el sujeto y la veracidad de su relato.
Dada la baja confidencialidad de los datos obtenidos por este medio, como asi también las fallas de memorias de los
entrevistados y las tergiversaciones conscientes en la información, se han ideado dos tipos de controles:
a. Control interno: referido a la coherencia y consistencia del discurso del entrevistado.
b. Control externo: referido a la conformación de los datos obtenidos mediante las entrevistas con otras fuentes, o con
entrevistas repetidas a los mismos sujetos, en diversos momentos, sobre el mismo tema.
En síntesis, para trabajar con esta técnica hay que tener en cuenta las omisiones, los silencios, lo que no se dice, dado a
que lo que se oculta es esencial para el análisis.
Técnica: entrevista

DIARIOS Son registros descriptivos, sobre la base de cierta continuidad, que recogen los comentarios reflexivos de los
acontecimientos que tienen lugar en la vida de una persona. No existen pautas fijas para escribir un diario.

Formas:
a. Solicitado: Se debe pedir al informante que escriba un diario sobre un aspecto de su vida, durante un lapso
determinado y con instrucciones bien explicitas.
b. De notas: son aquellos en los que una persona plasma los hechos, ideas, sentimientos vividos como importantes.
Reflejan lo cotidiano, espontaneo y su capacidad de análisis en ese momento, son las anotaciones que escriben día a día
con plena libertad.
Los problemas que plantea son que es difícil de analizar, ya que hay que distinguir entre pensamientos, sentimientos y
hechos.

CARTAS PERSONALES Son documentos interesantes para el estudio de experiencias personales y de interacción social
entre dos polos: remitente/destinatario.

Diferente de los otros documentos personales porque implican interacción entre dos personas. Las características del
remitente influyen en el contenido y en la forma de la reacción del destinatario.

Dan cuenta del significado de lo vivido por cada uno y en la relación con el otro.
Las cartas pueden ser ceremoniales, como por ejemplo, enviadas en ocasión de eventos familiares, como un nacimiento
o una boda; informativas, que ofrecen un relato de la vida de una tercera persona, situaciones históricas, etc. Por ej. La
carta enviada por San Martin a Juan Manuel de Rosas; sentimentales, que tienen por finalidad reavivar los sentimientos;
de negocios o literarias.
ANECDOTARIOS. Son una modalidad de registro que se realiza en una situación real, con el fin de registrar una conducta
relevante o incidentes relacionados con un área de interés. Tiene en cuenta procesos específicos y parcelados de la
realidad, en forma detallada. Es un fichero de anécdotas sobre una conducta particular de una persona
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

AUTOBIOGRAFÍA Y BIOGRAFÍA. La biografía es un relato elaborado por otra persona, de carácter narrativo, realizado
mediante combinación de documentos y entrevistas, entre otras.

La autobiografía, en cambio, es la narración de la propia vida, contada por sus propios protagonistas. Es un tipo de
documento personal, en donde una persona relata por su propia voluntad su experiencia personal, detallando los
hechos de su vida, en forma testimonial, subjetiva y auto valorativa. Como documentos de información representan un
aporte valioso, siempre que se tenga en cuenta que son relatos individuales y de historia personal, pero que se pueden
contextualizar con otros datos.

Historia de vida Biografía autobiografía


Quien escribe Investigador investigador Protagonista

Quien narra Investigador a través Investigador en Protagonista en


del protagonista tercera persona, en primera persona, en
singular e indicativo singular e indicativo
Método Entrevista Entrevista y Retrospectivo y auto
documentos valorativo

LOS ESTUDIOS DE CASO. El estudio de caso consiste en la recopilación, e interpretación detallada de toda información
posible sobre un individuo, una institución, una empresa un movimiento social particular, ‘investiga un fenómeno
contemporáneo dentro de su contexto real de existencia , cuando los límites entre el fenómeno y el contexto no son
claramente evidentes y en los cuales existen múltiples fuentes de evidencia que pueden usarse’’

Los casos son particularmente apropiados como métodos de investigación cuando se presentan preguntas del tipo como
o por que, la respuesta a estas preguntas son las teorías fundadas en los datos de caso que el investigador elabora no se
trata de teorías que puedan ser generalizadas , ningún investigador cualitativo tiene esa pretensión el investigador
interpreta e intenta establecer en el caso cuan plausible es la lógica de su interpretación. Metodológicamente el caso
puede ser construido por el investigador como una forma de organización que emerge de la investigación misma , o
puede ser un objeto definido por fronteras preexistentes tales como una escuela , un aula , un programa . también
puede ser derivado de los constructos teóricos, ideas y conceptos que emergen del estudio de instancias o
acontecimientos similares .por ultimo un caso puede ser una convención predefinido por acuerdos y consensos sociales
que señalan su importancia . Asi las unidades de análisis pueden ser tipos de sujetos empleados , enfermos de cáncer de
pulmón madres de hijos adolescentes , distribuidores ,organizaciones (privadas y publicas) objetos utensilios
computadoras vestidos alimentos transgénicos , productos ,envases documentos planes de negocios, actas de reuniones
, discursos , comerciales publicitarios o un suceso puntual como la guerra de irak o el proceso de certificación ISO 9001
de una pyme .

Técnicamente el estudio de casos se basa en entrevistas , observaciones, pero también en documentos y datos
secundarios y puede recurrir a técnicas cuantitativas como la encuesta , para conocer algunos aspectos que permitan
luego de una interpretación mas profunda del conjunto .

El estudio de caso, consiste en un tratamiento global/holístico de un problema, contenido, proceso o fenómeno en el


que se centra el foco de atención investigativa, ya sea que se trate de un grupo, individuo, organización, institución o

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

pequeña comunidad. Como método, el estudio de casos examina y analiza con mucha profundidad la interacción de los
factores que producen un cambio, crecimiento o desarrollo de los casos estudiados.

Con este tipo de estudio se pretende captar la complejidad del caso único, dentro del cual ciertos hallazgos podrán ser
generalizados mediante una lógica inductiva a todos los otros casos que comparten semejantes circunstancias o
situaciones.

(Apunte Guillermo).

La selección de casos implica un análisis detallado, comprensivo, sistemático y en profundidad del caso objeto de
interés. Un caso puede ser una persona, una organización, un programa de enseñanza, una colección, un
acontecimiento particular o un documento. La única exigencia es que posea algún límite físico o social que le confiera
entidad. Un caso se elige en la medida en que aporte a nuestra comprensión del tema de estudio.

La selección de casos únicos se fundamenta en que el mismo permite confirmar, cambiar, ampliar el conocimiento sobre
el objeto de estudio. Desde esta perspectiva puede tener una importante contribución al conocimiento.

Este tipo de selección se utiliza con mucha frecuencia en el método biográfico, donde cada caso es revelador de una
situación concreta. Se puede utilizar también cuando se realiza un primer análisis exploratorio de un estudio de casos
múltiples. En la selección de casos múltiples se utilizan varios casos únicos a la vez, para estudiar la realidad que se desea
explorar, describir, explicar, evaluar o modificar. En él es importante tener en cuenta que la selección de casos se realiza
sobre la base de la potencial información qupregue el caso pueda aportar al estudio de la totalidad. Cuando se opta por
un estudio de caso único o múltiple, el mismo puede implicar más de una unidad de análisis. Al analizar un objeto se lo
puede considerar como una totalidad, en forma global o constituida por una serie de unidades o sub unidades cuyas
características requieren de un tratamiento especial.

Ejemplo:
Objeto de estudio: una institución educativa (caso único)
Unidades de Análisis: EGB, Polimodal, Superior No Universitario (varias unidades de análisis)
Si el estudio de caso se realiza considerando una institución educativa como única unidad de análisis, tenemos un
ejemplo de diseño global de caso único .El diseño global se realiza cuando no se pueden contemplar sus unidades o
cuando el marco teórico es por sí mismo de carácter global.
El estudio de casos se basa en una lógica de tipo inductiva. Las generalizaciones, conceptos e hipótesis surgen a partir de
un examen minucioso de los datos. Se caracteriza por el descubrimiento de nuevas relaciones y conceptos, generar
hipótesis y alcanzar niveles explicativos de relaciones, conseguir mayor claridad sobre un aspecto teórico concreto,
indagar sobre un fenómeno. Los objetivos que orientan los estudios de casos son: explorar, describir, explicar, evaluar,
transformar.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

UNIDAD 5: METODOLOGÍA CUANTITATIVA EN INVESTIGACIONES JURÍDICAS. PRIMERA PARTE.

1. Los modelos y supuestos teóricos que sustentan el diseño de investigación cuantitativo. Universo y muestra:
definición y criterios para decidir el diseño muestral. Muestras probabilísticas y no probabilísticas. Probabilidad:
concepto, distribuciones, media aritmética y medio estándar. Calculo del tamaño de la muestra.

LOS MODELOS Y SUPUESTOS TEÓRICOS QUE SUSTENTAN EL DISEÑO DE INVESTIGACIÓN CUANTITATIVO.


a. Supuesto lógico-epistemológico: Se basan en una lógica cuantitativa, que tiene la intención de explicar la realidad
social.
b. Intención del investigador: está más cerca de ser hipotética deductiva y de buscar explicación, verificación de la teoría
y generalizaciones estadísticas.
c. Problemas o preguntas de la investigación: Las preguntas al objeto se realizan en términos de variables y sus
relaciones, para establecer una relación causa- efecto. Las preguntas orientan investigaciones descriptivas, explicativas
y/o predicativas
d. Función de las hipótesis: Supone enunciados de asociación o relación entre variables (independientes, intervinientes y
dependientes, lo que se busca es verificar)
e. Función de las teorías: Se trata de poner a prueba una teoría. De verificarla o refutarla
f. Selección de los casos que se van a considerar en la investigación: Muchos casos a través de criterios del Muestreo
estadístico. Se apoya en las nociones básicas de la teoría de la probabilidad y la representatividad estadística. Conceptos
de distribución “normal, nivel de significación y margen de error
g. Relación teoría empírica: Lineal
h. Función del investigador: El investigador se mantiene a distancia del objeto real.
En general, las investigaciones cuantitativas se centran en la teoría sustantiva del problema a investigar, ya que de ahí se
derivan las proposiciones o conceptos que luego serán incorporados al objetivo de investigación. Los tres componentes
mencionados –paradigma, teoría general y sustantiva– condicionan a través de la formulación del objetivo las
orientaciones metodológicas y el método que es teóricamente pertinente utilizar en un diseño determinado, así como
los criterios de muestreo en la investigación cuantitativa.
Los supuestos epistemológicos son aquellos relacionados con la postura del investigador frente a lo que desea
investigar. Para las investigaciones cuantitativas, el investigador (sujeto) debe separarse de su objeto de estudio para
poder generar conocimiento objetivo sobre él; hay una realidad de naturaleza objetiva, y los valores del investigador no
deben influir en el proceso de conocimiento. Esta imagen de la ciencia como a-valorativa heredada del positivismo que
tomó este modelo de las ciencias naturales ha dominado a las disciplinas sociales durante mucho tiempo, y aún hoy
sigue vigente (Denzin, 2005). En la investigación cuantitativa, los supuestos epistemológicos también son relevantes; sin
embargo, no se reflexiona tanto sobre ellos debido a que se asumen como generales, como parte constitutiva de la
práctica de investigación.
El proceso de investigación puede llevarse adelante a través de dos enfoques diferentes: uno de ellos es el enfoque
cuantitativo y el otro el enfoque cualitativo. ¿De qué va a depender la elección de uno u otro enfoque? Va a depender
de los objetivos de la investigación, de lo que nos propongamos en la investigación; y también fundamentalmente de la
profundidad con la cual yo quiera estudiar el fenómeno o el objeto de investigación sobre el que se va a trabajar.
El enfoque cuantitativo nos ofrece como resultado final de nuestra investigación una imagen general del fenómeno,
superficial. A diferencia del enfoque cualitativo que lo que va a hacer es profundizar en determinado aspecto del
fenómeno, vamos a bucear en el fenómeno para llegar a un conocimiento profundo.
Enfoque cuantitativo: imagen en conjunto- global; superficial del fenómeno.
Enfoque cualitativo: profundizamos hasta llegar a aspectos profundos de un fenómeno.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Enfoque cuantitativo: ejemplo un bosque en su totalidad, en su globalidad. Vemos flora, fauna, vemos la actividad del
sol, la superficie. Vemos una imagen en conjunto del fenómeno.
Enfoque cualitativo: ejemplo un árbol. En el enfoque cualitativo se vuelve a hacer un zoom sobre determinados
elementos del fenómeno. Se va a estudiar determinados aspectos del fenómeno en profundidad. No se va a estudiar el
ecosistema bosque sino las características botánicas que presenta la especie árbol, características en cuanto a
producción de frutos, en cuanto a su crecimiento. SE INDAGA EN ASPECTOS CONCRETOS Y EN PROFUNDIDAD DEL
FENOMENO.

UNIVERSO Y MUESTRA: DEFINICIÓN


-Muestra. Suele ser definida como un “subgrupo” de la población. Se define a la muestra como al conjunto de individuos
que se extraen de la población, mediante algún procedimiento especifico y sobre los que se llevará a cabo el estudio.
Consiste en un conjunto representativo, adecuado y valido de la población (es una “parte” de la población a estudiar).
Una muestra es una parte o fracción representativa de un conjunto de la población, universo o colectivo, que ha sido
obtenida con el fin de investigar ciertas características del mismo. Tienen un fundamento “matemático estadístico”, el
cual consiste en que, si la muestra es elegida correctamente y en proporción adecuada, de los resultados obtenidos se
pueden hacer inferencias o generalizaciones, fundadas matemáticamente. Pocas veces se puede medir a toda la
población, por lo que seleccionamos una muestra y se pretende que este subconjunto sea un reflejo fiel del conjunto de
la población.
 Condiciones fundamentales:
-comprender parte del universo, no en su totalidad;
-aptitud estadísticamente proporcionada a la magnitud del universo, lo que requiere el tamaño de la muestra, que debe
guardar relación con el universo;
-ausencia de distorsión en la elección de los elementos de muestra, que esta sea representativa en sus características
básicas
-Seleccionada de manera aleatoria.
-Que sea representativa, de tal modo que reproduzca las características básicas en orden a la investigación. Esto quiere
decir que si hay sectores diferenciados con características diferenciadas, la muestra también debe comprenderlos.
 Características:
a. Ser representativa o reflejo general del conjunto estudiado
b. Reproducir lo mas exactamente las características del mismo
c. Su tamaño debe ser estadísticamente proporcional a la magnitud del universo.
 ¿Quiénes van a ser medidos? Determinar la “unidad de análisis” (personas, organizaciones, etc)
Quienes van a ser medidos depende del planteamiento inicial de la investigación. Asi si el objetivo es describir el uso que
hacen los niños de la televisión, lo mas factible es que debemos interrogar a un grupo de niños. El “quienes van a ser
medidos” depende de precisar claramente el problema a investigar y los objetivos de investigación.
 ¿Cómo se delimita la población? Una vez definida la unidad de análisis, se procede a delimitar la
población que va a ser restudiada y sobre la cual se generalizaran los resultados. La población será el conjunto de todos
los casos que concuerdan con una serie de especificaciones. La muestra es un subgrupo de la población, por ende, para
seleccionar la misma deben delimitarse las características de la población.
Ejemplo: Pregunta de investigación ¿Discriminan a las mujeres en los anuncios de televisión?; unidad de análisis:
mujeres y hombres que aparecen en los anuncios de televisión, para comparar si las categorías de análisis difieren entre
los dos grupos.
 ¿Cómo seleccionamos una muestra?
Para seleccionar la misma hay que definir la unidad de análisis: Consiste en La población o universo, es decir, definir el
conjunto total de los objetos de estudio (sobre que o quienes se van a recolectar los datos: personas, organizaciones,
institutos, etc.). Se determina “quienes van a ser medidos”, lo cual dependerá del enfoque elegido (cuantitativo,
cualitativo o mixto), del planteamiento del problema y de los alcances del estudio. Por ejemplo, si quisiéramos llevar
adelante una investigación sobre el uso de los videojuegos por parte de los niños, la unidad de análisis son los niños.
Pero, ¿Cuál es la población o universo?, ¿todos los niños del mundo?, ¿todos los niños de la Argentina? Sería

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

prácticamente imposible referirnos a poblaciones tan grandes. Así, la población se delimita tomando, por ejemplo, los
niños de Córdoba capital, de entre 8 y 12 años, al momento de realizarse el estudio.
Para el enfoque cuantitativo la muestra es un subgrupo de la población, que se define matemáticamente, de antemano,
con precisión, y que debe ser probabilísticamente representativa.
Para el enfoque cualitativo, “la muestra” puede ser solo una unidad de análisis o un grupo reducido de ellas, sobre la(s)
cual(es) se habrán de recolectar datos, e incluso pueden elegirse por conveniencia del investigador, sin utilizar
procedimientos estadísticos.
-Muestreo.
El muestreo es un conjunto de operaciones que se realizan para obtener una muestra.
La unidad de la muestra está constituida por uno o varios de los elementos de la población en la que se subdivide la
parte de la muestra.
La base de la muestra es la población de la que se obtiene o se saca la muestra. Es el conjunto de unidades
individualizadas que forman el universo o población: puede ser un censo, un padrón electoral, etc.
-Universo.
El universo, población o colectivo constituye la totalidad de un conjunto de elementos u objetos que se desee investigar
y del cual se estudiará una fracción que se pretende que reúna las mismas características y en igual proporción. El
universo está formado por toda la población o conjunto de unidades que se quieren estudiar y que podrían ser
observadas individualmente en el estudio.
Por fracción del muestreo se entiende el porcentaje que representa la muestra respecto al universo, se obtiene
dividiendo la muestra por el universo. Por ejemplo, si en un universo de 10.000 unidades hemos elegido una muestra de
1.200 unidades, la fracción de muestreo será el 12%. El muestreo se basa en el cálculo de probabilidades. El modo de
establecer la probabilidad se denomina cálculo de probabilidades.
En términos estadísticos la muestra debe cumplir con ciertos requisitos: ser representativa o reflejo general del conjunto
o universo estudiado, reproduciendo lo más exactamente las características del mismo. Su tamaño debe ser
estadísticamente proporcionado a la magnitud del universo.
El error muestral se tiene que mantener dentro de los límites permitidos.
UNIVERSO = TOTALIDAD DE FENOMENOS EXISTENTES
criterios para decidir el diseño muestral. (tipos y criterios de selección)
Una vez definido el problema a investigar, formuladas las hipótesis, determinadas las dimensiones e indicadores de las
variables y delimitado el campo de investigaciones preciso tomar decisiones sobre si las unidades objeto de observación
van a ser todas las que forman parte del universo, o únicamente se va a extender la indagación a una parte
representativa o una muestra de aquellas.
Una muestra es simplemente una parte representativa de un conjunto, población o universo, cuyas características se
reproducen en pequeña escala lo más exactamente posible.
De allí que las condiciones fundamentales de las muestras sean:
• Que comprendan parte del universo y no la totalidad de éste.
• Que su amplitud sea estadísticamente proporcional a la magnitud del universo.
• Ausencia de distorsión en la elección de los elementos de la muestra.

MUESTREO ALEATORIO O PROBABILÍSTICO:Se basan en la teoría matemática y el cálculo de probabilidades.


Muestreo aleatorio simple: Constituye la base del muestreo probabilístico, todos los elementos tienen la misma
probabilidad de ser elegidos directamente como parte de la muestra. Consiste en sacar por medio de un sorteo una
serie de unidades de un universo, hasta completar el tamaño de la muestra que hayamos fijado.
Muestreo estratificado y por cuotas: Se utilizan con el fin de mejorar la representatividad de la muestra, cuando se
conocen ciertas características del conjunto o universo se procede a agrupar (en estratos, categorías, clases) las
unidades de las muestras homogéneas entre sí.
Dentro de cada uno de esos estratos se realiza una selección al azar.
Muestreo no aleatorio o empírico: No se basan en la teoría matemática estadística sino que dependen del objeto de
investigación.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Muestreo intencional: La persona selecciona la muestra procurando que sea representativa, pero haciéndolo de acuerdo
a su intención u opinión. En el muestreo intencional podemos distinguir: las muestras por cuotas y las muestras
razonadas o intencionadas.
Muestras por cuotas o proporcionales: Se utilizan principalmente para realizar sondeos de opinión. Consiste en
establecer cuotas para las diferentes categorías del universo, que son réplicas del conjunto, quedando a disposición del
encuestador la selección de unidades.
Muestras razonadas o intencionadas: Supone un cierto conocimiento del universo a estudiar. Su técnica consiste en que
el investigador escoge intencionalmente algunas categorías que él considera típicas o representativas del fenómeno a
estudiar. Por ejemplo en el estudio de comunidades rurales, se estudian fincas que se consideran típicas de lo que se
quiere estudiar

Muestras probabilísticas y no probabilísticas.La elección de una u otra (probabilística/no probabilística), depende de los
objetivos del estudio, del esquema de la investigación y de la contribución que se piensa hacer con ella.
a. Probabilística: Se basa en la teoría matemática y en el cálculo de probabilidades.
Todos los elementos de la población tienen la misma posibilidad de ser escogidos. Esto se obtiene definiendo las
características de la población, el tamaño de la muestra, y a través de una selección aleatoria y/o mecánica de las
unidades de análisis.
Pueden ser:
a) Aleatoria simple: mediante sorteo riguroso se extraen las unidades, puede ser con reemplazamiento o sin
reemplazamiento, también se emplean las tablas con listas de números cazados por sorteo
b) Aleatoria sistemática: se elige al azar o por sorteo una primera unidad inferior al coeficiente de elevación y las
restantes se obtienen sumando dicho coeficiente al numero
c) Aleatorio estratificado: donde para universos heterogéneos como categorías por extractos se busca la
presentación de cada subpoblación mediante fracciones
b. No probabilística:
La elección de los elementos no depende de la “probabilidad”, sino de causas relacionadas con las características del
investigador, o del que hace la muestra. En ellas el procedimiento no es mecánico, ni con base en fórmulas de
probabilidad, sino que depende del proceso de toma de decisiones de una persona o grupo de personas, y las muestras
serán seleccionadas por decisiones subjetivas.
Características
 Intencionados: no al azar, teorético: aquí se realiza una tabla con una serie de datos y de análisis de datos para
comprobar la hipótesis de trabajo, luego se dirige a obtener el número necesario de todo los tipos de datos
exigidos para cubrir las diferentes casillas de la tabla
 Por cuotas: donde se asigna un numero de entrevistas, encuestas a realizar correspondientes a cada extracto,
dejando al arbitrio del entrevistador la elección de las unidades (para muestras mayores al 50% del universo)
 Por conjuntos: se da cuando las unidades son de análisis o talla, y se puede seleccionar un conjunto entero para
realizar el relevamiento, se utiliza la herramienta del sorteo, o tablas, o sistemático
 Sucesivos: cuando el relevamiento se efectúa cada cierto periodo debido a la evolución de la población de
estudio, se puede utilizar las mismas unidades o cambiarlas (es lo más aconsejable)
 Compuestos: cuando comprenden dos o más muestras distintas que abarcan parte del fenómeno estudiado,
ejemplo campo-ciudad.
Ejemplo:En un primer ejemplo tenemos una investigación sobre inmigrantes extranjeros en Argentina. El objetivo de
investigación es documentar las experiencias de viaje, de vida y de trabajo. Para cumplir dicho propósito se seleccionó
una muestra no probabilística de personas extranjeras que por diversas razones —económicas, políticas, fortuitas—
hubieran llegado a Argentina entre 2010 y 2017. Las personas se seleccionaron a través de conocidos, de asilos, de
referencias. De esta manera se entrevistaron a 40 inmigrantes con entrevistas semiestructuradas que permitieron al
sujeto hablar libremente sobre sus experiencia. En este caso una muestra no probabilística es adecuada pues se trata de
un estudio con un diseño de investigación exploratorio, es decir, no es concluyente, sino su objetivo es documentar

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

ciertas experiencias. Este tipo de estudio pretende generar datos e hipótesis que constituyan la materia prima para
investigaciones más precisas.
Ejemplo:Como segundo caso mencionaremos el caso de una investigación para saber cuántos niños han sido vacunados
y cuántos no, y variables asociadas (nivel socioeconómico, lugar donde se vive, educación) con esta conducta y sus
motivaciones. En este caso se hizo una muestra probabilística nacional de 1600 personas y de los datos se tomaron
decisiones para formular estrategias de vacunación y mensajes dirigidos a persuadir la pronta y oportuna vacunación de
los niños. Comentario. Este tipo de estudio, en donde se hace una asociación entre variables, cuyos resultados servirán
de información para tomar decisiones políticas que afectarán a una población, se logran por medio de una investigación
por encuestas y definitivamente a través de una muestra probabilística, diseñada de tal manera que los datos pueden
ser generalizados a la población con una estimación precisa del error que pudiera cometerse al hacer tales
generalizaciones.
Error muestral: representa el error estadístico máximo de la muestra y que es válido para el conjunto de todas las
muestras del mismo tamaño que se pueden tomar para la misma población, se realizan cálculos sobre fórmulas
matemáticas. Es un error de tipo aleatorio estadístico, probable y genérico
Factores: la amplitud del universo (finito e infinito) el tamaño de la muestra (cuando más elevado menos el error) el
número de confianza adoptado (a través de curvas estadísticas podemos medir la confiabilidad y seguridad de la
muestra) la desviación típica (proporción en la que se puede dar un atributo en una población.

PROBABILIDAD: CONCEPTO, DISTRIBUCIONES, MEDIA ARITMÉTICA Y MEDIO ESTÁNDAR.


La probabilidad, implica que todos los elementos de la población tengan la misma probabilidad de ser elegidos

CALCULO DEL TAMAÑO DE LA MUESTRA


El tamaño de la muestra se calcula con base en la varianza de la población y la varianza de la muestra, esta ultima
expresada en términos de probabilidad de ocurrencia. La varianza de la población se calcula con el cuadrado del error
estándar, el cual determinamos. Entre menor sea el error estándar, mayor será el tamaño de la muestra.
Por ejemplo, si delimito una población diciendo que para el estudio de directores consideramos a todos aquellos
directores generales de empresas industriales que en 2019 tienen un capital social superior a 100.000 de pesos, con
estas características, puedo precisar que la población seria de por ejemplo 1.000 directores generales, ya que 1.000 de
las empresas reunian las características mencionadas. A partir de ello, tengo que determinar cual es el numero de
directores que tengo que entrevistar, para tener un error estándar menor, teniendo en cuenta el total de la población.

2. Proceso de medición y operacionalizacion de variables. Niveles de agregación. Escalas o niveles de mediación:


importancia conceptual e implicancias para el análisis de los datos. La construcción de medidas resumen: índices y
tipologías.

PROCESO DE MEDICIÓN Y OPERACIONALIZACION DE VARIABLES.


Operacionalizar significa identificar cuál es la variable (conceptualizarla, categorizarla y valorarla), cuáles son sus
dimensiones y cuáles los indicadores y el índice (o, lo que es lo mismo, definirla teóricamente, realmente y
operacionalmente), ya que todo ello nos permitirá traducir la variable teórica en propiedades observables y medibles,
descendiendo cada vez más desde lo general a lo singular.
Los instrumentos (como, por ejemplo, cuestionarios, pautas de observación, etc.) tienen una forma y un contenido. La
forma, es decir, si se trata de entrevistas, cuestionarios, pautas, etc., estará determinada por las técnicas concretas
escogidas; el contenido es decir, qué preguntar, qué observar será el resultado de la operacionalización efectuada. De
este modo ambas líneas, empírica y teórica, confluyen en este elemento, con el cual nos dedicaremos a la labor de
conseguir los datos capaces de construir una respuesta para nuestro problema inicial.
La operacionalización, constituye el eslabón indispensable que hace factible la verificación en concreto de lo que se ha
postulado en el marco teórico, pues posibilita acercarse a la realidad empírica para adquirir la información de la que
depende dicha verificación.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Dos tipos muy diferentes de elementos requieren de lo que llamamos por un lado el universo, en tanto conjunto de
unidades o fuentes de datos que es preciso reducir a proporciones manejables para poderlo explorar; por otra parte las
variables, en tanto conceptos abstractos a los que es preciso dar contenido concreto para poder efectuar sobre ellos las
mediciones correspondientes.
De ello se extrae que podemos hablar de distintas operacionalizaciones: de un universo, de una variable
La operacionalización del universo consiste en reducir a proporciones factibles de investigar al conjunto de las unidades
que nos interesan, en otras palabras, en la tarea de encontrar una forma de obtener información relevante sin
necesidad de acudir a la medición de todo el universo posible de datos. Es el aspecto cuantitativo de la
operacionalización y, para resolverlo, habrá de apelarse entre otras disciplinas a la estadística, mediante las técnicas de
muestreo.
La operacionalización de las variables determinara el enfoque que seguirá la investigación. Para ello es necesario
previamente saber qué tipo de investigación estamos realizando: si ella es cuantitativa o cualitativa.
Si las variables son susceptibles de identificar mediante números, y esos números implican un orden jerárquico en la
presencia de la variable, se dice que esta puede clasificarse como cuantitativa. Un ejemplo de este tipo de variable
podría ser la altura de un grupo de personas, si una de ellas mide 1,8 metros, entonces mide más que otra que mide 1,7
metros (se numeran, y esos números determinan un orden jerárquico). Cuando las variables son cuantitativas,
podremos utilizar la estadística para el análisis de los datos obtenidos.
Si las variables a investigar no son factibles de numerar, o esa numeración no implica orden jerárquico en su presencia
en el fenómeno, entonces diremos que esa variable es cualitativa. Justamente, estas variables implican cualidades, que
no son susceptibles de ser representadas por números. Un ejemplo de este tipo podría ser el color de cabello del grupo
de personas antes mencionado. Podemos asignar el número 1 a los morochos, el 2 a los pelirrojos, etc. pero este
número no implica que los morochos tengan “más variable” que los pelirrojos o los rubios. El número asignado en forma
arbitraria solo sirve como código a los fines de la identificación y la clasificación, pero no implica orden jerárquico. En
este caso, no podremos utilizar la estadística para analizar la información.
La operacionalizacion de la variable nos impone seguir un camino que se inicia con su conceptualización del término. Es
decir, que la variable puede tener varias significados, es decir puede ser un término ambiguo; si la variable es compleja y
no simple.
Existe una definición teórica, cuya función es eliminar esta ambigüedad para estar seguros de cuál es el concepto que
queremos operacionalizar: sólo identificándolo de esta forma sabremos cuáles pueden ser sus correspondientes
dimensiones e indicadores.
Una variable compleja tiene distintas facetas que es necesario discernir para describirla adecuadamente.
Las variables simples, como “sexo”, puede tener varios aspectos, pero no necesitamos considerarlos a todos para saber
a qué sexo pertenece una persona: basta con mirar sus aspectos generales y, si esto no resulta confiable, lo constatamos
con el D.N.I o se lo preguntamos directamente.
En cambio la variable “inteligencia”, tiene muchos aspectos y para describirla y medirla no basta simplemente con decir
que alguien tiene inteligencia porque tiene una “mirada” inteligente ya que esto, además de subjetivo (otro observador
puede estar en desacuerdo), es muy parcial (no es el único aspecto).

NIVELES DE AGREGACIÓN.
ESCALAS O NIVELES DE MEDIACIÓN: IMPORTANCIA CONCEPTUAL E IMPLICANCIAS PARA EL ANÁLISIS DE LOS DATOS.
ESCALAS EN LAS CIENCIAS SOCIALES.
Con relación a la palabra escalas se utilizan en las ciencias sociales tres términos: uno genérico, escalas sin más, y dos
específicos, escalas sociométricas y escalas de actitudes.
El primer término es genérico porque es común a todas las ciencias y no solo a las sociales.
Una escala en sentido genérico se define, como la disposición conjunta de cosas distintas pero comunes en algún
aspecto.
Como las ciencias sociales se basan en el descubrimiento y análisis de relaciones entre variables, que están formadas
por diversas categorías o dimensiones, se puede decir que operan también con escalas. En efecto, el conjunto de

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

categorías o dimensiones de las variables constituyen de hecho una escala que corresponden a algunos de los tipos
mencionados: nominales, ordinales, de intervalo y de razón, según la naturaleza de la variable de que se trate.
Con el nombre de escalas sociométricas se designa en las ciencias sociales los instrumentos de medida propios de estas
ciencias, constituidos por la disposición conjunta en un cuadro o cuestionario de los distintos elementos o aspectos de
una característica o actitud, a los que se asigna convencional o empíricamente un valor numérico, lo que permite
cuantificar el grado de esa característica o actitud que se da en un objeto o sujeto determinado.
Los distintos tipos de escalas, en sentido genérico, nominal, ordinal, de intervalo y de razón representan diversos niveles
de medida. El nivel más bajo, el menos exacto, corresponde a las escalas nominales, y el más elevado y más exacto a las
escalas de intervalo y de razón. En gran parte los procedimientos de observación estudiados aquí corresponden al nivel
de medida más bajo, el nominal.
Frente a ellos, las escalas sociométricas pretenden ser instrumentos de observación y de medida más rigurosos. En ellas
se alcanza en todo caso el nivel de medida ordinal con puntuaciones específicas para cada sujeto, que en algunos casos
se consideran formadas por intervalos iguales y se tratan como escalas de intervalo.

ESCALAS DE ACTITUDES Aunque se utilizan escalas sociométricas para medir características diversas, las más conocidas,
numerosas y utilizadas son las escalas de actitudes, es decir aquellas que se emplean para medir el grado en que se da
una actitud o disposición de ánimo permanente, respecto a cuestiones específicas en un sujeto determinado.

FUNDAMENTO DE LAS ESCALAS DE ACTITUDESLas actitudes se pueden definir como disposiciones permanentes de
ánimo formadas por un conjunto de convicciones y sentimientos que llevan al sujeto que las tiene a actuar y expresarse
según ellas en sus actos y opiniones.
Según la anterior definición, las actitudes comprenden tres factores:
1. Un factor ideológico formado por ideas y convicciones determinadas.
2. Un factor sentimental que implica simpatía o antipatía hacia cosas o personas.
3. Un factor reactivo que impulsa a pensar y obrar en las distintas situaciones sociales en consonancia con las
convicciones y sentimientos profesados.
Las actitudes pues se concretan y expresan en ideas sentimientos hacia cosas y personas y reacciones o modos de
actuación diversos. Por ello, sus manifestaciones en la vida social son múltiples y se puede decir que tiñen todos los
campos de la vida social.
Los elementos pues de las escalas de actitudes son las proposiciones, se les suele llamar ítems, que consisten en
expresiones que se refieren a ideas, sentimientos y actos en que se concreta o manifiesta la actitud. Los ítems o
proposiciones de las escalas, hacen las veces de estímulos ante los cuales los encuestados deben reaccionar de una u
otra forma. Estos elementos, proposiciones o ítems de las escalas no sólo concretan y especifican las actitudes, también
facilitan su observación al subdividir la actitud, genérica y abstracta, en rasgos y atributos concretos. Pero las
proposiciones no son únicamente medios o instrumentos de observación sino también lo son de medición cuantitativa,
que es lo propio y distintivo de las escalas.
Las proposiciones o ítems de las escalas de actitudes, igualmente que éstas tienen de por sí, carácter cualitativo. Para
transformarlas en instrumentos de medida cuantitativa, hay que cuantificarlas. Se realiza, por ejemplo, bien asignando a
cada proposición un valor, en relación a la actitud de que se trate, como en las escalas tipo Thurstone, o bien asignando
no a cada pregunta, sino a cada respuesta dicho valor, lo que se realiza en las escalas tipo Likert.

CONDICIONES DE LAS ESCALAS DE ACTITUDES. Para que las escalas de actitudes sean útiles como instrumentos de
medida deben reunir ciertas características, difícil es de reunir, entre las que destacan la graduación, la
discriminatividad, la validez, la seguridad, la unidimensionalidad, y el estar formadas por intervalos iguales.
La graduación supone que las escalas deben comprender todos los grados fundamentales de la actitud de que se trate,
desde los elevados a los medios y bajos y no sólo parte de ellos.
La discriminatividad implica que sus ítems deben tener poder discriminante, deben constituir estímulos capaces de
distinguir y dividir, incluso en extremos opuestos, a las personas en relación a la actitud de que se trate.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La validez es la aptitud real de la escala para medir lo que pretende medir. Exige que los resultados obtenidos con la
escala reflejen verdaderamente la extensión real en los sujetos de la actividad investigada.
La seguridad pide que la escala en sucesivas aplicaciones a los mismos grupos y en situaciones similares proporcione
resultados iguales o similares.
En cuanto a la unidimensionalidad implica que la escala se refiera a una sola propiedad o actitud. Si hace referencia a
dos o más no se podrá conocer en realidad la verdadera significación de los resultados obtenidos.
Debe estar formada por intervalos iguales, en rigor no la cumplen las escalas conocidas hasta ahora. No obstante
pretenden reunirla y se consideran en la práctica como tales, las escalas experimentales del tipo Thurstone.

LA CONSTRUCCIÓN DE MEDIDAS RESUMEN: ÍNDICES Y TIPOLOGÍAS.


-Índice
Nos vemos obligados a resumir esta información para hacerla más fácilmente comprensible y para que, llegado el
momento de hacer algún promedio aritmético sobre la inteligencia de una muestra de sujetos, podamos disponer de
una sola cifra para cada individuo. Es aquí donde aparece la necesidad del índice. El índice será la cifra que
razonablemente represente a los 20 o 30 datos obtenidos, como por ejemplo un simple promedio de los mismos. Tal
índice suele definírselo como un indicador complejo, ya que reúne la información de todos los indicadores y sus
respectivos ítems. Hay muchas formas de construir índices. Además del simple promedio aritmético está también el
promedio ponderado, donde asignamos mayor peso a ciertas pruebas a los efectos del conteo final. Otras veces
extraemos previamente sub-índices, uno para cada dimensión, para luego resumirlos en el índice final, tal como puede
verse en el test WISC de inteligencia. La utilidad del índice no consiste sólo en resumir mucha información en una sola
cifra,, sino muchas veces también compensar estadísticamente la inestabilidad de las respuestas. Dicho en castellano:
factores como la falta de atención o el desinterés pueden malograr algunas respuestas del test, pero no por ello
juzgaremos al sujeto falto de inteligencia: en el índice pueden quedar compensados esos pobres resultados con otras
pruebas donde se puso mayor interés y concentración, y donde se obtuvieron resultados óptimos
-Las tipologías
Las operaciones de clasificación se basan y fundan en la combinación de dos o más variables. Este cruzamiento de
variables tiene la particularidad de que se puede realizar haciendo abstracción de valores numéricos y tomando en
cuenta las dimensiones de tipo cuantitativo y cualitativo abstracto que se pueden distinguir en variables.
Esta operación de combinación de dimensiones de dos o mas variables, da lugar a la aparición de distintos tipos de
combinación que en conjunto reciben el nombre de tipologías.

3. Observación y medición de datos primarios. El diseño experimental y el diseño encuesta. Operacionalizacion e


instrumentos de medición. Criterios de confiabilidad y valides de las mediciones. Tipológicas, índices sumatorios y
escalas (Likert y diferencial semántico). Construcción teórica y despliegue del cuestionario. El sistema de categorías.

OBSERVACIÓN Y MEDICIÓN DE DATOS PRIMARIOS.


Siendo los datos primarios aquellos que surgen del contacto directo con la realidad empírica, las técnicas encaminadas a
recogerlos tendrán que reflejar, necesariamente, toda la variedad y diversidad compleja de situaciones que se presentan
en la vida real.
Dentro de estas técnicas mencionaremos, en primer lugar, la de la observación, por ser fundamental en todos los
campos de !a ciencia. La observación consiste en el uso sistemático de nuestros sentidos orientados a la captación de la
realidad que queremos estudiar .Es por ello una técnica antiquísima. A través de sus sentidos el hombre capta la realidad
que lo rodea, que luego organiza intelectualmente. El uso de nuestros sentidos, que permanentemente empleamos, es
una fuente inagotable de datos que, tanto para la actividad científica como para la vida práctica, resulta de primordial
valor.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Para todo el conjunto de las ciencias humanas existe además otro procedimiento de uso muy generalizado y de
aplicaciones diversas. Se trata de la entrevista, que en esencia consiste en una interacción entre dos personas, una de las
cuales -el investigador- formula determinadas preguntas relativas al tema en investigación, mientras la otra -el
investigado- proporciona verbalmente o por escrito la información que le es solicitada.
Existen además otros procedimientos de recolección de datos primarios, entre los que figuran el llamado cuestionario
de auto aplicación, los test, las escalas, etc.
Sin embargo, por más que en sus desarrollos técnicos puedan ser manejados como procedimientos independientes,
veremos más adelante que tienen su origen, en última instancia, en las dos principales técnicas mencionadas, pues
constituyen en definitiva sólo derivaciones o usos particulares de las mismas.

EL DISEÑO EXPERIMENTAL:
El término “experimento”, en el sentido científico del término, se refiere a “una investigación en la que se manipulan
intencionalmente (se obligan a cambiar de estado) una o más variables independientes (supuestas causas), para analizar
las consecuencias que esa manipulación tiene sobre una o más variables dependientes (supuestos efectos), dentro de
una situación de control creada por el investigador.”
Este diseño es especialmente aplicable al campo de las ciencias naturales.
Consiste en someter el objeto de estudio a la influencia de ciertas variables (estímulos) en condiciones controladas y
conocidas por el investigador para observar los resultados que cada variable produce en el objeto.
Tanto la variable a medir (dependiente), como la variable a manipular (independiente), tienen su sistema de categorías,
es decir, tienen una cantidad determinada de estados que pueden tomar. En el caso del ejemplo anterior, el sistema de
categorías de la variable “motivación” podría estar formado por tres categorías, alta, media y baja, y el sistema de la
variable “rendimiento”, también por tres estados, alto, medio y bajo.
Estos sistemas de categorías deben determinarse previamente a iniciar el experimento y no son inventados
arbitrariamente por el investigador, sino que deben basarse en la información del marco teórico, en los referentes
empíricos de sus variables para definirlos, o en los sistemas de categorías utilizados en investigaciones antecedentes. La
cantidad mínima de categorías para una variable es dos: presencia-ausencia (si hubiera un solo estado posible no sería
variable), la cantidad máxima depende del grado de discriminación que pretenda el investigador, pero a mayor cantidad
de categorías en un sistema, mayor es la complejidad para obtener conclusiones válidas.
Un experimento se diseña de acuerdo a la cantidad de categorías de la variable independiente (la variable a manipular).
Cuando el objeto se trata de un ser humano hay límites éticos. Ningún fin científico justifica lesionar a otros hombres
tanto en lo físico como en lo moral.
El diseño experimental solo se utiliza en:
• Psicología Social: Al medir actitudes, tipos de liderazgo, etc.
• Sociología del trabajo: Al medir cambio en las condiciones de producción, etc.
• Técnicas pedagógicas: Al tratar de utilizar o ver qué cambio producen nuevas formas de enseñanza.
En las ciencias sociales, se someten a estímulos:
- Antes y después con un solo grupo: Por ejemplo, la luz solar, ¿cómo influye en el trabajo? Con el mismo grupo, antes y
después, observar los cambios.
- Solamente después con dos grupos (grupo experimental + grupo de control): Por ejemplo, la luz solar, observar en dos
grupos homogéneos.
Estímulo en uno, sin estímulo en otro. Ver diferencias.
- Antes y después con grupo de control: Por ejemplo, luz solar, también dos grupos, pero antes y después se mide con y
sin estímulo.
Los diseños no experimentales:
El investigador se aprovecha de estímulos que el no produjo. Se realiza después de los hechos, tomándose como
experimentales situaciones reales que se han producido espontáneamente, trabajando sobre ellas como si
efectivamente hubieran estado bajo su control. Por ej. Como es el grado de trauma en una sociedad luego de un
tsunami. La única diferencia con el diseño experimental es que, en este, los hechos no son controlables, sino
espontáneos (apunte Guillermo)

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Podría definirse como la investigación que se realiza sin manipular deliberadamente variables. Lo que hacemos es
observar fenómenos tal y como se dan en su contexto natural, para después analizarlos. En la investigación no
experimental no es posible asignar aleatoriamente a los participantes o tratamientos. De hecho, no hay condiciones o
estímulos a los cuales se expongan los sujetos del estudio. En un experimento se “construye” una realidad, se desarrolla
en un ambiente artificial. En cambio, en un estudio no experimental no se construye ninguna situación, sino que se
observan situaciones ya existentes, no provocadas intencionalmente por el investigador.
Clasificaremos dichos diseños por la cantidad y distribución de los momentos en los cuales se recolectan datos: así
tenemos los diseños transversales y los diseños longitudinales.
1) Diseños transversales
Los diseños de investigación transversales recolectan datos en un solo momento, en un tiempo único. Su propósito es
describir variables (o describir comunidades, eventos, fenómenos o contextos) y analizar su incidencia o interrelación en
un momento dado. Es como tomar una fotografía de algo que sucede. Por ejemplo, un censo, donde la información se
recoge toda en un mismo día, y los resultados (que se conocen varias semanas después) nos describen el estado en que
estaba la población, en el momento en que se recolectó la información. Puede abarcar varios grupos o subgrupos de
personas, objetos o indicadores; así como diferentes comunidades, situaciones o eventos. Pero siempre, la recolección
de los datos ocurre en un momento único.
A su vez, los diseños transversales se dividen en tres, de acuerdo a su alcance:
-Diseños transversales exploratorios: Se trata de una aproximación inicial a un fenómeno, en un momento específico,
con objeto de encontrar cuales son los aspectos más importantes del fenómeno investigado, que luego se podrán
estudiar con mayor profundidad. Por lo general, se aplican a problemas de investigación nuevos o poco conocidos, y
constituyen el preámbulo de otros diseños. Son muy utilizados dentro del enfoque cualitativo para lo que hemos
denominado “inmersión inicial del campo”. Por ejemplo, este tipo de estudio se realizaría como sondeo de opinión para
conocer quiénes podrían ser los candidatos a gobernador dentro de una provincia.
-Diseños transversales descriptivos: Tienen como objetivo indagar los valores en que se manifiestan una o más variables
(dentro del enfoque cuantitativo) o proporcionar una visión de una comunidad, un fenómeno o una situación (describir,
como su nombre lo indica, dentro del enfoque cualitativo). Por ejemplo, si un estudio exploratorio ya determinó quienes
podrían ser candidatos a gobernador, un estudio descriptivo serían las encuestas provinciales sobre las tendencias de los
votantes. Su objetivo es describir el número de votantes en una provincia que se inclina por los diferentes candidatos en
un momento previo a la elección. Es decir, se centran en la descripción de las preferencias del electorado (cuyo enfoque
es fundamentalmente cuantitativo).
-Diseños transversales correlacionales-causales: Estos diseños describen relaciones entre dos o más categorías,
conceptos o variables en un momento determinado. Se trata también de descripciones, pero no de categorías,
porcentajes, conceptos ni variables, sino de sus relaciones. Lo que se mide (enfoque cuantitativo) o analiza (enfoque
cualitativo) es la asociación entre categorías, conceptos o variables en un tiempo determinado. Pueden limitarse a
establecer relaciones entre variables sin precisar sentido de causalidad. Cuando se limitan a relaciones no causales se
fundamentan en ideas o hipótesis correlacionales; y cuando buscan evaluar relaciones causales, se basan en ideas o
hipótesis causales. Debemos recordar que la causalidad implica correlación pero no toda correlación significa causalidad.
Primero establecemos correlación y luego causalidad. Cuando establecen relaciones causales el estudio pasa a ser
explicativo.
2) Diseños longitudinales
Analizan los cambios a través del tiempo en determinadas variables, o en las relaciones entre estas.
Los diseños longitudinales, recolectan datos varias veces a lo largo de un período de tiempo, para hacer descripciones o
inferencias sobre los cambios que van sufriendo una o varias variables, sus determinantes y sus consecuencias, a través
del tiempo.
La frecuencia con que se recolectará la información en el tiempo, por lo común se especifican de antemano en el
enfoque cuantitativo, y se van determinando conforme avanza el estudio en el enfoque cualitativo (en las modalidades
mixtas pueden ocurrir ambas cosas). Suelen dividirse en tres tipos: diseños de tendencia (trend), diseños de análisis
evolutivo de grupos (cohort) y diseños panel.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

-Diseños longitudinales de tendencia: Son aquellos que analizan cambios a través del tiempo (en conceptos, variables o
sus relaciones), dentro de alguna población en general. Por ejemplo, una investigación para analizar cambios en la
actitud hacia la eutanasia en la población de Córdoba. Dicha actitud se mide y cuantifica (enfoque cuantitativo) o se
recolecta información (enfoque cualitativo) en varios puntos en el tiempo (durante 10 años por ejemplo) y se examina
su evolución a lo largo de este periodo. Cada vez que se recolecte información, se tomará una muestra, sin necesidad de
que cada muestra esté constituida por los mismos sujetos cada año.
-Diseños longitudinales de evolución de grupo: Los diseños de evolución de grupo o estudios de cohort examinan
cambios a través del tiempo en subpoblaciones o grupos específicos. Su atención son las cohorts o grupos de individuos
vinculados de alguna manera, generalmente la edad. Un ejemplo podría ser el formado por las personas que nacieron en
Argentina durante la última dictadura militar (1976-1983). Tales diseños hacen seguimiento de los grupos a través del
tiempo. Cuando se fundamentan en el enfoque cuantitativo, por lo común se extrae una muestra cada vez que se
recolectan datos sobre el grupo o la subpoblación. Su característica distintiva es entonces que siguen a un grupo
específico, no a una población en general, pero cada vez que se recolecta información, la muestra no está
necesariamente constituida por los mismos sujetos.

EL DISEÑO ENCUESTA.
Si queremos conocer algo sobre el comportamiento de las personas, lo mejor, más directo y simple es preguntárselo
directamente a ellas.
Esto se realiza a través de:
- Censo: Representativo del universo.
- Encuestas por muestreo: Solo una parte.
Ventajas:
• Hay un conocimiento primario de la realidad y menos engañoso.
• Hay mayor accesibilidad en el procesamiento de datos.
• Es un método económico y rápido.
Desventajas:
• Hay subjetividad ya que recoge la visión que la gente posee sobre sí misma.
• Es estático, nos proporciona una imagen instantánea sobre un fenómeno pero no indica
tendencias de variación ni posibles cambios (ej. En las elecciones, hay constantes cambios sobre el pensamiento hacia
los candidatos).
• Resultan inadecuadas para indagar ciertos aspectos psicológicos o psicosociales profundos.
El panel: Es una respuesta al panorama estático que ofrecen las encuestas. Se trata de una repetición de mediciones
para informarse acerca de las variaciones del objeto en el tiempo.
Para que sean válidas las mediciones, debe emplearse el mismo instrumento de recolección de datos.
Los diseños panel son similares a las dos clases de diseños vistas anteriormente, sólo que el mismo grupo de sujetos es
medido u observado en todos los tiempos o momentos. Un ejemplo sería una investigación que observara anualmente
los cambios en las actitudes hacia los profesores, del grupo de alumnos que ingresó en el 2015 al colegio Nacional José
María Paz, hasta su egreso.
Cada año se observaría la actitud de los mismos jóvenes, es decir, los mismos individuos, para que cuando egresen,
tengamos información sobre cómo evolucionó su actitud. En los diseños panel se tiene la ventaja de que, además de
conocer los cambios generales grupales, se pueden conocer los cambios individuales. La desventaja es que a veces
resulta muy difícil obtener con exactitud a los mismos sujetos para observaciones subsecuentes. Es conveniente cuando
se tiene poblaciones relativamente estáticas. Por otra parte, deben verse con cuidado los efectos que una medición, un
registro o una observación llega a tener sobre otras posteriores, ya que son los mismos individuos los que son medidos u
observados en distintos intervalos de tiempo.
Es entonces una encuesta repetida, un mismo cuestionario suministrado a una misma muestra para observar la
evolución y modificación de las respuestas y así conocer las tendencias de las variables.
Dificultades del panel:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

- Mortandad: Hay una reducción de la muestra por distintas causas (por ejemplo mudanzas, fallecimientos). Es decir se
nos presenta una disminución del número de encuestados iniciales.
- Saturación: Se presenta una actitud de rechazo progresivo por parte de los entrevistados.
Solución:
Diseño del semi-panel: La muestra que se va a entrevistar es suplantada en parte, de medición a medición. Por ejemplo:
1er medición tomo a A-B-C. 2da medición toma a B-C-D. 3ra medición tomo a C-D-E. Así sucesivamente.

OPERACIONALIZACION E INSTRUMENTOS DE MEDICIÓN.


Operacionalización e instrumentos de medición (apunte Lorena)
Operacionalizar significa identificar cuál es la variable (conceptualizarla, categorizarla y valorarla), cuáles son sus
dimensiones y cuáles los indicadores y el índice (o, lo que es lo mismo, definirla teóricamente, realmente y
operacionalmente), ya que todo ello nos permitirá traducir la variable teórica en propiedades observables y medibles,
descendiendo cada vez más desde lo general a lo singular.
Los instrumentos (como, por ejemplo, cuestionarios, pautas de observación, etc.) tienen una forma y un contenido. La
forma, es decir, si se trata de entrevistas, cuestionarios, pautas, etc., estará determinada por las técnicas concretas
escogidas; el contenido es decir, qué preguntar, qué observar será el resultado de la operacionalización efectuada. De
este modo ambas líneas, empírica y teórica, confluyen en este elemento, con el cual nos dedicaremos a la labor de
conseguir los datos capaces de construir una respuesta para nuestro problema inicial.
La operacionalización, constituye el eslabón indispensable que hace factible la verificación en concreto de lo que se ha
postulado en el marco teórico, pues posibilita acercarse a la realidad empírica para adquirir la información de la que
depende dicha verificación.
Dos tipos muy diferentes de elementos requieren de lo que llamamos por un lado el universo, en tanto conjunto de
unidades o fuentes de datos que es preciso reducir a proporciones manejables para poderlo explorar; por otra parte las
variables, en tanto conceptos abstractos a los que es preciso dar contenido concreto para poder efectuar sobre ellos las
mediciones correspondientes.
De ello se extrae que podemos hablar de distintas operacionalizaciones: de un universo, de una variable.
La operacionalización del universo consiste en reducir a proporciones factibles de investigar al conjunto de las unidades
que nos interesan, en otras palabras, en la tarea de encontrar una forma de obtener información relevante sin
necesidad de acudir a la medición de todo el universo posible de datos. Es el aspecto cuantitativo de la
operacionalización y, para resolverlo, habrá de apelarse entre otras disciplinas a la estadística, mediante las técnicas de
muestreo.
La operacionalización de las variables determinara el enfoque que seguirá la investigación. Para ello es necesario
previamente saber qué tipo de investigación estamos realizando: si ella es cuantitativa o cualitativa.
Si las variables son susceptibles de identificar mediante números, y esos números implican un orden jerárquico en la
presencia de la variable, se dice que esta puede clasificarse como cuantitativa. Un ejemplo de este tipo de variable
podría ser la altura de un grupo de personas, si una de ellas mide 1,8 metros, entonces mide más que otra que mide 1,7
metros (se numeran, y esos números determinan un orden jerárquico). Cuando las variables son cuantitativas,
podremos utilizar la estadística para el análisis de los datos obtenidos.
Si las variables a investigar no son factibles de numerar, o esa numeración no implica orden jerárquico en su presencia
en el fenómeno, entonces diremos que esa variable es cualitativa. Justamente, estas variables implican cualidades, que
no son susceptibles de ser representadas por números. Un ejemplo de este tipo podría ser el color de cabello del grupo
de personas antes mencionado. Podemos asignar el número 1 a los morochos, el 2 a los pelirrojos, etc. pero este
número no implica que los morochos tengan “más variable” que los pelirrojos o los rubios. El número asignado en forma
arbitraria solo sirve como código a los fines de la identificación y la clasificación, pero no implica orden jerárquico. En
este caso, no podremos utilizar la estadística para analizar la información.
La operacionalizacion de la variable nos impone seguir un camino que se inicia con su conceptualización del término. Es
decir, que la variable puede tener varias significados, es decir puede ser un término ambiguo; si la variable es compleja y
no simple.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Existe una definición teórica, cuya función es eliminar esta ambigüedad para estar seguros de cuál es el concepto que
queremos operacionalizar: sólo identificándolo de esta forma sabremos cuáles pueden ser sus correspondientes
dimensiones e indicadores.
Una variable compleja tiene distintas facetas que es necesario discernir para describirla adecuadamente.
La medición es la comparación de un patrón de medida con el objeto que deseamos medir para determinar cuántas
veces la unidad de medida cabe en ese objeto. Los instrumentos para realizarlo son índices o escalas. .
En cada instrumento que diseñamos debemos atenderé a su forma y contenido. La forma del instrumento es la técnica
que utilizamos para aproximarnos al plano empírico. Así para consultar la opinión de la gente, utilizamos la encuesta por
muestreo que se lleva a la práctica en forma de entrevista durante la cual aplicamos un cuestionario.
El contenido se revela en la especificación de los datos que necesitamos conseguir; y sus correspondientes ítems o
preguntas. El instrumento surge del trabajo previo de investigación: resume los aportes de la investigación teórica al
seleccionar las variables a estudiar, sus dimensiones, sus indicadores, todos los cuales se refieren a las propiedades
reales del fenómeno bajo estudio. Es en el instrumento donde se debe destacar la correspondencia entre el nivel teórico
y el nivel empírico, entre la teoría y las propiedades de los objetos o fenómenos reales.
La medición: los índices y escalas son instrumentos de medición. Se construyen para representar con mayor validez los
complejos fenómenos sociales. Es la comparación de un patrón de medida con el objeto que deseamos medir para
determinar cuántas veces la unidad de medida cabe en ese objeto.
En los conceptos complejos de ciencias sociales se hace necesario definir las dimensiones de la variable, identificar
indicaciones apropiadas y comprehensivos del fenómeno y diseñar una escala apropiada para el caso.
Niveles de medición: existen diferentes niveles de medición que están asociados a los tipos de escala.
i. Equivalencia o clasificación. En este nivel se usan numerables u otros símbolos para clasificar objetos u
observaciones, que constituyen una escala nominal o clasificadora. Cuando un conjunto de objetos puede ser clasificado
en categorías exhaustivas y mutuamente excluyentes; y cuando cada categoría está representada por un símbolo
diferente se obtiene un nivel nominal de medición. Matemáticamente la propiedad básica del nivel nominal es que las
propiedades de los objetos en una categoría son equivalentes entre sí, pero no iguales a otros objetos en el aspecto que
los identifica.
ii. Nivel ordinal (jerarquización u orden). Se exhibe alguna clase de relación. Son típicas las relaciones “más alto,
más deseados”, que pueden ser representadas por el signo (>) que significa “mayor que”. Usado para designar “es más
grande que” o “es más deseado que”. Las escalas de este nivel distinguen los diferentes valores de la variable
jerarquizándolos de acuerdo a un rango. Existe una gradación entre uno y otro de la escala (prelación).
iii. Nivel de intervalos fijos o iguales (distancia exacta). Presenta una unidad e medición común y constante que
asigna un número real a todos los pares de objetos en el conjunto ordenado. Esta propiedad permite que uno sepa la
distancia exacta entre cada observación. Aparte de decir que un objeto es mayor que otro en alguna propiedad, se
puede especificar por cuantas unidades el primero es mayor que el segundo. Ejemplo: son variables la altura, la
temperatura, el tiempo, y cociente de inteligencia.
iv. Nivel de razón (valor cero absoluto y proporciones). También llamado nivel de cociente. Aquí se conservan todas
las propiedades de los casos anteriores y se añade la existencia de un valor cero real. El cero real indica la ausencia de la
propiedad medida, haciendo posible operaciones matemáticas, como las proporciones y cocientes. Son escalas de
cocientes las que miden la longitud, la masa, la fuerza, y otras referidas a las ciencias físicas. Se mide en el nivel de razón,
solo cuando es pasible obtener operación de los cuatro tipos de relación.

CRITERIOS DE CONFIABILIDAD Y VALIDEZ DE LAS MEDICIONES.


La medición es un método que permite establecer correspondencias entre magnitudes de un mismo género, y ciertas
clases de números (integrales, racionales o reales). Medir significa “asignar números, símbolos o valores a las
propiedades de objetos de acuerdo a ciertas reglas”. Actualmente se concibe a la medición como al “proceso de vincular
conceptos abstractos con indicadores empíricos”
¿Y qué es un instrumento de medición? Es el recurso que se utiliza para registrar la información que se quiere obtener.
Todo instrumento de medición científica tiene que cumplir con dos principios básicos: ser válido y ser confiable.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Ser válido significa que un instrumento es válido para una esfera de comportamientos si nos permite predecir
rendimiento dentro de esa esfera, independientemente del nombre de la prueba, del rasgo o rasgos que se dice que
mide. Por ejemplo, diremos que una regla mide centímetros, o bien la distancia lineal entre dos puntos, y será válida
para medir la distancia entre dos puntos lineales, pero no es válida para medir la extensión de la línea de un círculo. LA
VALIDEZ se refiere al grado en que un instrumento mide la variable que pretende medir.
Ser confiable significa que un instrumento de medición independiente de su objetivo, siempre debe medir lo mismo,
bajo las mismas condiciones.. LA CONFIABILIDAD de un instrumento de medición se refiere al grado de precisión o
exactitud de la medida, en el sentido de que si aplicamos repetidamente el instrumento al mismo sujeto u objeto
produce iguales resultados.
La validez y confiabilidad siempre está limitada según sea la evidencia disponible, permitiendo afirmar que determinado
instrumento es válido y confiable para determinado uso y bajo ciertas condiciones.

FACTORES QUE PUEDEN AFECTAR LA CONFIABILIDAD Y LA VALIDEZ


a) La improvisación. Algunas personas creen que elegir un instrumento de medición o desarrollar uno es algo fácil y que
no requiere de supervisión alguna. Para poder construir un instrumento se requiere conocer muy bien la variable que se
pretende medir y la teoría que la sustenta.
b) El no estar validados en el contexto donde se aplican. Traducir un instrumento, aún cuando adaptemos los términos a
nuestro lenguaje no es ni remotamente validarlo. Es simplemente un primer paso ya que validar un instrumento implica
realizar una investigación extensa y compleja. Los grupos, las personas cambian y tienen valores diferentes de acuerdo a
la cultura. Por lo tanto, se deben aplicar instrumentos ya validados en el contexto.
c) El instrumento e inadecuado o no es empático. Hay instrumentos que tienen un lenguaje muy elevado para el
entrevistado o no toma en cuenta diferencias de sexo, edad nivel ocupacional y educativo; todo esto puede resultar en
errores de validez y confiabilidad del instrumento de medición
d) Condiciones en que se aplica el instrumento. El ruido, presionar para que una persona conteste un instrumento largo
en un período de tiempo corto, el hambre o falta de motivación para responder influirá negativamente en la validez y
confiabilidad de la medida.
e) Aspectos mecánicos. Que el instrumento tenga instrucciones precisas, que se lea bien (si se trata de un cuestionario
escrito), que no le falten páginas, que haya un espacio adecuado para contestar.
Para la confiabilidad, generalmente todos los procedimientos utilizan fórmulas que producen “coeficientes de
confiabilidad”, los cuales pueden oscilar entre 0 y 1, donde 0 significa confiabilidad nula y 1 representa el máximo de
confiabilidad. Entre más se acerque el coeficiente a 0 habrá mayor error en la medición.
Los procedimientos más utilizados son:
 Medida de estabilidad (confiabilidad por test-retest). Un mismo instrumento es aplicado dos o más veces a un
mismo grupo de personas.
 Medidas paralelas o formas equivalentes de medir. En este procedimiento no se aplica el mismo instrumento de
medición sino dos o más versiones equivalentes de éste.
 Método de mitades divididas. Aquí se administra un solo instrumento, una sola vez, pero se dividen las
preguntas o los items
 Cotejo entre observadores. Se utiliza fundamentalmente cuando se aplican instrumentos de observación y
registro. Dos o más observadores aplican el mismo instrumento al mismo tiempo.
¿CÓMO SE SABE SI UN INSTRUMENTO ES CONFIABLE Y VÁLIDO? En la práctica es casi imposible que una medición sea
perfecta, generalmente se tiene un grado de error. Desde luego, se trata que este error sea el mínimo posible y para ello
hay formas de calcular la confiabilidad y la validez. Para calcular la validez, la validez que más interesa obtener en una
investigación es la validez de contenido.
Para obtener validez de contenido primero que nada hace falta revisar como ha sido tratada esta variable por otros
investigadores anteriormente. Segundo, elaborar un universo de items tan amplio como sea posible, para medir la
variable en todas sus dimensiones. Posteriormente, se consulta con investigadores familiarizados con el tema y la
variable a medir para ver si el contenido es exhaustivo. Esto se conoce con el nombre de validación por expertos.
6. VALIDEZ.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

 Definición.
La validez es un concepto propio de la lógica. La lógica es una ciencia que nos enseña cuales son las condiciones e validez
de los razonamientos, de las inferencias, de las proposiciones.
La validez es la mejor aproximación posible a la verdad que puede tener una proposición, una inferencia o conclusión. Se
refiere a si los instrumentos utilizados en la investigación miden o recogen los fatos que se suponen midan o recojan.
 Tipos
Los juicios de expertos se pueden obtener por métodos grupales o por métodos de experto único.
Se pueden seguir:
Método de Agregados Individuales: Se pide individualmente a cada experto que dé una estimación directa de los ítems
del instrumento. Éste es un método económico porque, al igual que el método Delphi no exige que se reúna a los
expertos en un lugar determinado.
Método Delphi: Este método fue creado en 1948 para obtener la opinión de expertos de una manera sistemática. En un
primer momento, cada experto responde de manera individual y anónima a un cuestionario. Después se analizan las
respuestas del conjunto de expertos, se remite a cada uno la respuesta mediana obtenida, así como el intervalo
intercuartil para cada cuestión y se les pide que reconsideren su juicio anterior, teniendo en cuenta estos datos.
Técnica de Grupo Nominal: El primer paso es reunir a los expertos (entre ocho y diez personas) y pedirles que registren,
individualmente y sin intercambiar opiniones, sus propias puntuaciones y consideraciones respecto a las probabilidades
de error para cada una de las preguntas o tareas que se les detallan. Después, cada experto expone a los demás las
puntuaciones y principales consideraciones registradas y al acabar esta ronda, se establecen las coincidencias del grupo.
Luego se realiza un debate de cada uno de los apartados de ésta. Finalmente, cada experto, de manera individual y por
escrito, puntúa y argumenta las probabilidades de error para cada tarea/pregunta considerada.
Método del Consenso Grupal: Se reúne a los expertos en un lugar determinado, se indica al grupo que su tarea consiste
en lograr una estimación de la pertinencia y otros aspectos relacionados con la elaboración de los ítemes, que sea
satisfactoria para todos los expertos. Con estas instrucciones se maximizan los intercambios de información y opiniones
dentro del grupo de expertos.
 Validez Predictiva o de Critério Externo o Empírica:
La relación entre la conceptualización teórica del instrumento y su estructura factorial. Cronbach (1960) ha sugerido los
pasos siguientes para establecer la validez de constructo:
(a) identificar las construcciones que pudieran explicar la ejecución en el instrumento;
(b) formulación de hipótesis comprobables a partir de la teoría que enmarca a cada construcción; y
(c) recopilación de datos para probar estas hipótesis.
El término confiabilidad “…designa la exactitud con que un conjunto de puntajes de pruebas miden lo que tendrían que
medir” (Ebel, 1977, citado por Fuentes, op. cit., p. 103).
CONFIABILIDAD. Definición LA CONFIABILIDAD de un instrumento de medición se refiere al grado de precisión o
exactitud de la medida, en el sentido de que si aplicamos repetidamente el instrumento al mismo sujeto u objeto
produce iguales resultados. Es el caso de un balanza o de un termómetro, los cuales serán confiables si al pesarnos o
medirnos la temperatura en dos ocasiones seguidas, obtenemos los mismos datos. Antes de iniciar el trabajo de campo,
es imprescindible probar el cuestionario sobre un pequeño grupo de población. Esta prueba piloto ha de garantizar las
mismas condiciones de realización que el trabajo de campo real. Se recomienda un pequeño grupo de sujetos que no
pertenezcan a la muestra seleccionada pero sí a la población o un grupo con características similares a la de la muestra
del estudio Confiabilidad-grado en que un instrumento produce resultados consistentes. La confiabilidad es una medida
de determinación de la ESTABILIDAD y la CONSISTENCIA INTERNA DEL INSTRUMENTO.
Entre los métodos para estimar la confiabilidad, se tienen:
MÉTODO TEST-RETEST: una forma de estimar la confiabilidad de un test o cuestionario es administrarlo dos veces al
mismo grupo y correlacionar las puntuaciones obtenidas. Este método tiene la desventaja de que los puntajes pueden
verse afectados por el recuerdo, la práctica, etc. Este procedimiento no es adecuado para aplicarlo a pruebas de
conocimientos sino para la medición de aptitudes físicas y atléticas, tests de personalidad y motores.
 El investigador debe aplicar el mismo instrumento dos veces al mismo grupo después de cierto período.
 Debe calcular la confiabilidad del instrumento ANTES de la aplicación definitiva del mismo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

 Coeficiente de Correlación de Pearson altamente positivo = Instrumento confiable.


 Debilidades: El periodo de tiempo (corto – largo) entre las mediciones puede confundir el coeficiente de
confiabilidad.
METODO FORMAS EQUIVALENTES Características:
 Se administran dos o más versiones equivalentes de un mismo instrumento.
 Deben ser similares en contenido, instrucciones, tipos de preguntas y dificultad.
 Son administradas al mismo grupo en un período relativamente corto. Los patrones de respuestas deben variar
POCO entre las aplicaciones.
 Coeficiente de Confiabilidad = Fórmula de Correlación de Pearson.
 Debilidades: Dificultad para obtener dos pruebas realmente paralelas
 Implica doble trabajo
 Confiable solo si la correlación entre los resultados de ambas aplicaciones es positiva
MÉTODOS SPLIF-HALF METHOD- se construye el instrumento con dos grupos de preguntas (pares y nones) que midan
igual. Se administra el instrumento se determina el puntaje de los pares y nones. Se le estima la correlación y
puntuación. A mayor la correlación mas confiable se considera el instrumento porque las preguntas pares y nones
reflejan puntaciones casi iguales. El método de mitades-partidas requiere sólo una aplicación de la medición.
Específicamente, el conjunto total de ítems (o componentes) es dividido en dos mitades y las puntuaciones o resultados
de ambas son comparados. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar fuertemente
correlacionadas. Un individuo con baja puntuación en una mitad, tenderá a tener también una baja puntuación en la
otra mitad.
TÉCNICA: ALFA DE CRONBACH Características:
 Requiere sólo una aplicación del instrumento de medición.
 Produce valores que oscilan entre cero (0) y uno (1). No es necesario dividir en mitades los ítems del
instrumento.
 Se aplica la medición y se calcula el coeficiente.
TÉCNICA: KUDER – RICHARDSON KR - 20
 Permite calcular la confiabilidad con una sola aplicación del instrumento.
 No requiere el diseño de pruebas paralelas.
 Es aplicable sólo en instrumentos con ítems dicotómicos, que puedan ser codificados con 1 – 0 (correcto –
incorrecto, presente – ausente, a favor – en contra, etc.) . Descripción del Método
PASOS PARA CREAR Y VALIDAR UN INSTRUMENTO DE MEDICIÓN
 Listar las variables que se van a medir u observar.
 Revisar la definición conceptual de las variables.
 Establecer la definición operacional.
 Elegir un instrumento ya desarrollado que se adaptará para el estudio o crear un nuevo instrumento, tomando
en cuenta las dimensiones a medir y los indicadores específicos que se utilizarán para cada una.
 Indicar el nivel de medición de cada ítem o variable.
 Establecer la forma en que se codificarán (darles un número que represente) las variables o ítems.
 Aplicar una prueba piloto del instrumento.
 Modificar el instrumento, a partir de los resultados de la prueba piloto.
La concepción de confiabilidad de la evaluación del aprendizaje, bajo el enfoque cuantitativo, hace referencia a la
estabilidad o consistencia interna en las técnicas e instrumentos; y reside en establecer la medida en que se puede
replicar la evaluación: una exigencia al evaluador para que, utilizando otros métodos y estrategias, llegue a idénticos
resultados. La prueba y el test alcanzan un elevado coeficiente de confiabilidad si los errores de medida se minimizan; es
decir, cuando toda medida de confiabilidad indica qué proporción de la varianza total de las puntuaciones es varianza de
error. La concepción de validez está referida a la firmeza o seguridad de algún acto y las condiciones necesarias para su
permanencia, vigencia y autenticidad. Tanto la validez como la confiabilidad se conjugan para coadyuvar al evaluador a
ser objetivo en el proceso de describir la realidad derivada de un aprendizaje específico, el cual está inmerso en un
discurso privado y que pretende ser público a través de la comunicación.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

TIPOLÓGICAS, ÍNDICES SUMATORIOS Y ESCALAS (LIKERT Y DIFERENCIAL SEMÁNTICO).


TIPOS DE ESCALAS DE ACTITUDES Existen diversos criterios de clasificación de las escalas de actitudes:
El primero es el que divide a las escalas según el procedimiento de su valoración en arbitrarias y experimentales.
 Escalas arbitrarias son todas aquellas en las cuales el procedimiento de valoración tiene su origen en el convenio
o arbitrio de los constructores de escalas.
 Las escalas experimentales, dicho procedimiento de valoración no es subjetivo, sino resultado de un
experimento.
El segundo criterio de clasificación es más moderno y tiene una fundamentación teórica mayor. Se basa en qué están
centradas las escalas de actitudes: los sujetos a través de sus respuestas, los ítems o proposiciones, o ambas cosas a la
vez.
Siguiendo al profesor Bugedaen el primer caso, a cada sujeto se le adscribirá una cantidad de la actitud considerada,
según su puntuación en las respuestas. La mayor parte de las escalas son de este tipo, como las de Likert, Chapín, Sevell
y en general, las arbitrarias. Los estímulos o preguntas son aquí una simple repetición que sirve para ordenar las
reacciones de cada elemento medido.
En el segundo caso se trata de medir y ordenar los diversos estímulos empleados o proposiciones, con ayuda de un
equipo de jueces. Se les denomina escalas de juicio. Las escalas de Thorndike y de Thurstone son de este tipo. En el
tercer caso, se trata de escalar tanto los estímulos como los sujetos. Ejemplo: los métodos derivados de los
escalogramas de Louis Guttman.

ESCALAS DE ACTITUDES ARBITRARIAS Entre las escalas de actitudes de esta clase se encuentran las siguientes:
escalas de puntos, consisten en una serie de palabras o proposiciones que se presentan al encuestado para que tache o
borre las que le sean desagradables, las que espontáneamente le produzcan un sentimiento de repulsión. Para puntuar
estas escalas se pueden seguir diversos procedimientos. Uno de ellos podría ser asignar a cada individuo en principio un
número de puntos igual al de palabras de la escala. A este número se le restan las palabras que representan una
posición negativa con relación a dicha actitud, y se le suman las que representan una posición positiva respecto a la
actitud medida.
escalas de clasificación, consisten en clasificar por orden de preferencia una serie de proposiciones, palabras,
ocupaciones, objetos, etc. La puntuación en este caso se puede realizar sumando los números de los lugares que ocupan
en la clasificación, las proposiciones referentes a la actitud que se quiere medir.
escalas de intensidad. Se trata en ellas de elegir respecto a una pregunta o proposición entre varias respuestas que
expresan el grado de aceptación o rechazo de la pregunta en cuestión. Normalmente las categorías de las preguntas en
estas escalas suelen ser cinco o siete, del tipo siguiente: Muy conforme, conforme, indiferente, disconforme, muy
disconforme. En el caso de siete se añaden a las anteriores en los extremos los de absolutamente conforme y
absolutamente disconforme. La puntuación en estas escalas se establece simplemente sumando al número de orden de
las categorías elegidas dentro de cada ítem. En este tipo de escalas hay que tener en cuenta que la valoración dada a los
ítems o preguntas de la escala que representen la actitud opuesta a la que se mide se computa inversamente. Es decir,
que en ella el absoluto desacuerdo vale 1 punto, en lugar de 7, y en absoluto acuerdo 7 en lugar de 1. A esta clase de
escalas de actitudes pertenecen las del tipo Likert, bastante conocidas y empleadas. Una objeción importante que se
hace a las escalas de Likert es que en ellas se valoran igual todos los ítems, a pesar de que unos pueden denotar una
actitud más intensa que otros.
escalas de proposiciones. Se caracterizan porque constan de una serie de actuaciones favorables y desfavorables, a un
grupo social, o en general a un fenómeno de interés social. Dentro de esta especie de escalas es muy conocida la de
Bogardus, utilizada mucho en Norteamérica para medir la actitud hacia los negros, o la distancia racial hacia ellos.

ESCALAS DE ACTITUDES EXPERIMENTALES. Son, como he indicado, aquellas en que cada ítem tiene un valor o
puntuación establecido experimentalmente. Las más extendidas de estas escalas son las de Thurstone. Formalmente son
similares a las de intensidad, en cuanto consisten en un conjunto de proposiciones referentes a la actitud de que se

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

trata. Sin embargo se diferencian de las escalas de intensidad en que cada ítem o pregunta tiene asignado un valor, el
valor escalar, obtenido experimentalmente.
Los valores escalares de los ítems o preguntas deben cubrir toda la extensión o continuo de estas escalas. Estos valores
escalares son causa de que exista una diferencia o distancia entre los valores escalares de cada pregunta, por lo que se
dice que estas escalas tienen distancia y por ello se les llama de intervalo.
Para la aplicación de estas escalas únicamente se pide a los encuestados que indiquen si aceptan o rechazan cada ítem.
La puntuación se determina sumando los valores escalares de las proposiciones que aceptan y hallando su media. Una
de las críticas principales que se hacen a las escalas tipo Thurstone es que la valoración hecha por los jueces puede no
ser adecuada para el grupo a que se aplique. Además, estas escalas de actitudes no discriminan a los sujetos que
alcanzan una misma puntuación, cuando los ítems que aceptan son distintos si bien suman lo mismo.

OTROS TIPOS DE ESCALAS DE ACTITUDES. La puntuación en este caso se determina simplemente por el número de orden
del ítem elegido.
Entre ellos se pueden destacar: el escalograma de Guttman y el diferenciador semántico.
El primero está formado por una serie de preguntas a las que se contesta simplemente si o no, pero formuladas de tal
manera y en tal orden que el contestar sí a una de ellas supone normal y lógicamente contestar sí a todas las siguientes.
El propósito de Guttman fue construir escalas verdaderamente unidimensionales, en las cuales sus preguntas o ítems
formasen una jerarquía rigurosa, de modo que la aceptación de una proposición implicara lógicamente la aceptación de
las de nivel jerárquico inferior. En estas escalas están valoradas tanto las preguntas por su orden jerárquico, como los
sujetos, porque su aceptación o rechazo de las proposiciones permite conocer su puesto en la escala. La puntuación
total de los encuestados se determina por el número de ítems o preguntas a las que han respondido sí. También en esta
puntuación se deben tener en cuenta el número de fallos o de veces que los síes o noes rompen el orden jerárquico de
la escala.
En el llamado diferenciador semántico, se presentan pares de calificativos opuestos, fuerte-débil, grande-pequeño, etc.,
dividiendo cada par en una graduación de siete puntos. Se debe a Osgood y es en sí originariamente una técnica
semántica para medir el significado que tiene algo para un individuo, aunque se puede utilizar también para medir la
actitud hacia ese algo. Una de las funciones de este tipo de escalas es proporcionar una medida indirecta de los
sentimientos subyacentes, incluso inconscientes, hacia un término o palabra. Se puede aplicar este tipo de escalas a
diversos objetos o personas y permite captar la impresión que causan en el encuestado, o sea su imagen. Se deben
aplicar comparativamente. El análisis factorial de una gran cantidad de diferenciales semánticos ha descubierto que con
ellos se miden tres dimensiones básicas: a) El valor (bueno-malo), o la evaluación que hace el sujeto de los entes
propuestos. b) El poder, (fuerte-débil), o la percepción por el sujeto de la potencia del ente en cuestión. c) La actividad
(activo-pesado: rápido-lento), o sea la percepción del dinamismo del ente en cuestión.

CONSTRUCCION DE LA ESCALA DE LIKERT En la construcción de las escalas se pueden distinguir, en general, las siguientes
operaciones básicas:
1. Búsqueda de las proposiciones, ítems o estímulos representativos de la actitud o conceptos que se pretenden medir.
2. Prueba de cada uno de los ítems para contrastar si representan adecuadamente a la actitud.
3. Establecimiento de un procedimiento de valoración de la escala, arbitrario o experimental según el tipo de escala
elegido.
4. Prueba de la escala completa para comprobar su validez y seguridad.
La construcción de las escalas de Likert consiste en primer lugar en pensar y formular una serie de proposiciones,
bastantes, pueden ser cien o más, referentes a la actitud en cuestión.
En segundo lugar dichos ítems o proposiciones se someten a la prueba de aplicarlos a un grupo, para eliminar los ítems
inadecuados, que no se ajustan bien a la actitud que se pretende medir. Se averigua para todos los encuestados la
puntuación total y se seleccionan de todos ellos el 25 % que ha obtenido una puntuación superior y el 25 % que la haya
obtenido inferior. Se forman así dos grupos, superior e inferior de la escalas. Respecto a estos dos grupos se analiza
forma de contestación a cada proposición. Este análisis se basa en el supuesto de que si se trata de un ítem que se ajusta
a la actitud en cuestión, la puntuación media respecto a este ítem del grupo superior debe ser significativamente más

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

elevada que la del grupo inferior. Para comprobar esta significatividad de las diferencias se utiliza comúnmente la
prueba estadística t.
Los ítems o proposiciones en los cuales las diferencias entre los dos grupos no sean significativas se eliminan y sólo se
dejan en la escala aquellos en lo que dicha diferencia haya resultado significativa. También se puede comprobar la
consistencia de los ítems de esta escala correlacionando las puntuaciones de los sujetos en el ítem X con sus
puntuaciones totales en la escala menos la del ítem X.

CONSTRUCCION DE LAS ESCALAS DE THURSTONE. La construcción de las escalas de Thurstone consiste en síntesis en
pensar un grupo elevado de preguntas o proposiciones en relación a la actitud que se pretende medir, favorables y
adversas y neutrales en todos sus grados. Estas proposiciones se someten a un grupo que hace de jueces y se les pide
que señalen la valoración que a su juicio objetivo, no personal, tiene el ítem o proposición respecto a la actitud en
cuestión. Como existe la posibilidad de que los jueces cumplan mal su tarea, por ello se deben analizar las evaluaciones
de cada uno, y eliminarlas en el caso de que su trabajo sea deficiente. La valoración han de hacerla, según una escala
continua de 1 a 11 puntos, en el que el 1 significa el máximo acuerdo y el 11 el máximo desacuerdo con la proposición.
Valorados los ítems de este modo por los jueces, se halla, para cada uno, la media y la desviación típica de las
valoraciones que han dado los jueces. La media constituye la ponderación o valor escalar que se da al ítem. En cuanto a
la desviación típica, los ítems en que ésta sobrepasa por ejemplo, el valor de dos se eliminan. Los ítems eliminados son,
por tanto, aquellos en los que la dispersión de las valoraciones de los jueces es mayor, y por tanto es menor su acuerdo
respecto a la significación del ítem en cuestión respecto a la actitud medida. Suelen quedar unas treinta proposiciones.
Se debe procurar que se distribuyan a lo largo de la escala de modo más uniforme posible y cubriendo todos sus valores,
sin huecos, del 1 al 11.

CONSTRUCCION DE LAS ESCALAS DE GUTTMAN. Se empieza igual que en los casos anteriores, formulando un número de
preguntas o ítems en relación a la actitud de que se trata que pueden llegar hasta 50. Este conjunto de preguntas se
somete para su prueba a un grupo que debe contestar a todas ellas sí o no. Con las respuestas dadas a todas las
preguntas, se forma una tabla, que se llama escalograma. En este cuadro consignamos la forma de respuesta de cada
sujeto, designamos con una X su aceptación de los ítems y con O su desacuerdo con ellos.
Seguidamente se computa la puntuación total de cada sujeto del grupo. Después estas puntuaciones se ordenan de la
más alta a la más baja. A continuación, con las respuestas dadas a todas las preguntas se forma un cuadro que se llama
escalograma. La finalidad de esta operación se dirige a jerarquizar rigurosamente los ítems.
En este escalograma los ítems se disponen en sentido horizontal y los sujetos en sentido vertical, o sea, se atribuyen a
los primeros las columnas y a los segundos las filas de la tabla. Después por aproximaciones sucesivas se forman las
nuevas tablas que sean necesarias, hasta que se consiga ordenar por orden jerárquico las proposiciones y las respuestas.
A la vez se van eliminando las preguntas que presentan respuestas muy desviadas que infringen la jerarquización debida
a las preguntas.
Se estima que la jerarquización de una escala de Guttman, es buena cuando su coeficiente de reproductibilidad es al
menos de 0,90.
Para computar según la técnica de Goodenough el número de errores; se establecen, con signos más y menos todos los
patrones de respuesta posibles, tanto los que se ajusten a la exigencia de jerarquización de la escala como los que se
apartan de ella. Después se buscan en el escalograma los casos de sujetos que corresponden a cada tipo de respuestas
no jerarquizadas. Este número multiplicado por el número de errores que suponga cada patrón de respuesta no
jerarquizada y su suma nos da el total de errores. Este escalograma nos ofrece una jerarquización global de la escala y en
relación al mismo se puede realizar una primera estimación de la bondad de esta jerarquización calculando el
coeficiente de reproductibilidad.
Sin embargo, la técnica anterior no nos dice nada sobre el grado de jerarquización de las respuestas dadas por el grupo,
respecto a cada ítem por separado. Para remediar este defecto el mismo Guttmann ideó otra técnica de construcción de
esta escala, que recibe el nombre de Cornell, por la Universidad donde fue ensayada. De acuerdo con ella, en la
aplicación de la escala al grupo de prueba, cada sujeto debe contestar a cada ítem como si fuera una escala de Likert, es
decir, según diversos grados de acuerdo, normalmente 5. A continuación se halla la puntuación total de cada sujeto y se

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

ordenan éstos por orden de puntuación de mayor a menor. Si hubiera una jerarquización perfecta dentro de cada ítem,
entonces los que tienen una puntuación más elevada en la escala completa, deberían tener en cada ítem una
puntuación no inferior a la que ostentan en el mismo ítem otros sujetos de puntuación global inferior.

CALCULO DE LA SEGURIDAD DE LAS ESCALAS SOCIOMETRICAS. El conocimiento de la validez y seguridad de cualquier


instrumento de observación es un requisito necesario para saber si dicho instrumento es fiable. Es decir, si ofrece
garantías como tal de proporcionar en su empleo repetido resultados veraces y constantes. En estas escalas, dado su
carácter y su pretensión de constituir instrumentos de medida más exactos y rigurosos, estos requisitos son aún más
fundamentales si cabe. La seguridad de estas escalas consiste, como en los demás instrumentos de medida, en su
propiedad de proporcionar resultados similares en sus sucesivas aplicaciones. De acuerdo con la exposición que de este
tema hace el profesor Bugeda, para hallar la seguridad de una escala sociométrica existen tres procedimientos básicos:
1. Aplicación repetida de la misma escala al mismo grupo. Consiste, como se ha indicado, en aplicar la misma escala al
mismo grupo en dos ocasiones y correlacionar las dos series de medidas constituidas por los resultados de cada sujeto.
La correlación obtenida es el coeficiente de seguridad. Este método es el más lógico, pues es el que se ajusta mejor a la
definición de la seguridad de la escala. Sin embargo, presenta graves objeciones prácticas. Si se aplica la misma escala
dos veces al mismo grupo, las variaciones de puntuación no se deberán sólo a los errores anejos a cada aplicación de la
escala, sino también a una serie de cambios que se producen inevitablemente en cada individuo. La práctica adquirida
en la contestación de la escala influirá más en unos que en otros y podrá ser una fuente de diversidad de una a otra
aplicación de la escala. Igualmente sucederá con la fatiga, el recuerdo de la primera aplicación, la mejor comprensión de
lo que se está haciendo. Todo ello se traducirá en diferencias de puntuación que no se deben a la escala misma.
2. Aplicación de escalas paralelas o similares al mismo grupo. En psicología se suele solucionar el problema anterior,
aplicando al mismo grupo formas paralelas, pero diferentes, de un mismo test y correlacionando los resultados. Sin
embargo, aunque en el caso de los tests, sobre todo de cierto tipo, es factible construir tests paralelos, no lo es así en las
escalas sociométricas. En éstas, una escala sociométrica paralela a una dada, es siempre otra escala, que probablemente
tendrá un significado distinto y medirá otra dimensión.
3. División por mitad de una escala y aplicación de cada parte al grupo. Este es el método más riguroso y preferible.
Consiste en dividir la escala en dos partes equivalentes y hallar la correlación de los resultados obtenidos en las dos
aplicaciones. Presenta la ventaja de que pueden ser aplicadas las dos mitades al grupo en una sola sesión, con lo que se
obvian los inconvenientes de las variaciones y las influencias distintas de una aplicación a otra. Este método exige, claro
es, que las dos mitades sean equivalentes.
El procedimiento más recomendable es separar en la escala los ítems pares de los ítems impares después de haber sido
aplicada la escala en su totalidad, como un todo. De esta forma se tendrán dos series de puntuaciones referentes a los
ítems pares e impares.
Según el profesor Bugeda (1974, págs. 191 y ss.), la validez de una escala indica el grado de acuerdo de una escala con
criterio que es exterior a ella. Ello quiere decir que si, por ejemplo, hemos construido una escala para medir el
autoritarismo y queremos determinar su validez, es necesario que tengamos un criterio de contraste, una medida previa
del autoritarismo del grupo o la consigamos por algún procedimiento ya conocido.
El coeficiente de validez de una escala es el que resulta de correlacionar los resultados obtenidos con su aplicación con
los del criterio seleccionado. Este procedimiento no es muy práctico en cuanto requiere conocer la validez del criterio de
comparación, que generalmente no es conocido ni fácil de conocer. En su lugar se suelen aplicar otros procedimientos
menos rigurosos entre los que cabe destacar los "knowgroups" y la "constructvalidity".
En el primer caso, la escala se aplica como prueba a grupos conocidos que se sabe poseen unos valores muy altos y muy
bajos respecto a la actitud investigada. Igualmente se aplica un grupo normal. Si de los resultados obtenidos se deriva
que los valores medios de los dos grupos difieren significativamente, es un indicio de validez de la escala. La validez
construida se establece comprobando el grado de relación entre las predicciones derivadas de la definición teórica de las
variables medidas por el instrumento de observación con los resultados obtenidos mediante la aplicación de éste.
De acuerdo con Mannheim y Rich (1986, 87) esta validación implica el razonamiento siguiente: ''Si el concepto X tiene
una relación positiva con el concepto Y, una relación negativa con el concepto Z (como dice nuestra teoría) también será
cierto que las calificaciones en una medida válida de X tendrán una relación positiva con las calificaciones en una medida

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

válida de Y y una relación negativa con las calificaciones en una medida válida de Z''. También se pueden validar las
escalas, aunque es un procedimiento penoso de aplicar, mediante el análisis de si la conducta de aquellos a quienes se
han aplicado, concuerda con los resultados obtenidos en las escalas. A este procedimiento se le llama validez predictiva.
La validez de una escala está también relacionada con su seguridad. Por tanto, a mayor seguridad, también mayor
validez. Así como aumentando el número de ítem se puede aumentar la seguridad de una escala, igualmente
aumentando el número de preguntas o proposiciones homogéneas se puede aumentar también la validez.

CONSTRUCCIÓN TEÓRICA Y DESPLIEGUE DEL CUESTIONARIO.


PREPARACION DE CUESTIONARIO. ETAPAS
La construcción de un cuestionario es una operación muy delicada y difícil.
1. FORMULACION DE HIPOTESIS.
En esta etapa de formulación de hipótesis se pueden distinguir tres niveles:
El primero, el establecimiento de la hipótesis o hipótesis generales elegida o elegidas como respuestas probables a la
cuestión general investigada.
El segundo, la especificación de las hipótesis generales en sub-hipótesis que las desarrollen y expresen en los distintos
aspectos que comprendan.
El tercer nivel es el más propio y específico del cuestionario. Consiste en la concepción de lo que se va a buscar con cada
pregunta, de lo que se pretende saber o conocer por su mediación, o sea prever su sentido y utilidad. Que las preguntas
del cuestionario impliquen hipótesis en este sentido es la condición para que estas tengan un sentido preciso, respondan
a una necesidad en relación a los objetivos de la encuesta y sean, en último término, útiles y beneficiosas para los fines
perseguidos en el cuestionario. Incluso las categorías de cada pregunta deben ser establecidas inteligentemente. Esto
quiere decir que deben obedecer a una intención determinada, o lo que es lo mismo, que deben fundarse también en
hipótesis.
2. DETERMINACION DE LAS VARIABLES.
Todo trabajo de investigación que se nos propone es en su tema o título una variable general. A fin de que pueda ser
observada en la realidad es preciso operativizarla o hacerla operativa, especificando sus dimensiones e indicadores.
Igualmente, en la investigación social por cuestionario, el tema sobre el que versa se refiere también a una variable
general. Es preciso, pues, como se acaba de indicar, hacerla operativa determinando sus variables intermedias y los
indicadores.
La operativización de variables, pues, puede y debe servir también para determinar los puntos de información a obtener,
mediante la encuesta y que han de ser desarrollados dentro del cuestionario mediante las correspondientes preguntas.
Como es claro estos puntos de información que resulten de la operativización se deben someter a juicio crítico sobre la
oportunidad de su inclusión en el cuestionario. Además se deben completar con aquellos aspectos no derivados de esta
operación y que se crean convenientes y de interés. Todos estos puntos de información pueden constituir la base de lo
que se llama guía del cuestionario, que se suele utilizar como orientación para la redacción del mismo, y en la que es
lógico se comprendan también las decisiones a que lleguemos sobre la planificación del cuestionario.
3. PLANIFICACION DEL CONTENIDO DEL CUESTIONARIO
La finalidad de esta etapa es:
1. La especificación del tipo de preguntas más adecuadas, cenadas, categorizadas, etc., para obtener de la población
encuestada los datos o informaciones que señalan los indicadores establecidos.
2. Las categorías, en su caso, que más convengan a cada pregunta y a los objetivos que se persiguen con ellas.
3. La determinación del número de preguntas y de su orden y disposición en el cuestionario. Los dos primeros pasos se
deben realizar teniendo en cuenta:
a) Las hipótesis concretas previstas, es decir, lo que se busca con cada pregunta y sus categorías, o sea, lo que se
pretende saber o conocer con ella.
b) Las características de la población estudiada.
c) La naturaleza y aplicaciones de cada tipo de pregunta.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

d) La forma de aplicación del cuestionario, por escrito o mediante entrevista. El destino de los datos derivados de cada
una de las categorías de las preguntas es su agrupación y sistematización en tablas. En una tabla, a cada respuesta debe
corresponder una columna. Por ello, hay que tener en cuenta en la planificación del cuestionario que un número
excesivo de respuestas da lugar a tablas de muchas columnas y por tanto difíciles de leer y analizar.
En cuanto al tercer paso, número y orden de las preguntas se pueden recomendar las siguientes reglas:
1) El cuestionario debe contener todas las preguntas necesarias, pero ninguna más. Un cuestionario largo, salvo
caso de absoluta necesidad, es penoso tanto para el entrevistador como para el encuestado.
2) No se debe empezar el cuestionario con preguntas difíciles y embarazosas.
3) Se debe evitar a toda costa colocar juntas preguntas en las que la respuesta a una de ellas pueda influir en el
sentido de la respuesta a la otra. Si esto ocurre, se produce el efecto de "halo" o "contagio".
4) Se debe procurar que todas las preguntas sobre un aspecto figuren juntas en el cuestionario, dispuestas así
como los mismos temas, guardando un orden temporal, lógico y psicológico.
5) Para evitar la monotonía y en cansancio y facilitar los cambios de tema, es conveniente intercalar en sitios
estratégicos preguntas de alivio más o menos intrascendentes, que supongan un cierto respiro.
6) Se ha observado, que, en el caso de las entrevistas, la curva de tensión de los entrevistados se manifiesta plana
al principio y al final, y suele alcanzar su máxima intensidad en el segundo tercio de la entrevista.
Por esta razón, las instituciones de investigaciones de mercado suelen comenzar las entrevistas con preguntas
interesantes para el entrevistado, que exigen una motivación menor y terminan con las preguntas de identificación que
requieren menos esfuerzo. La tendencia es, pues, a incluir las preguntas más importantes en el tercio medio de la
entrevista, y a no hacer preguntas que puedan comprometer al encuestado, sino después que se haya establecido una
cierta relación de confianza con él. Se considera que en temas importantes para la investigación es peligroso basarse en
una sola pregunta. Varias preguntas de diferente forma, redacción y contenido reducirán el peligro de los diversos
sesgos a que está sometida una sola pregunta. Similarmente, se estima que las preguntas referentes a actitudes, o
posiciones permanentes y profundas de la persona, deben ser acompañadas por lo menos de otra pregunta que mida la
fuerza de la actitud en comparación con otros sentimientos o actitudes, es decir, su intensidad, o bien su centralidad, o
sea, la importancia que se concede a la actitud expresada a la hora de tomar una decisión, por ejemplo, votar.
 ELABORACION FORMAL DEL CUESTIONARIO
Planificada del modo indicado la construcción del cuestionario, es preciso proceder a su elaboración formal. Destacan en
ella la redacción formal de las preguntas y la determinación de los aspectos formales del cuestionario y de sus
elementos accesorios.
La redacción de las preguntas, según la tesis central del libro de Sudman y Badburn (1982) es el elemento esencial para
maximizar la validez de los datos obtenidos en la investigación por encuesta. Ya desde los primeros tiempos de la
encuesta, se conoce el hecho de que cambios aparentemente pequeños en la redacción de las preguntas pueden causar
grandes diferencias en los diversos porcentajes de respuestas a la misma.
Reglas básicas en esta redacción son que no se pierda nunca de vista los objetivos de la investigación y que, previamente
a la formulación de cada pregunta, nos preguntemos sobre la necesidad y oportunidad de la misma, y sobre el grado en
que nos servirá para lograr los objetivos propuestos.
Finalidad de los aspectos formales es que el cuestionario sea atractivo y adecuado a las características de la encuesta. Su
objeto es la programación de sus condiciones formales, tales como papel a emplear, clase, color, tipo de impresión;
espacios destinados a las respuestas y a la codificación; márgenes a dejar a derecha e izquierda y en medio de las
preguntas y datos de identificación que deba contener el cuestionario.
Como elementos accesorios al cuestionario cabe destacar:
a) La carta dirigida al encuestado solicitando su cooperación a la encuesta rellenando el cuestionario y dándole las
gracias por su cooperación.
b) Las instrucciones para cumplimentar el cuestionario. La carta deberá estar escrita de forma clara y sugestiva, y en
lenguaje sencillo y apropiado al destinatario. En ella se hará resaltar el interés de la investigación y los beneficios
directos e indirectos que representa su contestación.
Las instrucciones, que según Zarkowich (1970), son tan importantes como el cuestionario, son el medio de obtener la
normalización de las respuestas recogidas y de evitar la introducción de elementos subjetivos en las mismas. En ellas se

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

expondrán las advertencias, que se consideran necesario o conveniente realizar, sobre la forma general de
cumplimentar el cuestionario y de consignar las respuestas según los distintos tipos de preguntas que comprenda. Las
instrucciones se deben redactar con gran claridad y esmero. Se debe procurar que sean completas y resuelvan todas las
dudas que puedan plantearse. Sobre todo ha de tenerse cuidado especial en no inducir a confusión. En este caso
podrían ser causa de sesgo.
VALIDEZ Y SEGURIDAD DEL CUESTIONARIO.
En el cuestionario, como en todos los instrumentos de observación, además del pretest o prueba a que ya hemos
aludido, para comprobar que las preguntas son comprensibles y que las respuestas a ellas son significativas, en orden a
la investigación pretendida, es necesario también verificar su seguridad y validez.
Un procedimiento para comprobar la seguridad del cuestionario es el llamado retest, que consiste en aplicaciones
repetidas de aquél a las mismas personas, dentro de un breve espacio de tiempo.
En cuanto a la validez, el único procedimiento seguro para verificarla, es comprobar que los resultados obtenidos se
ajustan a la realidad. Pero esto en los cuestionarios sólo es posible en las preguntas de hecho, pero no en las de opinión.
Como procedimientos prácticos para comprobar indirectamente la validez de los cuestionarios, se pueden utilizar las
técnicas de los grupos conocidos, "knowgroups" y la de "predictivevalidity", la "randomprobe" o prueba aleatoria y las
"cross-checkquestions".
Según la primera técnica, el cuestionario se aplica a individuos que se sabe de antemano presentan unos valores muy
altos o muy bajos respecto a determinadas características, que se pretenden conocer con el cuestionario. Si los
resultados de esta aplicación coinciden significativamente con los ya conocidos es un índice de validez.
En la segunda técnica, se observa la conducta posterior de los encuestados y se contrasta con sus opiniones. Si son
congruentes ambas, también se puede tomar con índice de validez del cuestionario.
La "randomprobe" o prueba aleatoria consiste en preguntas situadas aleatoriamente en el cuestionario. Tienen como
finalidad precisar y desarrollar lo que las preguntas significan para el encuestado. Sirven para aclarar sus respuestas y
para saber el grado de comprensión de la encuesta y la validez de sus respuestas.
Un final contraste de validez es el uso de "cross-checkquestions". En este caso se incluyen preguntas que pueden ser
contrastadas con fuentes independientes. Por ejemplo, la pregunta ¿cuántos años ha estado en tal prisión?, puede ser
contrastada con el registro de la prisión.

EL SISTEMA DE CATEGORÍAS.
En los sistemas categoriales, la observación se realiza a partir del establecimiento de categorías que son prefijadas por el
observador. Para establecer un sistema de categorías el investigador define con claridad las categorías de estudio que se
corresponden con cada caso a estudiar, dichas categorías deben ser mutuamente excluyentes de forma que la
asignación de un caso a una categoría impida que pueda ser asignada a otra, debe ser exhaustiva es decir ningún caso
puede quedar sin poder ser asignado a una categoría y debe ser homogéneo es decir mantener una relación lógica con
la variable categorizada. Por lo general en un sistema de categorías el registro y la codificación se producen
simultáneamente. Hay que considerar su posibilidad de generalización, es decir si puede o no aplicarse a una variedad
de situaciones.
El siguiente esquema sirve de guía para la construcción de un sistema de categorías.
• Preguntas al objeto: ¿Qué preguntas se desea responder?
• Marco Teórico: ¿Qué supuestos están en la base de la explicación con respecto al objeto?
• Objeto de Observación: ¿Qué comportamientos se pretenden observar?
• Sistema de categorías.
 En que consiste el comportamiento a observar?
 ¿Cuál es la unidad de registro?
 ¿Recogen las categorías comportamientos directos? Si no es así ¿se necesita realizar inferencias?
 ¿Se va ha observar y registrar al mismo tiempo? ¿Cómo se realiza la codificación?
 ¿Son específicas a una situación las categorías definidas? ¿Pueden extenderse a una generalidad de situaciones?
 ¿Cómo se registra
 ¿Cómo se codifica?

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

• Análisis: ¿Cómo se analizarán los resultados? ¿A partir de qué categorías?, ¿comparando sujetos o situaciones?,
¿Determinando diferencias o relaciones?
• Interpretación: ¿A qué tipo de conclusiones llevan los resultados? ¿Para quésirvió la observación?

UNIDAD 7: RESULTADOS EN INVESTIGACIONES JURÍDICAS.

1. ESTRATEGIAS DE ANÁLISIS DE DATOS CUALITATIVOS EN INVESTIGACIONES JURÍDICAS. LA CODIFICACIÓN DE LOS


DATOS. CONSTRUCCIÓN DE TEXTOS Y DIAGRAMAS CONCEPTUALES. LA BÚSQUEDA DE CASOS NEGATIVOS. LA TEORÍA
FUNDAMENTADA: COMPARACIÓN CONSTANTE, NIVELES DE CODIFICACIÓN Y CONCEPTUALIZACIÓN ORIENTADA A LA
CONSTRUCCIÓN DE TEORÍA. EL CONCEPTO DE MUESTREO TEÓRICO. CALIDAD Y VALIDEZ. ELABORACIÓN DE
INFORMES.

(APUNTE MARIANA)
Los datos Cualitativos:
En primer lugar, el dato encierra el contenido informativo, soporta una información acerca de la realidad interna o
externa a los sujetos estudiados que será utilizada con propósitos investigativos. “los investigadores cualitativos
consideran datos toda una serie de informaciones relativas a las interacciones de los sujetos entre sí y con el propio
investigador, sus actividades y los contextos en que tienen lugar, la información proporcionada por los sujetos bien a
iniciativa propia o a requerimiento del investigador, o por los artefactos que construyen y usan (documentos escritos u
objetos materiales). Además, y en contra de lo que sugiere el sentido etimológico (datum: lo dado) el dato es el
resultado de una elaboración de la realidad. ()..
Tanto el modo en que se focaliza su percepción como el todo en que da cuenta de ella, implican un referente teórico y
conceptual que condicionan el modo de interpretar lo que sucede ante sus ojos”.
Por lo tanto, el dato soporta una información sobre la realidad, implica un mayor o menor elaboración conceptual de la
misma y el modo de registrarla y expresarla”.
Concepto: consideramos el dato como una elaboración de mayor o menor nivel, realizado por el investigador o por
cualquier otro sujeto presente en el campo de estudio, en la que se recoge información acerca de la realidad interna o
externa a los sujetos y que es utilizada con propósitos indicativos. El dato soporta una formación sobre la realidad,
implica una elaboración conceptual de esa información y un modo de expresarla que hace posible su conservación y
comunicación.
“La naturaleza de los datos manejados en la investigación vendrá condicionada por las técnicas o instrumentos
utilizados para recogerlos y por los presupuestos teóricos, filosóficos o metodológicos según los cuales se utilice. Dado
que en la investigación cualitativa se suelen utilizar la entrevista, la observación, las preguntas abiertas presentadas
mediante cuestionarios, los diarios etc. El tipo de datos recogidos suele venir expresado en forma de cadenas verbales y
no mediante valores numéricos”. De ahí que la mayor parte de los datos que son recogidos en el curso de las
investigaciones cualitativa posean como una de sus características conocidas la de ser expresados en forma de textos. Se
trata de datos que reflejan la comprensión de los
procesos y las situaciones por parte de los propios participantes en los contextos estudiados”.
Análisis e interpretación de los datos
El análisis de datos cualitativos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Concepto de análisis: definimos análisis de datos como un conjunto de manipulaciones, transformaciones,


operaciones, reflexiones, comprobaciones que realizamos sobre los datos con el fin de extraer el significado relevante
en relación a un problema de investigación.
Analizar datos supondrá examinar sistemáticamente un conjunto de elementos informativos para delimitar partes y
descubrir las relaciones entre las mismas y las relaciones con el todo. En definitiva, todo análisis persigue alcanzar un
mayor conocimiento de la realidad estudiada y, en la medida de lo posible, avanzar mediante su descripción y
comprensión hacia la elaboración de modelos conceptuales explicativos.
Cuando hablamos de análisis de datos cualitativos, nos referimos a tratamientos de los datos que se llevan a cabo
generalmente preservando su naturaleza textual, poniendo en práctica tareas de categorización y sin recurrir a técnicas
estadísticas. Los procedimientos a los que nos referimos constituyen técnicas de análisis de datos que se aplican
también a los datos generados por la propia investigación, contando con la participación activa del investigador, que
utilizan las categorías para organizar conceptualmente y presentar la información, más interesada por el contenido de
las categorías y su interpretación que por las frecuencias de los códigos y tradicionalmente no asociadas a técnicas
cuantitativas.
Etapas, procedimientos y técnicas de análisis cualitativos.
Dentro del análisis cualitativo se encuentran diversidad de estrategias. A modo de guía, proponemos el siguiente
proceso de análisis cualitativo de la información:
1. Revisar y preparar el material: Implica asegurarse de que los datos hayan sido preparados en forma adecuada para
el análisis; esto es, transcribir a papel el materialgrabado en entrevistas o videos, organizarlo y clasificarlo por un
criterio lógico útil al investigador (organizados por temas, por actores relevantes, por fecha, etc.), además de ser
legibles, audibles o visibles, y que estén completos. También habrá que recordar que la información cualitativa en sí no
es anónima (se trata de escritos de personas, testimonios de voz, conductas filmadas, etc.), por lo cual debe mantenerse
siempre la confidencialidad de los sujetos, pero debe contarse con la información necesaria del contexto (edad del
entrevistado, lugar, hora, circunstancias particulares, etc.) en el que se realizó la entrevista, la filmación, etc.
2. Detección y codificación de las categorías de análisis: Si nuestra investigación esde alcance exploratorio, y por lo
tanto, en la construcción del marco teórico no hemos logrado definir con claridad las características fundamentales del
fenómeno que queremos investigar, se nos presenta el problema de que tenemos mucha información, pero no sabemos
qué estamos buscando en ella. En ese caso, es la misma información recolectada la que nos dirá cuales son las
categorías de análisis que debemos buscar. El procedimiento consiste en encontrar los patrones generales (las
respuestas, conductas o situaciones similares más comunes, que se repiten con mayor frecuencia), es decir, encontrar y
listar los patrones que se repiten, y asignarle un símbolo (uncódigo) a cada uno, a los efectos de poder identificarlos
con mayor facilidad en unpróximo análisis.
A este efecto, podemos recomendar el siguiente procedimiento:
• Del total de mediciones de que disponga (recuerde que una observación, un cuestionario, un video, o cualquier otro
instrumento con el que hayamos recolectado información constituye una “medición”), seleccionar determinado
número, mediante un método adecuado de muestreo.
• Buscar respuestas, conductas o episodios similares en los instrumentos muestreados (patrones generales)
• Observar la frecuencia con que aparecen cada uno de estos patrones generales.
• Clasificar las respuestas, conductas o situaciones elegidas en temas, aspectos o rubros, de acuerdo con un criterio
lógico, cuidando que sean mutuamenteexcluyentes.
• Darle un nombre o título a cada tema, aspecto o rubro (patrón general de respuesta).
• Asignarle el código a cada patrón general de respuesta. Es decir, en esta primera muestra buscamos y detectamos las
diferencias y similitudes entre distintas mediciones, o distintas partes de una medición. A estos patrones generales
encontrados, los llamaremos “categorías de análisis”. Es recomendable marcar cada código en el margen de las hojas, y
si es posible, usando distintos colores para cada código de cada categoría, a los efectos de poder ubicarlo con mayor
rapidez y facilidad en una próxima lectura. Al finalizar la codificación en primer nivel de la muestra, hacemos lo que se
llama un “libro decódigos”, es decir un listado con los nombres y los códigos de cada categoría de análisis encontrada.
Por ejemplo, en una investigación de comportamiento de los docentes en las escuelas, se hizo una pregunta abierta:
¿De qué manera los directivos buscan obtener la cooperación del personal para el desarrollo de un proyecto?

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Las respuestas fueron múltiples, pero se encontraron y aislaron los patrones generales de respuesta más frecuentes:
PATRONES GENERALES Código asignado
Involucrando al personal y comunicándose con el IP+C
Mejorando la motivación, integración y clima laboral MM+INT+CL
Con Capacitación CAP
Con incentivos y recompensas I+R
Difundiendo el valor del trabajo en equipo TE
Otras

A partir de allí, tomamos el resto del material, comenzamos a buscar las categorías de análisis definidas en la muestra,
y lo vamos codificando. De esta manera, al finalizar la codificación en primer nivel, habremos realizado una primera
lectura u observación de las mediciones, y tendremos todo el material con las marcas de los códigos de las categorías de
análisis encontradas.
Si nuestra investigación fuera de alcance descriptivo o correlacional, significa que ya hemos podido definir
previamente, en la construcción del marco teórico, nuestras categorías de análisis, es decir, sabemos a priori lo que
estamos buscando. En este caso, el libro de códigos se puede confeccionar con anterioridad al comienzo de la lectura del
material, y a medida que este se vaya leyendo se podrá ir codificando directamente.
Por ejemplo, si estamos investigando los tipos de violencia que ejercen los hombres abusadores sobre sus parejas, y en
la construcción del marco teórico ya hemos definido que dividiremos a la violencia en tres categorías: violencia física
(golpes, empujones, etc.), violencia verbal (insultos, gritos amenazantes, etc.), y violencia psicológica (miradas
amenazadoras, encierros, etc.), iniciaremos la codificación en primer nivel buscando estas categorías. Veamos un
pequeño ejemplo (observe cómo se describen todas las características importantes en la transcripción de una entrevista
que fue grabada en MP3)
Tema investigado: tipos de violencia que ejercen los hombres que abusan de sus parejas.
Método de recolección de los datos: Entrevistas en profundidad.
Contexto: Entrevista con una joven de 27 años, tres años en pareja, clase media, que vive en un barrio de Resistencia
Chaco.
Esto lo que grave de la mujer:
1. Carla: Mi esposo me ha pegado varias veces (¡ufff!). (Pausa)
2. No sé cómo decirlo... Me pega cachetazos, y a veces trompadas.
3. La última vez me gritó: “Sos una basura”. También me ha
4. dicho que soy atorranta, hija de perra. Siempre me insulta. Y la
5. verdad es que yo no hago nada malo. Nunca (pausa).
6. Me mira con bronca. Me amenaza con los ojos, y amaga a pegarme.
7. A veces le contesto y le pego también.
8. El otro día le tiré con un cenicero....
El proceso de generar o detectar categorías de análisis se realiza sobre la base de la comparación constante entre
párrafos o líneas. En el ejemplo podemos diferenciar: la primera línea caería en la categoría “violencia física”; la segunda
también en “violencia física”; y la tercera y cuarta en “violencia verbal”. La sexta, “violenciapsicológica”.
En esta transcripción observamos tres tipos de violencia. No debemos olvidarnos de tomar notas en el diario de
análisis, sobre las características de las unidades que las hacen similares o diferentes. En algunas ocasiones, las unidades
de análisis o significado no pueden ser ubicadas de manera clara en las categorías desarrolladas o descubiertas durante
la revisión del material. Entonces se acostumbra crear la categoría “otras”. Estas unidades son colocadas en dicha
categoría, junto con otras difíciles de clasificar. Cuando nos encontramos que la categoría “otras” incluye demasiadas
unidades de significado, resulta recomendable volver a revisar el proceso, y asegurarnos de que nuestro esquema de
categorías y las reglas establecidas para clasificar sean claras y nos permitan discernir entre categorías. La categoría
“otras” no puede ser mayor de 10%respecto del total el material analizado.
También es posible generar un sistema de categorías de múltiples dimensiones y que las unidades puedan ser
ubicadas en varias categorías (una por dimensión).

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Por ejemplo, en el caso tratado del abuso de los maridos sobre sus esposas, ubicar las unidades en la dimensión “tipo
de violencia” y, asimismo, en la dimensión “rol del esposo”.
Entonces, supongamos la línea:
Carla: “Me dijo que era una estúpida y que él manda en esta casa”, puede clasificarse como “violencia verbal”
(categoría de la dimensión tipo de violencia) y como “autocrático o impositivo” (categoría rol del esposo en la relación).
Con frecuencia, las líneas o párrafos analizados pueden caer en dos o más categorías de una misma dimensión. Frases
como:
Carla: “Me empujó, me dijo que estaba loca y me encerró en el baño” puede categorizarse como “violencia física” (me
empujó), “violencia verbal” (me dijo que estaba loca) y “violencia psicológica” (me encerró en el baño).
En este caso se consignarán los tres códigos en el margen de la hoja, al lado de la línea.
Debemos recordar que en el análisis cualitativo hay que reflejar lo que nos dicen las personas estudiadas en sus
“propias palabras”.
Es muy importante obtener evidencia acerca de la confiabilidad y validez del proceso de codificación. Esto puede
hacerse proporcionando el material y el esquema de categorías a otros investigadores. Si notamos serias diferencias
entre la codificación hecha por distintas personas, es momento de volver a revisar el esquema de categorías, las reglas y
los resultados.
3. Análisis y descripción de cada categoría de análisis: La tarea esencial aquí consiste en identificar diferencias y
similitudes en las distintas respuestas, dentro de unamisma categoría. Una vez más, utilizamos la comparación, sólo
que aquí comparamos categorías. En este punto de análisis, la meta es localizar los patrones que aparecen
repetidamente dentro de cada categoría de análisis detectada en la codificación, parapoder describirla con
minuciosidad. En esta etapa entonces volvemos a leer el material, y comenzaremos a redactar
a) las descripciones de cada categoría para ubicarla en el fenómeno que estudiamos (por ejemplo, la “violencia física”
por parte del esposo, ¿cómo es?, ¿en qué circunstancias se manifiesta?, etc.), y
b) la frecuencia con la cual aparece cada categoría en los materiales analizados (en cierto sentido cuantitativo,
debemos describir cuanto duran los episodios, cuantas veces por día o semana aparecen, etc.)
4. Interpretar las categorías de análisis:En la etapa anterior hemos descripto las características de las categorías de
análisis encontradas. En esta etapa intentaremos interpretar cuales son los factores que hacen que se den de la forma
descripta, e interpretarlos en la óptica de los propios actores investigados. Para ello nos concentraremos en describir
a) los significadosde cada categoría. Ello quiere decir analizar el significado de la categoría para los sujetos. ¿Qué
significado tiene la “violencia física” para cada esposa que la padece? ¿Le parece normal ser golpeada? ¿Cree que lo
merece? ¿Qué significado tiene cada palabra que escuchan de los labios de su cónyuge? ¿Le parece que es el lenguaje
apropiado?, etc.
b) las relaciones entre categorías. Encontrar vinculaciones, nexos y asociaciones entre categorías. Algunas relaciones
comunes entre categorías son:
De asociación: cuando una categoría casi siempre aparece con otra.
Por ejemplo, A→VF (cuando hay Violencia Física del esposo hacia su pareja y ha existido una ingesta previa de
Alcohol). En este caso pueden establecerse correlaciones.
Causales: cuando una categoría es la causa de otra, siempre la precede. No aparece una categoría si no aparece
primero la otra.
Por ejemplo, TVF →MNCE (las Mujeres que No Contactan a sus Esposos después de que se han separado, como
consecuencia del Temor a la Violencia Física).
De conjunto-subconjunto: cuando una categoría está contenida dentro de otra.
Por ejemplo, un chantaje puede darse de distintas formas: CHE: Chantaje del Esposo (conjunto) NAE: Negativa de
Apoyo Económico del esposo (subconjunto de CHE) NTN Negativa a Tener a los Niños (subconjunto de CHE) Para
ayudarnos a establecer relaciones entre categorías, podemos dibujar diagramas causales. Son una especie de mapa
conceptual de los datos clasificados y codificados. Estos esquemas se producen sobre la base de la codificación y, sobre
todo, de la reflexión y los juicios del investigador. Por ello, resulta fundamental la profundidad con la que se codifique,
revise y evalúe el material para llevar a cabo un análisis completo y exhaustivo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

5. Describir contexto(s), eventos, situaciones y sujetos de estudio:Una vez que hemos descripto las categorías de
análisis, así como su frecuencia, y hemos analizado su significado y relaciones, ayudándonos de esquemas gráficos,
debemos describir el contexto en el cual se desarrolló nuestra investigación.
Por ejemplo, la violencia de los esposos sobre sus mujeres tiene lugar en un barrio de clase media del gran Bs. As. El
papel de los hombres es… Los matrimonios sedan por noviazgos… Los consumos de alcohol son… Las mujeres
generalmente notrabajan y… Aquí, sólo damos unas pautas, pero las descripciones del contexto deben ser completas y
profundas. También habrá que describir a los sujetos del estudio, los actores del contexto. Cómo viven, cuál es su
ideología, sus costumbres, sus creencias (estado civil, edad, ocupación, ingresos, etcétera).
6. Integración de la información y vinculación con el marco teórico:La calidad del análisis cualitativo depende del
grado en que profundicemos los aspectos anteriores, y los vinculemos con las teorías encontradas. En este punto,
mediante una integracióndel conocimiento obtenido de los materiales analizados (las descripciones decategorías y
contexto, las relaciones encontradas entre ellos, los actores y la revisiónde notas, apuntes, bitácoras, etc.) debemos
comenzar generar hipótesis (si no lohabíamos hecho) y/o probarlas (si las habíamos formulado con
anterioridad),formular nuevas preguntas de investigación y a vincular nuestras conclusiones con lateoría expuesta en
el marco teórico. En este sentido, las teorías son explicaciones de lo que hemos vivido, observado, analizado y evaluado
en profundidad. La teoría la obtenemos no de aplicar técnicas estadísticas, sino sobre la base de profundizar
experiencias. Nuevamente, debemos comparar los contenidos de las teorías que orientaron nuestro trabajo en el inicio,
con los resultados que hemos obtenido al analizar la información recolectada en nuestra investigación. Las conclusiones
que vayamos obteniendo en esta comparación, se deben ir redactando para dejar constancia de ellas, y evidencia de la
asociación de nuestro trabajo con las teorías preexistentes.
7. Asegurar la confiabilidad y validez de los resultados:A diferencia del análisis cuantitativo, en el análisis cualitativo
no se utilizan coeficientes ni pruebas matemáticas. Más bien, habrá que efectuar una valoración del proceso de análisis.
En primer término debemos evaluar si obtuvimos suficiente información de acuerdo con nuestro planteamiento del
problema. Es decir, si en la recolección de los datos (entrevistas, sesiones, documentos, biografías, etcétera)
profundizamos hasta donde era posible. En segundo lugar, es recomendable llevar a cabo un ejercicio de
triangulacióndel análisis.
Ello implica que otros(as) investigadores(as) evalúen nuestro trabajo, y utilicen nuestras reglas para ver si tomarían las
mismas decisiones (o similares) respecto de las unidades, las categorías y los temas de análisis. Esto significa que las
categorías principales los patrones generales, los temas y las conclusiones más importantes deben coincidir en lo
fundamental.
Un tercer elemento para asegurar la confiabilidad y validez de los resultados (que no siempre es posible aplicar),
consiste en obtener retroalimentación directa de los sujetos de la investigación (al menos algunos de ellos), lo cual
significa pedirles que confirmen o refuten nuestras interpretaciones y ver si capturamos los significados que ellos
trataban de transmitir, así como si nuestras descripciones fueron lo suficientemente completas y profundas.
8. Retroalimentar, corregir y regresar al campo. Como resultado de la retroalimentación (que también puede
ampliarse consultando a otros colegas), detectaremos deficiencias, errores, falta de datos, etcétera; ello implica desde
realizar más entrevistas, sesiones, estudios de caso u observaciones hasta la necesidad de recabar más materiales,
recodificar, agregar nuevos esquemas o elaborar otros análisis.
En todo el proceso de análisis debemos tener en mente el planteamientooriginal del problema de investigación, con
la finalidad de que no se nos olvideencontrar las respuestas a las preguntas de investigación que planteamos en
elproblema.
Es decir, el diseño y análisis de la información deben ser coherentes con el problema de investigación, y deben
conducirnos a responder las preguntas de investigación, para cumplir así nuestro objetivo. Dicho planteamiento puede
sufrir cambios o ajustes conforme avanza la investigación, pero si esto sucede, habrán de justificarse.
(APUNTE ALDANA) COMPENDIO.
Estrategias de análisis de datos cualitativos en investigaciones jurídicas.
El análisis de datos es una de las actividades principales en la investigación cualitativa tanto por su importancia en el
desarrollo del estudio como por la relevancia que posee como actividad concreta ya que se realiza a lo largo de todo el

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

proceso. No es una etapa precisa y temporalmente delimitada en una fase concreta de la investigación. Antes bien,
opera por ciclos que tienen lugar a lo largo de todo el proceso de investigación.
El análisis de datos de materiales cualitativos suele ser problemático por varias razones.
I. Primero, que no existen procedimientos estandarizados que puedan aplicarse del mismo modo a cualquier tipo
de datos.
II. Segundo, que en el trabajo de campo se recopila información de naturaleza tan disímil que el investigador debe
utilizar múltiples técnicas de análisis.
III. Tercero, que el investigador puede volver a los mismos datos, en diferentes momentos de la investigación y
extraer de ellos indicios referidos a distintas propiedades.
IV. Cuarto, muchas veces se termina cuantificando la información cualitativa, desvirtuando la lógica subyacente y
empobreciendo las finalidades del análisis.
V. Quinto, que se trata de captar procesos sociales, interacciones portadoras de significados, en otras palabras, se
pretende reconstruir teóricamente un objeto en constante dinamismo y que va modificándose permanentemente.
Las alternativas de solución no son muchas y las disponibles están estrechamente vinculadas al mantenimiento de una
actitud equilibrada y reflexiva del investigador. La más importante es, quizás, la de no perder de vista que la finalidad del
análisis cualitativo es obtener una comprensión holística, integral y compleja de las situaciones sociales, para lo que
describen las cualidades y propiedades que caracterizan el objeto. El análisis de los datos antes que un procedimiento
mecánico, se presenta como un movimiento intelectual permanente del investigador. En esta tarea se reintegran las
cuestiones epistemológicas, lógicas, procedimentales, con la materialidad discursiva referida a las situaciones
observadas.
Por ello, el análisis cualitativo supone la confluencia y convergencia de tres actividades intelectuales: realización de
procesos de generación teórica, de procesos de expansión y contrastación de hipótesis y/o teorías y procedimientos
analíticos manipulativos.
La primer actividad intelectual nos conduce a la intencionalidad teórica de las metodologías cualitativas, orientadas a
generar teorías sustantivas. Recordemos que esas teorías son formuladas a partir de los datos, mediante el uso de
procedimientos de inducción analítica.
La segunda actividad, íntimamente relacionada a la anterior, remite al uso del método de comparación constante
como el procedimiento metodológico que posibilita la contrastación y la expansión de los postulados;
La tercera actividad, se relaciona con los procedimientos manipulativos por medio de los cuáles se asigna cierto orden
a la voluminosa e informe masa de datos que se obtienen cotidianamente en el trabajo de campo.
La codificación de los datos.
a) Codificación de la información.
El hecho de que el producto del trabajo del investigador se plasma en materiales discursivos. El investigador genera
textos acerca de los otros y de sí mismo en relación a los otros, y acerca de todos situados en un determinado contexto.
El análisis de datos supone, entonces, poder encontrar las tramas de sentido que sostienen esos textos. Para ello, debe
realizar una serie de operaciones manipulativas.
Desde esta perspectiva, el sentido del análisis de datos es reducir, categorizar, clarificar, sintetizar y comparar la
información con el fin del obtener una información lo más completa posible del fenómeno observado.
En la bibliografía aparecen distintas posiciones respecto a las características que debe tener el análisis e interpretación
de datos en la investigación cualitativa. Así, entre los etnógrafos hay una corriente que postula que el investigador en su
descripción solamente tiene que ordenar en su narración lo que le han informado los sujetos que interrogó u observó,
sin realizar ninguna interpretación. Otros, sostienen que además de la narración descriptiva el etnógrafo debe
desarrollar interpretaciones y explicaciones a partir de los materiales. Otra discusión se refiere a la necesidad de reducir
el material discursivo y narrativo a códigos numéricos. Es decir, si se mantiene la estructura de la información o se la
convierte en tablas numéricas, a partir de recuentos de frecuencias, uso de porcentajes, etc.
Amparados en la característica de flexibilidad de los diseños cualitativos, la mayoría de los investigadores utiliza ambas
formas de reducción, aunque insistimos que desde este enfoque se debe mantener la primacía de la comprensión de las
cualidades.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Miles y Huberman (1984) consideran que el análisis consiste en cuatro tipos de actividades concurrentes: la reducción
de datos, la presentación de datos, la elaboración de conclusiones y la verificación.
Generalmente, para facilitar el trabajo manual que suponen las etapas siguientes, el investigador debe preparar el
material. La recomendación en tal sentido es que se seccione el texto por oraciones.
La reducción de datos implica seleccionar, focalizar, abstraer y transformar los datos brutos de forma que puedan ir
estableciéndose hipótesis de trabajo. Para esta reducción se pueden utilizar distintas técnicas tales como códigos, la
reducción de memorandums, etc. (Colás, 1994:272). La base del proceso de reducción de datos es la codificación. Es
decirse le asigna un código que identifica una unidad de significado relevante para nuestra investigación a cada frase o
párrafo. Se denomina código a una abreviatura o símbolo que se aplica a una frase o párrafo de la transcripción de una
entrevista o del diario de campo. Estos códigos permiten clasificar el tipo de información que contiene el texto según
diferentes intenciones analíticas.
Se pueden identificar distintos tipos de códigos, tales como:
 Códigos descriptivos: llamados así porque describen el contenido de la oración analizada. Los códigos descriptivos
serían una especie de etiquetas que el investigador va asignando a cada frase según el tema principal a que se refiera.
De esta primera aproximación se obtiene una visión general acerca de cuáles son los temas principales que aparecen en
el texto. Cabe señalar que el esquema de codificación se va construyendo a medida que se va recolectando la
investigación. El investigador puede tener un esquema conceptual previo, con unos pocos códigos, y a medida que va
incorporando información va modificando el esquema, agregando códigos, refinando otros.
 Códigos explicativos o interpretativos: estos surgen luego de que se haya etiquetado todo el material discursivo. El
investigador puede encontrar recurrencias en la información, o esta podría agruparse pues parece que ciertos códigos
distintos responden a la misma categoría o están relacionadas con una misma propiedad de la situación. Este tipo de
códigos supone que se puedan establecer ciertas relaciones entre códigos o entre tipos de códigos.
 Códigos patrón: designan patrones explicativos de las relaciones entre los eventos o acontecimientos y poseen un
cariz inferencial y explicativo. Este tipo de códigos está estrechamente relacionado con la construcción de un modelo
comprensivo y la formulación de conceptos teóricos de mayor nivel de abstracción. Generalmente en la tarea de
codificación predomina el uso del primer tipo de códigos. La codificación es, entonces, el procedimiento por medio del
cual los datos segmentados son categorizados de acuerdo a un sistema organizado que se deriva de la lectura de los
datos. Si bien pueden utilizarse algunas categorías relacionadas con el marco conceptual inicial, la estructura del sistema
de categorías se va conformando a medida que se van analizando los datos.
Construcción de textos y diagramas conceptuales.
b. Exposición y presentación de los datos.
Esta actividad consiste en presentar la información en forma sistemática y que permita visualizar las relaciones más
importantes entre las categorías construidas anteriormente. Una vez codificada la información, el investigador continúa
trabajando la información para establecer categorías conceptuales más amplias, a partir de las cuales se elaboran
hipótesis descriptivas y explicativas.
En este momento el investigador trata de establecer algunas conexiones entre diferentes fenómenos, observa ciertas
regularidades, detecta patrones de interacción entre propiedades de una situación. En fin se trata de elaborar un
modelo más interactivo que de cuenta de la relación entre las categorías iniciales.
Las formas más habituales de organización y presentación que se utilizan son las matrices. Mediante éstas se ordena
en un plano con distintas coordenadas la información textual producida por cada caso.
Según el interés, la finalidad del estudio o el momento en el cuál se las utilice, las matrices pueden adoptar un orden
temático, un orden temporal, o ambos simultáneamente. A su vez las matrices pueden ser descriptivas -propias de los
primeros momentos de la investigación- o explicativas. Estas últimas aportan explicaciones, razones y causas del
fenómeno observado, se usan en la fase posterior del análisis, y en ellas se vinculan determinados procesos con ciertos
efectos, productos o resultados.
También se utilizan las "redes" que se configuran en torno a enlaces de categorías que se unen entre sí. Las redes son
muy útiles para describir datos y facilitar la clasificación y comunicación del tema analizado. Expresan una ordenación de
las categorías a diferentes niveles de complejidad y facilitan la comparación entre sujetos en base a una estructura
comparativa común.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Otra forma de representación gráfica son los mapas conceptuales. Estos representan conceptos que las personas
tienen sobre sí mismas o sobre lo que hacen. El mapa conceptual permite mostrar diferentes relaciones y articulaciones
entre las propiedades de una situación.
 Elaboración de conclusiones.
En esta etapa de elaboración de conclusiones, el aspecto manipulativo de los datos y las tareas de reducción se limitan
considerablemente.
El investigador tiene que aguzar su ingenio interpretativo y argumental para poder elaborar una narración coherente
que contenga los matices, las articulaciones, las relaciones causales, las influencias recíprocas entre determinadas
situaciones o aspectos personales.
El modelo procedimental más característico es el que sugieren Glaser y Straus, en su propuesta de generar teoría a
partir de los datos, y que puede hemos tratado con anterioridad. Un modo típico de avanzar en la producción de
explicaciones es mediante la elaboración de tipologías. Es decir se identifican tipologías de respuestas, de situaciones o
de prácticas. Como resultado de este proceso el investigador obtendrá una teoría sustantiva provisoria del fenómeno. La
formulación de una teoría supone que se supere la mera descripción de la situación observada. Es necesario que se
integre el modelo teórico elaborado en un marco más amplio, para ello debe tratar de esforzarse por insertar aspectos
particulares en categorías más amplias y abarcativas y establecer claramente cuáles son las propiedades que
caracterizan el fenómeno, cuáles son los factores que lo condicionan y de qué modo las interacciones sociales, las
prácticas y los lenguajes de los sujetos contribuyen a modificarlo, a conservarlo o a darle nuevos significados.
Tabla resumen de las finalidades, objetivos y procedimientos en el análisis de datos cualitativos
FINALIDAD OBJETIVO PROCEDIMIENTO
Analisis exploratorio del material Codificar Reducción de datos. Desarrollo de
códigos.
Descripción Desarrollar categorías Matrices, redes, mapas
conceptuales.
Interpretación Elaborar hipótesis y categorías Técnicas de generación de teoría.
Teorización. Formular una teoría sustantiva Formulación de una teoría
sustantiva. Muestreo .
d. Verificación del modelo teórico
En este momento se trata de verificar el modelo teórico, analizar las inconsistencias, examinar los casos críticos,
intentar resolver las lagunas que el modelo pudiera tener. Los procedimientos que se utilizan son variados, aunque
destacan el método de comparación constante y el muestreo teórico, ya que mediante ellos se pueden contrastar los
postulados teóricos con nuevos casos.
En cuanto a las formas de producción de los materiales de análisis, se puede señalar la conveniencia de elaborar
memorandums. Sobre la base de los memorandums el investigador intentará elaborar generalizaciones. Debe
recordarse aquí que en los procedimientos que se describen hay una serie de criterios metodológicos que deben
observarse para asegurar la validez y confiabilidad.
En primer lugar, dado que en la investigación cualitativa se persigue captar las diferencias y no la homogeneidad de
una situación, el método de comparación constante es un procedimiento que garantiza información divergente.
En cuanto a la recolección y análisis, debemos guiarnos por el criterio de la saturación de la información en la variable.
Según este, cuando comenzamos a encontrar siempre la misma información en un aspecto o atributo del fenómeno
debe detenerse la búsqueda de datos y su análisis ya que mayor volumen de información no aporta nuevas categorías
de análisis. Como en todo el proceso de investigación cualitativa, la triangulación - particularmente la de investigadores
y de fuentes- constituyen estrategias cruciales en el análisis e interpretación de datos.
El trabajo con los datos es exhaustivo y se combina en diferentes niveles y con diferentes tipos de datos. El análisis se
hace extensivo hasta que. los nuevos datos no aportan o regeneran nuevos desarrollos teóricos. La manipulación de los
datos durante el análisis es ecléctica y eminentemente dialéctica. Por ello no existe un único camino correcto para
acceder al análisis e interpretación de información. El investigador debe explorar cuál es la vía más apropiada y sobre
todo, cuál es la más fructífera para acceder al conocimiento de su objeto de estudio. En definitiva, como lo reconocen

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

los metodólogos, la única garantía del investigador es lo que llaman su "sensibilidad teórica", es decir su capacidad para
descubrir relaciones, contradicciones, complejidades allí donde otros apenas ven información.
La búsqueda de casos negativos.
INDUCCIÓN ANALÍTICA . La inducción analítica es un procedimiento para verificar teorías y proposiciones basadas en
datos cualitativos.
Objeto de estudio. Verificar teorías, proposiciones.
Métodos de recogida de datos. Búsqueda activa de casos negativos que refuten la teoría o la proposición. Hay que
buscar informantes y escenarios que puedan proporcionar de forma inductiva los datos para refutar las teorías o
proposiciones o, en su caso, verificarlas.
Desarrollo conceptual abreviado. La inducción analítica es un procedimiento para verificar teorías y proposiciones
basado en datos cualitativos. Los pasos que incluye la inducción analítica son simples y directos:
1.Desarrollar una definición aproximada del fenómeno a explicar (tomada de la literatura o de otras investigaciones, de
la teoría o del conocimiento aceptado).
2.Formular una hipótesis para explicar dicho fenómeno (conforme a las fuentes citadas en el apartado anterior).
3.Estudiar un caso para ver si la hipótesis se ajusta.
4.Si la hipótesis no explica el caso, reformularla o redefinir el fenómeno.
5.Buscar activamente casos negativos que refuten el fenómeno.
6.Cuando se encuentren, reformular la hipótesis o redefinir el fenómeno.
7.Continuar hasta que se ha puesto a prueba adecuadamente la hipótesis examinado una amplia gama de casos.
La lógica básica subyacente en este método es útil en el análisis de datos cualitativos por tanto dirige la atención hacia
casos negativos. La inducción analítica obliga al investigador a refinar y matizar las teorías y proposiciones.
La Inducción Analítica es la mejor estrategia para combatir la «ilusión de transparencia» del analista, esa opción de
facilidad que hacíamos referencia al principio que a veces hace avanzar explicaciones que si no encuentran resistencia
son tomadas por su autor como válidas y definitivas. Este método, que fue formulado por Znaniecki en 1934 y refinado
posteriormente por otros autores, nos propone un ejercicio dialéctico para probar teorías mediante análisis cualitativo.
La prueba a la que se van a someter la hipótesis o las proposiciones teóricas se basa en una sistemática en la que tiene
especial importancia la búsqueda activa de casos negativos: se define el fenómeno a explicar, se formula una hipótesis,
se estudian tantos casos como sean necesarios para redefinir el fenómeno, se buscan casos negativos que refuten la
hipótesis y se reformula una y otra vez hasta que se establece una relación universal consistente. A diferencia de la
teoría fundamentada, la inducción analítica «busca » datos para probar una teoría ya existente y los utiliza para
generalizar sus resultados.
La teoría fundamentada: comparación constante, niveles de codificación y conceptualización orientada a la
construcción de teoría.
Teoría fundamentada. (Desgrabado de clases)
La teoría fundamentada permite la constitución o construcción de teorías, conceptos, partiendo directamente de los
datos de la realidad. ¿Cómo? Mediante la inducción: de ciertos datos de la realidad que se obtienen, se va construyendo
inductivamente teorías explicativas del fenómeno que vamos a estar indagando. Si este proceso se lleva a cabo
adecuadamente, al final del mismo, la teoría construida tiene que encuadrar con la realidad. Nace exclusivamente del
dato, de la realidad empírica, no hay influencia teórica, puesto que, si no nace estrictamente del dato objetivo, no es
teoría fundada.
¿Cuáles son las estrategias para esta técnica?
1)- Método comparativo: Consiste en la 1era fase de la teoría fundamentada.
En esta fase se analizan los datos de la realidad que tenemos, se los clasifica y sub-clasifica. Se exploran y evalúan las
diferencias que hay entre ciertos datos, como asi también las similitudes y posteriormente se categorizan y clasifican los
datos de la realidad empírica.
A medida que los datos son analizados, se identifican las similitudes y diferencias entre unos y otros. Allí comienzan a
esbozarse ciertos conceptos teóricos. En síntesis, fuimos a la realidad, obtuvimos datos, los evaluamos, clasificamos,
comparamos y organizamos por categorías y sub-categorías.
Una vez que tengamos los datos estructurados, comenzaremos a elaborar los conceptos o teorías.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La teoría fundamentada requiere que no existan pre-conceptos sobre el tema, ideas preconcebidas teóricas. ¿Por qué?
Justamente porque lo que buscamos es que las teorías hipótesis estén concebidas directamente estrictamente desde los
datos. Por eso decimos que se sugiere al momento de llevar adelante la investigación mediante estas técnicas que no
haya un conocimiento profundo teórico del tema, si lo suficiente para poder individualizar el problema de investigación
y si lo suficiente para saber e identificar índices, indicadores a donde podría buscar el dato en la realidad, lo suficiente
para poder llevar adelante una investigación, pero requiere no tener un conocimiento profundo, ¿Por qué? Porque por
mas que no se quiera inconscientemente estos conocimientos pueden influir en la constitución o elaboración de mi
teoría, entonces no va a ser estrictamente construida en base a los datos de la realidad. Por eso buscamos que no exista
en lo posible preconceptos e ideas preconcebidas antes de llevar a cabo una investigación mediante estas técnicas.
Mediante este tipo de técnicas, se percibe la generación de teorías, teorías formales, aportes a la ciencia, etc. Se parte
únicamente de los hechos para construir teoría: Hecho de la realidad = teoría. Ejemplo: investigación real, paper / un
artículo científico en el que el investigador expone o publicar avances de su investigación o conclusiones.
El dato no parte de la teoría sino de la realidad, y de ahí se van formando las hipótesis, conceptos, teorías, y el nombre.
Acá no hay conocimiento previo.
2)- Segunda etapa/fase dentro de lo que es la teoría fundada:
Consiste en ir relacionando los datos y agruparlos dentro de las categorías a las que corresponden (los datos dentro de
un mismo informante clave, y los datos entre los distintos informantes claves). Lo que se hace es tomar nuevamente el
dato, los distintos instrumentos, como por ej los formularios de entrevista, y volcar los datos en un cuadro donde se va a
codificar toda la información o dato relativo a las mismas categorías y sub-categorías
3)- Etapa/codificación selectiva:
Luego de estas dos etapas, una vez obtenido el dato, clasificados y sub-clasificados la toalidad de los datos de los
informantes claves, se van formando las conclusiones y se empiezan a sacar conclusiones, es decir, contenidos teóricos.
Se van a ir sacando conclusiones de las distintas sub categorías, y dependiendo de las subcategorías, voy a tener las
distintas conclusiones para cada una. Después se van a tener que converger las distintas conclusiones en una sola que es
la conclusión de la categoría. Hay que teorizar, primero mediante conclusiones por parte (sub-categorías) después de
obtener las distintas conclusiones, las voy a reunir en una sola conclusión, que va a hacer la conclusión de esa categoría.
Lo mismo se debe hacer con las distintas categorías que se tengan en la investigación.
Este proceso en el cual voy a empezar a elaborar conclusiones y conceptos teóricos, es la 3era etapa que se denomina
codificación selectiva. Reconstrucción teórica de la relación entre las categorías encontradas por el investigador en el
transcurso del proceso investigativo. Conclusión de cada categoría, que deviene de la sumatoria de cada sub-categoría. Y
de esas tres conclusiones generales voy a obtener una teoría general vinculada a ese tema de investigación. Obtener un
nombre del fenómeno estudiado/objeto.

(Apunte Guillermo). Permite construir teorías, hipótesis y conceptos, partiendo directamente de los datos y no de los
marcos teóricos existentes o investigaciones anteriores.
Hay un análisis recursivo de datos:
a. Se establece una mirada, ordenamiento de datos, reordenación de datos.
b. Hay una nueva mirada, un reordenamiento y una reelaboración.
Esta teoría fundamentada “trata de establecer significados simbólicos de los materiales, conductas e interacciones de
los sujetos”.
Interpreta significados subjetivos que tienen los gestos y palabras para los grupos sociales y como estos interactúan
entre ellos. Reconstrucción de acontecimientos, experiencias que los participantes interpretan como su realidad social.
Hay 3 premisas:
I. Que los seres humanos actúan con respecto a las cosas de acuerdo a los significados que estas tienen para ellos.
II. El significado de estas cosas se deriva, o surge, de la interacción social que tiene con los propios compañeros.
III. Estos significados se manejan en un proceso interpretativo utilizado por la persona al hacer frente a los casos
que encuentra y este proceso lo modifica.
Permite la construcción de teorías partiendo de los datos mediante la inducción. Genera una teoría explicativa de un
fenómeno estudiado. Tiene que nacer del dato, de la realidad, no hay hipótesis previa.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Pasos: 1) Recolección de datos; 2) Codificación y clasificación de datos; 3) Teoría; 4) Hipótesis; 5) Análisis; 6) Discusión y
conclusión; 7) Resultado
Tiene por estrategias principales al método comparativo constante, muestreo teórico, preguntas y el análisis. El análisis
recursivo implica que, a mayor observación de los fenómenos, mayor será la interpretación de los datos mismos, no
debo quedarme con la primera mirada del fenómeno.
En cuanto a las fuentes de información: se sitúan las entrevistas, observaciones, documentos de todo tipo y
grabaciones audiovisuales.
La crítica realizada a este método es que al analizar narraciones se atenta contra la compresión holística del discurso,
es necesario analizar las partes como componentes de un todo relacionado.
El concepto de muestreo teórico. Implica procesos progresivos y secuenciales de ampliación o reducción de la muestra
según las categorías teóricas que van emergiendo en el camino de la obtención y análisis de la información. El cierre se
hace por saturación.
Calidad y validez. (unidad 5) La fiabilidad se garantiza por la estandarización de las respuestas y la claridad en la
formulación de las preguntas. La validez se obtiene con la elección de indicadores aptos para los conceptos que se
quieren medir.
Elaboración de informes.
El informe de investigación. La argumentación como base para la elaboración de informes de investigación.
La estructura de una argumentación es una guía importante para la escritura de un informe de investigación. La
estructura de la argumentación según Booth y otros (2004) puede esquematizarse de la siguiente manera:
Cualquier argumentación se compone de estos cuatro elementos. Las flechas no indican secuencias necesarias
sino relaciones lógicas. Se puede iniciar una argumentación con una afirmación o concluir con ella, se pueden rebatir las
objeciones al comienzo de un argumento o al final, las justificaciones pueden iniciar un argumento, presentarse luego de
la afirmación o al final, lo mismo sucede con los condicionamientos.
Las respuestas a los interrogantes planteados constituyen el eje estructurante de la argumentación. Según Booth y
otros (2004) las respuestas deben ofrecer:
• Evidencia o fundamentos que la sustentan.
• Una justificación, un principio general que implica porque la evidencia es pertinente a la afirmación.
• Las condiciones que hacen que la afirmación y la evidencia sean más precisas
La justificación de una argumentación es un principio general o un supuesto que vincula la afirmación con la
evidencia de base, conectándolas en un par lógicamente relacionado. La justificación no responde preguntas sobre si la
evidencia es correcta, sino sobre si es pertinente para la afirmación.
Para explicar por qué los datos son pertinentes, hay que mostrar por qué los datos pueden considerarse como
una evidencia que sustenta una afirmación. La justificación es un principio general que crea un puente lógico entre una
evidencia y una afirmación. Las justificaciones, por lo general, se encuentran en las teorías que orientan la investigación
y en las definiciones de los términos teóricos empleados.
Cuando se expresa una justificación hay que formularla como una generalización que responde a la siguiente
pregunta: ¿Qué principio general considero creíble antes de aceptar la evidencia supuesta acerca de X?
Las justificaciones pueden formularse de muchas maneras, una de ellas es: cuando tenemos una evidencia como
X, podemos hacer una afirmación como Y.
Formular las justificaciones es un ejercicio útil para poner a prueba la base conceptual de los argumentos.
Pensar las justificaciones ayuda a encontrar puntos no fiables de los argumentos.
Aunque los investigadores articulan las justificaciones de diversas maneras, lo más útil para poder examinarlas
es descomponer la justificación en dos partes: una que expresa el tipo general de evidencia que la justificación admite y
la otra que expresa la afirmación. Una vez que se ha formulado la justificación en la forma “evidencia, entonces
afirmación”, se puede confirmar las mismas formulando versiones más amplias y más concisas.
Cuando formulamos una justificación demasiado restringida puede resultar que la justificación sea virtualmente
la misma que la evidencia ofrecida para sustentar la afirmación, entonces, se puede juzgar que el argumento da por
sentado lo mismo que se intenta probar.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Cada comunidad de investigación posee sus propias justificaciones. Hay casos, donde la justificación puede ser
rechazada porque es inapropiada para las prácticas de investigación de una determinada disciplina, por ejemplo, un
investigador que analiza un poema, podría argumentar la justificación de su evidencia diciendo “ Los sonidos de la
primera estrofa refuerzan la idea de un bosque tranquilo y reconfortante porque la mayoría de las vocales son bajas y
las mayoría de las consonantes son suaves y sonoras”, su justificación tácita es “ cuando escuchamos sonidos suaves, los
asociamos con imágenes suaves”, pero no sería una justificación aceptable para un historiador decir “ la narrativa
histórica es como la literaria, porque sus personajes son también producto de la ficción”.
Por último hay que preguntarse ¿cómo una justificación conecta válidamente cierta evidencia con una
afirmación? Lo que da cuenta de buenas investigaciones no son sólo la verdad de las conclusiones, sino la calidad del
razonamiento que llevó a ellas.
Por otro lado, es importante tener presente las posibles objeciones que otros investigadores pueden realizar a
nuestros argumentos. En éste sentido es elemental establecer los condicionantes de nuestras afirmaciones, es decir,
establecer los alcances y límites que tienen nuestras afirmaciones y la evidencia que las sustentan.
Hay cuatro modos de condicionar o limitar el alcance de las afirmaciones en la argumentación:
• Refutar objeciones equivocadas a la evidencia o justificación
• Conceder las objeciones que no se pueden rebatir.
• Estipular restricciones que condicionan la evidencia o limitan la aplicación de la justificación
• Estipular el alcance de la evidencia, justificación y afirmación
Existen cuatros tipos de objeciones que correspondería buscar deliberadamente:
 Plantear objeciones y alternativas a las afirmaciones que durante el curso de la investigación se consideraron,
pero se rechazaron.
 Anticipar las objeciones que se sabe que los lectores pueden plantear.
 Anticipar las alternativas que pueden ocurrírseles a los lectores.
 Anticipar las objeciones que podrían ocurrírseles a los lectores mientras leen.
Se pueden realizar objeciones sobre la base de las siguientes razones:
 Se definió términos claves de manera incorrecta.
 Se generalizó excesivamente con poca evidencia.
 No se consideraron contra ejemplos o casos especiales
El punto central en todo informe de investigación es la afirmación principal o tesis general. Esta afirmación
conviene que sea significativa, discutible y explícita.
Se considera que una afirmación es significativa en la medida en que es discutible. Una afirmación es debatible, si es
capaz de modificar algo en lo que se cree o puede aportar una nueva perspectiva de análisis.
Además, en un informe de investigación se espera que las afirmaciones estén formuladas en un lenguaje lo
suficientemente detallado y específico para que puedan reconocerse en ella los conceptos centrales que se
desarrollarán a lo largo del trabajo. Cuando no se sabe que esperar, los conceptos más importantes podrían pasar
desapercibidos e incluso juzgar que lo que leen no está enfocado, o es incoherente.
La afirmación es el corazón del informe y tiene que dar cuenta de la evidencia que la sustenta. Si la evidencia es
débil, la afirmación es juzgada como imprecisa, insuficiente, no autorizada, poco representativa o poco clara.
La evidencia tiene que ser precisa, los criterios para determinar cuando una evidencia es precisa varían de una
disciplina a otra. Hay que evitar palabras como: algunos, la mayoría, muchos, casi, frecuentemente, finalmente,
generalmente, etc. Estos calificativos pueden determinar los límites apropiados de una afirmación, pero también pueden
evadirlos.
Así como diferentes disciplinas juzgan la precisión de la evidencia de modo diferente, también difieren en la
evaluación de su suficiencia. En algunas ciencias, los investigadores basan su afirmación en la evidencia de un solo
episodio o caso de investigación, en otras, se considera que un caso no es suficiente para sustentar una afirmación. De
todos modos, es recomendable que la evidencia se presente de forma tal que se de cuenta que puede haber más
evidencia disponible.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Con respecto representatividad de los datos, lo que se considera representativo varía también según la
disciplina. Sin embargo, un criterio común es considerar representativos los datos cuando su variedad refleja la
diversidad del conjunto del que fueron extraídos y acerca del cual se formula la afirmación.
En cuanto a las fuentes autorizadas, hay que tomar nota de las autoridades que los investigadores en su área
mencionan más frecuentemente, en que procedimientos confían y que tipos de registros mencionan regularmente.
Cuando se introducen citas de autoridad, hay que tener presente que ellas no hablan por sí mismas, deben ser
interpretadas y dar cuenta de la función que cumplen dentro del informe. Por lo tanto, hay que hacer evidente la
importancia de su utilización.
Por otra parte, un error común cuando se organiza el informe en torno a datos es basarse en las fuentes más de
lo que se debiera, en el sentido que puede resultar un informe que solo da cuenta de una organización y descripción de
datos.
Así, en una investigación bibliográfica hay que evitar construir un informe a partir de resúmenes y citas, cuando
esto sucede, el informe tiene la forma de un conjunto de citas de muchas fuentes que refleja que es muy poco el
pensamiento original del investigador. En una investigación de campo, el informe no puede contener simplemente
observaciones o reproducciones de citas de entrevistas, a lo largo del informe es importante que aparezcan los
principios o criterios de selección que se aplican a los datos. Esta selección permite organizar las observaciones de modo
tal que reflejen el análisis de lo que es relevante.
Si se organiza un informe en torno a preguntas que dan lugar a afirmaciones, se formula la afirmación o tesis
principal y se toman decisiones acerca de dónde se la mencionará: en la introducción o en la conclusión.
Así, lo primero que se necesita cuando se escribe el borrador de un informe es tener en cuenta la pregunta que
se formuló y una noción de su respuesta, algo que se pueda esquematizar con pocas palabras.
En algunos casos, es importante definir términos, repasar investigaciones previas, establecer justificaciones
importantes, fijar los límites de la investigación, ubicar el problema dentro de un contexto más amplio., etc.
Para planificar el cuerpo de la argumentación en un informe de investigación, el primer paso, es recordar que los
elementos del argumento pueden ser ordenados de distintas formas y que la información tiene que organizarse en un
orden que refleje las necesidades de lo que el investigador quiere demostrar.
Las posibilidades de organización son:
 Organizar de lo que ya se sabe a lo que se desconoce. Se puede responder a la pregunta: ¿qué es lo que en los
datos y los argumentos resulta mas familiar y que menos?
 De lo mas corto y simple a lo mas prolongado y complejo. La pregunta que nos orienta en éste sentido es: ¿qué
elementos de la argumentación los lectores comprenderán mas fácilmente y cuales con mayor dificultad?
 De lo menos a lo más discutible. Si la afirmación es polémica se pueden presentar varios argumentos que la
sustenten
Otro criterio de organización es establecer:
 Un orden cronológico
 Un orden lógico de la evidencia a la afirmación y viceversa.
 Concesiones y condiciones primero luego una objeción que se pueda rebatir y finalmente la propia evidencia
afirmativa, o viceversa
Un segundo paso, es realizar una revisión de la organización del informe y la estructura argumentativa del
mismo.
El proceso de analizar y revisar la organización del informe consiste básicamente en los siguientes pasos:
Identificar los puntos principales del informe, que oración puntual es la principal en la introducción y cual en
la conclusión. En la introducción hay que subrayar cual es la oración que más se aproxima a formular la afirmación
principal, por lo general esa oración tiene que ser la última de la introducción. Luego hacer lo mismo con la conclusión,
la oración principal será aquella que expresa la esencia de la solución del problema. Por último, hay que comparar la
idea puntual de la introducción con la de la conclusión, las mismas no deben contradecirse ni ser incompatibles.
Identificar en las secciones principales del cuerpo del informe las oraciones puntuales de cada acción. Dividir
el cuerpo del ensayo en las secciones principales. Localizar y resaltar los puntos principales de cada sección. La oración

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

puntual de cada sección debería ser la última de una breve introducción a la sección siguiente. Una vez que se resaltan
los puntos se habrá elaborado un esquema que tendrá la siguiente apariencia
 Oración puntual al final de la introducción
 Oración Sub puntual 1
 Oración Sub puntual 2
 Oración Sub puntual 3
 Oración puntual principal en las conclusiones
Identificar en la introducción del estudio los conceptos temáticos centrales y seguirlos a lo largo del estudio. El
próximo paso es determinar si los puntos y sub puntos identificados están conectados conceptualmente. Primero, hay
que determinar si los puntos están unidos por varios conceptos temáticos claves. Estos últimos son las palabras que
expresan los conceptos centrales que deberían aparecer en todo el informe o ensayo desde la introducción, el cuerpo y
la conclusión.
Revisar el argumento evaluando las evidencias, las restricciones y las justificaciones. Verificar los datos y citas,
la vinculación de los mismos con la tesis o afirmación principal, y asegurarse de no haber omitido pasos intermedios en
la argumentación.

2. ESTRATEGIAS DE ANÁLISIS DE DATOS CUANTITATIVOS EN INVESTIGACIONES JURÍDICAS. PROCESAMIENTO DE LOS


DATOS. CONSTRUCCIÓN DE LA BASE DE DATOS. LA ESTRUCTURA LÓGICA DE LA MATRIZ DE DATOS. DISTRIBUCIONES,
TABLAS Y GRAFICOS. TABULACIÓN Y CODIFICACIÓN.

(APUNTE MARIANA)
Procesamiento de los datos. Construcción de la base de datos
Iniciado con el planteamiento de un problema de investigación que implica responder a interrogantes situados en la
frontera de los conocimientos existentes, se habrá de recorrer luego un largo camino donde será preciso atender,
simultáneamente, a dos niveles diferentes: el teórico y el empírico.
Para el primero de ellos nuestro trabajo se resumirá en la construcción del llamado marco teórico que,
convenientemente llevado a la práctica u operacionalizado, nos indicará en definitiva qué datos es preciso obtener para
satisfacer las interrogantes iniciales. En cuanto al nivel empírico nuestra aproximación a la realidad quedará concretada
en un cierto tipo de diseño, implementado a través de las técnicas de recolección que nos permitirán obtener los datos
requeridos.
El instrumento de recolección de datos sintetizará ambos planos y será la herramienta concreta que nos proporcione la
información que necesitamos. Se abre, a partir de ese momento, la etapa propiamente dicha de la recolección de datos,
que puede tener mayor o menor complejidad y duración. En ella se aplicarán los instrumentos a los objetos de estudio,
lo que nos proporcionará las informaciones que necesitamos, se completarán las lecturas, se procederá a realizar
efectivamente los experimentos, encuestas o estudios que sea menester.
Finalizadas las tareas de recolección el investigador quedará en posesión de un cierto número de datos, a partir de los
cuales será posible sacar las conclusiones generales que apunten a esclarecer el problema formulado en los inicios del
trabajo. Pero esa masa de datos, por sí sola, no nos dirá en principio nada, no nos permitirá alcanzar ninguna conclusión
si, previamente, no ejercemos sobre ella una serie de actividades tendientes a organizarla, a poner orden en todo ese
multiforme conjunto. Estas acciones son las que integran el llamado procesamiento de los datos.
Lo primero que suele hacerse con el conjunto de los datos obtenidos es dividirlos de acuerdo a un criterio bien
elemental, separando de un lado la información que es de tipo numérica de la información que se expresa verbalmente
o mediante palabras. Los datos numéricos quedarán como tales, cualquiera sea su naturaleza, y se procesarán luego
para exponerlos en forma clara y fácilmente asimilable. El objetivo final será construir con ellos cuadros estadísticos,
promedios generales y gráficos ilustrativos, de tal modo que se sinteticen sus valores y se pueda extraer, a partir de su
análisis, enunciados teóricos de alcance más general. Los datos que se presentan de forma verbal podrán sufrir dos
destinos diferentes: se convertirán en datos numéricos o quedarán como información no cuantificada, cualitativa. Así, si
se ha realizado una serie de entrevistas profundizadas, de tipo no estructurado, pueden cuantificarse algunos de los
datos obtenidos el número de entrevistados por sexo y edad, la respuesta a alguna pregunta específica en tanto que

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

otras informaciones se mantendrán en su forma verbal, como paradigmas o ejemplos de las opiniones de la muestra
frente a ciertos problemas de interés.
El criterio a adoptar dependerá de circunstancias concretas: de los objetivos del trabajo, de la posibilidad de cuantificar
cada variable, del tamaño del universo o muestra considerados y de varios otros criterios. En todo caso se debe tener
presente que, siempre que tenga sentido, es preferible cuantificar en lo posible los datos obtenidos.
No existe, como pretenden algunos metodólogos parcializados, ninguna oposición entre datos cuantitativos y datos
cualitativos: lo que existe es un diferente grado de precisión y de complejidad en cada una de las variables que
medimos, de modo tal que siempre es posible abstraer de ellas algunos aspectos cuantitativos en tanto que otros, por
su complejidad, tendrán que permanecer como cualitativos. Una vez adoptado un criterio frente a cada categoría o
subconjunto de datos se podrán abordar ya, con mayor claridad acerca de nuestros objetivos, las tareas básicas del
procesamiento.
En primer lugar será preciso hacer una revisión detallada de todos los datos obtenidos, atendiendo en especial a su
coherencia. Si se trata de cuestionarios o de pautas de observación, de registros de tests, sociogramas, o de cualquier
otro instrumento de recolección, habrá que examinar cada uno de ellos para analizarlos internamente, buscando sus
posibles incongruencias, omisiones o errores, y enmendándolos si cabe hacerlo. Es decir, se revisará sistemáticamente
toda la información disponible, juzgando su calidad y el grado de confianza que merece, para determinar qué parte
puede incluirse en el informe de investigación, cual debe corregirse o modificarse en algo (acudiendo, llegado el caso, a
una nueva recolección de datos) y cual, por sus graves deficiencias, deberá ser excluidas sin más.
Por cada tipo de datos se procederá entonces como sigue: Los datos numéricos se procesarán agrupándolos en
intervalos y se tabularán. Luego se construirán con ellos cuadros estadísticos, calculándose además las medidas de
tendencia central, de dispersión o de correlación que resulten necesarias. Los datos verbales que se desea presentar
como numéricos sufrirán una primera operación que se denomina codificación. De allí en adelante se trabajarán al igual
que los otros datos numéricos, mediante la tabulación y el procesamiento en cuadros estadísticos.
Estructura lógica de la matriz de datos
Una matriz de datos tiene cuatro componentes:
1. Unidad de análisis; 2. Las variables; 3. Los valores; 4. Los indicadores
Llegados a este punto, estamos en condiciones de efectuar una primera aproximación al concepto de matriz de datos
tal cual lo conceptualizara Galtung. De acuerdo a este autor, la matriz de datos es una forma de ordenar los datos en una
disposición cuadrangular de manera que sea visible su estructura tripartita. En la misma, “las UdeA ocupan la dirección
de las hileras, las variables la de las columnas y los valores aparecerán en el cruce de hileras y columnas” (Samaja: 1996).
Una de las finalidades más importantes de la matriz de datos es la de sistematizar la información recolectada durante
una investigación científica con el objetivo de resolver el problema que se planteado por la misma. Desde este punto de
vista la matriz es una estructura sumamente útil en las últimas etapas de la investigación, cuando ya hemos recolectado
nuestros datos y debemos emprender la tarea de procesar y analizar los mismos.
Sin embargo, la comprensión de la estructura del dato científico es fundamental desde el inicio de una investigación,
dado que es el momento donde el investigador plantea cuales serán las unidades de análisis y los conceptos relevantes
en su investigación.

Estrategias de análisis de datos cuantitativos en investigaciones jurídicas. Procesamiento de los datos. Construcción
de la base de datos. La estructura lógica de la matriz de datos.
Recopilados los datos, revisados -detectando posibles errores u omisiones- se procede a grabarlos o a su tabulación
manual. Una vez definidos los indicadores, con los cuales se van a "medir" las variables, podemos usar un esquema
denominado "matriz de datos", de acuerdo con Samaja (1994:162), que es una estructura válida para el análisis.
Todos los datos de todas las investigaciones científicas de todas las disciplinas poseen esta estructura invariante que se
puede llamar matriz de datos. Una matriz de datos tiene cuatro componentes, a saber: 1- unidad de análisis, 2- las
variables, 3- los valores y 4,- los indicadores (Samaja, 1994:158).
Un indicador toma distintos valores, según cada individuo. Actualmente hay programas estadísticos especializados que
permiten trabajar con variadas técnicas de análisis de la información, en forma más rápida y precisa. Uno de ellos es el
SPAD (Systeme Portable pourl’Annalysse des Dones), que realiza el análisis multidimensional de los datos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Del análisis y la interpretación pueden surgir representaciones, a través de los métodos factoriales: que producen las
representaciones gráficas sobre las cuales las cercanías entre los puntos líneas y los puntos columnas traducen las
asociaciones estadísticas entre líneas y columnas y los métodos de clasificación que realizan los reagrupamientos en
clase de las líneas o de las columnas. Con estos reagrupamientos también llamados tipologías o clusters de individuos
con características semejantes se puede obtener una visión macroscópica de la información (Moscoloni, 2005:98).
El SPAD, si bien es un software adaptable a los datos, incluido el análisis de discursos en Ciencias Sociales, es de
carácter cuantitativo. El SPSS es un Programa Estadístico para Ciencias Sociales. Su característica es que es sencillo para
el usuario y tiene un rápido acceso a las técnicas estadísticas tradicionales, incluidos los test no paramétricos (que son
los que se usan en Ciencias Sociales, espacialmente en Psicología). Un programa para procesar datos cualitativos -
incluyendo también imágenes, gráficos y sonido- es el ATLAS.Ti. El programa se basa en el enfoque de la teoría
fundamentada y de la codificación teórica según Strauss. La mayoría de los autores clasifican este programa en la
categoría de "los constructores de redes conceptuales". Ayuda en operaciones en el nivel de textos y el conceptual: se
forma una unidad hermenéutica en la pantalla que unifica el texto primario (por ejemplo, la entrevista que debe
interpretarse) y las interpretaciones o las codificaciones.
El programa muestra el texto primario con todos los códigos asignados a él y los comentarios en ventanas diferentes
en la pantalla. Ofrece algunas funciones, que están presentes en la pantalla en forma de símbolos (recuperar, cortar,
codificar, formar redes, etcétera). Aparte de la recuperación de secuencias de palabras en el texto y la asignación de
códigos, es útil la presentación de los códigos y las categorías en redes conceptuales (Flick, 2004:273).
Distribuciones, tablas y graficos.
Para presentar datos de una manera abreviada, que favorezca una interpretación fácil y rápida, se pueden emplear
elementos visuales tales como las tablas y los gráficos.
Las tablas:
Los datos se suelen organizar bajo unas cabeceras que se disponen en la parte superior del cuadro, en la parte lateral,
o en ambas a la vez.
Los gráficos:
Son medios popularizados y los más convenientes para presentar los datos relativos a una información de forma visual
clara y esquemática. Se suelen representar de distintas formas de tal modo que se puedan apreciar fácilmente los
hechos esenciales y sean fáciles de
comparar entre sí.
Los gráficos representan cantidades o datos mediante dibujos, esquemas o coordenadas.
Pueden clasificarse en 3 grandes grupos:
• Gráficos espaciales: Que utilizan para transmitir la información diversos recursos como volúmenes o figuras.
• Gráficos lineales: Son diagramas semejantes a representaciones de funciones, como por ejemplo el gráfico de barras.
• Gráficos superficiales: Utilizan áreas de rectángulos o círculos para la representación de datos.
Por ejemplo las pirámides de población.
La importancia de las tablas y los gráficos es que con ellos se aprende a tomar conciencia de conocimientos previos
relativos a un texto, organizar nueva información relacionándola con los temas anteriores y elaborar resúmenes y
síntesis diferenciando lo fundamental de lo
accesorio. Todo esto se convierte en una herramienta para facilitar el recuerdo de todo lo relevante en un texto.
Tabulación y codificación.
La etapa esencial de la investigación social siguiente a la observación es la clasificación, es decir, la agrupación de los
datos recogidos referentes a cada variable objeto de estudio y su presentación conjunta.
El objeto de la clasificación es reflejar la dimensión colectiva de los datos recogidos en la observación y con ellos poner
de manifiesto las semejanzas y diferencias de los fenómenos sociales. Mediante la clasificación se pasa del dato en bruto
al dato procesado.
Antes de empezar la codificación, es necesario realizar una operación previa llamada “editing”.
Esta consiste en la revisión detenida de los cuestionarios o cuadros para detectar y eliminar los errores y omisiones
que se puedan presentar.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La clasificación comprende dos operaciones fundamentales: la codificación y la tabulación, siendo la transferencia y la


perforación accesorias de ellas.
La codificación: Es previa a la tabulación, pero tiene su razón de ser en esta. Trata de identificar de manera inequívoca
cada categoría de datos contenidos en los documentos de observación. El objeto de la codificación es hacer representar
o traducir cada respuesta de los cuestionarios y cada dimensión de los cuadros por códigos o indicaciones numéricas.
Es una labor instrumental, pero de su perfecta realización depende que en la tabulación no haya errores ni resulte
falseada o viciada al atribuir los datos a grupos que no les corresponda.
La Tabulación: En ella se hace reaparecer los datos bajo una forma a través de las maquinas o manualmente. Esta
tabulación se realiza en tablas, que sirven para presentar en forma sistemática a los totales de los datos. La formación de
tablas ordena los resultados cuantitativos y ofrece una visión numérica, sintética y global del fenómeno.
La palabra tabulación deriva etimológicamente del latín tabula, y significa hacer tablas, listados de datos que los
muestren agrupados y contabilizados. Para ello es preciso contar cada una de las respuestas que aparecen,
distribuyéndolas de acuerdo a las categorías o códigos previamente definidos. Cada una de las preguntas de un
cuestionario o de una hoja de observación tendrá que ser tabulada independientemente, por lo que es preciso hacer
previamente un plan de tabulación que prepare adecuadamente la tarea a realizar.

3. ANÁLISIS ESTADÍSTICO DESCRIPTIVOS E INFERENCIAL. DIVERSOS TESTEOS Y PRUEBAS SOBRE LAS REGULARIDADES
EMPÍRICAS Y PATRONES DE COMPORTAMIENTO DE LOS DATOS. INFERENCIAS TEÓRICAS A PARTIR DE LOS DATOS. LA
EXPLICACIÓN DE LOS DATOS A TRAVÉS DEL ANÁLISIS UNI, BI Y MULTIVARIADO. LA LECTURA DE LOS CUADROS.
análisis estadístico descriptivos e inferencial.
La estadística descriptiva e inferencial forman parte de las dos ramas fundamentales en las que se divide la
estadística, la ciencia exacta que se encarga de extraer información de diversas variables, midiéndolas, controlándolas y
comunicándolas en caso de que haya incertidumbre.
De esta manera, la estadística tiene como objetivo cuantificar y controlar comportamientos y eventos tanto científicos
como sociales.
La estadística descriptiva se encarga de resumir la información derivada de los datos relativos a una población o
muestra. Su objetivo es sintetizar dicha información de forma precisa, sencilla, clara y ordenada (Santillán, 2016).
Es así como la estadística descriptiva puede señalar los elementos más representativos de un grupo de datos,
conocidos como datos estadísticos. En pocas palabras, este tipo de estadística se encarga de hacer descripciones de
dichos datos.
Por su parte, la estadística inferencial se encarga de hacer inferencias sobre los datos recogidos. Arroja conclusiones
diferentes a lo mostrado por los datos en sí.
Este tipo de estadística va más allá de la simple recopilación de información, relacionando cada dato con fenómenos
que pueden alterar su comportamiento.
La estadística inferencial llega a conclusiones relevantes sobre una población a partir de análisis de una muestra. Por lo
tanto, siempre debe calcular un margen de error dentro de sus conclusiones.
Estadística descriptiva
Es la rama de la estadística más popular y conocida. Su principal objetivo es el de analizar variables y posteriormente
describir los resultados obtenidos de dicho análisis.
La estadística descriptiva busca describir un grupo de datos con el objetivo de señalar de forma precisa las
características que definen a dicho grupo (Fortun, 2012).
Se puede decir que esta rama de la estadística es la responsable de ordenar, resumir y clasificar los datos resultantes
del análisis de la información derivada de un grupo.
Algunos ejemplos de la estadística descriptiva pueden incluir los censos de población de un país en un año
determinado o el número de personas que fueron recibidas en un hospital dentro de un margen de tiempo
determinado.
Categorías
Existen ciertos conceptos y categorías que forman parte exclusivamente del campo de la estadística descriptiva.
Algunos se listan a continuación:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

– Dispersión: es la diferencia que existe entre los valores incluidos dentro de una misma variable. La dispersión
también incluye el promedio de dichos valores.
– Promedio: es el valor que resulta de la sumatoria de todos los valores incluidos en una misma variable y la posterior
división del resultado por el número de datos incluidos en la sumatoria. Se define como la tendencia central de una
variable.
– Sesgo o curtosis: es la medida que indica qué tan inclinada es una curva. Es el valor que indica la cantidad de
elementos que se encuentran más próximos al promedio. Existen tres tipos diferentes de sesgo (leptocúrtica,
mesocúrtica y platicúrtica), cada uno de ellos indica qué tan alta es la concentración de datos alrededor del promedio.
– Gráficos: son la representación gráfica de los datos obtenidos del análisis. Usualmente, son utilizados diferentes tipos
de gráficos estadísticos, incluidos los de barras, circulares, lineales, poligonales, entre otros,
– Asimetría: es el valor que muestra la manera como los valores de una misma variable se encuentran repartidos con
relación al promedio. Puede ser negativa, simétrica o positiva (Formulas, 2017).
Estadística inferencial
Es el método de análisis utilizado para hacer inferencias sobre una población, teniendo en cuenta los datos arrojados
por la estadística descriptiva sobre un segmento de la misma muestra. Dicho segmento debe ser elegido bajo criterios
rigurosos.
La estadística inferencial se vale del uso de herramientas especiales que le permiten hacer afirmaciones globales sobre
la población, a partir de la observación de una muestra.
Los cálculos llevados a cabo por este tipo de estadística son aritméticos y siempre dan cabida a un margen de error,
cosa que no sucede con la estadística descriptiva, que se encarga de analizar a la totalidad de la población.
Por tal motivo, la estadística inferencial requiere de hacer uso de modelos de probabilidades que le permiten inferir
conclusiones sobre una población amplia basándose únicamente en lo que una parte de ella le indica (Vaivasuata, 2015).
Según la estadística descriptiva es posible obtener datos de una población general a partir del análisis de una muestra
conformada por individuos seleccionados de forma aleatoria.
Categorías
La estadística inferencial puede ser clasificada en dos grandes categorías descritas a continuación:
– Pruebas de hipótesis: como su nombre lo indica, consiste en poner a prueba aquello que se concluyó sobre una
población a partir de los datos arrojados por la muestra.
– Intervalos de confianza: estos son los rangos de valores señalados dentro de la muestra de una población para
identificar una característica relevante y desconocida (Minitab Inc., 2017). Por su naturaleza aleatoria, son los que
permiten reconocer un margen de error dentro de cualquier análisis estadístico inferencial.
Diferencias entre la estadística descriptiva y la inferencial
La principal diferencia entre la estadística descriptiva y la inferencial radica en que la primera busca ordenar, resumir y
clasificar los datos derivados del análisis de variables.
Por su parte, la estadística inferencial, lleva a cabo deducciones con base a los datos previamente obtenidos.
Por otro lado, la estadística inferencial depende del trabajo de la estadística descriptiva para llevar a cabo sus
inferencias.
De este modo, la estadística descriptiva constituye la base sobre la que posteriormente la estadística inferencial llevará
a cabo su trabajo.
También es importante señalar que la estadística descriptiva se utiliza para analizar tanto poblaciones (grupos
numerosos) como muestras (subconjuntos de las poblaciones).
Mientras que la estadística inferencial se encarga de estudiar muestras a partir de las cuales busca llegar a
conclusiones sobre la población general.
Otra diferencia entre estos dos tipos de estadística radica en que la estadística descriptiva únicamente se centra en la
descripción de los datos obtenidos, sin asumir que estos tengan ninguna propiedad relevante.
Ésta no va más allá de lo que los mismos datos obtenidos puedan señalar. Por su parte, la estadística inferencial cree
que todos los datos derivados de cualquier análisis estadístico dependen de fenómenos externos y aleatorios que
pueden alterar su valor.
FUENTE: https://www.lifeder.com/estadistica-descriptiva-inferencial/

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Diversos testeos y pruebas sobre las regularidades empíricas y patrones de comportamiento de los datos. Inferencias
teóricas a partir de los datos.
Los supuestos de la investigación cuantitativa y cualitativa
El paradigma es la orientación general de una disciplina, que define el modo de orientarse y mirar aquello que la
propia disciplina ha definido como su contenido temático sustantivo. En ciencias sociales conviven diversos paradigmas,
que compiten en su modo de comprender sus disciplinas y problemas. Estos paradigmas tienen diferentes supuestos
ontológicos, epistemológicos, axiológicos y metodológicos, que dan cuenta del andamiaje que sustentará el desarrollo
de la investigación. Asimismo, los paradigmas en ciencias sociales aparecen asociados con determinadas metodologías:
el Positivismo y Post-positivismo son vinculados con las metodologías cuantitativas; mientras que al Constructivismo,
naturalista e interpretativo, se lo relaciona a las metodologías cualitativas (Creswell 1994; 1998; Denzin y Lincoln, 2005).
Cuadro 1.3
Características de los diferentes paradigmas de investigación social
Supuestos Paradigma Positivista/ Post-positivista Paradigma Constructivista
(metodología cuantitativa) (metodología cualitativa)
Ontológicos - La realidad es objetiva. - La realidad es subjetiva y múltiple.
¿Cuál es la
naturaleza de la
realidad?

Epistemológicos - Separación entre el investigador (sujeto) y el - El investigador está inmerso en el


¿Cuál es la objeto de estudio. La distancia frente a aquello contexto de interacción que desea
relación entre el que se pretende investigar es vista como investigar. Se asume que la interacción entre
investigador y condición necesaria para alcanzar un ambos y la mutua influencia son parte de la
aquello que conocimiento objetivo. investigación.
investiga?
Axiológicos - El investigador busca desprenderse de sus - El investigador asume que sus valores
¿Qué papel propios valores, de su orientación político- forman parte del proceso de conocimiento y
juegan los valores ideológica, sus concepciones acerca del bien y reflexiona acerca de ello (reflexividad).
en la investigación? el mal, de lo justo y lo injusto, de lo que
deseamos para nosotros y los otros, etcétera.
Metodológicos - Utilización de la deducción en el diseño y la - Conceptos y categorías emergentes en
¿Cuáles son los inducción en el análisis. forma inductiva a lo largo de todo el proceso
procedimientos - Modelos de análisis causal. de investigación.
que se utilizan para - Operacionalización de conceptos teóricos en - Múltiples factores se influencian
construir la términos de variables, dimensiones e mutuamente.
evidencia empírica, indicadores y sus categorías. - Diseño flexible e interactivo.
y cómo se - Utilización de técnicas estadísticas. - Se privilegia el análisis en profundidad y
relacionan - Fuerte papel de la teoría en el diseño del en detalle en relación al contexto.
lógicamente con el estudio. - Confianza y autenticidad.
resto de las etapas - Generalizaciones en términos de
del diseño? predictibilidad.
- Confiabilidad en los resultados a partir de
estrategias de validación internas.

Los niveles de abstracción en la construcción de un marco teórico


El objetivo de investigación se deriva de nuestros razonamientos teóricos. A veces empezamos a pensar desde lo
empírico y armamos el anclaje teórico; otras veces podemos reflexionar desde las teorías más generales.Todos los
planteos teóricos son válidos. Sólo es conveniente reflexionar sobre ese vínculo teórico con el objetivo de investigación
(teoría sustantiva y general).

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Regularidades empíricas en la investigación social


La regularidad empírica expresa una relación entre variables con un alto contenido observacional (menos abstractas).
Estas regularidades pueden formar parte del marco teórico de una investigación, o ser un hallazgo a partir del análisis de
los datos. A su vez, las regularidades resultantes de nuestra propia investigación pueden formar parte del sustento
teórico de futuros trabajos. Uno de los atributos principales de las regularidades es el testeo reiterado de estas con
datos cuantitativos. Las mismas expresan tendencias presentes en la sociedad analizada, como puede ser la regularidad:
“a mayor nivel educativo mayor participación económica femenina”. Esta regularidad en sí misma no nos dice mucho, ya
que la interpretación de los datos es siempre teórica. En el siguiente cuadro podemos observar las proposiciones
teóricas más abstractas que podrían explicar la regularidad antes mencionada.

La explicación de los datos a través del análisis uni, bi y multivariado. Lectura de cuadros.
ANALISIS UNIVARIADO: SUS ALCANCES Y FUNCIONES
El trabajo de análisis de los datos cuantitativos comienza necesariamente con el examen de la información de cada una
de las variables, lo que se denomina análisis univariado. Este consiste en la valoración de las variables que fueron
evaluadas y es el paso básico para cualquier análisis posterior.
El análisis univariado posee una función clave en el proceso general de análisis e interpretación de la información:
permite la evaluación preliminar de la calidad de los datos recolectados en el trabajo de campo, la selección de las
variables más adecuadas para pasar a otros análisis de mayor complejidad y la caracterización descriptiva de las
variables del estudio.
Pese a su importancia, la mayoría de los investigadores noveles tienden a pasarlo por alto, interesados por análisis más
complejos. Por otra parte, debe decirse que generalmente, la lectura y las manipulaciones procedimentales de los datos
que pueden realizarse en esta instancia son parte del trabajo de escritorio y por regla no se incluyen en el informe o
reporte de la investigación. En el caso de las tesis, se informan los procedimientos de transformación efectuados a los
datos de las variables principales del estudio sea en la sección metodológica o en un Anexo. En los demás formatos de
publicación científica, la información que se obtiene del análisis univariado apenas se menciona.
En definitiva, el análisis univariado es una tarea necesaria y relevante como primer paso del análisis cuantitativo,
aunque quede invisibilizado en la presentación y comunicación de los datos. Se debe enfatizar que el análisis univariado
posee un valor metodológico en sí mismo y no es solo un procedimiento que debe cumplimentarse para pasar a otras
instancias "más importantes" del análisis de la información.
A continuación se detallan las funciones metodológicas que tiene el análisis univariado.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

* Determinar si se han producido errores en la carga de los datos El carácter mecánico y casi monótono que tiene la
carga de datos hace que muchas veces de modo involuntario se produzca errores. Cuando la base de datos es cargada
por diferentes personas o la cantidad de casos es muy elevada aumentan las probabilidades de la ocurrencia de errores.
Cada variable tiene un conjunto de valores posibles, los que deben ser contrastados con los valores que aparecen en la
distribución de frecuencias.
En definitiva, el análisis univariado es una forma de chequeo de la calidad de la información y contribuye en la función
correctiva de datos erróneos.
* Establecer si los datos relevados reúnen las condiciones básicas para poder avanzar en análisis posteriores. El análisis
de cada una de las variables incluidas en el estudio permite determinar lo que técnicamente se denomina variabilidad.
Variabilidad: en términos genéricos designa las variaciones observadas en los valores de una variable. En términos
estadísticos indica la dispersión de los datos en la escala de medición utilizada.
El término variabilidad se refiere al grado de dispersión de un conjunto de puntajes. Si todos los puntajes en una
distribución tienen el mismo o un valor similar, puede concluirse que la distribución tiene poca variabilidad. La
variabilidad es un atributo que puede determinarse para variables de cualquier tipo de nivel de medición, aunque como
veremos seguidamente con procedimientos diferentes.
Si en el análisis de una variable no se observa variabilidad, ésta debe ser descartada para análisis subsiguientes. Los
datos de una variable con escasa variabilidad deben llamar la atención de los investigadores en tanto revelan posibles
errores cometidos en las fases previas; estos pueden ser la resultante de una selección inadecuada de la muestra o de la
escasa sensibilidad del instrumento utilizado para generar respuestas variables (p.e. por la obviedad de la pregunta
incluida en un cuestionario o por la inclusión de un sistema inadecuado de respuestas precodificadas).
¿Por qué debe descartarse la información de una variable que muestra escasa variabilidad? En primer lugar, como
sugerimos anteriormente es probable que la falta de variabilidad denote problemas en la validez del instrumento
utilizado y, por lo tanto, la calidad de la información obtenida con él podría ser poco confiable. En segundo lugar, si
encontramos los datos concentrados en alguno de los valores posibles de la variable lo que no observamos son las
variaciones que supuestamente presenta el atributo del objeto de estudio que hemos examinado. Si los datos poseen
una fuerte concentración en algún punto de la escala es obvio que no nos servirán para poner a prueba posteriormente
ninguna hipótesis.
* Seleccionar las variables que ofrezcan buena información y que sean relevantes para continuar y profundizar análisis
posteriores.
Una vez que se ha determinado qué variables tienen variabilidad adecuada y cuáles no, se procede a descartar éstas
últimas y a preparar las primeras para futuros análisis. Borsotti (2006) sugiere que para el análisis se proceda
examinando primero las variables independientes, luego las intervinientes y finalmente la/s dependientes. Si las
variables independientes ofrecen variabilidad podrá proseguirse con un análisis que permita establecer la posible
asociación o el grado de influencia de éstas respecto a la/s demás variables. Si en la variable observada o dependiente
encontramos que la información posee la variabilidad necesaria luego podrá examinarse si existe alguna asociación con
otras variables que operan como causales, predictoras o independientes.
Una de las transformaciones más comunes consiste en la reducción de los valores de la variable en un procedimiento
que algunos autores también llaman de compactación de la variable. Mediante este procedimiento se generan datos
agregados que reducen la cantidad de valores a un rango mucho más reducido. Pueden compactarse variables ordinales
y continuas. No obstante, la compactación genera una pérdida de precisión en los datos.
* Describir las variables principales de la investigación El análisis univariado permite la caracterización de las variables
centrales del estudio, información que en algunos tipos de investigación es básica para la descripción general de los
sujetos estudiados. La descripción de las variables principales es lo único que luego se incluirá en la comunicación de los
resultados.
RECURSOS PARA EL ANALISIS UNIVARIADO
Como se ha señalado previamente, lo propio del análisis univariado es el examen de todas las variables que fueron
relevadas en la investigación y que ya fueran ordenadas y preparadas para su lectura a través de la aplicación de ciertas
técnicas estadísticas básicas.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Debe recordarse que cada nivel de medición posee propiedades aritméticas diferentes lo que posibilita disponer de
técnicas de análisis de diferente calidad estadística. Las propiedades aritméticas de los diferentes niveles de medición
son inclusivas de los niveles precedentes, por lo que las variables de razón además de poseer las propiedades
estadísticas propias de ese nivel de medición incluyen las propiedades de las escalas intervalares, ordinales y nominales.
Al final de la sección se ofrece un cuadro en el que los lectores pueden identificar otros recursos de análisis para ser
aplicados a variables intervalares y de razón.
1. LA DISTRIBUCION DE FRECUENCIAS
La base del análisis univariado es la distribución de frecuencias, es decir la cantidad de respuestas encontradas para
cada uno de los valores de la variable estudiada. De acuerdo al nivel de medición de las variables, el tamaño de la
muestra que se ha tomado y la forma en que se ha cargado la información en la base de datos, el investigador debe
encontrar el modo más apropiado de obtener la información para el examen univariado.
En general, los estudiantes e investigadores noveles poseen interés en lo que llaman "la cantidad de casos" que
respondieron información de su interés (y en el sentido que ellos esperan que respondan). Ese interés debe ser
capitalizado por los orientadores, consejeros y profesores para que aprendan a hacerse un panorama general de la
información obtenida en el trabajo de campo.
Para ese aprendizaje es fundamental comprender algunas cuestiones básicas de la distribución de frecuencias y
conocer algunos procedimientos generales de preparación de esa información para que sea útil a los fines analíticos. En
lo que sigue se exponen los procedimientos más sencillos que, por obvios, muchas veces no son enseñados
sistemáticamente.
 Distribución de frecuencias absoluta.Indica la cantidad de casos observados o evaluados (en términos
metodológicos) registrados en cada uno de los valores o categorías de las variables bajo estudio. Cuando se trata de
variables nominales y ordinales se presenta la cantidad de casos que corresponde a cada valor de la variable. En el caso
de las variables intervalares y de razón que poseen muchos valores posibles (suponga la evaluación del año de
nacimiento de los habitantes de una gran ciudad) la información sobre la distribución de frecuencias absoluta se
presenta a través de datos agregados y se apela a las medidas de tendencia central y de variabilidad. En general, para los
lectores es difícil retener información expresada en valores absolutos y más aún cuando se trata de números de varios
dígitos, por ello se suelen transformar los valores absolutos a través del cálculo de las frecuencias relativas.
 Distribución de frecuencias relativas (porcentajes) Se basa en la transformación de las frecuencias absolutas a un
conjunto de valores que permiten comprender con mayor facilidad la información. La operación estadística que se
efectúa es el cálculo de proporciones o porcentajes de cada uno de los valores de la variable, tomando como base de
cálculo la cantidad de casos que constituyen la población del estudio. Los porcentajes son útiles en tanto poseen una
función simplificadora de la información ya que son más fáciles de interpretar que los valores absolutos. En ese sentido,
ayudan a descubrir las diferencias entre las distintas categorías o valores de una variable a través de la comparación de
sus proporciones y a esclarecer ciertas relaciones entre números absolutos o entre proporciones. También son un
recurso de mucha utilidad en el campo de la investigación empírica en tanto permiten comparar resultados
provenientes de bases diferentes.
 Distribución de frecuencias acumuladas (absolutas y relativas): Una forma rápida de analizar la información
descriptiva de cada variable es la observación de las frecuencias acumuladas, sea en números absolutos o en valores
relativos. Como su nombre lo indica este procedimiento consiste en ir acumulando a través de la suma, los valores
absolutos o los porcentajes obtenidos para cada valor de la variable. ¿Cuál es la utilidad de las frecuencias acumuladas?
Permiten tomar decisiones para las operaciones de compactación o reducción de los valores de una variable en tanto
nos informan acerca de la cantidad de casos o el porcentaje de respuestas que pueden ser integrados en agrupamientos
más amplios. Además, si interesa formar grupos de comparación ex post facto, las frecuencias acumuladas nos permiten
reagrupar la información en rangos aproximados de partición.
ALGUNOS INTERROGANTES EN EL USO DE PORCENTAJES PARA EL ANALISIS UNIVARIADO
¿Cómo se computan las respuestas de casos perdidos en el cálculo de porcentajes para el análisis univariado? Uno de
los problemas muy comunes en el análisis de datos cuantitativos, especialmente aquellos provenientes de encuestas es
el tratamiento de los datos correspondientes a las categorías no sabe y no responde. En el caso de los cuestionarios

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

autoadministrados, el problema es mayor cuando el investigador se encuentra con que algunos sujetos no han
respondido nada, es decir que el ítem evaluado está en blanco.
Frente a esas situaciones ¿Cómo debe procederse en el análisis de las frecuencias relativas para cada variable? La regla
básica es que en el análisis univariado deben incluirse todas las frecuencias observadas. Es decir que además de la
información sobre cada categoría o valor de la variable, deben considerarse las respuestas en blanco y las respuestas al
ítem que suele incluirse en las encuestas de no sabe/no contesta. Por ello, la base de cálculo de la variable coincidirá con
el total de casos de la población o de la muestra de la que se han obtenido los datos, independientemente de cuantos
hayan respondido a la demanda de información de cada variable.
¿Por qué es importante esta información? Desde la función evaluativa de la información que es propia del análisis
univariado, la detección del nivel de respuesta a una variable es en sí mismo un dato relevante para la investigación.
Debemos recordar aquí que la forma de preguntar, la pertinencia de la indagación o el nivel de involucramiento personal
implicado en la respuesta, hacen que los sujetos respondan de un modo u otro, o no respondan.
La proporción de casos sin respuesta es un dato que el investigador debe considerar en tanto pone en cuestión la
validez del instrumento utilizado y, por lo tanto, obliga a tener ciertos recaudos posteriores en el análisis de la
información obtenida. Cuando la pérdida de información en una variable es importante, el investigador debe tener muy
buenos argumentos para incluirla en análisis subsiguientes ya que la información que va a utilizar puede estar sesgada.
Asimismo, está obligado a hacer un análisis de las principales características de los casos perdidos a fin de ponderar los
posibles sesgos que encuentra en la información.
¿Cómo se calculan los porcentajes en el caso de respuestas múltiples? Cuando en una investigación se permite que los
sujetos seleccionen varias alternativas de respuesta a una misma pregunta, suele plantearse el dilema de cómo debe
efectuarse el cálculo de proporciones ya que puede haber dos bases de cálculo diferentes. Por un lado pueden tomarse
los casos estudiados y por otro la cantidad de respuestas dada al estímulo.
¿Cómo se presenta la información expresada en porcentajes? Cuando se utilizan las calculadoras electrónicas para el
cálculo de porcentajes se obtiene una cifra que contiene más de veinte números decimales. Si como hemos dicho
previamente, la justificación de este recurso matemático es que su utilización permite simplificar la lectura y
comprensión de la información, el investigador debe decidir cuantos decimales incluirá. La primera regla que debe
atenderse es: respete los usos propios del campo disciplinar respecto a la inclusión de decimales.
LA PRESENTACIÓN DE LOS DATOS DE UNA DISTRIBUCIÓN DE FRECUENCIAS.
En estudios exploratorios y descriptivos es común presentar la información sobre cada una de las variables a fin de
caracterizar los principales atributos del objeto de estudio. Una de las decisiones problemáticas que suele plantearse a
los investigadores noveles es cómo presentar la información. La utilización de recursos informáticos facilita la
elaboración de cuadros, tablas y gráficos ofreciendo al investigador varias posibilidades diferentes. Generalmente la
lógica que predomina en este proceso decisorio suele estar orientado por criterios estéticos (que se vea bonito), por el
supuesto de que se debe presentar la misma información bajo diferentes formatos a fin de darle más entidad al trabajo
y muchas veces por la creencia de que el valor de un informe radica en su extensión por lo que para llenar páginas se
incluyen cuadros y gráficas cuyo contenido suele reproducirse en el análisis posterior.
1) La presentación de la información debe estar guiada por los siguientes criterios:
 Economía: sólo se debe incluir alguno de los formatos de presentación ya que la información que contiene una tabla
o un gráfico son equivalentes. La redundancia de datos agobia al lector y muchas veces es un obstáculo para la
comprensión. Si la información es sencilla y puede ser descrita en un párrafo no es necesario exponer una tabla o un
gráfico.
 Claridad: la información debe ser presentada de modo tal que permita una rápida comprensión de los datos y de su
significado.
 Relevancia: se deben presentar solamente aquellos datos considerados relevantes para los propósitos y objetivos del
estudio y que tengan una directa relación con la sección en la que se exponen.
2) Cuando los datos que se presentan han sido obtenidos de una muestra no deben presentarse los valores de las
frecuencias absolutas. La tabla se arma entonces con los porcentajes que representan los valores de cada categoría y en
la línea de los totales de columna se agrega entre paréntesis la frecuencia de casos que se ha utilizado como base de
cálculo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

3) Si por alguna razón de interés se quisieran incorporar las cifras de las frecuencias absolutas y de los porcentajes
se recomienda la utilización de elementos paratextuales que permitan diferenciar la naturaleza de cada uno de los
datos.
OTROS RECURSOS PARA EL ANALISIS UNIVARIADO
Como se ha señalado previamente, el análisis de cada variable debe efectuarse cualquiera sea su nivel de medición. Sin
embargo, dado que cada nivel de medición posee propiedades aritméticas diferentes el investigador debe aplicar la
técnica de análisis adecuada. En este apartado se presentan los recursos analíticos más utilizados en la investigación,
ordenados según el nivel de medición de las variables. Dada la naturaleza de este libro de texto, no se indican los
fundamentos estadísticos, ni los procedimientos de análisis propios de cada técnica. No obstante es necesario que antes
de iniciar cualquier proceso de análisis de datos el investigador tenga claro cuál es el nivel de medición de cada una de
las variables relevadas para poder seleccionar la herramienta de análisis más apropiada y, si es necesario, pueda solicitar
ayuda y consejo a otros investigadores, tutores o profesores de estadística acerca de su utilización. Así como existen
recursos que ofrece la estadística, también las diferentes representaciones gráficas permiten tener una rápida visión de
la distribución de un conjunto de datos.
EL ANALISIS BIVARIADO: SUS ALCANCES Y FUNCIONES
Una vez que conocemos el potencial analítico de cada una de las variables podemos iniciar otra etapa conocida como
análisis bivariado. Como su nombre lo indica, se trata de descubrir y describir las relaciones entre dos variables.
La mayor parte de las investigaciones pretende describir los aspectos más relevantes de los fenómenos bajo estudio.
Todo tipo de fenómenos que podemos abordar como objeto de conocimiento no es unidimensional, sino que posee una
variedad de atributos que los constituyen como tal. Por ello, el trabajo científico busca dar cuenta de la
multidimensionalidad de los fenómenos a través del estudio de las relaciones y covariaciones que se producen entre
diferentes variables.
El análisis bivariado cumple varias funciones en el análisis de datos científicos. Como en todos los tipos de análisis de
información numérica, las posibilidades del análisis bivariado están en estrecha relación con el nivel de medición de los
datos. En principio, se pueden comparar dos variables que tengan diferentes niveles de medición, aunque la
introducción de variables de tipo nominal y ordinal limita la posibilidad de utilizar herramientas estadísticas más
avanzadas. De hecho, en el campo de la estadística se encuentran numerosos procedimientos que contribuyen al logro
de diferentes objetivos analíticos de relaciones entre variables, los cuales pueden consultarse en los manuales
especializados.
El concepto metodológico relaciones entre variables no debe limitarse a la noción de causalidad. En otras palabras, el
análisis bivariado no es sólo para establecer relaciones de causa-efecto entre dos variables ya que para poder sustentar
ese tipo de análisis se requieren datos de nivel intervalar o de razón y la aplicación de técnicas estadísticas avanzadas en
un marco de supuestos y condiciones metodológicas muy exigentes propias de los diseños experimentales. Para
comprender las diferentes posibilidades del análisis bivariado es necesario comprender que la noción relaciones entre
variables incluye formas de covariación, de asociación y de causalidad entre ellas.
El término covariación sugiere que puestas en relación dos variables se va a observar que cuando se modifica el valor
de una variable se van a observar variaciones en la segunda. En otras palabras, se habla de covariación cuando
conociendo la distribución de los valores de una variable en un grupo o población se observa una distribución u
ordenamiento similar de los datos en otra variable.
El término asociación alude a la presencia de una relación estadísticamente significativa entre dos variables. La
asociación es conocida en términos estadísticos como correlación, para cuyo análisis se cuenta con numerosas técnicas
que se engloban en la denominación métodos correlacionales. Estos son utilizados para determinar el grado de relación
entre dos variables en un mismo grupo o poblaciones. En un análisis de correlaciones sólo es posible establecer en qué
medida dos variables pueden estar relacionadas, especialmente a través de la determinación de la fuerza de esa
relación. De acuerdo al nivel de medición de las variables que se pretende relacionar, el investigador cuenta con
diferentes técnicas estadísticas para el análisis de correlaciones. En general, estas medidas permiten establecer tanto la
dirección de la relación como la intensidad o fuerza de la asociación. Lo que de ninguna manera permiten es inferir por
qué existe la relación entre variables o afirmar una relación de causalidad entre ellas. El análisis de correlación nos
permite saber que la variable A y B están relacionadas, cual es la dirección y la intensidad de la asociación, pero no

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

podremos afirmar que A es la causa de B, ni B de A. Puede ser que la relación encontrada obedezca a la presencia de
otra variable C.
Significatividad estadística: se refiere a que la relación entre las variables estudiadas no ocurre por casualidad o por
una combinación azarosa de los datos, sirio que estos expresan una relación "real".
El concepto de causalidad se utiliza para designar fenómenos de interacción de causa-efecto entre dos variables. La
causalidad puede considerarse como un cambio de sentido en una variable al ponerse en relación con otra. Como
señalamos anteriormente, para establecer la causalidad entre dos variables son necesarias una serie de condiciones,
entre ellas:
a) Que la variable causal o independiente ocurra o se presente antes que las variables explicadas (dependientes e
intervinientes).
b) Que se pueda establecer fehacientemente que el efecto ha sido producido por los factores causales y que no hayan
intervenido otros.
c) Que exista una relación estadísticamente significativa entre las variables estudiadas.
d) Que el diseño del estudio sea de tipo experimental, ya que son los únicos que permiten hacer inferencias sobre
causalidad.
El análisis de relaciones causales permite explicar no sólo cuál es la variable que "produce" transformaciones sobre
otra, sino también determinar la magnitud del cambio. La magnitud hace referencia a la posibilidad de predecir que el
cambio en una unidad de medida en la variable causal va a producir una X transformación en los valores de la variable
dependiente.
Funciones del análisis bivariado:
 Describir conjuntamente los datos de dos variables.
 Determinar la relación entre dos variables.
 Establecer la magnitud de la relación entre las variables examinadas.
 Analizar las relaciones entre varios atributos de una población muestral.
 Comparar el comportamiento de diferentes grupos frente a la presencia de una misma variable.
 Seleccionar variables que muestren relaciones significativas para efectuar otros análisis o ponerlas a prueba en
un experimento.
ACERCA DEL USO DE PORCENTAJES PARA EL ANALISIS DE RELACIONES.
Uno de los recursos analíticos más utilizados en la investigación emprendida por investigadores noveles es la utilización
de tablas de contingencia. Estas consisten en un cuadro que "relaciona dos o más factores entre sí" generalmente a
través del cálculo de porcentajes. Pese a que en la mayoría de los cursos de estadística universitaria se enseña a los
estudiantes otras técnicas estadísticas más refinadas para el análisis de relaciones entre variables, hay un claro
predominio del uso de las tablas de contingencia. En lo que sigue se desarrollan algunos criterios para la construcción y
lectura de la información obtenida a partir de esta técnica de análisis.
¿CÓMO SE CONSTRUYE UNA TABLA DE CONTINGENCIA?
En principio debemos decir que una tabla de contingencia no es otra cosa que un cuadro de doble entrada que
contiene la información sobre dos o más variables (para el análisis bivariado o multivariado, respectivamente) en la que
se registran las frecuencias absolutas de casos que presentan la misma combinación de atributos. Una vez que se
obtienen las frecuencias absolutas se efectúa el cálculo de las proporciones o porcentajes que informarán acerca de lo
que representan los valores de cada una de las celdas.
Variable dependiente: es la que se trata de explicar y se supone influida por otro factor o combinación de factores, o
que depende de él o es explicada por él. Sus categorías se indican en las filas del talón principal (Benson, 15).
Variable independiente: es el factor con el que se trata de explicar la variación de la variable dependiente. Sus
categorías se indican en las columnas.
Al elaborar tablas bivariadas la convención aceptada consiste en indicar la variable dependiente en las filas y la variable
independiente en las columnas. Luego se calculan los porcentajes para cada columna y se interpreta horizontalmente a
lo largo de las filas. La combinación de las categorías o valores de ambas variables se expresan en las celdas. Siempre
una tabla bivariada debe informar los totales de la columna, denominados marginales de columna. Por el contrario, los

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

totales de las filas -indicados en los marginales de fila- generalmente no se incluyen en el cuadro, a excepción de
aquellos destinados a la presentación general de la/s variable/s dependiente/s.
Una tabla-de contingencia es una herramienta para el análisis de datos cuantitativos que puede fundamentarse
apelando al concepto propuesto por Lazarsfeld (1984) de espacio de propiedades. Este autor propone que se considere
la disposición en un cuadro de individuos u objetos como un proceso similar a la localización de puntos en un espacio, es
decir que la tabla podría equipararse a una gráfica de dispersión en la que se distribuyen los valores de una población en
un plano delimitado por los valores posibles de la variable. El espacio de propiedades puede ser unidimensional,
bidimensional o multidimensional, según contenga información relativa a una variable, a dos variables o a más de dos
variables.
La noción de espacio de propiedades es útil para comprender que las representaciones gráficas no son otra cosa que
traducciones geométricas de los puntos aritméticos contenidos en los datos. Benson sostiene que "cada atributo o
propiedad que se ha de tabular exige una dimensión propia: cualquier variable o propiedad puede considerarse como un
eje en una graficación de n dimensiones. La colocación del individuo u objeto sobre ese eje se realiza situándolo en una
de las categorías, con escala o sin ella, en que el investigador haya dividido los datos vinculados con esa variable". Dicho
de otro modo, el espacio de propiedades se establece por el trazado de coordenadas, cada una de las cuales representa
una variable. Sobre el eje horizontal se representa la variable independiente mientras que en el vertical se colocan las
categorías de la variable dependiente. En el espacio gráfico definido por la intersección de ambas variables (si hablamos
de análisis bivariado) es posible distribuir todos los datos respectivos a ellas.
En otras palabras, un cuadro se define por una determinada cantidad de espacios, que resultan de la combinatoria de
valores de las diferentes categorías que se ponen en relación. Desde esa perspectiva, la información sobre cada uno de
los sujetos u objetos que hayan sido evaluados o medidos tiene que poder incluirse en alguna de las celdas del cuadro.
La cantidad de casos que quedan en cada una de las celdas representa la frecuencia con que en la población muestral se
han encontrado sujetos u objetos que poseen las mismas combinatorias entre las diferentes categorías de las variables
analizadas conjuntamente.
El espacio de propiedades de un cuadro se define por la multiplicación de las categorías de cada una de las variables
que se desea poner en relación. Dicho de otro modo, el espacio de propiedades revela las posibilidades de partición que
tienen los datos de una población muestral cuando se analizan conjuntamente dos o más variables. Mientras más celdas
tiene un cuadro, mayor deberá ser el tamaño de la muestra
PAUTAS PARA LA ELABORACION DE TABLAS BIVARIADAS.
La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.
En el apartado anterior se subrayó el carácter intencional que posee la construcción de un cuadro en tanto que
obedece a la intención del investigador de describir y mostrar las relaciones entre las variables que estudia orientado
por unos objetivos que guían el análisis. El cuadro es una herramienta para el análisis y, por lo tanto, su elaboración es
necesaria para poder interpretar los datos. Pero también, un cuadro es una herramienta que facilita la presentación y
comunicación de la información obtenida en el trabajo de campo y, por lo tanto, la mayor parte de las investigaciones
empíricas incluyen cuadros o tablas que cumplen una función de presentación de los datos a los potenciales lectores.
Por diferentes motivos, no todos los cuadros que se construyen en la fase de análisis e interpretación se incluyen luego
en un escrito científico.
Atendiendo a ambos fines, se pueden aportar una serie de convenciones que deben respetarse cuando se elabora un
cuadro o tabla de contingencia. En primer lugar, hay que diferenciar entre el cuerpo de la tabla (que contiene la
información en sí misma tal como se ha mostrado en el apartado anterior) y los elementos de presentación (que
contribuyen a la interpretación del contenido del cuadro).
Elementos de presentación del cuadro: cualquier cuadro que se presente en un escrito debe contar con un conjunto de
elementos que ofrecen información que contribuye a esclarecer el significado de los datos; alertar sobre aspectos
procedimentales o de manipulación de la información; indicar las fuentes de información utilizadas, etc. Entre los
elementos de presentación se destacan como necesarios:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

 Número del cuadro: debe identificarse de modo unívoco cada cuadro, sea mediante un número sólo o en
combinación con el del capítulo. El número correlativo facilita la búsqueda en el índice de cuadros que debe elaborarse
luego. En el caso de tesis o informes puede numerarse él cuadro de la siguiente manera: el primer número indica el
capítulo en el que se inserta el cuadro y el segundo número (separado por un punto) designa el orden correlativo del
cuadro en ese capítulo. (Ej. Cuadro 2.3., el primer número indica que ese cuadro pertenece al capítulo 2 y el segundo
número indica que es el tercero que se incluye en el mismo).
 Título del cuadro: el título es la clave principal para entender el contenido de un cuadro. El lector debe comprender el
título sin tener que recurrir al texto. En la redacción del título es preferible que se mencione en primer lugar la variable
dependiente y luego la independiente o causal. De ese modo, en la presentación de cuadros relacionados entre sí
podrán exponerse las relaciones entre la variable dependiente y diferentes variables causales. Si el cuadro presenta más
de una variable causal, los autores sugieren, por razones de estilo, enumerarlas en orden inverso al de su aparición en el
cuadro. En ese caso, la redacción del título debe enlazar la variable dependiente con la independiente mediante la
preposición por y a esta con la siguiente variable independiente a través de la preposición según.
 Notas al pie del cuadro: se utilizan para ofrecer al lector información adicional referida a aspectos particulares del
cuadro, tales como detalles sobre la categorización de las variables, el muestreo, el método y las unidades de medición
utilizadas o alguna indicación que facilite la comprensión de la información. Las notas al pie del cuadro sólo se justifican
en aquellos casos en que esa información sea necesaria para efectuar un adecuado análisis de ella. Estas notas al pie del
cuadro se deben escribir en un tipo de letra inferior al utilizado en el cuerpo de la tabla y se anotan debajo de ésta,
nunca dentro de ella. Si se realizan varias notas al pie del cuadro, cada una de ellas debe ir precedida por una letra
(subíndice) que también se debe incluir en el cuerpo del cuadro.
¿CÓMO SE ANALIZA E INTERPRETA LA INFORMACIÓN DE UNA TABLA BIVARIADA?
La regla habitual consiste en calcular los porcentajes en la dirección del factor explicativo o sea de la que se considera
variable independiente o causal. En cambio, la lectura de los datos contenidos en una tabla debe realizarse en forma
horizontal, es decir en la dirección de las filas.
El analista de una tabla tiene que comenzar con la lectura de los marginales de fila y de columnas, ya que esos serán
los valores de referencia en tanto indican las frecuencias absolutas y relativas que tiene en una población muestral cada
uno de los valores de las variables relacionadas.
La lectura de las celdas que componen el cuerpo de la tabla debe realizarse en forma horizontal, es decir comparando
los datos que aparecen en la fila. La comparación horizontal permite determinar la presencia o no de variaciones de
interés entre los datos que fueron ordenados en cada columna. Si los porcentajes en la fila no presentan variaciones
entre sí se puede establecer que esa categoría de la variable dependiente. no muestra cambios cuando es tabulada en
relación a la variable independiente. Si los datos de la fila muestran un gradiente en el que las proporciones aumentan o
disminuyen sucesivamente a través de las columnas, puede inferirse una posible asociación entre las variables
estudiadas. Los datos del marginal de fila sirven como valor de comparación ya que ellos muestran como es la
distribución de los valores de la variable dependiente para el total de la población. Si se compara el valor del marginal
con los valores de la fila y se observa que estos últimos son similares (con una variación porcentual de no más de 5
puntos) al del marginal, se puede establecer que la variable independiente no produce covariación sobre la
dependiente. Por el contrario, si la diferencia entre el marginal y las columnas presentan diferencias y estas entre sí, se
puede afirmar la presencia de una tendencia que muestra que ambas variables están relacionadas.
De la literatura metodológica puede extraerse dos claves que ayudan a revisar rápidamente la información de una
tabla bivariada. Cuando la tabla pone en relación variables dicotómicas (tablas 2 x 2) que tienen indicios de relación, se
encontrará que las celdas que aparecen en diagonal presentan valores similares cuyas proporciones se diferencian en
sentido inverso a los datos que aparecen en la otra diagonal.
Cuando se analiza una tabla bivariada que incluye variables no dicotómicas (2x3 o 2x4 o 3x3 o 6x5) se trata de
establecer si se presenta un gradiente en los datos de las filas y luego se debe comparar las variaciones entre las filas a
fin de establecer la dirección de la relación.
Pese a que las tablas de contingencia son útiles para establecer la presencia de relaciones entre variables y que las
claves de lectura que hemos ofrecido son útiles, se debe advertir que esta herramienta de análisis por sí misma no
ofrece garantías respecto a la comprobación de relaciones o la intensidad de la asociación de variables, sino que para

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

ello se tienen que utilizar otros recursos estadísticos. Las tablas de contingencia ayudan a comprender la tendencia de
las relaciones entre variables y la posibilidad de que entre ellas exista alguna forma de covariación o asociación. Si bien
son sumamente útiles en los estudios exploratorios, descriptivos y correlacionales, su utilización como herramienta de
análisis requiere mesura en la interpretación de la información que ofrece.
Los investigadores cuentan con los recursos de numerosas técnicas estadísticas para el análisis de relaciones, según el
nivel de medición de las variables que desean poner en relación. El siguiente cuadro ofrece una descripción sumaria de
ellas.
REDACCIÓN DE LOS RESULTADOS OBSERVADOS EN UNA TABLA
Los datos no sólo deben ser presentados en forma de tablas o gráficos, sino que deben ser descritos por el
investigador. No todos los datos que se obtienen en una investigación son sometidos a algún tratamiento analítico, ni
todos los datos que se analizan son incluidos en los informes de investigación. Por ello, la descripción de los resultados
de las tablas debe ser pertinente y responder a los propósitos informativos que el investigador propone para cada
sección que conforma la estructura del informe o de la tesis.
La presentación y exposición de los datos de una investigación debe responder a una secuencia expositiva que permita
a los lectores comprender cual es el sentido de una tabla en el contexto discursivo en que lo incluye. Esa secuencia
requiere ser establecida en función de los objetivos generales y específicos planteados, por lo que en la presentación
debe quedar explicitada la relación entre la información descrita y el objetivo respectivo.
El lector debe comprender las razones por las que el investigador ha incluido las tablas en determinadas partes del
texto, es decir debe ofrecérsele información contextual que ayude a comprender el sentido y alcance de los datos en el
marco de la exposición del informe de investigación. En este sentido, pueden plantearse dos preguntas que hay que
esclarecerle al lector potencial: ¿Por qué se elaboró el cuadro que se está presentando? ¿Qué motivos hay para incluirlo
en esa parte del texto? El investigador debe considerar estas preguntas para conducir la exposición de los datos de un
modo claro y sistemático.
Al lector también le interesará conocer qué representan los datos que se presentan en las tablas, para lo cual el
investigador debe explicitar el significado obvio (que pueden visualizarse en una lectura atenta de los datos) y el
significado intrínseco que poseen desde los supuestos teóricos asumidos por el estudio. Para la descripción de los datos
contenidos en la tabla se eligen aquellos más significativos para que el texto expositivo no sea redundante a nivel
informativo. De igual manera, si en el informe se incluye una tabla, no se incluye la representación gráfica de la misma
información.
No se debe repetir la información del cuadro, sino que debe recuperarse la información significativa que puede ser
presentada apelando a algunos recursos narrativos tales como:
 Indicar la tendencia general que sugieren los datos. Recuerde que el análisis se focaliza sobre la variable dependiente
y por lo tanto tiene que describirse cual es su comportamiento cuando se la pone en relación con otras variables.
 Efectuar comparaciones entre las categorías sin repetir los porcentajes. Para ello puede utilizarse proporciones
equivalentes que ilustran al lector y hacen más fluida la lectura. Decir que dos de cada diez estudiantes opina que la
educación recibida en la escuela a la que asistieron es regular, es equivalente a afirmar que la quinta parte de los
encuestados calificó como regular la educación recibida en la institución a la que asiste. Ambos enunciados se basan en
el 20 % de estudiantes de la muestra que eligió la opción regular en la pregunta respectiva.
 Cuando se efectúan comparaciones entre datos dispuestos en columnas diferentes se deben respetar dos reglas:
 El enunciado debe expresarse siempre en porcentajes o relaciones. En la lectura y descripción de un cuadro no se
vuelve a los valores absolutos.
 El enunciado debe expresarse con los mismos términos que se hayan utilizado en los títulos de las columnas.
 También tienen que enunciarse aquellos datos que resultan llamativos o disonantes en relación con la tendencia
general encontrada, ya que será necesario luego encontrar explicaciones adecuadas para ellos a través de hipótesis ad
hoc.
 Es conveniente que luego de la descripción de los datos se formulen sintéticamente una serie de conclusiones
parciales en las que el investigador orienta al lector respecto al significado de esa información en el contexto de su
estudio. Estas conclusiones parciales no deben ser un resumen de la descripción, como muchas veces ocurre, sino que se
trata de breves interpretaciones que ayudan a esclarecer el significado de los datos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.
La construcción de un cuadro obedece a la intención del investigador de describir y mostrar las relaciones entre las
variables que estudia orientado por unos objetivos que guian el análisis.

UNIDAD 8: ESTRUCTURA CIENTÍFICA.

1. EL TEXTO CIENTÍFICO. ESTRUCTURA IMRYD. ASPECTOS FORMALES Y TÉCNICOS DE LA ESTRUCTURA. NORMAS APA.
LA ÉTICA CIENTÍFICA Y LA HONESTIDAD INTELECTUAL.

El texto científico.
Texto científico: Es un documento escrito que aborda conceptos, teorías o cualquier otro tema con base en
conocimiento científico a través del lenguaje científico.
Características:
- Claridad: a través de oraciones bien construidas y ordenadas,
- Precisión: evitando terminología ambigua y subjetividad,
- Verificabilidad: debiendo poderse comprobar en todo momento y lugar la veracidad de los enunciados del texto.
- Universalidad: mediante el empleo de términos científicos que posibiliten que los hechos tratados puedan ser
comprendidos en cualquier parte del mundo.
- Objetividad: dando primacía a los hechos y datos por sobre valoraciones subjetivas del autor.
Todo trabajo de investigación tiene una determinada estructura, una manera de disponer los elementos que componen
ese todo organizado. Las partes en que se subdivide no son fijas. De cualquier maneraes usual que posea:
a) Portada
b) Índice general
c) Lista de tablas y figuras
d) Introducción
e) Cuerpo
f) Conclusiones
g) Apéndice/s
h) Bibliografía
(En la última parte de la unidad, en el punto “partes y organización del trabajo de investigación” se explica cada una de
las partes).

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Estructura IMRyD. Aspectos formales y técnicos de la estructura.


IMRyD es un acrónimo de los términos que conforman el esqueleto del artículo científico. Su finalidad es que cualquier
lector con un conocimiento similar a los autores del informe, pueda repetir el experimento y lograr los mismos
resultados.
I - Introducción…… ¿Qué problema se estudia? Y porque se estudia. Antecedentes y justificación de la razón por la que
se abordó.
M- Métodos y materiales……. ¿cómo se estudia? ¿Qué pruebas y procedimientos realizamos? ¿Cómo y con qué
materiales se estudió el problema? Los procedimientos utilizados para resolver el problema y los materiales empleados
deben tener el suficiente detalle para que otros puedan repetir el experimento.
R- Resultado… ¿cuáles fueron los resultados de la investigación? Exhibir Datos generados por el trabajo
D- Discusión… ¿Qué significa lo descubierto, el hallazgo? Interpretar y relacionar con otros estudios, argumentar la
validez.
Normas APA.
¿Cómo citar con normas APA?Una cita es la expresión parcial de ideas o afirmaciones incluidas en un texto con
referencia precisa de su origen o fuente y la consignación dentro de la estructura del texto. En el estilo APA se utilizan
paréntesis dentro del texto en lugar de notas al pie de página o al final del texto, como en otros estilos. La cita ofrece
información sobre el autor y año de publicación, que conduce al lector a las referencias que se deben consignar al final
del documento. Básicamente hay dos formas de realizar una cita dependiendo de lo que se quiera enfatizar con ella. En
el primer caso, se hace un énfasis al autor cuando lo que se quiere citar o resaltar es el pensamiento o la posición
específica de alguien sobre algún tema. Por otra parte, en las citas basadas en el texto, se quiere hacer referencia a una
frase o teoría específica en la que el autor tiene un papel secundario. De la misma manera, la cita se puede realizar de
manera de manera textual o parafraseada para lo cual es relevante el número de palabras citadas para configurar la cita,
como se verá a continuación.
Una cita es textual cuando se extraen fragmentos o ideas textuales de un texto. Las palabras o frases omitidas se
reemplazan con puntos suspensivos (…). Para este tipo de cita es necesario incluir el apellido del autor, el año de la
publicación y la página en la cual está el texto extraído. El formato de la cita variará según el énfasis -en el autor o en el
texto-.
Citas textuales: Existen 4 formas de hacer una cita textual dependiendo del contenido y del énfasis:
1. Cita textual de menos de 40 palabras con énfasis en el autor:

Como vemos en el ejemplo, al tener una cita de menos de 40 palabras se debe insertar en el medio de nuestro texto. En
este caso tenemos una cita con énfasis en el autor, por lo tanto lo citamos primero con el apellido y el año del texto
citado seguido de una frase o palabra que vincule al autor con la cita, ej: afirma, concluye, nos dice, etc. Seguido de la
cita textual y finalmente entre paréntesis el numero de la pagina.
Elementos:
Apellido del autor: Solo el primer apellido o el apellido más conocido.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Año del texto citado: Entre paréntesis va el año en que se publico el texto citado.


Cita: Entre comillas dobles se transcribe el texto a citar.
Pagina: Al final de la cita, entre paréntesis, se pone la lapagina del libro o articulo que fue citado.

2. Cita textual de menos de 40 palabras con énfasis en el texto:

Como vemos en el ejemplo, al tener una cita de menos de 40 palabras se debe insertar en el medio de nuestro texto. En
este caso tenemos una cita con énfasis en el texto, por lo tanto lo citamos primero el texto entre comillas y después de
éste, apellido, año y pagina separados por comas y encerrador entre paréntesis; Se finaliza con un punto seguido.
Elementos:
Cita: Entre comillas dobles se transcribe el texto a citar.
Datos de la cita: Este elemento contiene primero el apellido del autor (el primero o más conocido), segundo el año en
que se publico el texto citado y tercero la pagina donde se encuentra el fragmento citado. Estos tres elementos se
separan por comas y se encierran entre paréntesis.
3. Cita textual de más de 40 palabras con énfasis en el autor:

Como vemos en el ejemplo, al tener una cita de más de 40 palabras se debe insertar aparte de nuestro texto y
con sangría (5 espacios). En este caso tenemos una cita con énfasis en el Autor, por lo tanto antes de comenzar la cita
ponemos el primer apellido del autor o el más conocido, seguido del año de la publicación entre  paréntesis
y después una frase o palabra que vincule al autor con la cita, ej: afirma, concluye, nos dice, etc. Finalmente  en
un párrafo aparte ponemos nuestra cita textual sin comillas, terminada con un punto y la pagina citada.
Elementos:
Apellido del autor: Solo el primer apellido o el apellido más conocido.
Año del texto citado: Entre paréntesis va el año en que se publico el texto citado.
Cita: sin comillas, en un párrafo aparte se transcribe el texto a citar, finaliza con punto.
Pagina: Al final de la cita, entre paréntesis, se pone la lapagina del libro o articulo que fue citado.
Nota: En el caso de que no se sepa la fecha en la que se publicó el texto se debe poner “s.f” en vez del año en la cita en
el texto. En la referencia en vez del año se debe poner “Sin fecha”.
4. Cita textual de más de 40 palabras con énfasis en el texto:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Como vemos en el ejemplo, al tener una cita de más de 40 palabras se debe insertar aparte de nuestro texto y
con sangría (5 espacios). En este caso tenemos una cita con énfasis en el texto, por lo tanto primero ponemos en
un párrafo aparte nuestra cita textual sin comillas, terminada con un punto y después de éste, apellido, año y pagina
separados por comas y encerrador entre paréntesis.
Elementos:
Cita: sin comillas, en un párrafo aparte se transcribe el texto a citar, finaliza con punto.
Datos de la cita: Este elemento contiene primero el apellido del autor (el primero o más conocido), segundo el año en
que se publico el texto citado y tercero la pagina donde se encuentra el fragmento citado. Estos tres elementos se
separan por comas y se encierran entre paréntesis.
Nota: En el caso de que no se sepa la fecha en la que se publicó el texto se debe poner “s.f” en vez del año en la cita en
el texto. En la referencia en vez del año se debe poner “Sin fecha”. Ejemplo:
(Gutierrez L. y Rojas C., s.f)
Es necesario agregar una cita de parafraseo cuando se dice una idea de un autor en palabras propias del escritor. Al igual
que las citas textuales, las citas de parafraseo son de 2 tipos dependiendo de su énfasis: basadas en el texto, basadas en
el autor.
Citas parafraseadas
Elementos:
Apellido del autor, seguido por coma y año de la publicación, todo esto entre paréntesis. Ejemplo: (Rojas, 2013)

1. Basadasen el texto:

Datos al final de la cita.


2. Basadasen el autor:

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Referencia al inicio de la cita


Reglas según cantidad de autores.
Las citas deben crearse dependiendo del número de autores como se describe a continuación.
Dos autores
Dependiendo del lenguaje del artículo o documento se debe usar “y” o “&” respectivamente para unir los nombres de
los autores.
o Cita textual: Gutierrez y Rojas (2013).
o Cita parafraseada: (Gutierrez y Rojas, 2013)
Tres a cinco autores
En este caso la primera vez que se hace la cita se debe escribir todos los apellidos de los autores. Después solo se debe
citar al primer autor y se debe agregar “et al.”.
o  Cita textual: Castiblanco, Gutierrez y Rojas (2013). (…) Castiblanco et al. (2013).
o  Cita parafraseada: (Castiblanco, Gutierrez y Rojas, 2013). (….) (Castiblanco et al.,2013)
Seis o mas autores:
Siempre se cita el apellido del primer autor seguido de “et al.”
o  Cita textual: Rojas et al. (2013).
o  Cita parafraseada: (Rojas et al. , 2013).
Anónimo
Cuando el autor es anónimo se debe colocar Anónimo seguido de “,” y el año.
o  Cita textual: Anónimo (2013).
o  Citaparafraseada: (Anónimo, 2013).
Autor corporativo
La primera vez que se cita se debe poner el nombre completo de la institución o corporación seguido de su sigla, en las
siguientes referencias basta con citar las siglas.
o  Cita textual: International Bussiness Machines [IBM] (2013). (….) IBM (2013).
o  Citaparafraseada: (International Bussiness Machines [IBM], 2013). (….) (IBM, 2013).
Como hacerreferencias y bibliografíaennormas APA?
Las referencias son las fuentes que se utilizaron de apoyo en el trabajo para sustentar los argumentos o los hechos
mencionados, en otras normas se llaman las referencias como bibliografía. En el formato APA se debecitar la
referenciaen el texto y adicionalmenteagregarlaen la lista de referencias. A continuación se muestra un ejemplo de un
párrafo con surespectivacita y como se agrega a la lista de referencias o bibliografía con normas APA.
Ejemplo de párrafo:
Enpreviasinvestigacioneshechasporestudiantes de la Universidad Distrital se encontróunacorrelación entre el numero de
invertebrados de la zona y la cantidad de bacteriasen el ecosistema (Gutierrez, 2013).
En el ejemplo anterior se utilizóuna forma de citar las referenciasllamado "formato de paréntesis", adicionalmenteexiste
un formatobásico del cual se presenta un ejemplo a continuación:
Como afirma Gutierrez (2013) enpreviasinvestigacioneshechasporestudiantes de la Universidad Distrital se
encentrounacorrelación entre el numero de invertebrados de la zona y la cantidad de bacteriasen el ecosistema.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Después de habercitado la referenciaen el texto se debeagregaren la lista de referenciasen el formatosegún el tipo de


publicación que se estereferenciando, a continuación se muestra un ejemplo de referenciaen la lista:
Gutierrez, R. M, (2013). El impacto de la sobrepoblación de invertebradosen un ecosistemaselvático .RevistaMundo
Natural, 8, 73-82.
LISTA DE REFERENCIAS
Se organiza alfabéticamente y se le coloca sangría francesa
o Libro: Apellido, A. A. (Año). Título. Ciudad, País: Editorial
o Libro con editor: Apellido, A. A. (Ed.). (Año). Título. Ciudad, País: Editorial.
o Libro electrónico: Apellido, A. A. (Año). Título. Recuperado de http://www…
o Libro electrónico con DOI: Apellido, A. A. (Año). Título. doi: xx
o Capítulo de libro: únicamente en os casos de libros compilatorios y antologías donde cada capítulo tenga un
autor diferente y un compilador o editor: Apellido, A. A., y Apellido, B. B. (Año). Título del capítulo o la entrada.
En A. A. Apellido. (Ed.), Título del libro (pp. xx-xx). Ciudad, País: Editorial.
o Publicaciones periódicas formato impreso: Apellido, A. A., Apellido, B. B, y Apellido, C. C. (Fecha). Título del
artículo. Nombre de la revista, volumen(número), pp-pp.
o Artículo de periódico impreso: Apellido A. A. (Fecha). Título del artículo. Nombre del periódico, pp-pp. O la
versión sin autor: Título del artículo. (Fecha). Nombre del periódico, pp-pp.
o Tesis de grado: Autor, A. (Año). Título de la tesis (Tesis de pregrado, maestría o doctoral). Nombre de la
institución, Lugar.
o Referencia a páginas webs: Apellido, A. A. (Fecha). Título de la página. Lugar de publicación: Casa publicadora.
Recuperado de http://www…
La ética científica y la honestidad intelectual.

2. NOTAS DE GRAMÁTICA Y ARGUMENTACIÓN. EL MANEJO DE LA EVIDENCIA EMPÍRICA: PERTINENCIA Y SOLIDEZ DE


LOS ARGUMENTOS. PRESENTACIÓN DE LOS HECHOS. LA INTERPRETACIÓN. EL PROBLEMA DE LA INTRODUCCIÓN DE
LOS JUICIOS DE VALOR: ELECCIÓN DE CRITERIOS NORMATIVOS. LOS PROBLEMAS DE LA PERTINENCIA.
Notas de gramática y argumentación.
El manejo de la evidencia empírica: pertinencia y solidez de los argumentos.
Presentación de los hechos.
La interpretación.
El problema de la introducción de los juicios de valor: elección de criterios normativos.
Los problemas de la pertinencia.
3. TIPOS DE TEXTOS CIENTÍFICOS: PROYECTOS DE INVESTIGACIÓN, ARTÍCULOS CIENTÍFICOS, TESINAS Y TESIS.
Tipos de textos científicos:
Dentro de la denominación genérica de “trabajo científico” existe una variable bastante grande de posibilidades, que
surgen de necesidades y circunstancias específicas. Los lectores seguramente habrán oído hablar de monografías y de
tesis, de ponencias, papers y artículos científicos, de tesinas, trabajos de ascenso e informes de investigación. Cada una
de estas denominaciones se refiere a un tipo particular de trabajo aunque, como decíamos, no se trata de una
clasificación excluyente. Las características de cada tipo suelen diferir según se sigan las normas de una u otra institución
o las costumbre de cada país y, además, un mismo trabajo podría adoptar formas diferentes o ser clasificado a la vez en
más de una de esas categorías.
La longitud del trabajo, que depende directamente de la cantidad de conocimientos que se van a trasmitir, nos permite
una primera forma de clasificación. Así por ejemplo, una tesis es una disertación de cierta envergadura, que se propone
aportar nuevos conocimientos y que se presume posee un elevado rigor metodológico. Una monografía, en cambio, se
distingue porque posee una delimitación temática más estrecha y – en consecuencia- una extensión menor, lo mismo
suele suceder con las ponencias y con los artículos destinados a revistas científicas, que son de una dimensión
relativamente reducida.
Otro aspecto que permite clasificar a los trabajos científicos es el relativo a los fines que se persiguen con los mismos. Es
diferente el caso de un investigador que busca, simplemente, dar a conocer sus resultados a la comunidad científica, que

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

el de quien presenta un informe ante la institución o empresa que lo a solicitado, es otro el caso, también, de quienes
realizan investigaciones y presentan trabajos para obtener algún grado académico o aprobar las materias de una carrera
universitaria. Estas circunstancias habrán de determinar el tipo específico de trabajo que se va a realizar encada ocasión
y la forma concreta que habrán de adoptar en consecuencia.
Para mayor claridad del lector, hemos creído oportuno incluir a continuación una breve caracterización de cada tipo de
trabajo científico. Describiremos brevemente lo que se entiende por cada una de las denominaciones más usuales,
advirtiendo, una vez más, que pueda existir variaciones – a veces significativas- según los usos prevalecientes en cada
institución o país. En todo caso, el lector interesado deberá consultar con las definiciones y normas específicas que
existen en el ámbito en que se desenvuelva, utilizando las siguientes informaciones solo como un punto de referencia de
índole general.
Informe de investigación. Es una denominación genérica que sirve simplemente para indicar que lo escrito es exposición
de una indagación científica ya realizada. En tal sentido, no permite abrir juicio acerca del carácter de la misma, de su
tipo de magnitud, ni de los propósitos a que se encamina. Puede ser por lo tanto un simple documento de trabajo donde
aparecer los resultados obtenidos en determinada fase de alguna investigación, el informe final o el producto de un
equipo parcial de trabajo.
El termino suele emplearse, pues, sin que se le asocien connotaciones más especificas, aunque en algunos casos se lo
limita para hacer referencia exclusivamente a investigaciones de campo, que utilizan datos primarios.
Papel de trabajo .Es otro nombre genérico que indica que lo escrito no es definitivo si no una elaboración modificable
que se somete a discusión. Se utiliza para guiar una discusión, de equipos de investigación, también como forma de ir
mostrando ante un tutor los avances realizados. Su contenido es obviamente muy variable, no tiene el rigor formal que
otros trabajos destinados a la edición o la discusión pública.
Monografías. Tiene la particularidad de versar sobre un tema único, bien delimitado y preciso. Resulta un escrito breve
en el que se prefiere sacrificar la extensión de los asuntos en beneficio de la profundidad. Para algunos es productos de
una investigación bibliográfica y no de campo, desde el punto de vista practico es habitual que la evaluación e los
estudiantes se realice por medio de monografías de temas discutidos el la actividad docente. Conviene agregar que, a
veces, se acepta que una monografía se desvíe un tanto del rigor normal de los trabajos científicos.
Desde el punto de vista de la presentación formal, las monografías son trabajos, donde se valora claramente la buena
organización y el uso de un aparato crítico bien estructurado.
Articulo científico. Es un trabajo relativamente breve-muchas veces monográficos en cuanto a su contenido- que se
destina a la publicación en revistas especializadas. Los consejos directivos o comités de las mismas suelen definir, con
bastante exactitud, las características de contenido y de forma de los escritos que aceptan o encargan. Un artículo
científico, debe ser cuidadosamente redactado, para evitar digresiones innecesarias, para lograr expresar de un modo
claro y sintético lo que pretende comunicar.
En muchas ocasiones los artículos científicos son síntesis de informes o tesis, puede ser mejor presentado ante un
determinada comunidad científica a partir de tal forma resumida que oriente así los esfuerzos de quienes puedan estar
interesados en consultar la obra original. La palabra inglesa paper tiene un sentido bastante semejante, aunque
ligeramente mas amplio, que el que atribuimos a esta denominación, pues ella incluye también a lo que se suele llamar
una ponencia. Los artículos científicos también se publican a veces como capítulos o partes independiente de ciertos
libros, en los que algún estudioso, que asume el papel de compilador reúne varios trabajos de autores diferentes pero
que tratan una materia común.
Ponencia. Es la comunicación escrita que una persona presenta ante algún evento de tipo científico: seminario,
congreso, simpósium. Los organizadores definen el carácter que habrán de tener las mismas. Suelen ser trabajos breves,
monográfico o no, que se destinan además a la lectura y discusión colectiva. Es usual que las mismas se limiten a una
extensión que varía entre diez y treinta páginas escritas a espacio doble. Su organización interna es generalmente
bastante libre y variada y en ellas no son tan decisivos los aspectos de forma.
Resulta importante tener en cuenta todo aquello que facilite la rápida y efectiva comunicación oral: redacción clara y
atractiva, apoyos audiovisuales.
Tesis. Por tesis, cuando nos referimos al uso original del término, una proposición que puede ser sostenida o
demostrada mediante pruebas y razonamientos apropiados. Por extensión, desde hace muchos siglos, se ha llamado así

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

a la exposición escrita que una persona presentaba ante una Universidad o colegio para obtener el título de doctor.
Actualmente se llama tesis al trabajo escrito que permite demostrar, a la conclusión de los estudios, que el graduando
amerita el grado académico al que aspira.
Trabajo de grado o trabajo especial de grado. Cumple con la misma función académica que una tesis pero sin que se le
exijan todos los atributos que a estas caracterizan.Suelen aceptar trabajos que no son claramente originales, que no
aportan conocimientos nuevos, o en los que el rigor metodológico no se lleva demasiado lejos. Suelen ser relativamente
amplios en sus dimensiones, superando con mucho las de las monografías y las tesinas, y desarrollando en sus páginas
algo más que resúmenes de ideas ajenas y opiniones personales.
Trabajo de ascenso. Muchas universidades poseen un sistema de ascenso para su personal académico según el cual
éstos sólo se obtienen si, además de otros requisitos, el profesor presenta un trabajo de cierta relevancia. Se exige que
los mismos posean rigor metodológico y que realicen una contribución al desarrollo de las ciencias, las humanidades o
las artes. Son generalmente trabajos extensos y bien documentados, comparables a tesis.
Ante-proyecto y proyecto de investigación. Se trata de documentos bastante diferentes, en esencia, de los descriptos
hasta aquí, en ellos no se presentan resultados, análisis o conclusiones, sino que se esbozan las líneas fundamentales de
actividades de investigación para desarrollar en un futuro. Por eso poseen una lógica interior y una estructura interna
peculiar.
Actualmente, en casi todas las circunstancias, no se concibe que pueda emprenderse una indagación científica de cierta
envergadura que no vaya precedida de un proyecto en el cual se expresen los antecedentes, los objetivos, los
fundamentos y las bases metodológicas de la misma.
Reseña. Es un escrito breve que intenta dar una visión panorámica y a la vez crítica de alguna obra. Es frecuente que en
revistas científicas aparezcan reseñas de libros de la especialidad, que ayudan a los lectores a conocer mejor las posibles
fuentes de información existentes. Las reseñas sirven para motivar el interés de las personas que se desenvuelven en un
área específica de estudio y para evaluar la calidad de los trabajos que van apareciendo ante el público. Generalmente,
la realizan personas especializadas, de bastante experiencia en la especialidad.
Ensayo. Obra relativamente libre en su estructura, en la que el autor expone razonadamente ideas y opiniones sin que,
sin embargo, se utilice plenamente una metodología científica. El término ensayo puede usarse de un modo bastante
impreciso y abarcante.
Resumen y también resumen analítico. Es un trabajo en que el investigador o un estudiante hace una síntesis – para sí-
y del modo en que le resulte más conveniente- de obras o informaciones que ha estudiado. Dado de que no se trata de
materiales destinados al público, los requisitos formales, dependen exclusivamente de las necesidades que el autor ha
definido por su cuenta.
Proyectos de investigación
LA NOCION DE PROYECTO:
Proyecto es un conjunto de actividades y acciones que se deben emprender, que no son actuaciones espontaneas, sino
ordenadas y articuladas, que combinan la utilización de diferentes tipos de recursos y que se orientan a la consecución de
un objetivo o resultado previamente fijado, se realizan en un tiempo y espacio determinado y se justifican por la
existencia de una situación o problema que se quiere modificar.
En el lenguaje corriente cuando hablamos de proyecto, aludimos al designio, propósito y pensamiento de hacer algo.
Consiste en la previsión, ordenamiento, premeditación que se hace para realizar algo o ejecutar una obra u operación.
En sentido técnico se trata de la ordenación de un conjunto de actividades que, combinando recursos humanos,
materiales, financieros y técnicos, se realizan con el propósito de conseguir un determinado objetivo o resultado. Estas
actividades se articulan, se interrelacionan y coordinan entre sí.
El propósito de todo proyecto es alcanzar un resultado (el cual se va a lograr con su realización) o un producto
(elemento material o de servicio que se genera para producir el efecto). Todo proyecto se realiza dentro de los límites
de un presupuesto y de un periodo.
“Es toda actividad o conjunto de actividades integrado de actividades dirigidas a alcanzar un objetivo específico y cuyas
características han sido previamente determinadas”. Planear significa o se relaciona con la predicción del futuro y un
plan se puede definir como “un curso de acción predeterminado”. Un proyecto es un plan para la ejecución de algo.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Proyecto de investigación científica:Es aquel con características de sistemático y creador y cuyo objetivo es el aumento
del acervo de conocimientos científicos tanto en la investigación básica y aplicada. El contenido de un proyecto de
investigación varía según se trate de una investigación técnica de las ciencias naturales o sociales. Un proyecto de
investigación es un procedimiento científico destinado a recabar información y formular hipótesis sobre un determinado
fenómeno social o científico.
Ej. De esquemas de proyecto:
- Título del proyecto
- Objetivos específicos
- Hipótesis y marco teórico
- Fuentes de información
- Metodología, técnicas de análisis utilizadas
- Bibliografía
- Cronograma, etapas del proyecto y duración
ORGANIZACIÓN Y COMPONENTES.
Todo proyecto comporta una serie de actividades de duración determinada. En ellos se combina la utilización de
recursos humanos, técnicos, financieros y materiales. Todo proyecto debe alcanzar productos y resultados, de acuerdo
con los objetivos previstos en su diseño y conceptualización. Para la elaboración de un proyecto, lo más importante es
concretar y precisar lo que se quiere realizar, hacer efectivas las decisiones tomadas y seguir cursos de acción que
conduzcan a la obtención de determinados resultados.
El proyecto debe contar con:
a) Una denominación del proyecto, indicando de una manera sintética y mediante un título, aquello que se quiere
hacer. Caracterizar, en pocas palabras, lo que quiere hacerse en el proyecto e indicar el organismo ejecutor y
patrocinante del mismo.
b) Las razones por las que se necesita realizar el proyecto, por que se hace, la razón de ser y origen del proyecto, es
decir, la fundamentación. Hay que presentar los criterios (argumentación lógica) y las razones que justifican la
realización del mismo.
c) Una finalidad, es decir, el impacto que se desea lograr, a que fin contribuirá el logro de los objetivos del
proyecto.
d) Un marco institucional, cuando se trate de un proyecto que se elabora dentro de una institución para ser
presentado en el seno de la misma, este punto se puede obviar, ya que la información pertinente sería conocida
por todos. Pero, cuando el proyecto se formula en una organización o institución que será responsable total o
parcialmente de la ejecución, pero éste será presentado para su eventual aprobación por otra entidad ajena a la
que formula el proyecto, conviene dedicar especial atención a este punto. Lo que se persigue en este punto es
informar clara y profundamente acerca de la institución, organización o agencia que será la responsable
fundamental de la planificación y ejecución del proyecto.
e) Objetivos, para que se hace, lo que se espera obtener del proyecto en caso de que tenga éxito. Es decir, se trata
de indicar el destino del proyecto o los efectos que se pretenden alcanzar con su realización. Conforman el
elemento fundamental, ya que expresan los logros definidos que se busca alcanzar. El objetivo principal, llamado
también objetivo general, es el propósito central del proyecto. Los objetivos específicos, inmediatos o
complementarios, son ulteriores especificaciones o pasos que hay que dar para alcanzar o consolidar el objetivo
general.
f) Debe establecer a quien va dirigido el proyecto, los beneficiarios directos, y a quienes afectara, los beneficiarios
indirectos.
g) Metas, cuanto se quiere hacer, los servicios que se prestaran y/o necesidades que se cubrirán. Las metas
operacionalizan los objetivos, estableciendo cuánto, cuándo y dónde se realizarán éstos. Para que los objetivos
adquieran un carácter operativo, hay que traducirlos en logros específicos, es decir, hay que indicar cuánto se
quiere lograr con la realización del proyecto.
h) Insumos, que son los recursos que se necesitan para obtener el producto y lograr el objetivo propuesto.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

i) Las actividades, que son las acciones con que se generaran los productos, y como organizar y secuenciar esas
actividades.
j) Productos, lo que debe producir el proyecto para crear las condiciones básicas que permitan la consecución del
objetivo. Son los resultados específicos de las actividades realizadas a través del uso de insumos planificados. Los
productos son el primer nivel de resultados a los que se llega por el hecho de haber realizado con éxito las
actividades.
k) Organigrama, donde aparezca claramente señalado el proyecto dentro de la organización ejecutante y cómo se
inserta en la misma.
l) Manual de procedimientos, en el que se indica cómo desempeñar el trabajo y cuáles son las normas y
procedimientos de carácter técnico y administrativo que se han de seguir para llevar a cabo las actividades y
tareas. Como esto no se hace con mucha frecuencia, se puede elaborar, en su reemplazo, un protocolo de
actuación.
m) Funciones del personal del proyecto; esto es: quién es el responsable y de qué parte del trabajo. Deben estar
asignados los responsables y la estructura administrativa, es decir, quienes ejecutaran el proyecto.
n) Las modalidades de operación, es decir, como se ejecutara el proyecto.
o) Un calendario, que establezca en cuanto tiempo se obtendrán los productos y se lograran los objetivos
previstos.
p) Pre requisitos, que son los factores externos que deben existir para asegurar el éxito del proyecto.
q) Modalidades y mecanismos de coordinación del proyecto , tanto externa como interna.
r) Sistemas de evaluación interna y seguimiento , en cuanto a responsabilidades y funciones; incluyendo la
determinación de las formas y mecanismos de control operacional y supervisión técnica del personal.
s) Canales de información: a quién hay que informar, qué tipo de información se le debe facilitar, en qué soporte
(cara a cara, telefónico, por escrito, etc.), con qué objetivo (facilitar datos e información, consultar una toma de
decisiones, asesorar, informar acerca de las actividades realizadas, etc.), y con qué frecuencia (diaria, semanal,
quincenal, mensual, trimestral, anual).
t) Indicadores de evaluación del proyecto (cómo se medirá la progresión hacia las metas).
Existen tres formas principales de estructurar los proyectos desde el punto de vista organizativo y de gestión: funcional,
por proyecto y matricial; cada una de ellas con sus ventajas e inconvenientes. La recomendación básica es que, en cada
caso, se busque el tipo de organización que mejor se adapte a las circunstancias y características concretas del proyecto.
a) Organización funcional: Es cuando la gestión del proyecto se lleva a cabo dentro de un organismo ya existente y
en el que participan los funcionarios, profesionales y técnicos del mismo. La realización del proyecto es, en este
caso, una actividad más, dentro de las que ya está realizando esa unidad administrativa. Las ventajas son que
integra más adecuadamente el proyecto a los propósitos generales del organismo responsable y a sus objetivos
funcionales, y permite un mejor aprovechamiento de los recursos humanos del organismo. Las dificultades o
inconvenientes que se presentan son, que puede darse el caso de que se subordinen los objetivos del proyecto a
los del organismo, desvirtuándose los primeros. El proyecto no se concibe como unidad organizativa, sino como
"algo" dentro de una organización. El personal asignado al proyecto, si está realizando otras actividades dentro
del organismo, puede descuidar las que conciernen directamente al proyecto.
b) Organización por proyecto: consiste en crear una unidad administrativa/operativa para cada proyecto, que
desaparece cuando éste se termina. En este caso, existe un responsable general del proyecto y la unidad
organizativa se estructura de acuerdo con las necesidades de gestión y administración del proyecto. Las ventajas
son que las responsabilidades, al estar bien delimitadas, se concentran en la realización del proyecto, así se da
una mayor unidad de dirección y coordinación de actividades. Las dificultades e inconvenientes que pueden
presentarse son el riesgo de una utilización inadecuada de los recursos humanos, ya sea porque los técnicos se
contratan por más tiempo del necesario, o porque se duplican tareas de otras unidades administrativas.
c) Organización matricial: cada proyecto es dirigido por un director, pero el resto del personal pertenece a diversas
unidades administrativas del organismo responsable. Cada persona depende, en este caso, de una doble
jefatura: del director del organismo y del director del proyecto. Este último sólo tiene autoridad sobre los
técnicos, en los aspectos específicos del proyecto. Mediante este tipo de organización, se pretende contar con

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

las ventajas de las dos modalidades anteriores, al mismo tiempo que se procura atenuar las debilidades de
ambas, lo que no siempre se consigue. Las ventajas que se dan son una utilización más flexible de los recursos
humanos, se puede contar con mayor número y variedad de especialistas y la experiencia adquirida en la
realización de proyectos es una forma de mejorar la capacidad operativa del organismo. Las dificultades e
inconvenientes que pueden presentarse son la duplicación de mando conlleva un elevado riesgo de conflictos de
jefaturas y la dificultad de contar con los especialistas del organismo en tiempo oportuno y con la dedicación
adecuada.

Artículos científicos
ARTICULO CIENTIFICO “PAPER”: CARACTERISTICAS GENERALES Y ESTRUCTURA IMRyD.
Es un trabajo breve generalmente y monográfico en cuanto a su contenido que se destina a la publicación en revistas
especializadas. Los consejos directivos deciden las características de contenido y forma de los escritos que aceptan o
encargan. Un artículo científico, debe ser cuidadosamente redactado, para evitar digresiones innecesarias, para lograr
expresar de un modo claro y sintético lo que prende comunicar. En muchas ocasiones los artículos científicos son síntesis
de informes o tesis, puede ser mejor presentado ante una determinada comunidad científica a partir de tal forma
resumida que oriente así los esfuerzos de quienes están interesados en consultar la obra original. La palabra “PAPER”
tiene un sentido bastante semejante, aunque un poco más amplio, que el que le atribuimos a esta denominación, pues
ella también incluye a lo que se le suele llamar ponencia. Los artículos científicos también se publican a veces como
capítulos o partes independiente de ciertos libros, en los que algún estudioso, que asume el papel de compilador reúne
varios trabajos de autores diferentes pero que tratan una materia común.
Informan resultados parciales o totales. Son publicados en revistas científicas especializadas. Tienen una estructura
generalizada, aunque pueden tener ligeras variaciones que dependen de las normas de cada revista científica. En su
estructura utilizando normas APA encontramos:
a) Titulo;
b) Abstract (resumen): un resumen no mayor a 300 palabras donde se describe el artículo.
c) Palabras clave, de 3 a 6 palabras, sirven para los buscadores;
d) Contenido (IMRyD)
e) Referencias.
f) Apéndices.
IMRyD es un acrónimo de los términos que conforman el esqueleto del artículo científico. Su finalidad es que cualquier
lector con un conocimiento similar a los autores del informe, pueda repetir el experimento y lograr los mismos
resultados.
I - Introducción…… ¿Qué problema se estudia? Y porque se estudia. Antecedentes y justificación de la razón por la que
se abordó.
M- Métodos y materiales……. ¿cómo se estudia? ¿Qué pruebas y procedimientos realizamos? ¿Cómo y con qué
materiales se estudió el problema? Los procedimientos utilizados para resolver el problema y los materiales empleados
deben tener el suficiente detalle para que otros puedan repetir el experimento.
R- Resultado… ¿cuáles fueron los resultados de la investigación? Exhibir Datos generados por el trabajo
D- Discusión… ¿Qué significa lo descubierto, el hallazgo? Interpretar y relacionar con otros estudios, argumentar la
validez.
Tesinas
La tesina es una denominación no universalmente usada, que sirve para designar a trabajos de corta o mediana
extensión que son presentados para su correspondiente evaluación académica. Desde el punto de vista pedagógico,
cumple el mismo papel de las llamadas monografías: conocer los conocimientos y habilidades metodológicas de los
estudiantes respecto a un determinado tema por medio de una disertación escrita. Sus características específicas
dependen, pues, de lo que al respecto consideren conveniente los departamentos, cátedras y profesores de cada
asignatura.
Los requisitos formales para la presentación de proyectos (EN GENERAL) dependen de los criterios de la institución
receptora del proyecto. Esto mismo sucede con los artículos a ser publicados en revistas científicas.Los requisitos

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

formales mínimos que deben establecer las instituciones académicas o Revistas incluyen: a) Número de páginas-b) Tipo
y tamaño de la letra, márgenes y espacios.c) Ubicación de las notas y d) Manejo de las referencias bibliográficas.
Es indispensable adoptar criterios coherentes que deben ser mantenidos a lo largo de todo el trabajo.
 No existe un único modelo formal de presentación de los trabajos. Se puede elegir entre diversos estilos.
 Tipo y formato del papel: A4 blanco.
 Márgenes: Superior-3 cm-Inferior 2 cm. Izquierdo: 3 cm- Derecho- 1 cm.
 Interlineado: Sencillo- Doble. Alineación de texto: justificado.
 Títulos y tipografía: Se recomienda utilizar la fuente Times New Roman, por su legibilidad y disponibilidad en
cualquier equipo.
 Se cuentan todas las hojas excepto la Portada, aunque no todas llevan el número escrito.
 Páginas sin número escrito:-Índices-Introducción (página inicial)-Capítulos (página inicial)-Conclusiones (página
inicial)-Bibliografía (página inicial)-Portadillas (de apéndice/s, de notas a los capítulos).
 Citas textuales: Serán transcriptas en el mismo cuerpo de tipografía del texto entre comillas.Cita textual de tres
líneas o menos.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

Tesis.
TESIS: Del vocablo griego thesis (“acción de poner”) “Acción de poner una doctrina, un principio, una proposición...”
Proposición, procedente del latín propositum que significa tema a debatir.
“disertación presentada para doctorarse. Obras destinadas a demostrar la verdad de una teoría”.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION

“proposición que se mantiene con argumentos “


La tesis (del griego Thesis: posición) implica el estudio profundizado de un tema general o particular, con la finalidad de
sostener una proposición por medio del razonamiento. La obra debe ser original, novedosa.Una tesis en Derecho,
responderá al volumen de un libro, es decir una extensión entre 150 y 600 paginas. Humberto Eco, considera como
media entre 100 y 400 paginas.Entendemos por tesis, cuando nos referimos al uso original del término, una proposición
que puede ser sostenida o demostrada mediante pruebas y razonamientos apropiados.
Por extensión, desde hace muchos siglos, se ha llamado así a la exposición escrita que una persona presentaba ante una
Universidad o colegio para obtener el título de doctor.
Actualmente se llama tesis al trabajo escrito que permite demostrar, a la conclusión de los estudios, que el graduando
amerita el grado académico al que aspira.
Una tesis, por lo tanto, es un trabajo serio y bien meditado que sirve como conclusión a varios años de estudio,
demostrando aptitudes, del aspirante en el campo de la investigación y dándole oportunidad a éste para realizar por sí
solo una indagación científica. Las tesis por lo tanto, son trabajos científicos relativamente largos, rigurosos en su forma
y contenido, originales y creativos. Estas características solo se dan en tesis de máximo nivel, las que corresponden a los
cursos de doctorados.
En caso de otros estudios de postgrado la exigencia de la originalidad puede atenuarse y más aún en las tesis de
pregrado o licenciatura, donde el rigor metodológico y la profundidad del trabajo suelen ser bastante menores.
¿Cuánto tiempo se requiere para hacer una Tesis?Según Eco: no más de tres años y no menos de seis meses.
No más de tres años porque si en tres años de trabajo no se ha logrado limitar el tema y encontrar la documentación
necesaria, esto solo puede significar tres cosas:
1) Ha elegido una tesis equivocada.
2) Pertenece al tipo de los eternos descontentos que querrían decirlo todo y siguen trabajando durante veinte
años.
3) Se le ha declarado la neurosis de la tesis; la deja de lado, la vuelve a tomar, no se siente realizado.
No menos de seis meses, entre estudia el planteamiento del trabajo, buscar la bibliografía, ordenar los documentos y
redactar el texto, seis meses pasan en un abrir y cerrar de ojos.
TESIS DOCTORAL: Valida metodológicamente un recorrido cuyo resultado es necesariamente la ampliación del quantum
de conocimiento científico de la disciplina en la que se presenta,
TESIS DE POSGRADO: Supone nuevo conocimiento, generalización de las conclusiones a otros casos de la misma
naturaleza que el investigado, alcanzando por ello la condición de universalidad.
TESINA DE GRADO: El aporte del producto se subordina a la función pedagógica del proceso realizado: sirve para que el
candidato a licenciado demuestre que puede elegir con autonomía aquellos conocimientos teóricos, metodológicos e
instrumentales aprendidos a lo largo del plan de estudios, para resolver un problema de conocimiento cuya elección es
propia, autónoma y en un sentido particular, original. La resolución de un caso se entiende por sí solo como un aporte
original, aunque no necesariamente puede generalizarse los resultados. El requisito de originalidad está cumplido si en
el análisis de un caso o el agrupamiento de información acerca de aspectos particulares de un corpus, la recopilación de
información no había sido antes agrupada de tal modo, o el tratamiento de la información y el modo de presentación de
sus resultados se diferencian claramente de otros trabajos ya realizados.Esto sucede tanto para las tesinas de
investigación clásicas como para aquellas formuladas como una propuesta de intervención profesional, o la
sistematización de una experiencia.

LODOL, ALDANA MELINA


SEMINARIO DE INVESTIGACION

LODOL, ALDANA MELINA

También podría gustarte