Está en la página 1de 122

Instituto Profesional Diego Portales

AUTÓNOMO

Asignatura

METODOLOGÍA
DE LA
INVESTIGACIÓN
Autor: RICARDO GONZÁLEZ JIMÉNEZ

1
Instituto Profesional Diego Portales
AUTÓNOMO

INVITACIÓN AL MÓDULO

La investigación puede sonar muy lejana para alguien que sólo desea trabajar en la empresa
privada o pública. ¿Qué sentido puede tener aprender acerca de los procesos de la investigación?,
si lo único que quiero es terminar mi carrera para trabajar y no para quedarme en un laboratorio.

Por el contrario, los procesos de investigación, lejos de quedar marginados a un laboratorio están
ligados directamente con nuestros puestos de trabajo y nuestra vida cotidiana en diferentes
aspectos, desde una inquietud del jefe por cierto proceso productivo o administrativo donde
obligadamente debemos elaborar un informe – entendible y presentable, hasta la necesidad de
mejorar las tasas de ventas de la compañía o informar al directorio sobre el grado de
predisposición de los clientes finales a aceptar el nuevo diseño de nuestro producto estrella.
También podemos vernos enfrentados a la necesidad de conocer los efectos de una campaña
publicitaria en nuestras ventas, para decidir sobre el presupuesto para publicidad del próximo
periodo, o conocer los resultados que tuvo el programa de capacitación interna de la compañía, en
la productividad. En fin, donde hayan personas y procesos productivos habrá un sin fin de
posibilidades, de situaciones que será necesario entender, y muchas veces la comprensión clara
de tales realidades nos ayudará a mejorar las condiciones de trabajo, o a aumentar la eficiencia y
eficacia de la administración y la producción.

La investigación científica a permitido a los hombres de ciencia, pensadores y personas en


general a resolver y dilucidar todo tipo de problemas e inquietudes que, posteriormente, han
ayudado, ya sea a descartar ciertas posibilidades, a elegir ciertas opciones innovadoras, eficientes
y eficaces, o a incrementar los conocimientos de la humanidad.

La investigación científica consiste de un proceso definido con ciertos pasos a seguir. Estos son
siempre los mismos y varían muy poco entre los diferentes científicos e investigadores. A fin de
cuentas tales pasos son necesarios para asegurar la validez de la investigación, de manera que sus
resultados sean reconocidos y entendidos por las demás personas. Si quisiéramos entender la

2
Instituto Profesional Diego Portales
AUTÓNOMO

investigación científica de otra manera podríamos decir que es “la manera formal de averiguar
sobre las cosas que nos rodean”.

Existen diferentes tipos de investigaciones, dependiendo de lo que se quiere investigar, así


encontraremos investigaciones científicas experimentales y otras no experimentales, las cuales
nos llevarán a diferentes grados de explicación de un fenómeno, que puede ser físico, biológico,
social, económico o sociológico, entre tantos otros.

Ya dijimos que los pasos de la investigación científica casi no varían de una ciencia a otra, sin
embargo los ejemplos que daremos en este curso estarán orientados principalmente a las ciencias
económicas y administrativas para ayudar a entender las aplicaciones de lo aprendido en la vida
real y en el trabajo.

Por último los queremos invitar a disfrutar de esta maravillosa herramienta metodológica de
trabajo que les mostrará una nueva forma de ver y entender las cosas y les ayudará a facilitar su
vida laborar en muchos aspectos.

3
Instituto Profesional Diego Portales
AUTÓNOMO

OBJETIVO GENERAL DEL MÓDULO

 Al término del curso el alumno será capaz de:

- Conocer las características fundamentales de la investigación científica como proceso que


permita generar conocimientos y/o resolver problemas, de manera que pueda desarrollar
trabajos de investigación científica en su área de formación.

OBJETIVOS ESPECÍFICOS

 Al término de cada unidad, el alumno será capaz de:

Unidad I:

- Reconocer la importancia y los propósitos de la ciencia.


- Identificar las principales características, elementos, supuestos y límites de la ciencia.

Unidad II:

- Identificar las etapas que forman parte del proceso de investigación.


- Aplicar las etapas de la investigación al ámbito de su especialidad.

Unidad III:

- Explicar los métodos de investigación educacional, identificando ventajas y desventajas.


- Identificar los sectores o áreas susceptibles de ser investigados.

Unidad IV:

- Aplicar los requisitos formales de investigación en un trabajo práctico.

4
Instituto Profesional Diego Portales
AUTÓNOMO

ASIGNATURA
METOLOGÍA DE LA INVESTIGACIÓN

PRIMERA UNIDAD
INTRODUCCIÓN A LA INVESTIGACIÓN

OBJETIVO GENERAL DE LA UNIDAD TEMÁTICA

 Reconocer la importancia y los propósitos de la ciencia.


 Identificar las principales características, elementos, supuestos y límites de la ciencia.

5
Instituto Profesional Diego Portales
AUTÓNOMO

La investigación científica es como cualquier otra investigación, sólo que es realizada con
mayor cuidado y rigurosidad, respetando ciertos métodos y pasos. Es una herramienta que le ha
permitido al hombre descubrir el entorno que lo rodea y las explicaciones de los fenómenos de la
naturaleza. Esta es de carácter universal y es de utilidad para la humanidad.

A medida que avanzan las investigaciones del hombre en todos los aspectos de la ciencia,
tanto matemática, física, social, económica, entre tantas otras, la humanidad acumula sabiduría
que le sirve tanto para entender su entorno y las leyes de la naturaleza como para resolver
problemas prácticos. Por ejemplo, el desarrollo de la ciencia médica ha permitido reducir las
tasas de mortalidad en los distintos países del mundo, y con el avance en los conocimientos de las
ciencias económicas el hombre ha sido capaz de administrar los recursos de los países y resolver
de mejor manera el problema de la escasez de alimentos y recursos en general, o de manejar de
mejor forma las finanzas de las naciones con nuevas técnicas económicas, financieras y de
administración.

Los propósitos principales de la investigación científica son:

1.- Producir conocimientos y teorías (Investigación


básica).

2.- Resolver problemas prácticos (Investigación


aplicada).

Esto significa que, por un lado, la investigación aporta nuevos conocimientos a la


humanidad, ya sea a través de descubrimientos, planteamientos de nuevas teorías o simplemente
encontrando la explicación de por qué ocurren ciertos fenómenos y cómo cada variable o
característica del fenómeno está relacionada con otros factores. Es decir, teoría pura, que puede
servir para solucionar algún problema de la vida real, dependiendo del uso y aplicación que se le
quiere dar. Por ejemplo, cuando Isaac Newton encontró que la aceleración de gravedad era más o
menos constante, independiente de la cantidad de masa de un objeto, encontró una explicación
para la teoría de la gravedad y pudo comprobar que si tiraba un alfiler y un yunque desde lo alto
de una torre, éstos demorarían lo mismo en tocar el suelo. Este nuevo conocimiento sobre la
gravedad de la tierra ayudó a entender el comportamiento de la caída de los objetos. La teoría
planteada por él al hacerse universal se convirtió en una ley de la gravedad.

6
Instituto Profesional Diego Portales
AUTÓNOMO

Por otro lado, está la investigación orientada exclusivamente a resolver un problema


práctico en particular. Por ejemplo, algún problema técnico que debe resolver una compañía o
fábrica para cumplir un objetivo, como la elaboración y fabricación de algún producto, en un
proceso de innovación tecnológica para aumentar la eficiencia de producción; eliminar pasos
administrativos burocráticos o simplemente para ahorrar costos. Esta se denomina investigación
aplicada. Por ejemplo, en una fábrica de zapatos se quiere aumentar la eficiencia y eficacia de
pegado de las suelas. La gerencia puede pedir al proveedor de pegamentos varias muestras de
distintas alternativas de adhesivos y se puede experimentar con cada uno de ellos. El
Departamento de Control de Calidad puede determinar que un porcentaje de los adhesivos
cumple con las especificaciones técnicas requeridas por la fábrica para pegar las suelas y
recomienda a la gerencia, en informe escrito, las dos alternativas de mejor resultado y menor
costo. El informe anterior corresponde al reporte de una investigación totalmente aplicada a un
caso puntual de una fábrica de zapatos. Sin embargo, las decisiones que se tomen van a tener
implicancias tanto de costos de producción como de calidad y eficiencia y eficacia de producción.

La aplicabilidad de un conocimiento o teoría determinada dependerá en gran medida de la


imaginación de los seres humanos para darle uso. Ello nos invita a pensar que muchas veces
podemos poseer las soluciones para nuestros problemas sin siquiera darnos cuenta, por lo tanto
cualquier conocimiento que adquiramos no sirve de nada si no lo aplicamos.

1.1 Fuentes del Conocimiento.

El conocimiento proviene del entendimiento humano y de la capacidad de raciocinio del


hombre. En un principio el conocimiento es tomar conciencia de la realidad, de lo que ocurre
alrededor y más allá de nuestros ojos, y al final de cuentas, tiene que ver con la necesidad del
hombre de entender el universo y la naturaleza, es decir, lo que lo rodea. Por un lado, el
conocimiento existe si el hombre es capaz de tomar conciencia de ello, pero por otro lado, antes
de ese hecho, el conocimiento duerme en forma de leyes insospechadas de la naturaleza que el
hombre no es capaz de entender aún.

Desde un punto de vista humanístico, el conocimiento no existiría si el hombre no tiene


conciencia de ello, pero de un punto de vista más universal, independiente si el hombre tiene
capacidad de entendimiento o no, el conocimiento existe por sí sólo, en forma independiente, en
forma de leyes del universo y de la naturaleza, de relaciones entre ciertos, o todos, los
fenómenos. Luego, el conocimiento está dormido hasta que el hombre sea capaz de despertarlo.
Las leyes de la naturaleza no necesitan ser inventadas, ya existen por sí mismas y solo necesitan
ser descubiertas y entendidas. Los inventos hechos por el hombre están basados en estas leyes, y
son el producto de la imaginación para resolver problemas prácticos de la vida. Por ejemplo, la
invención del automóvil fue posible después de que el ser humano hubo dominado ciertos
aspectos de la mecánica y la física, pues el automóvil sería impensado sin un motor de
combustión interna, sin sistemas de transmisión mecánica y/o hidráulica, entre otras aplicaciones
necesarias para completarlo.
7
Instituto Profesional Diego Portales
AUTÓNOMO

El conocimiento científico es aquel que ha sido descubierto por el hombre a través de la


investigación científica. Este es un conocimiento formal, comprobable y objetivo, está libre de
juicios de valor y opiniones personales. Es una expresión técnica, matemática o formal de
relaciones y hechos de la naturaleza y el universo (Incluido el comportamiento humano).

Dado lo anterior, las fuentes del conocimiento son a) la naturaleza y el universo, b) el


razonamiento humano (Releguemos la inspiración al conocimiento humano), y c) la
experimentación.

a) La naturaleza y el universo: En la naturaleza existen leyes naturales que actúan tanto en


forma independiente una de otra como en mutua dependencia. Por ejemplo, las leyes de la
gravedad, de la física, de la biología, entre otras tantas, que el hombre recién a empezado a
descubrir y entender. A medida que se descubren más leyes y se pueden plantear teorías más
precisas de por qué ocurren los fenómenos naturales, se abren más puertas al conocimiento de
la humanidad, en forma de sospechas sobre posibles nuevas teorías que puedan explicar
mejor alguna teoría poco probada, o en forma de nuevas teorías que pueden remecer los
conocimientos que se poseen hasta la fecha. A medida que se van abriendo estas puertas, la
avidez del ser humano por nuevos conocimientos es mayor, por ello, la humanidad está
destinada a incrementar su sabiduría con el paso del tiempo. Así, donde fracase un científico
otro tendrá éxito, aunque sea para descartar una teoría. Por ejemplo, Albert Einstein, falleció
mientras trabajaba en su Teoría de Campo Unificado, la cual buscaba explicar con
demostraciones matemáticas la unión de los distintos campos de la ciencia física. Donde él
fracasó puede que otro científico tenga éxito y logre completar tal teoría.

En la actualidad casi todos los conocimientos de la humanidad están interrelacionados entre


sí, haciendo que las distintas ciencias se confundan. Así por ejemplo, puede que un ecólogo
esté interesado por la ecología humana y se confunda con los estudios de un antropólogo o los
de un sociólogo. Un economista no estaría nada de perdido estudiando junto a este ecólogo
una población determinada de personas.

Los grandes proyectos de investigación, normalmente tratan de abarcar distintos puntos de


vista de una misma realidad, y para ello se requiere del trabajo en conjunto de distintos
especialistas de diferentes áreas. Así por ejemplo, en un estudio de impacto ambiental previo
a la construcción de una represa, supongamos en este caso, la represa Ralco, sin duda requirió
de la participación de Biólogos, ecólogos, entomólogos, ingenieros ambientales, forestales,
agrónomos, veterinarios, entre quizás cuantos más para analizar el impacto de la represa en el
medio ambiente y el microclima. Por otro lado, de seguro, trabajaron codo a codo,
antropólogos, sociólogos, ecólogos, periodistas y abogados para abordar el impacto social de
la obra tanto sobre la comunidad local como nacional. Por otro lado, indudablemente se
debieron participar los dirigentes de las comunidades cercanas al río, y esto es, desde que
nace hasta que desemboca en el mar.

8
Instituto Profesional Diego Portales
AUTÓNOMO

b) El razonamiento humano. Otra fuente de conocimientos es la capacidad humana de


entender lo que percibe. Por ejemplo, tuvieron que pasar miles y miles de años para que un
ser humano planteara la ley de la gravedad hasta que Isaac Newton, después de observar
como caían las manzanas del árbol se inspirara y se preguntara a sí mismo la razón de tal
fenómeno. Eso no quiere decir que fue el primer ser humano a quien le cayó una manzana en
la cabeza. Lo anterior nos invita a pensar que si los hombres no fueran racionales, los
conocimientos no tendrían mucha utilidad para la humanidad. La explicación para que
pasaran tantos años para tal planteamiento, es que la humanidad al ir adquiriendo nuevos
conocimientos logra un nivel superior de entendimiento de su entorno, que lo habilita para
hacerse preguntas cada vez más complejas sobre fenómenos cada vez más intrincados.

El ser humano cuando logra un nivel de conocimientos gracias a su imaginación puede crear
conceptos o cosas que le ayuden a hacer la vida más fácil o a resolver algún problema
práctico. Así, gracias a los conocimientos ha creado automóviles, aviones, barcos,
computadores, entre tantas otras cosas.

c) La experimentación. Por último, dado que gran parte del conocimiento se logra descubrir a
partir de la observación metódica (investigación) de la naturaleza, incluido el
comportamiento humano, muchas veces es necesario repetir en forma artificial ciertos
sucesos para observar con más detalle y aislar el fenómeno de interés de los demás eventos.
Tal repetición de fenómenos es denominada experimentación, la cual requiere de cierto grado
de planificación y el uso de técnicas que aseguren que realmente estamos repitiendo el
fenómeno que nos interesa y, por lo tanto, podremos observar lo que ocurre con él, y no otro
suceso. Por ejemplo, en una compañía de productos lácteos creen que los consumidores
prefieren el yogurt A al B. Para ello, toman un grupo de 50 personas y les dan a probar de
ambos yogurts sin decirles que tipo es cada uno. Luego se les solicita que indiquen cuál les
gustó más y se toma nota. Es muy probable que si un tipo de yogurt es significativamente de
mejor sabor que el otro la opinión promedio de las personas consultadas coincida con la
preferencia del yogurt de mejor sabor. Sin embargo, como en gustos no hay nada escrito
pudiera ser que a 25 personas les guste el tipo A y a las otras 25 les guste el de tipo B y, en tal
caso, podemos concluir que a la mitad de los consumidores les gustará un tipo y a la otra
mitad el otro.

1.2 Características del conocimiento científico

Una de las características del conocimiento científico es su formalidad. Se presenta de una


forma estructurada siguiendo cierto protocolos, es decir, el conocimiento científico es producto
de un proceso dinámico, cambiante y continuo, que tiene una serie de etapas que se derivan unas
de otras, y saltarse alguna de ellas o cambiar el orden puede significar la pérdida de validez de la
investigación científica.

La investigación científica se caracteriza por ser “Sistemática, controlada, empírica y crítica”


de propuestas hipotéticas sobre supuestas relaciones entre fenómenos.
9
Instituto Profesional Diego Portales
AUTÓNOMO

o Sistemática y controlada se refiere a que existe una disciplina para llevar a cabo las
investigaciones científicas, que incluye ciertos procesos y métodos, por lo tanto nada es
realizado al azar o en forma improvisada.

o Empírica, se refiere a que toda la evidencia usada para una investigación es tomada de la
realidad (datos reales) - no supuestos.

o Crítica, se refiere a que se juzga en forma objetiva y, por lo tanto, se excluyen


terminantemente los juicios de valor y opiniones personales (subjetivas).
Por último, la investigación científica no es un proceso hecho sin pensar, sino más bien un
proceso muy metódico, cuidadoso y detallista.

1.3 Ciencia, tipos de ciencias, su naturaleza y sus límites.

La filosofía como ciencia madre. La ciencia de las ciencias es la filosofía, donde nace el
interés por estudiar la naturaleza, el universo y el hombre. Aquí se persigue el saber con un fin
altruista de conocimiento de las cosas. En este contexto, aparece en la antigua Grecia Sócrates, un
controversial filósofo que al darse cuenta de su ignorancia entiende que a la vez es él más sabio
de todos, pues tiene conciencia de su estado de ignorancia, en contraste con otros pensadores y
personas que se creen sabios creyendo que lo saben todo e ignorando que desconocen otro tanto.
Su célebre afirmación “Solo sé que nada sé” ha llegado a nuestros días después de miles de años.
Como pensador, él se da cuenta que nadie tiene el conocimiento absoluto de las cosas, nadie lo
sabe todo. Se plantea que existe efectivamente una verdad absoluta de las cosas, y que el filósofo
busca esa verdad por medio de aproximaciones o verdades parciales.

La verdad absoluta se refiere a aquella verdad universal sobre algo. Por ejemplo, se sabe
que existe una verdad absoluta e irrefutable para explicar el origen de nuestro universo (Nuestro,
porque ¿quién dice que no existan más universos?), y cada una de las teorías (Científicas) y
creencias (religiosas) con las distintas explicaciones sobre el origen del universo trata de
aproximarse a esa verdad absoluta con una verdad parcial.

Se piensa que mientras más objetiva sea una verdad más posibilidades tenemos de
acercarnos a la verdad absoluta sobre algo. Una meta de la filosofía es buscar la verdad absoluta
por medio de aproximaciones parciales de la verdad usando verdades lo más objetivas posibles.
Por ejemplo, Si hablamos del derecho a la vida. Existe un acuerdo casi absoluto que todos los
seres humanos tienen derecho a la vida. Por ello tanta reticencia a aceptar un aborto o una pena
de muerte. Por lo anterior, y por el grado de objetividad alcanzado, se puede afirmar que el
derecho a la vida es un principio o verdad absoluta, y si no, está muy cercano de serlo.


Plano Objetivo: Que hay acuerdo entre 2 o más personas sobre algo; Plano Subjetivo: La opinión de una persona
sin necesidad de estar de acuerdo con otra.
10
Instituto Profesional Diego Portales
AUTÓNOMO

A pesar de los años que han transcurridos desde los tiempos de Sócrates, todavía no
cambia la receta para progresar en la adquisición de nuevos conocimientos, donde es necesario
reconocer previamente la ignorancia para buscar la verdad. Esta posición nos da un grado de
imparcialidad y objetividad en la hora de adquirir nuevos conocimientos.

La filosofía, al comenzar a especializarse en diferentes áreas del conocimiento, muy


pronto se vio fragmentada en distintas ciencias, como las ciencias naturales, matemáticas y
físicas, ciencias sociales, y así sucesivamente

Etimológicamente la filosofía es análoga a la «búsqueda del saber» (o de la sabiduría profunda),


la palabra filosofía suele más bien entenderse como posesión o como pretensión de poseer dicho
saber (o sabiduría). Reflejo de la cultura en que surge e inseparable (sobre todo en sus orígenes)
del mito y de la religión, la filosofía suele identificarse con la que debería llamarse filosofía
occidental, surgida en Grecia en el s. VI a.J.C., en el marco de la tradición épico-religiosa
homérica y con posterioridad encausada y reformulada por otra tradición también religiosa: la
judeo-cristiana. Sin embargo, existe también otra filosofía, radicalmente distinta de la anterior: la
filosofía oriental, cuyos inicios se remontan al s. VI a.J.C., con Lao-Tsé y Confucio en China y,
con Buda en la India.
La filosofía occidental debe situarse en el marco de la mitología y de la cosmología
homérico-hesiódicas, de las religiones órficas, de la fe mosaica o hebrea (la Torá y los profetas
del Antiguo Testamento), de la fe cristiana (Nuevo Testamento), del judaísmo tardío y del Islam
(Corán). A su vez, la filosofía se relaciona con otros saberes o ciencias; en su origen era
inseparable de la astronomía y de la cosmología, de las matemáticas y de la física (de ésta
precisamente recibió su nombre la parte más filosófica de la filosofía: la metafísica), del derecho
y de la medicina. Así mismo, un buen número de disciplinas tiene su origen en ella (la
epistemología, la ética, la lógica, la política, la sicología, la pedagogía y la estética).

La ciencia, como concepto, puede definirse como un conocimiento cierto, exacto y razonado de
las cosas por sus principios y causas, susceptibles de demostración. Un cuerpo doctrinal
sistematizado que constituye una rama particular del saber humano.

Las características esenciales de cualquier ciencia son: la existencia de un conjunto de objetos


(materiales o conceptuales) que constituyen el campo de actuación característico; las teorías o
conjunto de proposiciones fundadas en determinados principios generales, formando un todo
lógico y coherente, y los métodos científicos o procedimientos de que se vale para ampliar los
conocimientos y criterios que rigen sobre la validez de las demostraciones. Además, toda ciencia
presenta un aspecto descriptivo o de enumeración objetiva de cuerpos y de sus propiedades; un
aspecto especulativo, de hipótesis formuladas con el fin de explicar determinados fenómenos; un
aspecto experimental, consistente en provocar determinados fenómenos en condiciones conocidas
o controladas, para verificar las relaciones de causa y efecto, y un aspecto deductivo, de
elaboración teórica por métodos lógicos para inferir consecuencias de unos hechos o de unas


Filosofía de la ciencia
11
Instituto Profesional Diego Portales
AUTÓNOMO

hipótesis, que permitan emitir conclusiones y elaborar sistemas teóricos coherentes entre sí y con
una realidad objetiva.
Las ciencias pueden abarcar cualquier área del conocimiento, desde la metafísica que es la rama
más filosófica de la filosofía, hasta la biología, sociología, física o matemática, puesto que
corresponden al conocimiento que ha sido dividido en distintas áreas para su mejor comprensión,
pero al fin de cuentas, todas ellas forman parte de un todo.

Las limitaciones de la ciencia. Las diferentes ciencias tienen limitaciones para explicar ciertos
fenómenos, pues, muchas veces se necesitan varios enfoques o puntos de vista para explicar un
mismo acontecimiento. Así por ejemplo, la caída de un meteorito en el Desierto de Atacama
puede ser abordado desde muchos ángulos. Desde el punto de vista de la geografía, puede ser de
interés determinar las coordenadas del lugar donde cayó y los cambios en el relieve provocados
por el impacto; desde el punto de vista de la física puede ser interesante explicar la trayectoria y
la velocidad con que cayó; desde la mirada de la astronomía puede ser importante registrar la
fecha y hora del avistamiento del cuerpo espacial, los motivos por los cuales se estrelló contra la
tierra, su origen, si es del cinturón de asteroides próximo a Marte, o si corresponde a una parte
fragmentada de un asteroide extra Sistema Solar; desde el punto de vista de la sociología, podría
importarnos determinar el efecto social que produjo sobre el comportamiento de la comunidad
(miedo, pánico, curiosidad, comentarios), y así sucesivamente.

Por lo anterior podemos decir que ninguna ciencia es más importante que otra, pues cada
una de ellas hace un aporte específico tanto a la explicación de una teoría, como a la solución de
un problema práctico. Por otro lado, es cierto que la mayoría de las ciencias tienen campos de
investigación más bien definidos y una ciencia determinada puede ser suficiente para explicar
cierto fenómeno.

Otra limitación de la ciencia es la propia capacidad humana para comprender su entorno


y las leyes de la naturaleza. En ello está incluida la capacidad del ser humano de aplicar las
teorías científicas en la solución de los problemas prácticos de la vida real. La mayoría de las
ocasiones los seres humanos tienen la teoría base para solucionar los problemas prácticos que se
les presentan, pero fallan en la capacidad de ingenio e imaginación para resolver tal problema.
Tal capacidad puede ser de relevante importancia al momento de diseñar nuevos productos
novedosos para la industria y el comercio que se distingan significativamente de la competencia,
o al momento de diseñar y mejorar procesos productivos. Lo anterior puede traer como resultado
la reducción significativa de costos de producción y de tiempo o el aumento exponencial de las
ganancias por mayores ventas de un producto que suple las necesidades de los consumidores de
mejor manera que la competencia.


Ciencia de los primeros principios y de las primeras causas del ser.

12
Instituto Profesional Diego Portales
AUTÓNOMO

El científico o ingeniero u operador que necesite probar y desarrollar un nuevo método, un


nuevo proceso o una nueva técnica de trabajo, deberá estar dotado de una suficiente capacidad de
ingenio para aprovechar los conocimientos que haya adquirido, sino su avance será lento y puede
que nunca encuentre la solución final del problema. Luego, el profesional deberá estar atento a
chequear continuamente si la solución encontrada es definitiva o si es factible de seguir
mejorando. Por ejemplo, a un ingeniero comercial, que trabaja para el departamento de
desarrollo y proyectos de una transnacional, se le encarga proponer un sistema de control de
gestión para aplicar en una unidad de negocios de la compañía. Suponiendo que la propuesta de
sistema de gestión finalmente es aprobada por el directorio y aplicada en la realidad, hay dos
posibilidades: 1) Que el sistema es suficientemente bueno que deja conforme a los directivos
después de evaluar los resultados, o 2) que el sistema es bueno pero falla al controlar por
ejemplo, la gestión de producción o la gestión financiera, puesto que ocurrieron eventos que
debieron ser detectados a tiempo, como el desabastecimiento de un insumo que atrasó los pedidos
o la falta de presupuesto de capital de trabajo que obligó a renegociar las fechas de pago de
algunas facturas importantes. El ingeniero deberá estar atento a la revisión constante del sistema
de control de gestión hasta que ya no arroje fallas significativas para validar tal sistema. Este caso
bien podría ser producto de uno de los objetivos de calidad total recién implantados en la
compañía y/o ser parte de la política de mejoramiento continuo asumida por el directorio.

Otra gran limitación de la ciencia es la ética científica, relacionada con lo moralmente


aceptable o repudiable de las acciones de los científicos y profesionales que están investigando o
tratando de encontrar la mejor manera de resolver algún problema práctico. Muchas veces el
umbral de lo éticamente aceptable o reprochable no está bien definido y puede dar lugar a
discusiones serias entre profesionales destacados o de gran trayectoria para llegar a un acuerdo de
lo que debe aceptarse o rechazarse desde el punto de vista ético. Por ejemplo, en algún momento
la fecundación in vitro de seres humanos fue muy cuestionada desde el punto de vista ético,
influyendo en ello puntos de vista religiosos y morales. Con el correr del tiempo, la comunidad
científica ha llegado a un acuerdo o equilibrio sobre las prácticas de fecundación in vitro
éticamente aceptables y las que no. Esta misma comunidad científica debió llegar a ese estado de
equilibrio. Desde que nació el primer bebé de probeta hasta nuestros días, los hechos han
demostrado que tal técnica de fecundación es de valiosísima utilidad para muchas parejas que no
pueden procrear en forma natural, lo cual no justifica de ninguna manera algún tipo de
experimentación con embriones humanos.

En un principio, la ética está asociada a las acciones humanas, si ellas son buenas o malas,
de acuerdo al código moral que profesan y en base al cual han sido educados. Por ejemplo,
nuestra sociedad ha sido formada con base en un código moral cristiano, y la medida de
benevolencia o maldad de nuestras acciones están íntimamente ligadas a tal código. Para mayor
sustento es necesario revisar ambos conceptos la moral y ética, evitando así cualquier confusión
de lenguaje al respecto.

La moral. Se refiere al conjunto de reglas de conducta consideradas como válidas con respecto
a una norma o un fundamento. Este conjunto de normas determinan lo que es bueno y lo que es
malo y forman lo que se denomina un código moral. La moral está asociada a las culturas y a la
13
Instituto Profesional Diego Portales
AUTÓNOMO

religión. Así por ejemplo, se dice que la mayoría de los pueblos occidentales se rige por un
código moral cristiano, asociado al conjunto de reglas y normas morales cristianas.

El concepto es etimológicamente** análogo al de ética, el de moral suele hoy reservarse de


manera convencional a la conducta vivida o practicada de acuerdo con las normas que son objeto
de la ética (o filosofía moral), entendida ésta como reflexión sistemática sobre dichas reglas.

La ética. Disciplina que trata de la valoración moral de los actos humanos. Conjunto de
principios y de normas morales que regulan las actividades humanas. Conjunto de reglas o
principios que rigen la conducta profesional.

Del griego ethos, el término ética equivale etimológicamente al de «moral» (del latín mos, moris:
costumbre, modo de comportarse); sin embargo, el uso parece asignar a este segundo una
connotación teológico-religiosa y al primero otra más filosófica, o bien reserva el de moral para
la moral práctica o vivida, mientras que designa con el de ética la reflexión sistemático-filosófica
sobre dicha moral.

Como filosofía moral, la ética habla del comportamiento humano «bueno» o «malo»; sin
embargo, también apunta a aquella fuerza moral a la que aluden expresiones como «moral
elevada» o «alta» y «moral baja», que se manifiesta en sentimientos, inclinaciones y pasiones que
a veces ciegan, pero cuya ausencia lleva a un estar «sin moral»: a la falta de esperanza, a la
«acedia» de los medievales, esto es, a la pereza radical, al tedio y al hastío.

Según Hegel, se debe buscar una ética civil de convivencia: aunque no puede suprimirse
el pluralismo práctico de morales vividas, ha de convenirse en unos mínimos comunes a todo
ciudadano (esto es, los propios de la convivencia democrática), jurídicamente establecidos por
la constitución, de modo que el teórico de la moral pasa de la ética filosófica a la filosofía del
derecho.

El hombre debe ser entendido como un ser radicalmente moral, ético, y buscar en el
diálogo con los otros (continuación del propio intra diálogo) un contenido moral - regla, modelo,
virtud, ethos, deber, valor- del que se pueda dar razón no como algo superpuesto a la condición
humana, sino como proyecto que ésta, anticipándose, es y cuya realización requiere fuerza moral
(la «moral elevada» que sustituya a un «estar sin moral»).

1.4 Etapas del método científico

El método científico constituye un cuidadoso conjunto de procesos que deben cumplirse


religiosamente para que una investigación tenga validez científica. Cada uno de estos procesos

**
Del punto de vista lingüístico tiene el mismo origen
14
Instituto Profesional Diego Portales
AUTÓNOMO

constituye una etapa de la investigación científica. La investigación científica constituye un


conjunto de procesos dinámicos que parte con la concepción de una idea de investigación y
terminan con nuevos conocimientos científicos.

El primer paso, consiste en concebir una idea de investigación.

El segundo paso, consiste en plantear el problema de investigación, compuesto básicamente por


tres partes: El establecimiento de los objetivos de la investigación, el desarrollo de las preguntas
de la investigación y, la justificación y la viabilidad de la investigación.

El tercer paso, consiste en elaborar un marco teórico. Lo anterior basado en una revisión de la
literatura y de todos los antecedentes posibles, relacionados con el problema de investigación.
Esta revisión de la literatura parte con la detección de la literatura de interés, la obtención de ella,
su revisión, la extracción y recopilación de la información encontrada. Por último, cuando ya se
han recopilado suficientes antecedentes respecto del tema se puede digerir tal información y
construir con ella el marco teórico disponible.

Cuarto paso, consiste en definir si la investigación se iniciará como exploratoria, descriptiva,


correlacional o explicativa, y hasta qué nivel llegará.

Quinto paso, consiste en el establecimiento de las hipótesis de la investigación, detectar las


variables, definirlas conceptualmente (específicamente qué es lo que queremos representar con
cada variable), y por último, definirlas operacionalmente (es decir, si se pueden medir o no, cuál
es el costo de su medición).

Sexto paso, consiste en seleccionar el diseño apropiado de investigación, es decir, si se usará un


diseño experimental, preexperimental o cuasiexperimental, o si definitivamente se tratará de un
diseño no experimental.

Séptimo paso, consiste en la selección de la muestra, es decir, determinar el universo (para cada
variable a medir), y extraer una muestra que sea estadísticamente representativa.

Octavo paso, consiste en el proceso de recolección de los datos o mejor dicho en el proceso de
medición. Antes de nada se debe elaborar el instrumento de medición apropiado y aplicarlo,
luego se calcula la validez y confiabilidad del instrumento de medición, se codifican los datos y,
por último, se crea un archivo que contenga los datos de interés.

Noveno paso, consiste en el análisis exhaustivo de los datos obtenidos. Para ello, primero se
deben seleccionar las pruebas estadísticas, luego se elabora el problema de análisis y, finalmente,
se realiza el análisis.

Décimo paso, cosiste en la presentación de los resultados. Se elabora el reporte de la


investigación y se presenta el reporte de tal investigación (Presentación formal).

15
Instituto Profesional Diego Portales
AUTÓNOMO

1.5 Definición y propósitos de la investigación

La investigación es un proceso dinámico, cuyo fin es generar nuevos conocimientos para


la humanidad, sean ellos, nuevas teorías o conocimientos para solucionar problemas prácticos.

La investigación es un proceso compuesto por distintas etapas sumamente relacionadas


entre sí. Esta debe ser entendida como algo cotidiano y no como algo que solamente le
corresponde a los profesores y científicos.

La investigación es una indagación o examen cuidadoso, crítico, prolongado, intensivo e


intencionado, que comprende la definición y redefinición de problemas; la recopilación,
organización y valorización de datos; la formulación de hipótesis, deducciones y alcances de
consecuencias, que permiten, por último, el ensayo cuidadoso de conclusiones que nos
conduzcan a la VERDAD.

16
Instituto Profesional Diego Portales
AUTÓNOMO

SEGUNDA UNIDAD
ETAPAS DEL PROCESO DE INVESTIGACIÓN

OBJETIVO GENERAL DE LA UNIDAD TEMÁTICA

 Identificar las etapas que forman parte del proceso de investigación.


 Aplicar las etapas de la investigación al ámbito de su especialidad.

17
Instituto Profesional Diego Portales
AUTÓNOMO

2.1 ¿ Cómo nace una investigación? La idea

Las investigaciones nacen de ideas. Estas puede originarse de cualquier situación de la


vida real, a partir de una conversación trivial, de un libro, de un artículo en el periódico, una
película o un problema en el trabajo. Cualquier idea de investigación puede ser válida mientras
haya preguntas e inquietudes de por medio. Lo anterior quiere decir que mientras el hombre tenga
la capacidad de cuestionarse cosas las ideas van a seguir existiendo. Hasta el momento no se ha
inventado nada que reemplace una buena idea. Por ejemplo, un empresario que desea comer una
buena comida mexicana en una ciudad y sólo encuentra comida típica, rápida, vegetariana y
china. De inmediato puede pedir a su asistente que eche a andar un estudio de mercado para
evaluar la posibilidad de instalar un restaurante de comida mexicana en esa ciudad. Si la persona
es un economista, puede inspirarse en la idea de estudiar los tipos de comida que se ofrecen en la
ciudad y cómo se relacionan con el nivel adquisitivo y las costumbres de los habitantes. Si ahora
la persona es un sociólogo pudiera pensar en cuál es la relación entre el nivel cultural de los
habitantes de la ciudad y la comida que comen. La mayoría de las ideas iniciales son vagas y
requieren analizarse cuidadosamente para que sean transformadas en planteamientos más
precisos y estructurados.

Las ideas pueden surgir de cualquier situación, vivencia, inquietud, de la vida cotidiana, y
muchas veces son producto de la necesidad de solucionar algún problema, y no sólo una mera
inquietud intelectual.

Al desarrollar una idea, el científico o profesional debe familiarizarse con el campo del
conocimiento donde se ubica la idea. ¿Cómo?:
 Conociendo estudios, investigaciones y trabajos anteriores, es decir, debe averiguar todo
lo posible sobre el tema;
 no investigando sobre un tema que ya ha sido estudiado muy a fondo (La idea debe ser
novedosa);
 estructurando lo más formal posible la idea de investigación, y por último,
 seleccionando la perspectiva principal desde la cual se abordará la idea de investigación
(Sociológica, económica, comunicacional, etc.). La perspectiva principal no veta otros
enfoques, sólo corresponde a la perspectiva más importante de todas las que se van a
considerar.

Las buenas ideas no son necesariamente nuevas pero sí novedosas. Por ejemplo, mucho se
puede haber estudiado sobre la leche, los efectos sociales, nutricionales, de salud, entre tantos
otros, que pueden haber sobre la población debido a su consumo. Sin embargo, querer estudiar el
efecto económico de la producción y consumo de leche en la provincia de Ñuble, puede que no
signifique una novedad del punto de vista metodológico, pero quizás un gran aporte para la
economía de la provincia porque se puede validar a nivel provincial un estudio que ya había sido
hecho a nivel regional. Cualquiera diría que esa idea no tiene nada de novedoso, tampoco podría
ser novedoso estudiar la posibilidad de implementar una productora de postres helados similares
18
Instituto Profesional Diego Portales
AUTÓNOMO

o alternativos a los de “San Francisco de Loncomilla”, en la provincia de Ñuble, pero sí podría


ser novedosa la idea de desarrollar un nuevo yogurt instantáneo en polvo con diferentes sabores
para incrementar las posibilidades de venta a mejores precios de la leche producida en la
provincia. Tal desarrollo tecnológico podría ir más allá de la provincia y luego tener efectos
regionales y nacionales en la economía del sector lechero.

2.2 Planteamiento del problema en la investigación: Objetivos, preguntas de investigación y


justificación del estudio.

Existen tres elementos fundamentales para establecer un problema de investigación:

 Establecer objetivos de la investigación


 Desarrollar las preguntas de investigación
 Justificar la investigación y analizar su viabilidad

Plantear el problema no es más que afinar la idea de investigación. El investigador debe ser
capaz no sólo de conceptuar el problema, sino también de verbalizarlo en forma clara, precisa y
accesible. Un científico o profesional puede tener una clara idea de lo que quiere investigar pero
puede fallar en su intento de llevar esa idea al papel. Por otro lado, si la idea es muy vaga o
ambigua malamente podrá ser clara. Una manera de facilitar la tarea de aclarar las ideas es
plantearse los objetivos que persigue con esta idea de investigación. Por ejemplo, un objetivo
claro puede ser “desarrollar un nuevo proceso para producir yogurt en polvo”, que puede ir
acompañado por objetivos específicos que ayudarán a cumplir ese objetivo general. Para facilitar
más aún el procedimiento, es conveniente elaborar las preguntas que se desean responder, por
ejemplo, ¿Se puede producir yogurt en polvo?, ¿Cómo?. De los procedimientos desarrollados o
de los preexistentes, ¿cuál es el más apropiado para las condiciones dadas?. Finalmente, se debe
justificar las razones por las cuales es conveniente llevar a cabo tal investigación y al mismo
tiempo probar que tal investigación es viable de llevar a cabo desde el punto de vista de los
costos de tiempo, personas y dinero que se emplearán en tal investigación.

“Un problema correctamente planteado, está parcialmente resuelto”

El científico debe ser capaz de formular de manera lógica y coherente el problema de


investigación científica; redactar los objetivos y las preguntas de investigación científica, y por
último, comprender los criterios para evaluar un problema de investigación científica. Por
ejemplo, se deben tener en cuenta alguno de los siguientes criterios:

- La idea de investigación puede involucrar el estudio de la relación entre 2 o más


variables, si hay correlación o no, qué factores afectan tal relación, etc.
- El problema debe ser formulado claramente y sin ambigüedades, es decir, debe indicar
claramente lo que se quiere investigar.
- El problema debe implicar la posibilidad de realizar una prueba empírica, esto es, que
puedan tomarse datos reales para la investigación, ya sea en un laboratorio o en la vida
19
Instituto Profesional Diego Portales
AUTÓNOMO

real, de esa manera se puede respaldar las conclusiones de la investigación. Lo anterior


nos sugiere descartar de antemano cualquier investigación en la cual no se pueda
comprobar lo planteado los datos reales. Por ejemplo, si es una investigación científica
sobre la existencia de ovnis, no será factible al menos que consiga uno. Lo mismo pasará
si quiere investigar sobre los espíritus, mientras no atrape uno y lo encierre en algún trasto
será imposible investigarlo.

2.2.1 Objetivos del problema de investigación. Los motivos de la investigación pueden estar
conducidos por 2 situaciones: La necesidad de resolver un problema práctico determinado, y la
de probar una teoría (o aportar evidencia empírica a su favor). Por ejemplo, un problema
práctico puede ser la necesidad de encontrar un nuevo envase de bebida que interese a los
consumidores de manera que estos prefieran esta bebida “x” entre sus sustitutos. Por otro lado, un
problema teórico sería aportar evidencia empírica a la idea que tal tipo de envase compuesto de
un material biodegradable es realmente biodegradable. El estudio estará conducido a la
comprobación de que ese material es biodegradable y en qué condiciones puede serlo. Aunque
este último estudio aporta evidencia empírica donde se prueba las condiciones de degradación
natural de cierto polímero, tal conocimiento teórico tienen una utilidad práctica. Como dijimos
anteriormente, la utilidad de los conocimientos teóricos va a depender de la imaginación del ser
humano para darle uso a tales conocimientos.

Los objetivos deben ser claros para evitar ambigüedades. Durante la investigación pueden
surgir objetivos adicionales, modificarse los objetivos iniciales, e incluso ser sustituidos por
nuevos objetivos, según la dirección que tome la investigación. Pues, un investigador puede partir
con una idea clara de investigación, pero a mitad del estudio pueden aparecer nuevos
antecedentes que hagan cambiar completamente los objetivos planteados al inicio.

Se puede elaborar un objetivo general que abarque a groso modo lo que persigue el
estudio científico en forma global y varios objetivos específicos que formen parte integral del
estudio y complementen el objetivo general. Por ejemplo, un objetivo general puede ser
“determinar la capacidad de degradación natural de un envase fabricado con un polímero X”, y
los objetivos específicos podrían ser: 1) “comparar la velocidad de biodegradación del polímero
X en distintos ambientes”; 2) “determinar el mejor ambiente de biodegradación del polímero X”;
3) “determinar el espesor óptimo en milímetros para asegurar una rápida biodegradación”, etc.

Los objetivos corresponden a las metas específicas que persigue la investigación, y como
ya dijimos, no hay cabida a la ambigüedad.

2.2.2 Preguntas de la investigación. Corresponden a las preguntas de lo que queremos conocer


con nuestra investigación. Esto significa, que planteamos el problema de investigación a través de
preguntas. Al igual que los objetivos, éstas deben ser específicas y libres de ambigüedades,
evitando que sean muy generales.
20
Instituto Profesional Diego Portales
AUTÓNOMO

Cuando hablamos de objetivos y preguntas específicas buscamos acotar el problema de


investigación. La idea es no tratar de ponernos metas muy amplias que después serán imposibles
de llevar a cabo por costos de tiempo y dinero. Así, los estudios tratan cuestiones específicas o
limitadas, aunque también hay macroestudios que pueden plantear preguntas más generales,
donde se estudian muchas dimensiones de un problema.

Al igual que en los objetivos, durante el desarrollo de la investigación pueden modificarse


las preguntas originales o agregarse otras nuevas. La mayoría de los estudios plantean más de una
pregunta ya que de este modo se pueden cubrir diversos aspectos del problema a investigar.

La forma más sencilla de entender como funcionan y para qué sirven las preguntas de
investigación es elaborar una pregunta de investigación por cada objetivo planteado. Por ejemplo,
siguiendo el ejemplo anterior, la pregunta general sería algo así : ¿Puede biodegradarse el
polímero X?, y las preguntas específicas podrían ser: ¿En qué condiciones ambientales se
degrada más rápido el polímero X?, ¿Cuál es el ambiente más adecuado para su biodegradación?,
¿qué espesor deben tener los envases?, etc.

2.2.3 Justificación de la investigación. La investigación debe tener un propósito definido, como


ya dijimos, puede estar ligado a solucionar un problema práctico o a la construcción de una nueva
teoría.

Debemos manejar dos conceptos básicos, la justificación de la investigación y la


viabilidad de llevarla a cabo, es decir cuál será su utilidad para la humanidad y si es factible de
llevar a cabo desde el punto de vista de costos de tiempo y dinero.

Justificación de la investigación. La investigación científica debe evaluarse de varias


perspectivas, tanto desde el punto de vista de los beneficios como de los costos para llevarla a
cabo. Por ejemplo, desde las siguientes visiones:

- Conveniencia ¿Para qué sirve?


- Relevancia social ¿Qué alcance social tiene? ¿Quiénes se beneficiarán con esta
investigación? y ¿Cómo?
- Implicaciones prácticas ¿Ayudará a resolver algún problema práctico?
- Valor teórico ¡La información puede servir para comentar, construir, desarrollar o apoyar
alguna teoría!
- Utilidad metodológica ¿Puede crear un nuevo instrumento para recolectar datos?
¿Desarrolla un nuevo método de investigación que ayuda a ahorrar costos de
investigación?

21
Instituto Profesional Diego Portales
AUTÓNOMO

Viabilidad de la investigación. Se refiere a la factibilidad de realizar la investigación, desde el


punto de vista de la disponibilidad de recursos financieros, humanos y materiales. Hay que
justificar la investigación del punto de vista de los costos de tiempo, de dinero, de personas
(científicos). Por ejemplo, podría justificarse fácilmente una investigación sobre el desarrollo de
nuevas variedades de trigo para mejorar la productividad de los cultivos, pero para tal programa
de investigación y desarrollo, los fondos destinados podrían ser insuficientes en un país pobre.
Esto nos indica que no siempre están los fondos necesarios para llevar a cabo una investigación,
por muy altruista que sean sus objetivos.

Por otro lado, aunque preliminarmente la investigación pase todas las pruebas de
viabilidad antes mencionadas, puede que definitivamente, ésta no se pueda realizar por una
cuestión moral o de ética. Por ejemplo, podría avanzarse mucho más rápido en la cura del cáncer
experimentando con seres humanos, pero ello implicaría disponer de personas en un experimento,
lo cual si se realiza en la práctica pero con las limitaciones correspondientes y el consentimiento
de los enfermos. Un ejemplo más radical podría ser el caso de las investigaciones conducentes a
la clonación humana, puesto que tiene serios cuestionamientos éticos y morales.

2.3 Elaboración del marco teórico.

Se refiere a la necesidad de crear un marco de referencia teórica para el área de estudio de


la investigación científica que se llevará a cabo. Por ejemplo, si la idea de investigación es sobre
el comportamiento de los consumidores ante una gran oferta de carne, esto es, quiero observar la
reacción de los consumidores cuando baja significativamente el precio de la carne. Lo primero
que debe hacer el investigador es interiorizarse de la ley de demanda, averiguar todo sobre las
preferencias de los consumidores, los niveles de ingreso, las costumbres, los gustos, los precios
de los productos alternativos a la carne, entre otros. También deberá averiguar todo sobre la
oferta de carne, cuantos productores hay, los impuestos específicos, si hay distorsiones de
mercado o no, las técnicas de mercadeo (Marketing) que se están usando en el mercado, la
diferenciación de los distintos productores y consumidores, etc. Todo ese proceso de recopilación
de información del tópicos relacionados con la investigación conducirá a la elaboración del
marco teórico que el investigador usará para su investigación y ayudará a definir el enfoque
teórico principal de la investigación (Económico, sociológico, etc.).

En la elaboración del marco teórico se pueden distinguir 3 subprocesos importantes:


 Revisión de la literatura
 Adopción de una teoría o desarrollo de una perspectiva teórica
 Extracción y recopilación de información de interés
 Construcción del marco teórico

La función más importante del marco teórico es sustentar teóricamente el estudio. Permite
analizar y exponer las teorías existentes, los enfoques teóricos, las investigaciones y los
antecedentes en general.
22
Instituto Profesional Diego Portales
AUTÓNOMO

Al recopilar y analizar la información pre-existente respecto al tema de investigación, se


puede prevenir errores que se han cometido en otros estudios, encontrar la orientación cómo
habrá de realizarse el estudio, qué tipos de estudio ya se han realizado, cómo se han analizado los
datos, qué diseños ya se han elaborado. El marco teórico amplía el horizonte de estudio y guía al
investigador para que se centre en su problema evitando desviaciones del planteamiento original,
conduce al establecimiento de hipótesis o afirmaciones que más tarde habrán de someterse a
prueba en la realidad, inspira nuevas líneas y áreas de investigación, provee de un marco de
referencia para interpretar los resultados del estudio.

2.3.1 Revisión de la literatura. En la revisión de la literatura debemos distinguir las diferentes


fuentes de información a la cual podemos acceder.

 a.- Fuentes primarias (o directas). Corresponden a libros, artículos, tesis, películas,


documentales, etc. Aquí los más importantes son los artículos científicos. Recordemos
que cada una de estas fuentes primarias de información pueden tener un mayor o menor
grado de credibilidad científica. Por ejemplo, en un libro podemos encontrar una
información que nos ayude a validad una hipótesis, pero puede que sea sólo una opinión
del autor que no ha sido sometida a comprobación alguna. Por ello, una investigación
científica seria debería basar su revisión de literatura principalmente en estudios
científicos de revistas científicas debidamente acreditadas. Sin embargo, no se debe
descartar otras fuentes de información dependiendo del caso.

 b.- Fuentes secundarias. Corresponden a referencias de segunda mano, por ejemplo,


resúmenes, compilaciones, referencias y opiniones de expertos. Por ejemplo, en un
artículo científico de Pérez (1990), éste menciona que el autor Johnson (1989) desarrolló
un proceso “X” de control de costos efectivo para aplicar en empresas corporativas. En mi
proceso de recopilación de información Pérez (1990) es una fuente secundaria, pero si
voy directo al artículo de Jonson (1990), al desacerme del intermediario accedo a
información de primera mano (fuente primaria).

 c.- Fuentes terciarias. Corresponde a catálogos donde citan a autores y títulos de


artículos (referencias bibliográficas).

Es recomendable que antes de comenzar a investigar en una biblioteca, se debe consultar a


uno o varios expertos en el tema que puedan dar algunas orientaciones generales tanto del tema
en general como de las posibles fuentes de información. Por ejemplo, el experto puede tener
conocimiento de cuál o cuáles revistas científicas publican lo último y más granado en el tema.

23
Instituto Profesional Diego Portales
AUTÓNOMO

Después se debe localizar la literatura, seleccionar las que serán de utilidad para nuestro
marco teórico específico, y desechar las que no sirven. Para ello, primero se analiza el resumen
(Summary) del artículo, y en caso de considerarlo de utilidad se revisan las conclusiones,
comentarios o discusión al final del artículo, y en última instancia se revisa y lee todo el artículo.

Se puede recopilar la información tomando nota en cuadernos, en casetes, resumiendo ideas,


tomando ideas, hasta copiar ideas textuales. En todo caso, independiente de la forma como se
acumule la información, se debe anotar la referencia completa, y luego la información
recopilada (Ficha bibliográfica).

Las fichas bibliográficas se pueden ordenar por materias, por título, por fechas, o por cualquier
otro criterio. Esto mismo nos ayudará a guardar la información en forma ordenada.

Las referencias bibliográficas se anotan de diferentes formas dependiendo de la fuente. Se


pueden encontrar buenos ejemplos de cómo anotar las referencias bibliográficas en cualquier
libro o artículo científico, en la sección de bibliografía.

Libros:
Ejemplo:
Husch, B., C. I. Miller and T. W. Beers. 1982. Forest Mensuration. John Wiley and Sons. 3º
ed. 402 p.

En la referencia hay 3 autores: Husch, Miller y Beers. Publicado en 1982. El título del libro es
“Forest Mensuration”. La editorial es John Wiley and Sons. Corresponde a la tercera edición y
tiene 402 páginas.

Artículos de revistas:

Ejemplo:
Kozak, A., D. D. Munro y J. H. Smith. 1969. Taper Functions and Their Aplication in
Forest Inventory. For. Chron. 45:278-283
Al final va el nombre de la revista (For. Chron.), el número de la revista (45) y las páginas en que
se encuentra el artículo (278-283).

24
Instituto Profesional Diego Portales
AUTÓNOMO

Artículos periodísticos: (en el caso de no estar indicado el autor del reporte, el diario pasa a ser
el autor)

Ejemplo:
Vera, R. 2003. Sicología: Ideas creativas para dedicar tiempo a la pareja. Diario El
Mercurio, Sociedad: Tema Dominical, página A19, Domingo 28 de Septiembre de 2003.

Aquí debe ir el nombre del medio informativo, la sección, página y fecha de publicación.

Entrevistas realizadas a expertos: (En el caso de entrevistas es recomendable usar un medio de


grabación de casete o video para respaldar lo escrito)

Ejemplo:
Cortés, J. 2003. “El mercado laboral en la provincia de Ñuble”. Entrevista realizada por
Juan Hinostroza y Juan Pérez a Jaime Cortés, jefe de la filial Ñuble de la CUT, el 23 de
Octubre de 2003, en la ciudad de Chillán. Entrevista disponible en video cinta.

Fuentes de Internet. Debe quedar claro, al igual que en el caso anterior, el nombre del autor y
fecha. Para efectos de este curso, las publicaciones de internet serán anotadas con el formato de
un artículo periodístico, salvo el caso de un artículo científico que aparezca en la red, pero con
todos los datos de su par en papel, es decir, nombre de la revista, volumen, número, año, autor,
etc. En las fuentes de internet se anotará al final la dirección http.

Ejemplo:
Vera, R. 2003. Sicología: Ideas creativas para dedicar tiempo a la pareja. Diario El
Mercurio on Line, Sociedad: Tema Dominical, Domingo 28 de Septiembre de 2003.
http:\www.emol.com/sociedad/temadominical.htm

Cuando se revisa información, lo más importante es anotar primero la referencia


bibliográfica y luego la idea recopilada. Lo que tomemos de esa fuente debe ser sustancial y de
importancia para la investigación. Por ejemplo: Ideas, cifras, ideas más opiniones del
investigador (opiniones suyas) sobre la idea, análisis de una idea extraída de una referencia,
varias ideas y datos extraídos de una referencia, reproducción textual de una o varias partes de la
referencia, resumen de la referencia, es decir, en la ficha bibliográfica se debe anotar todo lo que
parezca interesante para la investigación.

25
Instituto Profesional Diego Portales
AUTÓNOMO

Puede ser interesante seguir una guía para hacer resúmenes de referencias. Por ejemplo, se
puede seguir la siguiente estructura:
1. Referencia bibliográfica (se anota la referencia bibliográfica)
2. Problema de investigación (Identificar que problema se trata en el artículo)
3. Sujetos (de la investigación, que pueden ser personas o procedimientos que fueron
sometidos a la investigación)
4. Procedimientos de la investigación (identificar la metodología usada en esa
investigación)
5. Resultados y discusiones(Tomar nota de las conclusiones importantes que servirán
para validar nuestra investigación).

2.3.2 Construcción del marco teórico. Corresponde a la recopilación de la información


relacionada con el tema de la investigación científica que se quiere llevar a cabo. Permite
encontrar los adelantos realizados por otros científicos al respecto y sirve para acotar el tema de
investigación. También ayuda a discernir si la teoría existente y la investigación anterior sugieren
alguna(s) respuesta(s) a las preguntas de investigación, o provee una dirección a seguir dentro del
tema de nuestro estudio. Por ejemplo, se puede encontrar:

1. Que existe una teoría completamente desarrollada con abundante evidencia empírica
y que se aplica a nuestro problema de investigación.
2. Que hay varias teorías que se aplican a nuestro problema de investigación.
3. Que hay piezas y trozos de teoría con apoyo empírico moderado o limitado, que
sugieren variables potencialmente importantes y que se aplican a nuestro problema
de investigación.
4. Que solamente existen guías no estudiadas o ideas vagamente relacionadas con el
problema de investigación.

Con la construcción del marco teórico el investigador se forma una idea clara de los
avances que existen en el tema a investigar. Puede visualizar si se trata de un tema sumamente
estudiado o al revés, puede darse cuenta que hay poco o nada estudiado al respecto. Con ello le
será más sencillo encausar la investigación por la dirección correcta.

Cuando hablamos de teorías respecto a un tema determinado, debemos ponernos de


acuerdo a qué nos estamos refiriendo con el término teoría, pues podríamos encontrar infinidad
de definiciones. Para nuestro caso preferimos usar una definición para así poder hablar en el
mismo idioma, cuando nos refiramos a ella.

¿Qué es una teoría? Aunque existen variados enfoques para definir el término teoría, en esta
asignatura consideraremos que “una teoría es un conjunto de conceptos, definiciones y
preposiciones relacionadas entre sí, que presentan un punto de vista sistemático de fenómenos,
especificando relaciones entre variables, con el objeto de predicar y predecir los fenómenos”.
26
Instituto Profesional Diego Portales
AUTÓNOMO

La utilidad de una teoría va a depender de nuestra capacidad para aplicarla a la realidad.


Recordemos también que la mayor o menor validez de una teoría depende de la información
empírica o real que respalda sus propuestas. Por ejemplo, un investigador puede intuir una nueva
teoría para explicar un fenómeno, pero mientras no pueda demostrar con datos reales que esa
teoría funciona, no tienen ninguna validez científica.

Funciones de las teorías

- Explicar un fenómeno
- Sistematizar y dar orden al conocimiento sobre un fenómeno
- Predecir fenómenos

Utilidad de las teorías

- Describen, explican y predicen un fenómeno


- Organizan el conocimiento
- Orientan la investigación

Si la teoría no es capaz de explicar un fenómeno, entonces no sirve y deja de tener validez, y


puede pasar a ser sólo una creencia o especulación, pero nunca una teoría. Sin embargo, se debe
tener cuidado al desechar una teoría, pues ellas a veces operan solo bajo un cierto contexto,
siendo totalmente inútiles en otros casos. El grado de desarrollo de las ideas que sustentan una
teoría puede variar, dependiendo de la evidencia empírica que se haya aportado previamente. Por
ejemplo, una teoría puede encontrarse en pañales, puesto que ha sido probada para ciertas
situaciones y es necesario aportar evidencia adicional para mejorar su grado de validez. Una
teoría en particular primero debe tener validez interna, es decir que se sustente por sí misma, y un
grado de validez externa, es decir que sea aplicable a las situaciones donde ella opera, es decir,
que se pueda generalizar. Por ejemplo, una teoría que se pueda generalizar universalmente y sea
cierta en cualquier lugar, no importando donde se aplique, tendrá una gran validez externa.

Hay ciertos criterios que nos pueden ayudar a evaluar la verosimilitud de cierta teoría para
explicar un fenómeno. Con estos criterios, el investigador podrá formarse una idea de la validez
de ella, para así poder discernir si es más aplicable al estudio del fenómeno que se quiere estudiar
en cuestión.

Criterios para evaluar una teoría

- Capacidad de descripción, explicación y predicción


o Describir: Definir características, componentes. La teoría debe tener la capacidad
de describir un fenómeno.
o Explicación: (de los datos) Debe explicar en forma clara por qué ocurre el
fenómeno

27
Instituto Profesional Diego Portales
AUTÓNOMO

o Predicción: Debe ser capaz de predecir el comportamiento antes que este ocurra.
Por ejemplo, Existe la teoría que a mejor calidad de un producto, tendrá una mejor
aceptación por parte de los clientes (En este caso, entendamos calidad como la
ausencia de defectos o fallas de fabricación). La descripción va enfocada a la
caracterización de este fenómeno. La explicación se enfocará en el por qué ocurre
el fenómeno (Los clientes quedan más contentos o satisfechos cuando reciben un
producto sin fallas, puesto que pagaron por ello, y al contrario, quedarán
descontentos y enojados si el producto resulta defectuoso). La predicción se
enfocará a predecir el comportamiento de los clientes cuando reciban un producto
en buen o mal estado.
- Consistencia lógica: Las relaciones entre sus componentes y variables deben ser
planteados en forma lógica. No pueden haber contradicciones ni lugar a para
ambigüedades.
- Perspectiva: amplia o estrecha (de enfoque). Es aplicable a muchas o pocas situaciones.
Mientras abstracta la teoría, más fácil de generalizar, es decir, puede explicar una mayor
cantidad de fenómenos.
- Fructificación (heurística): Se refiere a la capacidad de la teoría de plantear nuevas
interrogantes y descubrimientos. Este tipo de teorías son las que permiten que la ciencia
avance.
- Parsimonia: Se refiere a la sencillez y simplicidad del planteamiento de la teoría
(Sencillez es distinto de superficialidad).

Cuando comenzamos a recopilar información relacionada con la idea de investigación, a


medida que asimilamos la información encontrada, llegará un momento en que tenemos que
decidir si adoptamos una teoría ya existente o si desarrollamos una perspectiva teórica. En este
proceso podemos encontrarnos con distintas situaciones.

a.- Existencia de una teoría completamente desarrollada. Podemos encontrar que efectivamente
existe una teoría completamente desarrollada. En este caso en vez de repetir las mismas hipótesis
podemos darle un nuevo enfoque. Por ejemplo, podemos encontrar que el estudio que queremos
realizar en la provincia de Ñuble ya fue realizado hace años en la Región Metropolitana. Luego
nos quedará aportar la información empírica para validar el mismo estudio realizado en Santiago,
pero ahora en la provincia de Ñuble.

b.- Existencia de varias teorías aplicables a nuestro problema de investigación. Debemos elegir
una de las teorías, o también se puede tomar parte de cada una de ellas y formar nuestro marco
teórico. Lo más común es tomar una teoría como base y rescatar elementos de otras teorías para
construir el marco teórico. El marco teórico se puede construir en este caso, desglosando la teoría
en cuestión (punto por punto) o ordenar los avances en forma cronológica, o bien tomar parte de
algunas o todas las teorías. Cuando existen varias teorías que rivalizan entre sí (contradictorias)
se debe elegir una y desechar las demás.

c.- Existencia de trozos y piezas de teorías (Generalizaciones empíricas o micro-teorías). Las


generalizaciones empíricas que se encuentran en la literatura, normalmente constituyen la base de
28
Instituto Profesional Diego Portales
AUTÓNOMO

lo que serán las hipótesis que se someterán a prueba y a veces serán las hipótesis mismas. Es
decir, se pueden encontrar estudios con resultados que sugieren o apoyan una cierta teoría en
forma parcial. Muchas veces estos estudios no alcanzan a validar una teoría completa pero sí
parte de ella, luego un camino lógico a seguir en la investigación, es realizar estudios que validen
el resto que todavía no ha sido probado de la teoría.

d.- Existencia de guías aún no investigadas e ideas vagamente relacionadas con el problema de
investigación. Por ejemplo, puede que la información encontrada tenga que ver con estudios
realizados en otros contextos y haya que interpretar esas conclusiones para hacerlas parte del
marco teórico que se está construyendo para esta investigación.

Al construir el marco teórico, debemos centrarnos en el problema de investigación sin


divagar en otros problemas ajenos al estudio. Un buen marco teórico no es aquel que abarca
muchas páginas, sino el que trata con profundidad únicamente los aspectos relacionados
con el problema, y vincula lógica y coherentemente los conceptos y proposiciones existentes
en estudios anteriores. El investigador debe demostrar su habilidad de redacción, de un claro
orden de las ideas que quiere incluir en la revisión de la bibliografía y nunca debe recurrir a la
copia textual de los párrafos contenidos en las fuentes de información. Por ejemplo, un error
recurrente que cometen los estudiantes, cuando elaboran una revisión bibliográfica del problema
de investigación es juntar los distintos párrafos más importantes de las diferentes fuentes de
información (Artículos científicos, estudios, artículos de prensa, etc.) y los transcriben
lógicamente ordenados, y no incluyen una redacción propia, producto de la comprensión y
síntesis de la información fuente. Lo anterior no se debe confundir con la transcripción literal de
sentencias que corresponden a conclusiones de estudios anteriores. Por ejemplo, “El plan “X” de
motivación laboral aplicado a los trabajadores de la Empresa de Correos de Chile se tradujo en un
incremento de 10% de la productividad de los trabajadores (Pérez y García, 1999)” Esta
afirmación corresponde a una conclusión o un resultado encontrado en el estudio realizado por
los investigadores Pérez y García, y publicado en el año 1999. También se puede escribir: “Pérez
y García (1999), encontraron que el plan “X” de motivación laboral se puede traducir en una
aumento del 10% de la productividad laboral al aplicarlo a trabajadores de una empresa de
correos”.
La redacción de las ideas se hace mucho más fácil se existe un orden lógico de la
información, y una buena manera de lograrlo es recurriendo a la confección de esquemas, es
decir, después que se tiene toda la información, se hace un esquema resumen de toda la
información, y aún más, se pueden elaborar distintas alternativas de esquemas resumen y luego
comparar cual de ellos ordena toda la información de manera más simple y clara. Recordemos
que mientras más clara la redacción, más fácil será para los demás leer y entender el reporte. Por
otro lado, el orden de las ideas ayudará a plantearse el problema de investigación de manera más
sencilla, lo que se traducirá en objetivos e hipótesis de investigación claras.

“Construir un marco teórico no es solo reunir información, sino también ligarla, a través de la
redacción”.

29
Instituto Profesional Diego Portales
AUTÓNOMO

2.3.3 Definición del tipo de investigación a realizar: Exploratoria, descriptiva, correlacional


o explicativa. Las investigaciones científicas pueden tener distintos alcances o grados de
explicación. La confección del marco teórico normalmente ayuda al investigador a darse cuenta
de los horizontes que puede alcanzar su problema de investigación. Obviamente en esta etapa de
la investigación como en las siguientes puede aparecer la imperiosa necesidad de replantear el
problema de investigación, esto es, los objetivos, la preguntas y hasta su justificación, lo cual no
debiera parecer ni extraño ni debiera contribuir a desanimar al investigador, puesto que significa
la confirmación de un avance en la investigación.

Dependiendo del tipo de investigación podemos distinguir 4 tipos de investigación, de


acuerdo a su alcance.

a.- Exploratorios: Preparan el terreno y anteceden a los demás. Es decir cuando se trata de un
tema poco estudiado o que no ha sido abordado antes. Es decir, nos va a servir para
familiarizarnos con el tema que es relativamente desconocido. Por lo general determinan
tendencias, identifican relaciones potenciales entre variables y establecen el tono de
investigaciones posteriores más rigurosas. Se caracterizan por ser más flexibles en su
metodología en comparación con los estudios descriptivos o explicativos, y son más amplios y
dispersos que estos otros dos tipos. Asimismo, implican un mayor riesgo y requieren gran
paciencia, serenidad y receptividad por parte del investigador.

b.- Descriptivos: Fundamentan las investigaciones correlacionales. Buscan describir las


propiedades de los fenómenos a investigar. Desde el punto de vista científico, describir es medir,
es decir, se selecciona una serie de cuestiones y se mide cada una de ellas independientemente,
para así describir lo que se está investigando. Un ejemplo de estudio descriptivo es el censo de la
nación que quiere caracterizar desde el punto de vista demográfico la población de un país. Es
decir, obtenidos los datos, se puede describir la composición demográfica de un país.

Los estudios descriptivos miden variables y conceptos, con la mayor precisión posible.
Para ello, se requiere de considerable conocimiento del área que se investiga para formular las
preguntas específicas que busca responder (En el caso de encuestas y cuestionarios que son tan
comunes en los estudios de ciencias sociales), y en el caso de medición de características físicas
como peso, talla, ancho, cantidad de tiempo, etc., se debe tener claro la precisión y exactitud del
instrumento de medición. En ambos casos, pueden aparecer errores de medición considerables
que hagan peligrar la validez del proceso de medición.

Un estudio descriptivo puede arrojar información útil para hacer algún tipo de
predicciones. Por ejemplo, una encuesta de intención de voto antes de una elección. Con ella se
puede predecir quién tiene más posibilidades de ganar las elecciones. Normalmente estas
predicciones adquieren mayor validez cuando se encuentran las distintas relaciones entre las
variables medidas. Por ejemplo, si se encuentra que existe una alta correlación directa entre el
plan del candidato orientado hacia políticas de ayuda social y la intención de voto. Si se
encuentra el coeficiente de correlación entre esas dos variables entonces pasa a ser un estudio
correlacional.
30
Instituto Profesional Diego Portales
AUTÓNOMO

c.- Correlacional: Como su nombre lo dice, relacionan variables. En el estudio descriptivo se


pueden tomar datos de muchas variables de interés, y luego sacar porcentajes de participación,
agrupar por clases de tamaño o edad, pero si se hace un análisis correlacional entre las distintas
variables, es decir, medir el grado de relación que existe entre dos o más variables (en un
contexto en particular), pasa a ser un estudio correlacional.

El principal propósito es saber cómo se puede comportar un concepto o variable


conociendo el comportamiento de otras variables relacionadas. La correlación puede ser positiva
o negativa, lineal o no lineal. El principal índice usado en este tipo de investigaciones es el
Coeficiente de correlación lineal (rxy) que va de 0 a 1.

Cuando existe una correlación se puede explicar el comportamiento de una variable en


función de la otra. Por ejemplo, la variable cantidad ofrecida de un bien X está correlacionada
directamente con el precio del bien X. Supongamos que el coeficiente de correlación lineal
encontrado es de 95%, significa una alta correlación que valida una regresión lineal
estadísticamente significativa entre las dos variables, con las cual se puede estimar la cantidad
ofrecida de X a distintos precios. Luego, el estudio correlacional tiene un cierto valor explicativo,
en sí mismo, aunque parcial.

Recordemos que cuando se encuentra una correlación entre dos variables, de todas formas
se corre el riesgo que tal relación no exista (Correlación espuria), es decir, puede ocurrir que las
variables se mueven en las mismas direcciones pero por factores independientes.

d.- Explicativos: Se elaboran en función de la información obtenida de los demás estudios


anteriores. Estos van más allá de la descripción de conceptos o fenómenos o del establecimiento
de relaciones entre conceptos. Su interés se centra en explicar por qué ocurre un fenómeno y en
qué condiciones se da éste, y por qué dos o más variables están relacionadas.

Estas son más estructuradas que las demás clases de investigaciones, y proporcionan un
sentido de entendimiento del fenómeno a que hacen referencia.

Una investigación puede partir como exploratoria y puede terminar, después de pasar
todas las etapas como explicativa, o puede incluir aspectos de cada uno de estos tipos de
investigación. Por último, no se puede afirmar que la investigación explicativa es mejor que la
correlacional o descriptiva. Todas son importantes, y su alcance va a depender de los objetivos y
de las hipótesis que se quieren probar.

31
Instituto Profesional Diego Portales
AUTÓNOMO

2.4 Formulación de hipótesis, tipos de hipótesis, variables.

Aunque todas las etapas de una investigación son importantes, hay algunas que marcan un
punto de referencia para la investigación completa, como por ejemplo, los objetivos de la
investigación y las hipótesis planteadas. Estas últimas corresponden a las afirmaciones que se
desean probar si son ciertas o falsas.

Antes de nada debemos saber que es una hipótesis y conocer los conceptos asociados a ella.
En forma esquemática podemos decir que cuando planteamos una hipótesis, ésta tiene asociadas
distintas variables, definidas tanto en forma conceptual como operacional:

- Hipótesis
- Variable(s)
o Definición conceptual de una variable
o Definición operacional de una variable

Cuando ya hemos planteado el problema de investigación, revisado la literatura y


contextualizado dicho problema mediante la construcción del marco teórico, y hemos visto que
nuestro estudio puede iniciarse como exploratorio, descriptivo, correlacional o explicativo, el
siguiente paso consiste en establecer guías precisas al problema de investigación o fenómenos
que estamos estudiando. Estas guías son las hipótesis. En una investigación podemos tener una,
dos o varias hipótesis, y como se explicará más adelante, a veces no se tienen hipótesis.

2.4.1 Hipótesis: “Las hipótesis indican lo que estamos buscando o tratando de probar, y pueden
definirse como explicaciones tentativas del fenómeno investigado, formuladas a manera de
proposiciones”. Por ejemplo, si en una investigación estamos queriendo probar que existe una
sobre reacción de los consumidores por comprar un cierto producto, ante la exposición de una
campaña publicitaria por televisión, supongamos en este caso una conocida cerveza. Una buena
hipótesis podría ser: “ A mayor exposición (en minutos) de la publicidad, resulta una mayor tasa
de ventas (unidades vendidas por semana)”. Esta sentencia, está afirmando que a mayor
publicidad, más ventas, pero debemos probar que es verdad o no con los datos reales que se
obtienen en la investigación. Esa es la tarea del investigador, probar la veracidad de la hipótesis
planteada, y en ambos casos, sea verdadera o falsa, tiene la misma validez científica.

Las hipótesis pueden ser más o menos generales, o precisas, e involucrar dos o más
variables, pero en cualquier caso son solo proposiciones sujetas a comprobación empírica.

Las hipótesis proponen tentativamente las respuestas de las preguntas de la investigación.


Existe una relación muy estrecha entre el planteamiento del problema, la revisión de la literatura
y las hipótesis. Las hipótesis surgen de los objetivos y preguntas de investigación, una vez que
éstas han sido reevaluadas a raíz de la revisión de la literatura y la comprensión de la literatura
32
Instituto Profesional Diego Portales
AUTÓNOMO

por parte del investigador. Las hipótesis no necesariamente son verdaderas. Sólo cuando se
comprueba su veracidad se convierten en un hecho.

Nuestras hipótesis pueden surgir de un postulado de una teoría, del análisis de ésta, de
generalizaciones empíricas pertinentes a nuestro problema de investigación y de estudios
revisados, de antecedentes consultados o sencillamente de la imaginación e intuición del
investigador.

Características de una hipótesis:


a.- Deben referirse a una situación real
b.- Las variables deben ser comprensibles, precisas y lo más concretas posibles.
c.- La relación entre variables propuesta por una hipótesis debe ser clara y verosímil
(lógica).
d.- Los términos de la hipótesis y la relación planteada entre ellos, deben ser observables y
medibles, es decir, tener referentes en la realidad.
e.- Las hipótesis deben estar relacionadas con técnicas disponibles para probarlas.

2.4.2. Tipos de hipótesis:


a.- De investigación (Hi): Proposiciones tentativas acerca de las posibles relaciones entre
dos o más variables que cumplen. También se les denomina hipótesis de trabajo. Existen
varios tipos de hipótesis de investigación: 1) Descriptivas, 2) correlacionales, 3) de
diferencias entre grupos, y 4) las que establecen relaciones de causalidad.
b.- Nulas (Ho): Son lo contrario de las hipótesis de investigación. Constituyen proposiciones
acerca de la relación entre variables. Por ejemplo, si la Hi es: “.... existe sobre reacción
de los consumidores.....”, la hipótesis Ho (nula) es: “... No existe sobre reacción de los
consumidores...”
c.- Alternativas o alternas (Ha): Son posibilidades alternas ante la hipótesis de
investigación y la nula. Constituyen una tercera opción. Por ejemplo, si la hipótesis de
investigación es “esta silla es roja”, la hipótesis nula es “esta silla no es roja” y la
hipótesis alterna o alternativa es “esta silla es azul”, o “esta silla es negra”, etc. Pueden
haber varias hipótesis alternas por hipótesis de investigación.

Las hipótesis alternas sólo se formulan cuando hay otras posibilidades además de las
hipótesis de investigación y la hipótesis nula. Se simbolizan como Ha.

d.- Estadísticas: Las hipótesis estadísticas son la transformación de las hipótesis de


investigación, nulas y alternativas en símbolos estadísticos. Se usan cuando se tratan
datos cuantitativos (Números, porcentajes, promedios). Hay tres tipos: 1) de estimación,
2) de correlación, y 3) de diferencia de grupos

Dijimos que existen varios tipos de hipótesis de investigación. Por otro lado las hipótesis
estadísticas traducen las hipótesis de trabajo (de investigación) a expresiones numéricas, luego
33
Instituto Profesional Diego Portales
AUTÓNOMO

podemos ejemplificar tanto las hipótesis de investigación y las estadísticas de la siguiente


manera:

1) Hi descriptivas: Se plantean sobre una determinada situación de una variable. Por ejemplo,
una hipótesis de trabajo puede ser: “ La motivación laboral en la planta de Carnes Ñuble aumentó
después que se comenzó a exportar carne”. Tal afirmación debe ser probada desde el punto de
vista estadístico. Supongamos que antes que la empresa comenzara a exportar carne se había
medido un índice de “motivación laboral” (M) en los trabajadores, de 65%, cuya escala está
definida de 0 a 100%. La hipótesis estadística sería: H1: “M > 65%”. Podemos ve que la
hipótesis estadística es la traducción a números de la misma hipótesis de investigación. También,
las hipótesis estadísticas descriptivas pueden plantearse como la evaluación de la diferencia del
valor real de terreno y el valor hipotetizado (Puede compararse cualquier estadístico, como
modas, medianas, porcentajes, varianzas, promedios, etc.). Por ejemplo, Ejemplo. La hipótesis
de trabajo es Hi: “La expectativa de ingreso mensual de los trabajadores de farmacias en Chillán
es en promedio equivalente a 2 sueldos mínimos”. Supongamos que el sueldo mínimo es de $
115.000 mensuales. El sueldo promedio de esta población es “Y”. La hipótesis estadística puede
plantearse H1:” Y > $ 230.000” 0 “Y – (menos) $230.000 > 0”.

2) Hi correlacionales: Se evalúa un índice de correlación entre dos o más variables. Por ejemplo,
la hipótesis de trabajo puede ser Hi: “La inteligencia está correlacionada directamente con la
memoria” (es decir, a mayor inteligencia de una persona, mayor capacidad de memorización”.
“r” está definido como el índice de correlación lineal entre 2 variables y “R” en correlación
múltiple. La hipótesis estadística asociada es H1: rxy  0, es decir, al ser significativamente
distinto de cero, la correlación sí existe. Las hipótesis correlacionales no sólo pueden establecer
que 2 o más variables se encuentran asociadas, sino cómo están asociadas. Alcanzan un nivel
predictivo y parcialmente explicativo. Por ejemplo: “A mayor precio, menor es la cantidad
demandada de zapatos”. En este último ejemplo, a parte de establecer que el precio y la cantidad
demandada están relacionados, también establece que cuando aumenta el precio, la cantidad
disminuye.

3) Hi de diferencia entre grupos: Se compara la característica de una población respecto de esa


misma característica de otra población. Por ejemplo, el ingreso promedio de un grupo
determinado de personas versus el mismo ingreso de otro grupo. En este caso puede que estemos
comparando los ingresos promedio de hombres y mujeres entre 20 y 60 años en la ciudad de
Talca. Podríamos plantear una hipótesis que son iguales o son distintos. Por ejemplo: Hi: “El
ingreso promedio de los hombres entre 20 y 60 años es superior al de las mujeres de la misma
edad, en la ciudad de Talca”. Luego como investigadores, debemos probar qu la diferencia entre
los sueldos promedio de estos dos grupos de personas trabajadoras es significativamente distinto.
Otro ejemplo, Hi: “El promedio de notas del curso de 5º semestre vespertino es igual al del curso
de 5º diurno”. Es decir, comparamos las medias de 2 estas dos poblaciones de alumnos. Otro
ejemplo: Hi: Los hombres tienen menos acceso a puestos de trabajo que las mujeres en el rubro
hotelero.

34
Instituto Profesional Diego Portales
AUTÓNOMO

Las comparaciones no necesariamente se deben hacer entre 2 grupos, es decir, pueden


incluirse 3, 4, 5 o más. Por ejemplo, Hi: “La edad promedio de los alumnos del 3º A, 3º B, 3º C y
3º D es diferente”. La hipótesis estadística quedaría: H1:”μa≠ μb≠ μc≠ μd“

4) Hipótesis que establecen relaciones de causalidad. No sólo afirman las relaciones entre 2 o
más variables y cómo se dan dichas relaciones, sino que además proponen un sentido de
entendimiento de ellas. Por ejemplo, Hi: La desintegración familiar provoca baja autoestima en
los hijos. Además de establecerse una relación entre las variables, se propone la causalidad de
dicha relación. En este caso, la hipótesis afirma que, primero, la variable “desintegración
familiar” está relacionada directamente con “la autoestima de los hijos”, y segundo, que la baja
autoestima de los hijos es debido a la desintegración familiar.

En términos generales, si ocurre X, entonces ocurre Y, luego Y depende de X, o dicho de


otra manera, la causa de Y es la ocurrencia de X.

Aquí está incluido el concepto de correlación (hay una asociación lineal entre ellas), y
causalidad significa que conocemos el motivo por qué ocurre Y, es decir, la ocurrencia de X.

Recordemos que 2 variables pueden estar correlacionadas pero no por ello debe implicar
que una sea la causa de la otra. También recordemos que primero debemos demostrar correlación
para demostrar causalidad. Por ejemplo, Correlación entre el precio de un bien y la cantidad
demandada de ese bien. Una causa del aumento de la cantidad demandada puede ser la
disminución de precio de ese bien, o cualquier otro factor. No siempre que encontremos una
correlación entre 2 variables significa una causa, y puede deberse sólo a una casualidad
(Causalidad distinto de casualidad).

Por ejemplo, si una mujer lleva de la mano a un niño, no necesariamente es su hijo.


Eventualmente se puede pensar que la causa de que esa mujer lleve de la mano al niño es porque
se trata de su madre, pero también puede ser la abuela, una tía o la nana.

Las variables causales o supuestas causas son denominadas “variables independientes” y


los efectos de esas supuestas causas son “variables dependientes”.

Tipos de hipótesis causales:

4.1) Hipótesis causales bivariadas. Relación entre una variable independiente y una
dependiente. Por ejemplo:
35
Instituto Profesional Diego Portales
AUTÓNOMO

y = f(x); donde “y” es variable dependiente, “x” es variable independiente. Por ejemplo: “X” =
tiempo transcurrido, “y” = grado de sensación de hambre de un individuo. Podemos asociar
directamente el tiempo de ayuno de una persona con el grado de la sensación de hambre, a
excepción de un individuo anoréxico.

4.2) Hipótesis causales multivariadas. Una variable dependiente y muchas variables


dependientes. Por ejemplo:

y = f( x1, x2, x3,.... xn), donde “y” es variable dependiente (de las independientes) y “x1, x2,
x3,...xn” son las variables independientes. Por ejemplo: Y es la eficiencia en el trabajo de un
individuo, X1 es su estabilidad emocional, X2 el nivel conocimientos que posee, X3 la cantidad de
experiencia del trabajador, X4 su capacidad para mantener buenas relaciones con los compañeros
de trabajo, etc.

Note que cada variable independiente (xi) aporta en cierto grado al valor final de la variable “Y”
(dependiente). En otras palabras, X1 puede que aporte o sea la causa de un 20% del valor de Y,
X2 un 10% del valor de Y, X3 un 30% del valor de Y, X4 un 27% del valor de Y. En este caso, las
4 variables explican un 87% del valor de Y, y queda 13% debido a otros factores no
necesariamente identificados.

Cuando trabajamos con muchas variables, podemos encontrar correlación entre las
variables independientes (xi), por ejemplo, puede ocurrir que X1 sea explicado en un 90% por X4.
Ya sabemos que X1 explica un 20% del valor de Y, y X4 explica un 27% del valor de Y, entonces
X1 no sirve para explicar el valor de Y porque depende exclusivamente de lo que vale X4, luego
no se cumpliría su independencia como variable.

Una variable independiente lo es porque su valor no depende de otra. Por ejemplo, si X1 y


X2 son variables independientes, entonces la correlación que existe entre ellas es muy baja o cero.

Puede que a una persona que no esté familiarizada con estos temas estadísticos, y le
resulte un poco árido entender estos comentarios, pero en caso de necesitar reforzamiento, se
puede recurrir a cualquier libro de estadística básica y revisar las secciones de análisis de
regresión y correlación.

36
Instituto Profesional Diego Portales
AUTÓNOMO

2.4.3 ¿Qué hipótesis se formulan en una investigación? No hay acuerdo en cuáles o qué
hipótesis usar. Hay investigadores que usan todos los tipos de hipótesis (Hi, Ho, Ha), y otros que
sólo nombran una en el reporte de la investigación. Sin embargo, es recomendable usar todas
las hipótesis porque ello ayuda al investigador a tener mayor claridad de lo que está
buscando.

Normalmente se asocia mínimo una hipótesis por objetivo. Luego, una demasiada
cantidad de objetivos puede convertir el estudio en un trabajo demasiado extenso, difícil de llevar
a cabo. Al principio, se parte con una gran variedad de objetivos, y en la etapa de la confección
de hipótesis se logra una mayor madurez de las ideas, y puede ocurrir que el investigador opte
por acotar aún más los objetivos, quedando uno a tres como máximo. Lo anterior no quiere decir
que por un objetivo no puedan haber más de una hipótesis.

En las investigaciones exploratorias, donde sólo se realizará un sondeo de antecedentes de


cierta idea de investigación es imposible plantear una hipótesis (Afirmación).

2.4.4 ¿Qué es una prueba de hipótesis? Consiste en someter a prueba de verdad las hipótesis
planteadas con la ayuda de datos empíricos. Las hipótesis se someten a prueba en la realidad,
aplicando un diseño de investigación, recolectando datos a través de uno o más instrumentos de
medición y analizando e interpretando dichos datos.

“En definitiva, sometemos a prueba el planteamiento contra la realidad”

Puede ocurrir que los datos de la realidad no aporten evidencia para probar las hipótesis,
pero lo anterior no quiere decir que la investigación carezca de utilidad. Muchas veces, las
conclusiones de las investigaciones no llegan a la verdad misma, pero ayudan a descartar
posibilidades, acotando más las probables respuestas a las preguntas de la investigación.

2.4.5 Las Variables de la investigación. Una variable corresponde a una propiedad o


característica de algo que puede variar y cuya variación es susceptible de medirse. Aquí
debemos identificar dos conceptos claves: “variación” y “susceptible de medirse”.

Para formular las hipótesis es necesario definir previamente las variables a usar tanto en las
hipótesis mismas como en el estudio. Esto nos lleva a entender que nunca podremos plantear una
hipótesis si no conocemos exactamente el significado de las variables involucradas en tal
afirmación. Además, no es la única razón para definir las variables de la investigación. Por
ejemplo, pueden servir para:

37
Instituto Profesional Diego Portales
AUTÓNOMO

1) que cualquier persona que lea el reporte de la investigación entienda lo mismo de esa
variable,
2) asegurarse que las variables a emplear se puedan evaluar en la realidad a través de los
sentidos (olfato, vista, tacto, etc), y para poder comparar con datos reales,
3) poder comparar y confrontar nuestra investigación con otras similares y comparar
nuestras definiciones con las de otros estudios para saber si hablamos de lo mismo (Si
es así, entonces podemos comparar nuestros datos con la del otro estudio),
4) evaluar más adecuadamente los resultados de nuestra investigación,
5) para entender los resultados de la prueba de hipótesis y poder concluir adecuadamente.

Si no hay definición de las variables no puede llevarse a cabo la investigación. ¡Es así de
claro¡. Ahora, las variables deben definirse de 2 formas: Conceptual y operacionalmente.

a.- Conceptual. Se refiere a la definición técnica de la variable, al concepto en sí, qué


significa verdaderamente, en qué unidades de medida está expresada. Corresponde a la definición
del significado de esa variable.

b.- Operacional. Indica los pasos a seguir para medir tal variable. Por ejemplo si la
variable es una longitud, operacionalmente, la podemos medir con una huincha métrica y no con
un termómetro porque este último es para medir temperatura. Otro ejemplo, para medir
inteligencia, podría ser definida operacionalmente como las respuestas a una determinada prueba
de inteligencia. Aquí se debe dejar en claro al menos qué instrumento de medición se va a usar.
Si no se realizará directamente la medición, debe quedar claro quien tomó los datos y cómo lo
hizo, en el caso que se obtengan bases de datos de alguna institución. Por ejemplo: Encuestas,
estadísticas de alguna institución, información del SII, del INE, informes periódicos de alguna
entidad, etc.

Algunas variables no requieren que su definición operacional aparezca en el reporte, por


ser ésta relativamente obvia, pero como regla general debe quedar muy clara la manera cómo va a
ser aplicado un concepto en la práctica.

En resumen, si planeamos una hipótesis, donde hacemos aseveraciones acerca de una o


más variables, debemos tener claro lo que significan tales variables, y es más, se debe dejar en
claro en el reporte escrito para que las personas que lo leerán no les quepa duda. Por ejemplo, si
se está estudiando el grado de satisfacción de los consumidores ante el consumo de cierto
producto, la definición conceptual apuntará a la definición del concepto que involucra ese “grado
de satisfacción”, por ejemplo, es un índice que va de una escala de 1 a 100% y que se entiende de
tal y tal manera. Por otro lado, la definición operacional apuntará a la confección de un
formulario, cuestionario o encuesta confeccionada de tal manera que apunte a describir el grado
de satisfacción de los consumidores por la calidad del producto, por el estado de ánimo del
consumidor, por la evaluación del producto respecto de los productos sustitutos, etc. Por ello, de
la definición de una variable debe resultar el concepto aceptado como más válido y el

38
Instituto Profesional Diego Portales
AUTÓNOMO

instrumento de medición de ese concepto (formulario, encuesta, entrevista u otro tipo de


instrumento).

Ejemplo:
Hi: “A mayor nivel educacional de los padres mayor rendimiento escolar de los hijos”.

Variable = “Nivel educacional” “Rendimiento escolar”

Definiciones conceptuales: “Cantidad de años de “El promedio general anual de


escolaridad de una persona, calificaciones del alumno”
con niveles básico (8 años),
medio (9 a 12 años) y superior
(más de 12 años)”

Definiciones operacionales “Encuesta a los alumnos, “Libros de clases”


reforzado con la base de datos
registrada en el
establecimiento educacional
para determinar el nivel de
educación de los padres”

39
Instituto Profesional Diego Portales
AUTÓNOMO

2.5 Diseños de investigación

Objetivos:

- Comprender las diferencias entre la investigación experimental y la no experimental.


- Analizar los diferentes diseños experimentales y sus grados de validez.
- Comprender los conceptos de validez interna y externa de las investigaciones científicas.
- Realizar experimentos científicos válidos.
- Evaluar experimentos ya realizados (Estudio de casos).

En ciencias sociales, los experimentos no son muy populares, es decir, aquel tipo de
experimento de laboratorio, sin embargo no todas las investigaciones de cuestiones sociales
requieren de experimentos “puros”, puesto que existen cuasiexperimentos y preexperimentos,
siendo además muy populares las investigaciones no experimentales (Que no emplean
experimentos).

Los diseños se plantean con el propósito de responder a las preguntas de investigación y


someter a prueba las hipótesis formuladas, pudiendo ser experimentales o no experimentales.
Este procedimiento debe realizarse de una manera práctica y precisa. Si el diseño está bien
concebido, se tienen más posibilidades de que el experimento sea válido y por lo tanto, la
información obtenida también lo sea, o dicho de otra manera, la calidad y validez de la
información obtenida dependerá del diseño o estrategia seguida. El diseño de investigación puede
traducirse como la estrategia que usará el investigador para encontrar respuesta a las preguntas de
investigación y para someter a prueba de verdad las hipótesis planteadas. Por ejemplo, si una
agencia de publicidad quiere probar la eficacia de una campaña publicitaria de cierto producto,
una estrategia podría ser observar el comportamiento de las ventas del producto con campaña y
sin campaña publicitaria. Si encuentra que los resultados de la campaña son significativamente
positivos, puede demostrar con datos reales a la compañía los beneficios de invertir en
publicidad. Con tal estrategia de investigación de mercado, la agencia de publicidad ganan un
cliente y a l vez el mismo cliente gana aumentando sus ventas. Por otro lado, si los resultados son
indiferentes o “negativos”, la agencia tendrá un antecedente que le demuestre que debe cambiar
sus estrategias de marketing.

En ciencias sociales, cuando se trabaja con personas, no es fácil formular experimentos donde
se necesitan personas que deben ser sometidas a distintas pruebas, de ahí la importancia del
diseño de experimentos cuyas estrategias de investigación estén enfocadas a la observación de
ciertos fenómenos con la mínima presencia e intervención de terceros. Por ejemplo, en medicina,
si se quiere probar una droga experimental para pacientes terminales de algún tipo de cáncer.
Primero, se le debe pedir el consentimiento de participación en tal prueba al paciente o sus
familiares, muchas veces acompañado de compensaciones de algún tipo, como la exención de
gastos de hospital derivados de la prueba y retribuciones económicas.

40
Instituto Profesional Diego Portales
AUTÓNOMO

En las investigaciones sociales, el trabajo de campo y observación en terreno toma vital


importancia, quedando relegado a situaciones muy puntuales la experimentación de laboratorio,
pues, por ejemplo, quien quiere salir a hacer una investigación de mercado, debe ir al mercado a
hacerla, es decir, entrevistar, encuestar y averiguar precios, gustos, niveles de ingreso, costos,
entre otros factores.

Se distinguen dos tipos de diseños de investigación: Experimentales y No experimentales.

Los diseños experimentales se clasifican en: Los diseños no experimentales se clasifican


en:

1.- Preexperimentos 1.- Transeccional


2.- Experimentos verdaderos a. Descriptivos
3.- Cuasiexperimentos b. Correlacionales
2.- Longitudinal
a. De Tendencia
b. De evolución de grupos o cohort
c. De Panel

Todos los tipos de investigaciones con sus distintos tipos respectivos de diseños tienen
una misma importancia. No existe un diseño mejor que otro, pues cada uno puede aplicarse a
distintas situaciones. Cada uno posee sus características y la elección sobre qué clase de
investigación y diseño específico hemos de seleccionar, depende de los objetivos que se hayan
trazado, las preguntas planteadas, el tipo de estudio a realizar (exploratorio, descr4iptivo,
correlacional o explicativo) y las hipótesis formuladas.

2.5.1. Diseños de investigación


En general, un diseño de investigación es un estudio de investigación en el que se manipulan
deliberadamente una o más variables independientes (supuestas causas) para analizar las
consecuencias que la manipulación tiene sobre una o más variables dependientes (supuestos
efectos), dentro de una situación de control para la investigación.

Para estar en presencia de un diseño experimental, éste debe cumplir 3 requisitos básicos,
aparte de otras consideraciones adicionales.

1. La manipulación de las variables independientes debe ser intencional.


2. La medición del efecto de las variables independientes en la dependiente.
3. El establecimiento de un grupo de control o validez interna de la situación
experimental.

41
Instituto Profesional Diego Portales
AUTÓNOMO

Primer requisito: Manipulación intencional de una o más variables independientes (Supuesta


causa).

Causa Efecto

x y

Variable Variable
Independiente dependiente

Un experimento se lleva a cabo para analizar si una o más variables independientes


afectan a una o más variables dependientes, y por qué lo hacen. Estas variables son las mismas
que aparecen implícitas en las hipótesis planteadas, las mismas que ya han sido definidas del
punto de vista conceptual y operacional.

Por ejemplo: Tenemos un experimento con una variable independiente y una dependiente,
x e y respectivamente. Si quiero manipular x, la hago variar para ver qué pasa con la variable y.
Dicho de otro modo, quiero saber que le pasa a y cuando hago variar x. En forma más concreta, si
quiero determinar el efecto de la campaña publicitaria de la agencia de publicidad, puedo probar
distintas intensidades de exposición a la publicidad a cada grupo experimental. Por ejemplo, un
grupo de personas son expuestas a cero minutos de campaña de publicidad, otro grupo de
consumidores es sometida 10 minutos diarios de publicidad, otro a 20 minutos y así
sucesivamente hasta una hora diaria. Más tarde se podrá demostrar con los datos recopilados, el
efecto de la campaña (Distintas intensidades de X) en la tasa de ventas (Variable Y).

Es importante tener en cuenta que para determinar el efecto de x en y se debe medir la


variable dependiente después de haber manipulado x.

La buena medición del efecto antes mencionado depende del grado de manipulación de la
variable independiente. Este grado de manipulación, corresponde a cuánto hacemos variar la
variable independiente X para ver los distintos efectos de ella en Y.

¿Cuántas variables independientes y dependientes se deben incluir en el experimento?


Resp.: No hay reglas para ello, depende de cómo haya sido planteado el problema de
investigación y las limitaciones que haya.

42
Instituto Profesional Diego Portales
AUTÓNOMO

Grados de manipulación. El más básico es el de Presencia / Ausencia de un tratamiento, y se


pueden extender a más de un grado de manipulación. En principio, para cada grado de
manipulación se requiere de un grupo experimental (Los sujetos que serán sometidos a
tratamiento, sean estos personas, cosas, animales o cualquier otro ser vivo). Por ello, mientras
más grados de manipulación se requieran, el estudio demandará un mayor costo de tiempo,
sujetos de investigación y dinero, luego, se debe llegar a un equilibrio entre la precisión y
exactitud del diseño y los fondos disponibles para realizar dicha investigación. No olvidar el
costo de tiempo que requiere una investigación científica, lo cual ya debe estar claro cuando se
presenta la justificación y la factibilidad del estudio.

a.- Presencia / Ausencia de un tratamiento:

Grupo expuesto Grupo no


al tratamiento X expuesto al
tratamiento X

“Grupo “Grupo de
experimental” control”

Por ejemplo: Un grupo expuesto a una campaña publicitaria (Puede ser toda una ciudad) y otro
grupo no expuesto a tal campaña publicitaria (Puede ser otra ciudad de similares características
sociales)

b.- Más de dos grupos: Cuando tenemos más de un grado de manipulación, podemos determinar
si la magnitud de la variable y depende de la intensidad de x.

Mientras más niveles de manipulación de la variable x, se puede obtener mayor cantidad y


calidad de información, pero recordemos que a más niveles, más grupos de estudio, lo que nos
lleva a un mayor costo de tiempo y dinero.

Grupo expuesto a Grupo expuesto a Grupo no


máximo grado del mínimo grado de expuesto al
tratamiento X tratamiento X tratamiento X

“Grupo “Grupo “Grupo de


experimental 1” experimental 2” control”

43
Instituto Profesional Diego Portales
AUTÓNOMO

Se pueden clasificar los niveles de manipulación en grados y modalidades. Por ejemplo:

Grados: Máxima intensidad, mediana, mínima

Modalidad: Diferentes incentivos laborales como permisos, vacaciones más largas,


mejoras en el ambiente de trabajo, cambio de mobiliario, acceso de la oficina a una ventana,
teléfono propio, etc.. En este caso no se asocia a cantidades sino a distintas formas, maneras o
medios para un mismo objetivo, como la motivación laboral.

En ocasiones, la manipulación de las variables independientes conlleva a una


combinación de cantidades y modalidades de éste, y cada nivel o modalidad implica un grupo de
estudio.

Por ejemplo: Se quiere ver el resultado en de un programa de motivación laboral, se pueden usar
2 modalidades, un incentivo en dinero y una mejora en el ambiente laboral como el cambio de
mobiliario, remodelación de oficinas, renovación de computadores, etc.

Los grados podrían ser de máxima intensidad y mínima intensidad. Tenemos 2 modalidades y 2
grados, más el grupo de control (Grupo no sometido a tratamiento) para comparar resultados. En
total 5 grupos de estudio, a los cuales después se debe medir.

Con el ejemplo anterior podemos dimensionar lo fácil que es diseñar una investigación
monstruosamente grande, la cual puede tener muchas ventaja del punto de vista de la información
que obtendremos, pero que a la vez, es muy posible que nunca pueda llegar a realizarse por los
costos (Inviable). Luego, la estrategia a seguir para encontrar la información debe ser pensada
considerando ante todo los costos de la investigación.

La manera adecuada como deben ser manipuladas las variables independientes no es una
tarea fácil, pero teniendo en cuenta ciertas consideraciones puede ayudar a facilitar el trabajo.
Ejemplo de ella:

- Consultar experimentos anteriores (analizar metodologías usadas en otros experimentos


anteriores y similares).

- Evaluar la manipulación antes de que se conduzca el experimento (Antes de que se lleven


a cabo las manipulaciones, se debe tener claramente justificada cada manipulación, que se
realizará en el caso absolutamente necesario. También se debe tener cuidado que la
manipulación nos entregue datos útiles para la investigación y no se termine generando
datos inservible, por ejemplo, otra variable independiente que no se aplique a nuestro
caso).
44
Instituto Profesional Diego Portales
AUTÓNOMO

- Incluir verificaciones para manipulación (Es decir evaluar si tales manipulaciones


tuvieron efecto, con encuestas, cuestionarios o cualquier otra información empírica que
permita comparar 2 grupos diferentes y evaluar si hubo o no efecto por causa de la
manipulación. Esto es distinto de la medición de los resultados, porque lo que se quiere
comprobar es si la manipulación es adecuada . Por ejemplo, si se quiere medir el efecto en
la motivación laboral de las personas, puede que la oferta de un aumento de sueldo en 2
años más no tenga ningún sentido de aplicar en este momento, pero por otro lado, la
oferta de un aumento de sueldo a muy corto plazo sí podría ser un potente incentivo para
cambiar el estado de motivación laboral de los trabajadores)

Segundo requisito: medir el efecto que la(s) variable(s) independiente(s) x tiene(n) en la variable
dependiente. Luego, la medición debe ser válida y confiable. Si no podemos asegurar que se
midió adecuadamente, los resultados no servirán y el experimento será una pérdida de tiempo.
Por ejemplo, puede ser muy difícil medir el estado de ánimo de las personas o muy fácil,
dependiendo del instrumento de medición. Si las preguntas de un cuestionario son elaboradas por
un psicólogo especialista puede que se obtenga una medición muy precisa, sin embargo, si son
hechas por un ingeniero que no es especialista en cuestiones de sicología, el instrumento de
medición pudiera resultar muy poco preciso y exacto.

En la planeación de un experimento se debe definir cómo van a manipularse las variables


independientes y cómo se van a medir las dependientes.

En investigaciones sociales, serán comunes los cuestionario, encuestas, entrevistas,


índices de medición social, y bases de datos sociales, aquí, los instrumentos de medición como
cronómetros, huinchas, balanzas, se usarán en casos muy puntuales.

Tercer requisito: “Control” o validez interna de la situación experimental. Con la existencia de


un control, podemos saber qué está ocurriendo realmente con la relación entre las variables
independientes y dependientes.

Cuando no hay control no se puede conocer la relación causal. Con el control logramos
controlar la influencia de otras variables extrañas en las variables dependientes, para que así
podamos saber realmente si las variables independientes que nos interesan tienen o no un efecto
en las dependientes.

45
Instituto Profesional Diego Portales
AUTÓNOMO

Experimento Intento de Experimento


Con control (Sin Control)

x y x y

c/control
de causalidad sin conocimiento
de causa

x y

No causalidad

El resultado del comportamiento de la variable y puede deberse a la influencia de muchos


factores independientes, y normalmente el investigador está tratando de averiguar el efecto de
uno o muy pocos de estos factores (x). Para averiguar el efecto de las variables independientes en
estudio y diferenciar este efecto de los de el resto de factores no identificados se usa el grupo de
control. Por ejemplo, si se estudia el efecto del cambio de sabor de una bebida gaseosa en las
preferencias de los consumidores. La variable independiente o tratamiento x será el sabor de la
bebida y el efecto se podrá medir en la tasa de ventas (y) en el mercado de tal producto. Si en el
transcurso del estudio las ventas aumentas significativamente podríamos concluir que este
aumento se debió al cambio del sabor de la bebida que fue aceptado de manera favorable por los
consumidores. La gran pregunta es, ¿cómo identificamos si realmente el aumento de las ventas se
debe al cambio de las especificaciones del producto y no a otro factor extraño como el aumento
del calor, el aumento del nivel de ingreso o el aumento de los precios de productos sustitutos.
Para ello, se debe elegir un grupo de control en el que no exista tal cambio de sabor. Supongamos
que hay dos grupos experimentales, cada grupo está representado por una ciudad de similares
características de nivel de ingreso, clima, costumbre y gustos. Si en la ciudad sometida al
experimento aumentan significativamente las ventas y en la ciudad no sometida al experimento
(Ciudad de control) no aumentan las ventas entonces se pude concluir con cierta seguridad que
las ventas aumentaron debido al cambio de sabor de la bebida. Por otro lado, si en la ciudad
usada como control, también aumentaron significativamente las ventas, entonces no se pude
46
Instituto Profesional Diego Portales
AUTÓNOMO

concluir que tal incremento sea debido al tratamiento, y la conclusión más lógica es que tal
cambio se debió a cualquier otro factor, menos el cambio de sabor de la bebida.

En el caso de usar un grupo de control en un experimento, el análisis estadístico puede


determinar cuánto del efecto es debido al tratamiento y cuánto es debido a otros factores extraños
o no considerados. Sin embargo, se debe tener en cuenta que en el caso de estudios con personas
no es fácil establecer grupos de control cuando se trata de grandes grupos de personas, como una
ciudad, una región o país, por las distintas características demográficas, de clima, costumbres,
gustos y niveles de ingreso. Por ejemplo, en ambas ciudades pueden identificarse características
similares, hasta con un mismo nivel de ingreso promedio, pero si no se consideran los precios
promedio de los productos, podrían tener niveles adquisitivos distintos. Entonces, se debe
considerar una minuciosa caracterización de las poblaciones a las que pertenecerán los diferentes
grupos experimentales y de control para identificar todos los posibles factores, dejando relegado
a una mínima participación la participación de variables extrañas al estudio.

H, W, Z, K
Control
(Variables extrañas)

controlamos
su
influencia Vemos su efecto
X Y
(Var. Independiente) (Var. Dependiente
medida)

Purificamos la relación de x e y, de otras posibles fuentes que afectan a y, y que


contaminan el experimento.

A pesar de cumplir los 3 requisitos anteriores, el experimento debe ser elaborado


considerando las fuentes de error que tienen que ver con el experimento en forma interna. A ellas
se les denomina fuentes de validación interna.

Fuentes de validación interna. Son aquellas que atentan contra la validez interna de un
experimento. Este se refiere a cuánta confianza tenemos en que los resultados del experimento

47
Instituto Profesional Diego Portales
AUTÓNOMO

sean posibles de interpretar y sean válidos. La validez interna se relaciona con la calidad del
experimento y se logra cuando hay control. Algunas fuentes de validación interna son:

Historia: Puede ocurrir algún acontecimiento durante el experimento, ajeno a la planificación que
afecte los resultados.

Maduración: Puede ocurrir que durante el desarrollo del experimento, exista una evolución de
ciertos aspectos o parámetros que afecten los resultados. Por ejemplo, si se toma una prueba en
marzo a un grupo de estudiantes y se repite en diciembre, estos habrán adquirido nuevos
conocimientos que afecten los resultados de la prueba.

Inestabilidad. Poca o nula confianza en las mediciones. Por ejemplo, el instrumento de medición,
como encuestas, cuestionarios o pruebas en general han sido mal elaboradas o mal diseñadas.
Puede haber un mal planteamiento de las preguntas o que no se entiendan.

Administración de pruebas: Por ejemplo, administrar 2 pruebas consecutivas, donde la primera


puede sensibilizar a los participantes del experimento al momento de contestar la segunda. Aquí
se puede corregir esta fuente de error aplicando una prueba distinta pero que persiga la medición
del mismo efecto.

Instrumentación: Cambios en los instrumentos de medición o en los observadores participantes


(Observadores son quienes toman la prueba).

Regresión estadística: Puede que 2 variables independientes estén correlacionadas entre ellas, por
lo que impide aislar los efectos independientes de cada variable independiente en la dependiente.
Por ejemplo, las costumbres y el nivel de ingreso pueden afectar la demanda de un cierto
producto, y son consideradas en un experimento como variables independientes (x1 y x2). Si las
costumbres están fuertemente correlacionadas con el nivel de ingreso, será difícil de identificar la
magnitud del efecto de cada variable en y, porque habrá una parte de x1, una parte de x2 y otra
parte del efecto entre x1 y x2 en y (efecto falso). Por ejemplo, si las costumbres dependen
fuertemente del nivel de ingreso (r = 95%), podríamos decir que el 95% del valor de la variable
costumbre es explicada por el nivel de ingreso, luego la demanda depende del nivel de ingreso y
no de la variable costumbre, que pasaría a ser una variable innecesaria.

Selección de los sujetos del experimento: Grupo no homogéneo. Al asignar los sujetos al azar a
cada grupo, cada uno de ellos tiene la misma probabilidad de caer en cualquier grupo, con ello
aseguramos que todos los grupos al ser asignados al azar, sean suficientemente homogéneos. Al
revés, si no los elegimos al azar, inconscientemente estamos usando un criterio de asignación
sesgado, que lleva implícito un error sistemático, en que cada grupo se diferenciará por ciertas

48
Instituto Profesional Diego Portales
AUTÓNOMO

características que lo hace diferente del otro. En ese caso ya no se cumple el requisito de
homogeneidad inicial de los grupos.

Mortalidad experimental: Durante el periodo de ejecución del experimento pueden morir alguno
o algunos de los sujetos del estudio, lo cual afecta los resultados.

Interacción entre selección y maduración: Puede ocurrir un efecto de maduración no homogéneo


entre grupos debido a un factor de selección de los sujetos de estudio. Esta evolución debe
entenderse como la evolución de cada grupo en forma independiente de los otros durante el
transcurso del experimento. Si el tiempo de duración del experimento es muy prolongado, puede
que uno o varios grupos evolucionen o cambien tanto que se pierda la homogeneidad de grupo
requerida para aislar los factores extraños.

Otras interacciones: Pueden ocurrir distintas interacciones entre los factores de validación interna
antes mencionados. Por ejemplo, entre la historia y la mortalidad, y así sucesivamente.

El experimento como fuente de validación interna. Se refiere a la interacción entre los sujetos
de estudio y el experimentador. Por ejemplo, el mismo experimentador no es un observador
pasivo que no interactúa, sino un OBSERVADOR ACTIVO que puede influir en los resultados
del estudio. El experimentador quiere probar sus hipótesis y conciente o inconscientemente puede
influenciar a los sujetos al momento de contestar las preguntas o de la aplicación de las pruebas.
Para evitar esto, quien se relaciona con los sujetos no debe conocer las hipótesis de la
investigación. Los sujetos (pertenecientes a cada grupo) tampoco deben conocer las hipótesis y
condiciones experimentales.

¿Cómo se logra el control y la validez interna? 1) Usando varios grupos de comparación (2


como mínimo), 2) asegurando la equivalencia inicial de los grupos en todos los aspectos, excepto
en la manipulación de las variables independientes. Es decir, los grupos deben ser similares
(homogéneos en todo aspectos) excepto en relación a la variable de estudio, 3) los instrumentos
de medición deben ser iguales o equivalentes y aplicados de la misma manera. Por ejemplo, el
sexo, nivel de educación, edad, nivel socioeconómico, salud (física y mental), son variables que
deben ser similares en los distintos grupos experimentales.

Para cumplir lo anterior debemos hacer la asignación inicial de los sujetos, con mismas
características, AL AZAR.

49
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.1.1 Nomenclatura de los diseños de experimentos. En este curso nos basaremos en la


tipología de Campbell y Stanley (1966), citado por Hernández-Sampieri et al.(1998), quienes
dividen los diseños experimentales en: a)Preexperimentos, b) experimentos verdaderos, c)
cuasiexperimentos.

Nomenclatura:

G :Grupo de estudio que puede contener 2 o más sujetos asignados a ese grupo en
particular.
X : Tratamiento experimental o variable independiente
O : Prueba o medición sobre los sujetos de los grupos
R : Asignación al azar de los sujetos
Xi : Diferentes niveles de la variable independiente, puede ser en distintos grados de
intensidad del tratamiento o distintos modos o formas de aplicación del tratamiento , o
combinación de ambas anteriores.
Oi : Diferentes pruebas, pueden ser previas al tratamiento y posteriores (pre-pruebas y post-
pruebas).
- : Ausencia de estímulo o grupo de control
La secuencia horizontal indica tiempos distintos, y la secuencia vertical indica mismo
tiempo pero diferentes grupos. Ejemplo se secuencia horizontal (en el tiempo):

RG1 O X O

Primero se asignan Se aplica una Se administra el Se aplica una


los sujetos al grupo 1 medición previa estímulo o tratamiento medición posterior
al azar

50
Instituto Profesional Diego Portales
AUTÓNOMO

Ejemplo de secuencia vertical y horizontal

RG1 X O
RG2 - O
Se asignan al azar sujetos al A un grupo se le aplica el Ambos símbolos que
grupo 1 y al grupo 2 al mismo estímulo y al otro no para que representan la medición están
tiempo. sirva de control alineados verticalmente, lo
RG1, X y O se aplican en que representa que la
distintos tiempos. Lo mismo medición se hace en el mismo
pasa con el grupo 2. momento

2.5.1.2. Preexperimentos: Los Preexperimentos se denominan así porque su grado de control es


mínimo. En este tipo de estudios no existe el grupo de control.

i.- Diseño preexperimental de una sola medición:

G X O

Aquí se usa un solo grupo de estudio al que se le aplica un estimulo único y luego se realiza un
medición del efecto de ese tratamiento. No es un verdadero experimento porque:
1.- No hay distintos niveles de la variable independiente
2.- No hay referencia para comparar (Control) ni previo ni posterior al estímulo.
3.- No se controlan las fuentes de validación interna.
Por lo anterior no se pude establecer causalidad con certeza.

Ejemplo:
Se aplica un nuevo método (X) de enseñanza en alumnos de 3º año de enseñanza media de 35
alumnos, al final del programa se evalúa con una prueba escrita (O) para determinar el
rendimiento académico de los alumnos. Suponiendo que los resultados de la medición son nota
promedio del curso 6,5, en una escala del 1 al 7.

G X 6,5

51
Instituto Profesional Diego Portales
AUTÓNOMO

No tenemos ningún patrón para determinar que nota tendrían con el método tradicional. Luego,
una afirmación de que el rendimiento académico aumentó o disminuyó no tiene validez.

ii.- Diseño preexperimental de preprueba y postprueba con un solo grupo.

G O1 X O2

Se emplea un solo grupo experimental al cual se le aplica primero una medición de la


situación previa, después se realiza el tratamiento X y posteriormente se vuelve a medir para ver
el efecto que tuvo tal estímulo.. La ventaja de éste es que tiene un punto de referencia inicial para
comparar. Sin embargo, no puede decirse que se trata de un control adecuado porque no controla
varias fuentes de invalidación interna como la historia y la evolución que pueda ocurrir durante el
transcurso de la ejecución del experimento. Asimismo puede haber un efecto de la preprueba
sobre la postprueba (sensibilización de los sujetos). En este diseño tampoco se puede establecer
con certeza la causalidad de cualquier efecto.

Los 2 diseños preexperimentales no son adecuados para el establecimiento de relaciones


entre la variable independiente y dependiente.

Los estudios preexperimentales pueden servir como estudios exploratorios. Este tipo de
preexperimentos es muy usado en el área comercial. Por ejemplo, se aplica un aviso comercial y
luego se mide la reacción del público, luego se deduce que el efecto en el aumento de las ventas
del producto es atribuible a la campaña publicitaria, pero puede ser que el producto era más
barato que otros bienes sustitutos de similar calidad, y podría hacerse entonces una falsa
atribución al comercial, mientras que el motivo del aumento de las ventas puede ser cualquier
otro. Por ejemplo, un factor estacional, de moda, etc. Este tipo de estudios también son frecuentes
en el área de educación.

Tomando el ejemplo anterior, supongamos que en el mismo curso anterior se considera


como prueba previa (O1)el promedio de notas del último certamen. Luego se aplica el tratamiento
X y después se evalúa con un certamen (O2). Supongamos que los resultados son los siguientes:

G 5,5 X 6,5

Podríamos afirmar en un principio que el mejor rendimiento se debe a la nueva técnica de


enseñanza, pero también se corre el riesgo que tal mejora en las notas sea porque la segunda
prueba fue muy fácil, o porque el profesor influyó en la motivación de los alumnos con el afán
inconsciente de probar su nuevo método (No siendo la motivación una variable en el estudio, en
este caso una variable extraña), o porque la materia anterior les ayudó a madurar los contenidos
52
Instituto Profesional Diego Portales
AUTÓNOMO

pasados en la nueva técnico o porque se pasó los contenido y se preguntó con un menor grado de
dificultad. Es decir, no hay un control de las fuentes de variación interna y externas que afectaron
al grupo en el trascurso del experimento.

2.5.1.3 Experimentos verdaderos. Este tipo de experimentos reúnen los 2 requisitos básicos
para lograr control y validez interna:

1.- Grupos de comparación (Manipulación de la o las variables independientes con un


grupo de control).

2.- Equivalencia (Inicial y en el transcurso del estudio) de los grupos. Es decir, los
grupos son homogéneos y por lo tanto asignados al azar.

iii.- Diseño experimental de post-prueba y grupo de control. Aquí se evalúa presencia y


ausencia de un tratamiento.

RG1 X O1
RG2 - O2

Se aprecian 2 grupos de estudio, se le aplica el tratamiento a G1 y a G2 no se le aplica


ningún estímulo para que sirva como grupo de control o de comparación. Después de hacer el
tratamiento se hace una postprueba para evaluar el efecto y comparar la diferencia del efecto
entre los grupos G1 y G2. La diferencia entre los 2 efectos (O2 – O1) es atribuible al tratamiento.

Los individuos de cada grupo son elegidos al azar. La prueba estadística que suele
utilizarse en este diseño para comparar a los grupos es la prueba “t” de Student para grupos
correlacionados, al nivel de medición por intervalos. Si queremos usar varios niveles de
manipulación:

53
Instituto Profesional Diego Portales
AUTÓNOMO

RG1 X1 O1

RG2 X2 O2

RG3 X3 O3

RG4 - O4

Ho: x1  x2  x3  x4  ....

En estos diseños se logra controlar todas las fuentes de invalidación interna. R denota
asignación al azar de los sujetos a cada grupo, Gi cada grupo de sujetos (Por ejemplo, se asignan
50 personas por grupo), Xi denota las diferentes intensidades del tratamiento (Por ejemplo, si es
por intensidad, x1 = máxima intensidad, x2 = intensidad moderada, x3 = intensidad mínima), el
grupo de control no recibe ningún tratamiento, los Oi denotan las pruebas o mediciones del efecto
de xi en la variable y (dependiente). Las mediciones normalmente consisten en encuestas,
cuestionarios, pruebas y entrevistas, cuando son realizadas sobre personas.

Ejemplo:
Se elige el mismo curso como grupo 1 y otro de similares características y rendimiento
académico como grupo de control.

RG1 X 6,5
RG2 - 5,0

Se puede afirmar con seguridad que el nuevo método de enseñanza sí tuvo un efecto
positivo en el rendimiento promedio de los alumnos sometidos a él comparado con los que
siguieron sometidos al sistema tradicional de enseñanza.

iv.- Diseño con preprueba, postprueba y grupo de control. En algunos casos, para no repetir
exactamente la misma prueba (o medición), se pueden desarrollar 2 pruebas que no sean las
54
Instituto Profesional Diego Portales
AUTÓNOMO

mismas pero sí equivalentes, es decir que midan lo mismo. En el caso del grupo de control,
aunque no haya tratamiento se realizan las 2 pruebas. En este tipo de experimentos se controla la
evolución que tiene el grupo. Por ejemplo, si existe una diferencia entre la prueba O3 y la O4,
puede deberse a algún factor o variable externa que condicionó al grupo, o simplemente a la
evolución sufrida por la cantidad de tiempo demasiado prolongada entre una medición y otra.
Con la pre- y postprueba de control estamos controlando esa variable extraña, y así aislamos la
verdadera magnitud del tratamiento en el grupo 1. Esta situación se puede expresar gráficamente
de la siguiente manera:

RG1 O1 X O2

RG2 O3 - O4

Obviamente, esta prueba puede extenderse a más grupos:

RG1 O1 X1 O2

RG2 O3 X2 O4

RG3 O5 X3 O6

Como en todo experimento RGcon


4 distintosOniveles
7 - de tratamientos, podemos encontrar una
o grado
relación entre la intensidad
O o magnitud de Y respecto de X (Correlación).
8

La hipótesis estadística se puede plantear como:

Ho: x1  x2  x3  x4  .... (Diferencia de grupos), o

Ho: rxy >o ( r = Coeficiente de Correlación lineal) para el caso de querer


Determinar la correlación entre intensidad del tratamiento x y el efecto y

v.- Diseño de 4 grupos de Salomón. Es una mezcla de los 2 anteriores. Origina 4 grupos, 2
experimentales y 2 de control. Hay 2 grupos que reciben el mismo tratamiento y los otros 2 no
reciben ningún estímulo. Este puede representarse de la siguiente forma:
55
Instituto Profesional Diego Portales
AUTÓNOMO

RG1 O1 X O2

RG2 O3 - O4

RG3 - X O5

RG4 - - O6

La ventaja de este diseño es que el experimentador puede verificar los posibles efectos de
la preprueba sobre la postprueba, puesto que a algunos grupos se les administra preprueba y a
otros no. Por ejemplo, si se aplica una encuesta a un grupo, este quedará sensibilizado o
condicionado para cuando le apliquen la postprueba.

vi.- Diseños experimentales de series cronológicas múltiples. (Series de tiempo cronológicas).


Los diseños experimentales verdaderos que se han comentado previamente sirven para analizar
efectos inmediatos o a corto plazo, pero en ocasiones es necesario analizar la evolución de un
experimento en el mediano y largo plazo porque puede suponerse que los efectos de un
tratamiento se demora en manifestarse. Por ejemplo los métodos educativos, campañas , terapias.
En estos casos se adoptan diseños de varias postpruebas en el tiempo.

Ejemplos de series cronológicas:

vi-a.- Serie cronológica sin preprueba, con varias postpruebas y grupo de control.

RG1 X1 O1 O2 O3

RG2 X2 O4 O5 O6

RG3 X3 O7 O8 O9

RG4 - O10 O11 O12

56
Instituto Profesional Diego Portales
AUTÓNOMO

vi-b.- Serie cronológica con preprueba, con varias postpruebas y grupo de control.

RG1 O1 X1 O2 O3 O4

RG2 O5 X2 O6 O7 O8

RG3 O9 X3 O10 O11 O12

RG4

vi-c.- Serie
RG1 cronológica
O1 basado en X1 el diseño O
de2 cuatro grupos
O3 de Salomón.
O4 Es el mismo
diseño de Salomón, pero se realiza más de una postprueba cuando se sospecha que el efecto del
tratamiento
RG2en y se demora
O5 o no es permanente.
X2 O6 O7 O8

RG3 O9 X3 O10 O11 O12


RG1 O1 X O2 O3
RG4 O13 - O14 O15 O16
RG2 O4 - O5 O6 O
13 - O14 O15 O16
RG3 - X O7 O8

RG4 - - O9 O10

vi-d.- Serie cronológica con varias prepruebas, varias postpruebas y grupo de control. Este
tipo de diseño permite ver la evolución antes y después del experimento. Por ejemplo, se puede
detectar después del tratamiento una tendencia al alza de la variable y, que podría atribuirse al
estimulo aplicado, pero si se hacen también varias prepruebas y se detecta la misma tendencia,
con la misma pendiente de la curva, entonces podemos decir que esa tendencia al alza existía
antes del tratamiento y no se debe al estímulo aplicado, sino a cualquier otro factor extraño.

57
Instituto Profesional Diego Portales
AUTÓNOMO

Detecto si hay una


tendencia previa

O1 O2 O3 O4 O5 O6 tiempo

Efecto creciente de x
y

O1 O2 O3 O4 O5 O6 tiempo

58
Instituto Profesional Diego Portales
AUTÓNOMO

RG1 O1 O2 O3 X1 O4 O5 O6 O7

RG2 O8 O9 O10 X2 O11 O12 O13 O14

RG3 O15 O16 O17 X3 O18 O19 O20 O21

RG4 O22 O23 O24 - O25 O26 O27 O28

vii.- Diseños de series cronológicas con repetición de estímulo. Si el tratamiento no tiene


efecto con una sola aplicación o no es el esperado al aplicarlo sólo una vez, se puede aplicar
varias veces y aplicar una postprueba después de cada aplicación. Por ejemplo: La administración
de un medicamento.

RG1 O1 X O2 X O3

RG2 O4 - O5 - O6

RG3 - X O7 X O8

RG4 - - O9 - O10

El tratamiento se aplica dos veces al grupo experimental.

viii.- Diseños con tratamientos múltiples. Es cuando el investigador quiere aplicar todos los
tratamientos a los mismos grupos. La aplicación puede ser individual o grupal.

viii.a.- Varios grupos. A cada grupo se le aplican varios tratamientos. Por ejemplo, al grupo 1
de estudio se le aplican los tratamientos X1, X2 y X3, lo mismo ocurre para el grupo 2. Esto se
puede graficar:

RG1 X1 O1 X2 O2 X3 O3

RG2 X1 O4 X2 O5 X3 O6

RG2 - O4 - O5 - O6

59
Instituto Profesional Diego Portales
AUTÓNOMO

La aplicación de los tratamientos puede hacerse en la misma secuencia a cada grupo


experimental o en secuencias diferentes, para eliminar el efecto de la secuencia en que fueron
aplicados.

viii.b.- Un sólo grupo. Cuando existe un número reducido de sujetos para realizar el
experimento, se aplican todos los tratamientos a los mismos individuos. No hay asignación al
azar porque se tiene un solo grupo y la equivalencia inicial está asegurada. Los tratamientos
deben tener efectos reversibles, porque sino sería cuasiexperimental., porque cada vez que
aplique un estimulo, al estar condicionado el grupo por el experimento anterior, el grupo se
comportará diferente a su estado inicial, y esto es parecido a la situación en que no se pude
asegurar la equivalencia inicial de los grupos. Por ejemplo:

RGúnico X1 O1 X2 O2 - O3 X3 O4 - O5 ....

ix.- Diseños factoriales: Son aquellos que utilizan 2 o más variables independientes e incluyen 2
o más niveles de presencia en cada una de las variables independientes. Hasta el momento hemos
tratado experimentos que emplean una sola variable independiente x, la cual tienen diferentes
grados o modalidades, pero sigue siendo la misma variable. Por ejemplo, si queríamos ver el
efecto del nivel de ingreso los consumidores en la demanda de un producto en el mercado, la
variable independiente era “nivel de ingreso” y verificábamos el efecto de diferentes niveles en la
demanda. Supongamos que ahora agregamos un nuevo factor de análisis, el precio de un bien
sustituto, que llamaremos z. Tendremos entonces diferentes niveles de la variable independiente
“nivel de ingreso” x, es decir, x1, x2, x3, x4, etc., y diferentes niveles de la segunda variable
independiente en estudio “precio de un bien sustituto” z, en decir, z1, z2, z3, z4, etc. Si se combinan
cada uno de los estímulos, entonces necesitaremos, en este caso, 2x4=8 grupos de estudio (2
variables y 4 niveles cada una), más un grupo de control, para analizar el efecto de cada variable
a cada nivel de intensidad en la “demanda “ del bien en estudio.

ix-a.- Diseño factorial 2x2: Utiliza 2 variables independientes y 2 niveles de cada una. Esto
quiere decir que si usamos 2 variables, analizamos el efecto de ambas sobre Y. Por ejemplo,
variables X y Z, usaremos 2 niveles o modos de cada una, es decir, X1 y X2, Z1 y Z2., más un
grupo de control.

60
Instituto Profesional Diego Portales
AUTÓNOMO

En una tabla se puede ver de la siguiente manera:

Variables

Nivel o Modo Variable X Variable Z

1 X1 Z1

2 X2 Z2

Control

En total resultan 5 grupos de experimentales.

Aquí podemos encontrar, por ejemplo, la dependencia de y de x y z, es decir, y = F(x, z), o


descartar tal dependencia, con una prueba que demuestre que el coeficiente de correlación
múltiple es superior a cero y cercano a 1, en el primer caso, o que r sea significativamente igual a
cero, en el caso que no haya dependencia. La hipótesis estadística queda:

Ho: Ry/x.z > 0

ix-b.- Otros diseños factoriales: El número de grupos que se forman en un diseño factorial es
igual a todas las posibles combinaciones que surjan al cruzar el número de variables
independientes con el número de niveles de ellas, más el grupo o los grupos de control.
Luego, para todo diseño factorial debemos distinguir VARIABLES y NIVELES.

Por ejemplo: 2x2 => 4 grupos más control


2x3 => 6 grupos más control
2x3x2 => 12 grupos más control

61
Instituto Profesional Diego Portales
AUTÓNOMO

Los diseños factoriales permiten al investigador evaluar los efectos de cada variable
independiente sobre la variable dependiente POR SEPARADO y los efectos de las variables
independientes EN CONJUNTO. A través de estos diseños se pueden observar los efectos de
interacción entre las variables independientes. Es decir, podemos asumir que los factores o
variables independientes son independientes, pero al analizar los resultados el investigador puede
encontrar que 2 o más variables están correlacionadas entre sí. Esta correlación entre variables
independientes se le denomina interacción, que impide visualizar el verdadero efecto de las
variables en la variable dependiente y.

Lo anterior se puede ver de la siguiente forma en un diagrama como el siguiente:

X
efecto Z
de K Y
interacción L

Efecto Principal

Validez externa de los experimentos. Se refiere a qué tan generalizables son los resultados de
un experimento a situaciones no experimentales y a otros sujetos o poblaciones, es decir, ¿LO
QUE ENCONTRÉ EN EL EXPERIMENTO, A QUÉ SUJETOS, POBLACIONES,
CONTEXTOS, VARIABLES Y SITUACIONES PUEDE APLICARSE? Paara poder contestar
esa pregunta primero debemos identificar las posibles fuentes de invalidación externa de un
experimento:

62
Instituto Profesional Diego Portales
AUTÓNOMO

Fuentes de invalidación externa:

1.- Efecto de interacción entre las pruebas. Significa que una prueba puede sensibilizar de cierta
manera a los sujetos para las siguientes pruebas.

2.- Efecto de interacción entre los errores de selección de los sujetos para los grupos
experimentales y el tratamiento experimental. Esto puede darse en un experimento donde se
reclutan voluntarios, pues, su interés por participar en el experimento0 puede llevarlos a
manipular los resultados en forma conciente o inconsciente.

3.-Efectos reactivos de los tratamientos experimentales. Por ejemplo, por causa de la presencia de
observadores, los sujetos pueden reaccionar con una conducta poco usual o poco común
(anormal). Luego, para que no ocurra esto, los sujetos deben olvidarse que están en un
experimento, o que no sepan que los observan.

4.- Interferencia de tratamientos múltiples. Si los tratamientos no son de efecto reversible, es


decir, si no se pueden borrar sus efectos, las conclusiones solamente podrán hacerse extensivas a
las personas que experimenten la misma secuencia de tratamientos, sean múltiples o de repetición
del mismo.

5.-Imposibilidad de replicar los tratamientos. Para lograr una mayor validez externa, es
conveniente tener grupos lo más parecido posibles a la mayoría de las personas a quienes se
desea generalizar y repetir el experimento varias veces con diferentes grupos.

TRATAR QUE EL CONTEXTO EXPERIMENTAL SEA LO MÁS PARECIDO POSIBLE AL


CONTEXTO QUE SE PRETENDE GENERALIZAR.

Los contextos de un experimento pueden ser 2:


- de laboratorio
- de campo (más natural)

Los experimentos de laboratorio generalmente logran un control más riguroso de todas las
variables ajenas al experimento y a las condiciones de invalidación interna que los experimentos
de campo, pero estos últimos suelen tener mayor validez externa que los de laboratorio.

Los estudios experimentales son estudios explicativos, pues, como analizan las relaciones
entre 1 o más variables independientes y 1 o varias dependientes, y los efectos causales de las
primeras sobre las segundas. Además de ser explicativos pueden abarcar un nivel correlacional.

2.5.1.4 Cuasiexperimentos. Difieren de los experimentos verdaderos en el grado de seguridad o


confiabilidad que se puede tener sobre la equivalencia inicial de los grupos. En el diseño

63
Instituto Profesional Diego Portales
AUTÓNOMO

cuasiexperimental, los sujetos no son asignados al azar a los grupos, sino que dichos grupos ya
estaban formados antes del experimento, es decir, se toman grupos previamente constituidos.

Por ejemplo, se hace un experimento para probar un nuevo método de enseñanza, se eligen como
grupos experimentales una cantidad determinada de cursos de clases de ciertos colegios. Los
cursos de alumnos ya están formados antes de elaborar el experimento, por lo cual no puede
hacerse una asignación al azar de los sujetos.

La falta de aleatorización introduce posibles problemas de validez interna y externa del


experimento.

Ejemplo:

G1 X O1
G2 - O2

Si G1 y G2 no son equivalentes, las diferencias entre O1 y O2 pueden deberse a X, pero también a


cualquier otra variable o factor.

En general los experimentos o cuasiexperimentos pueden usar los mismos diseños, salvo
la diferencia antes mencionada de la asignación al azar de los sujetos en el experimento.

En resumen, para desarrollar un diseño de experimentos (o cuasiexperimentos) se deben respetar


los siguientes pasos:

1.- Decidir sobre el número de variables independientes y dependientes.


2.- Elegir los niveles de manipulación.
3.- Desarrollar el o los instrumentos para medir la variable dependiente.
4.- Seleccionar la muestra de personas, idealmente representativa de la población.
5.- Reclutar a los sujetos.
6.- Selección del diseño experimental.
7.- Planear cómo se va a manejar a los sujetos.
8.- En el caso de los experimentos verdaderos, dividir el total de sujetos al azar y asignarlos a los
grupos. En el caso de los cuasiexperimentos, analizar las propiedades de los grupos intactos
(preestablecidos).
9.- Aplicar las pruebas (medición).

Por último, cuando se está realizando un experimento científico, resulta conveniente


tomar nota del desarrollo del experimento, llevar una bitácora minuciosa de todo lo ocurrido a lo
largo de éste.

64
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.1.5 Diseños no experimentales. En este caso, al contrario de los diseños experimentales NO


hay una manipulación deliberada de las variables. Sólo se observan los fenómenos tal y como se
dan, en su contexto natural, para después analizarlos.

En un estudio no experimental, los sujetos ya pertenecen en forma previa a un grupo o


nivel determinado de la variable independiente por auto selección. La investigación no
experimental sigue siendo sistemática y empírica (se basa en datos reales).

Los diseños no experimentales se pueden clasificar en:

a) Transversales (transeccionales)
b) Longitudinales

a) Tranversales: Estado de una o diversas variables en un momento dado. Es como sacar una
fotografía de una situación determinada, y se mide lo que hay en ese instante.

Se dividen en estudios DESCRIPTIVOS y CORRELACIONALES.

a.1.- Descriptivos. Indagan la incidencia o los valores en que se manifiesta una o más variables.
Por ejemplo, encuestas de opinión. Se puede describir lo que pasa con X ó Y ó Z, pero no se
hacen análisis para relacionar tales variables entre sí.

Por ejemplo: Se quiere averiguar la intención de voto popular por un candidato político ( X =
52%). Otro ejemplo, se quiere estimar la tasa de desempleo de una región (X = 11%)

a.2.- Correlacionales. Se encuentran relaciones entre una o más variables en un momento


determinado. Pueden limitarse a establecer relaciones entre variables sin precisar sentido de
causalidad o pueden pretender analizar relaciones de causalidad.

Cuando establecen relaciones causales, entonces este tipo de estudios son de nivel
EXPLICATIVO. Sin embargo, estos diseños se fundamentan en hipótesis correlacionales y de
diferencia de grupos, sin atribuir causalidad.

Ejemplo: Se pretender determinar la relación entre el nivel socioeconómico (X) de los alumnos y
su rendimiento académico (Y). Puede resultar una correlación lineal rXY=65%. El mismo estudio
puede generar un modelo matemático para explicar tal relación, por ejemplo, Y = a + b·X, con
a,b parámetros de la regresión lineal (obviamente, puede resultar cualquier modelo, lineal o no
lineal). Si solo se encuentra la relación lineal que explica una variable respecto de otra, entonces
es un estudio correlacional, pero si se buscan las causas por qué y depende de x, entonces se trata
de un estudio correlacional explicativo.

65
Instituto Profesional Diego Portales
AUTÓNOMO

En el caso de haber más variables independientes, entonces estamos en presencia de una


modelo multivariable y para ello debemos recurrir a la regresión múltiple.

Los estudios correlacionales describen una situación en un momento dado, no hay


descripción o relación de las variables en el tiempo.

b.- Longitudinal: En este caso se recolectan los datos a través del tiempo. Por ejemplo, si se
quiere evaluar la evolución de la tasa de desempleo en un lapso de 5 años.

Se distinguen 3 tipos de estudios no experimentales longitudinales.

b.1.- de tendencia: o “trend”. Analizan los cambios a través del tiempo dentro de una población
en general. La característica principal es que centran su atención en la población (Se toma una
muestra representativa de la población).

Por ejemplo: Para estudiar el nivel de desempleo, se toma una muestra una vez al mes, al azar en
la población. Cada vez son sujetos diferentes, puesto que el objetivo no es hacer una seguimiento
de los sujetos.

Medición en una Medición en una Medición en una


población población población

Tiempo 1 Tiempo 2 Tiempo 3

b.2.- de evolución de grupos, o cohorte: Estudian cambios a través del tiempo en sub-
poblaciones o grupos específicos (Cohorte o grupo de individuos vinculados por algún aspecto),
generalmente de edad o grupos de edad.

Diferencias entre los diseños de tendencia y de evolución de grupos: En algunas poblaciones que
se modifican con relativa facilidad, muchos de los cambios observados por la tendencia pueden
deberse al recambio o cambio de los individuos de la población. Por ejemplo, si la población está
definida por todos los estudiantes del Instituto Profesional Diego Portales, en una medición en 5
años más habrá un recambio de todos los estudiantes del establecimiento educacional y la
población estará formada por distintos individuos.

66
Instituto Profesional Diego Portales
AUTÓNOMO

En el estudio de tendencia sobre esa población en un horizonte de 5 años, la evolución será


explicada por el cambio en la población y no se puede analizar con validez la evolución de la
variable de estudio.

En el estudio de evolución de grupos, puede identificarse a los alumnos de primer año y se


les puede hacer un seguimiento, de su rendimiento académico mientras permanezcan como
estudiantes (Por ejemplo, durante 3 años).

b.3.- Diseños de panel: Son similares a los 2 anteriores, sólo que el mismo grupo de sujetos
(muestra) es medida en todos los tiempos o momentos. La muestra se mantiene intacta en el
tiempo.

Por ejemplo, en el de evolución de grupos, estamos claro que la población no cambia, pero en
cada medición en el tiempo se hace una elección al azar de cada muestra.

En el de panel, se hace una elección al azar de la primera toma de datos (muestra), y en las
posteriores se mantiene a los mismos sujetos.

La desventaja es que a veces es muy difícil mantener a los mismos sujetos. También hay
que tener cuidado del efecto de la primera medición sobre la segunda, y así sucesivamente.

Una ventaja es que puede observarse una evolución a nivel individual y grupal en el
tiempo.

Los diseños longitudinales se fundamentan en hipótesis de diferencia de grupos,


correlaciónales y causales.

Los diseños transversales y longitudinales pueden combinarse, y tal combinación va a


depender de los objetivos de la investigación.

Resumen: Correspondencia entre tipos de estudio, hipótesis y diseños de investigación.

67
Instituto Profesional Diego Portales
AUTÓNOMO

Estudio Hipótesis Diseño

Exploratorio No se establecen, lo que se - Transeccional


Puede formular. Son descriptivo
Conjeturas iniciales. - Pre-experimental

Descriptivo Descriptivas - Transeccional


Descriptico
- Pre-experimental

Correlacional Diferencia de grupos sin - Cuasiexperimental


Atribuir causalidad - Transeccional, correlacional
- Longitudinal no experimental

Correlacional - Cuasiexperimental
- Transeccional correlacional
- Longitudinal no experimental

Explicativo Diferencia de grupos - Experimental


Atribuyendo causalidad - Cuasiexperimental longitudinal
y transeccional causal* (Cuando
hay bases para inferir causalidad,
un mínimo de control y análisis
estadísticos apropiados para
analizar relaciones causales).
Causales - Experimental
- Cuasiexperimental, longitudinal
y transeccional causal (* Idem
anterior).

68
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.2 Técnicas de muestreo. Se refieren a las alternativas de métodos estadísticos que pueden
usarse para tomar los datos de la población. Este punto es importante para que el alumno aprenda
enunciar los conceptos de muestra, población y procedimientos de selección de la muestra;
identificar los distintos tipos de muestras, sus características, las situaciones en que es
conveniente utilizar cada una de sus aplicaciones; determinar el tamaño adecuado de muestra en
distintas situaciones de investigación, y obtener muestras adecuadas desde el punto de vista
científico, aplicando diferentes métodos de selección.

En este punto se analizan los conceptos de muestra, población o universo, tamaño de


muestra, representatividad de la muestra y procedimientos de selección. También se presenta una
tipología de muestras: probabilísticas y no probabilísticas. Explica cómo definir los sujetos que
van a ser medidos, cómo determinar el tamaño adecuado de muestra, dependiendo del tipo de
selección elegido.

2.5.2.1 Los sujetos u objetos de estudio. Se refiere a las personas o cosas que son objetos de la
investigación. Por ejemplo, si se estudia la tasa de desempleo de una cierta localidad. Los sujetos
de estudio son las personas que potencialmente están habilitadas para trabajar, luego no se
incluirán como parte del estudio a niños, ancianos o los residentes de una cárcel. La investigación
puede estar orientada a cosas, tangibles o intangibles. Por ejemplo, si se está haciendo una
descripción de las empresas de la zona, entonces, los sujetos de la investigación serán cada una
de las empresas de esa área. Cómo son escogidos cada uno de ellos, no sólo depende de los
objetivos de la investigación, sino también del diseño de la misma.

Los sujetos vienen a ser la unidad de análisis del estudio. ¿Cómo la determinamos?, Resp.
Preguntándonos: ¿Quiénes van a ser medidos?

 Esto nos lleva a la necesidad de delimitar la población.

La definición de las características de los sujetos del estudio dependen de los objetivos de
la investigación, de las hipótesis que se quieren probar y del diseño a usar. No es simplemente
decir que se usarán tales o cuales sujetos, sino que ellos mismos deben tener además ciertas
características. Si se definen específicamente el conjunto de características que deben tener,
entonces estamos capacitados para delimitar la población o universo de objetos o sujetos de la
investigación.

2.5.2.2 Población o universo. Una vez definida la unidad de análisis se puede definir la
población que será estudiada y sobre la cual se pretende generalizar los resultados. Así, una
población es el conjunto de todos los casos que concuerdan con una serie de especificaciones. Por
ejemplo: Si el estudio está relacionado con los trabajadores de Chile, la población del estudio

69
Instituto Profesional Diego Portales
AUTÓNOMO

estará constituida por todos los trabajadores del país, y los sujetos de la investigación son los
trabajadores.

Las características de ese universo de sujetos o población que la distinguen de otras


poblaciones, como edad promedio, sexo, niveles de ingreso, correlaciones entre esas variables,
las respectivas medidas de dispersión de cada variable, las distribuciones de frecuencia de ellas,
entre tantas determinan los parámetros poblacionales.

Aunque existen muchas funciones de distribución de frecuencia, en este caso nos


referiremos sólo a la distribución normal, la cual tiene la ventaja de estar caracterizada por dos
parámetros, la media ( ). La mayoría de los datos se ajustan a esta
distribución de probabilidad, salvo casos especiales. Los conceptos básicos sobre esta función
son entregados en un curso de estadística, por lo que acá no nos referiremos a ella en
profundidad. Sin embargo, se recordarán algunos conceptos para ayudar al alumno a asociar el
lenguaje técnico que se usará en este capítulo.

Parámetros poblacionales. Son aquellas variables o características que pueden ser medidas sobre
los sujetos y que su promedio u otra medida estadística puede caracterizar a toda la población.

Un ejemplo de parámetro poblacional puede ser “la edad promedio” de todos los sujetos
de la población. Lo malo de un parámetro poblacional es su dificultad para medirlo, porque para
ello, sería necesario tomar la medición sobre todos y cada uno de los sujetos y luego obtener el
valor promedio poblacional (Es decir, se debería hacer un censo, el cual no asegura que no hayan
errores de medición que alejen los resultados encontrados del valor real del parámetro).

El censo de define como la medición de todos y cada uno de los sujetos de la población.

Como el censo es muy caro de realizar (casi impracticable en caso de poblaciones muy
grandes), se recurre a la toma de una muestra, donde se miden los parámetros poblacionales en un
pequeño grupo de sujetos representativos de esa población. Si los sujetos son representativos,
entonces los valores muestrales de los parámetros serán representativos de los valores
poblacionales de esos parámetros.

2.5.2.3 La muestra, es la medición de una parte de los sujetos de la población, y que pueden o no
ser representativos de ella. La muestra corresponde entonces a un subconjunto de la población,
pero va a ser representativa de ella dependiendo de cómo se elijan los sujetos. La muestra es en
esencia un subgrupo de la población.

Muestras probabilísticas. Todos los elementos de la población tienen la misma probabilidad de


ser elegidos al confeccionar la muestra. Nos permite hacer una muestra representativa de la
población. Para ello debemos suponer que: 1) La muestra tiene las mismas características que la

70
Instituto Profesional Diego Portales
AUTÓNOMO

población, luego los parámetros poblacionales son similares a los parámetros muestrales
(estimadores), y 2) los parámetros muestrales estiman el valor de los parámetros poblacionales.

Delimitación de la
Población por
ciertas características.

Muestra Delimitación de la
muestra
Sujetos
Sujetos de estudio con ciertas
características

Existen muestras a) probabilísticas y b) no probabilísticas.

Muestra Población
(Estimadores) (Parámetros)
(Media, x ; varianza, S2n-1 ) 2
)

71
Instituto Profesional Diego Portales
AUTÓNOMO

varianza muestral S2n-1 2


).

Para que ocurra lo anterior, la muestra debe ser representativa de la población (Muestra
probabilística). La muestra probabilística está asociada a un procedimiento mecánico relacionado
con la probabilidad. Obviamente, cuando la población es pequeña, es decir, que con facilidad se
pueden medir todos los individuos o sujetos de la investigación, no es conveniente tomar una
muestra. En ese caso se mide todo el universo de sujetos u objetos de la investigación.

Muestra no probabilística. No existe asociada una probabilidad, y se usan criterios relacionados


con la investigación para elegir los sujetos de la muestra. Estas muestras al no ser probabilísticas,
tienden a ser sesgadas, puesto que el criterio de elección de los sujetos puede privilegiar ciertos
sujetos y evitar la selección de otros, luego, esta muestra al tener estimadores sesgados (con error
sistemático de estimación) no son representativas de la población, pero sí pueden servir para
tomar decisiones.

2.5.2.4 Conceptos básicos de muestreo. El muestreo es el proceso mediante el cual se obtiene


una o más muestras de una población. Tal selección es considerada como un experimento
aleatorio.

Cuando se conoce con anterioridad la probabilidad de obtener cada muestra tenemos un


muestreo probabilístico.

La inferencia estadística consiste en la predicción de PARÁMETROS poblacionales a partir de


muestras, es decir, el paso de lo particular a lo general (proceso inductivo). Por ejemplo, una
población definida por el grupo de ingenieros comerciales que viven y trabajan en una
determinada ciudad. En un estudio descriptivo, se quiere caracterizar tales ingenieros forestales
de acuerdo al ingreso promedio anual que reciben por su actividad laboral. Supongamos que se
identifica una población de 2550 ingenieros comerciales que viven en esa ciudad, y después de
realizar un proceso de muestreo se encuentra que la media muestral es de $ 5.000.000 anuales.
Supongamos que la muestra es representativa de esa población de 2550 ingenieros, entonces,
podemos afirmar que la media muestral es representativa de la media poblacional y podemos
afirmar que todos los ingenieros de esa ciudad ganan $ 5.000.000 al año. Obviamente esta
estimación tiene asociado un error de estimación que está en función del tamaño de la muestra y
de la variabilidad de las rentas de los individuos.

El muestreo es conveniente cuando el tamaño de la población es muy grande (No


podemos medir todos los elementos), la población es homogénea y cuando por razones
72
Instituto Profesional Diego Portales
AUTÓNOMO

económicas y de tiempo no se puede medir a todos los individuos, aunque técnicamente sea
posible medir todos los sujetos.

Con el objeto de predecir, a partir de una muestra, es necesario elegirla y recopilar la


información necesaria respecto a ella, teniendo claro que si la selección no es adecuada, las
predicciones no son válidas. Por ello, la selección de la muestra constituye un experimento
aleatorio, en que su resultado (del experimento) no depende de la persona que lo realiza
(subjetividad) sino solamente del azar.

Como la muestra es elegida en forma aleatoria (al azar) se tiene un muestreo aleatorio del
cual existen dos tipos: con y sin reemplazo.

Muestreo aleatorio simple con reemplazo. En este tipo de muestreo, cualquier unidad muestral
puede aparecer más de una vez en la muestra; con ello, cualquier población se hace infinita. La
selección consiste en tomar una unidad, registrar su número (por ejemplo) y nuevamente
devolverla a la población (Para darle la posibilidad de salir seleccionada otra vez).

Muestreo aleatorio simple sin reemplazo. Cada unidad muestral puede aparecer solo una vez en la
muestra y las probabilidades de selección de una unidad depende de las extracciones anteriores.
Por ejemplo, la primera unidad tiene una probabilidad de selección de 1/N, la segunda de 1/(N-1),
la tercer de 1/(N-2), y así sucesivamente.

Cuando se está buscando una muestra que sea representativa de la población estamos
buscando una parte de esa población a la cual se puede medir, a un bajo costo de tiempo y dinero,
y además que esta muestra represente a todos la población con un mínimo error.

Para una muestra probabilística, necesitamos básicamente 2 cosas: a) Determinar el


tamaño de la muestra (n) y seleccionar los elementos muestrales (Sujetos).

El tamaño de la muestra depende del tipo de muestreo que va a realizar, por ello, primero
revisaremos éstos, y en cada uno de ellos se mostrará como determinar el tamaño de muestra
adecuado.

2.5.2.5. Tipos de muestreo. Dependiendo de las características de la población de interés


definida por investigador, y de las características mismas de esa población se recomienda usar un
tipo de estudio distinto, dependiendo del caso.

73
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.2.5.1 Muestreo Aleatorio Simple (MAS). Es el método fundamental de selección. Todos los
demás procedimientos de muestreo son modificaciones de éste, que buscan alcanzar más
economía o precisión de las estimaciones.

El MAS es un muestreo aleatorio sin reemplazo y de población finita (en este caso, pues
también se puede realizar un MAS sobre una población de tamaño infinito), y consiste en la
selección (Al azar) de “n” unidades de una población de tamaño “N”, de tal manera que cada una
de las (N! / (n!(N-n)!)) muestras posibles diferentes, tienen la misma probabilidad (n!(N-n)!/N!)
de ser seleccionadas.

La probabilidad de un elemento de estar incluido en la muestra es de (n/N). Por ejemplo,


se define una población como, a todos los alumnos de un liceo, supongamos N = 1500 alumnos.
La probabilidad de que Juanito Pérez, que es alumno del establecimiento, sea seleccionado en un
muestreo que se tomará a 50 alumnos es de (n/N = 50/1500 = 0.0333 x100% = 3.33%).

Este tipo de muestreo permite obtener un estimador INSESGADO de la media

refiere a la ausencia de un error sistemático de estimación, o en otras palabras, que la media


muestral obtenida se acerca mucho al valor de la media poblacional.

Las desventajas de este método son:

- Requiere desarrollar un método para le selección aleatoria. Por ejemplo, se le asigna un


número a cada uno de los 1500 alumnos, se meten los números en una tómbola, se
revuelve y se sacan al azar 50 números que representan a cada uno de los 50 alumnos
(sujetos) de la investigación.
- Es difícil localizar las posiciones de las unidades muestrales (sujetos) muy dispersos en
terreno. Por ejemplo, si no estamos en un colegio, y ahora se trata de todos los alumnos de
enseñanza media de la región, un alumno puede estar en un colegio cerca de la cordillera,
otro cerca de la costa, otro en una ciudad, otro en una zona rural, etc.
- Alto costo y consumo de tiempo (no productivo) en traslado entre las unidades.
- Existe la posibilidad de una distribución desigual de los sujetos en la población. Por
ejemplo, en un liceo poco representativo, fueron elegidos por el azar más alumnos que en
un liceo que es muy representativo de la población, como puede ser el caso de un liceo
grande de una ciudad muy poblada.

Los parámetros y estimadores de este tipo de muestreo son:

74
Instituto Profesional Diego Portales
AUTÓNOMO


N
xi
Media poblacional:  i 1


n
i 1
xi
Media muestral: X
n


2
( xi   )
N

Varianza poblacional:  2
 i 1


n 2

i 1
( x i  x)

2
Varianza muestral: S n 1
n 1

Donde:
N : Tamaño de la población
n : Tamaño de la muestra
xi : Valor de la variable medida en el sujeto “i”

Para obtener el tamaño muestral, también es necesario calcular el error estándar de la media de
una muestra que se obtiene:

S ( N  n)
Error estándar de la media: SX   , lo cual queda:
n N


n 2
( xi  x ) ( N  n)
SX  i 1

(n  1)n N

( N  n)
El factor corresponde al factor de corrección para población finita. Cuando este valor
N
es igual o superior a 0,95, no se considera en el cálculo, lo que ocurre al muestrear la población
con una intensidad menor o igual al 5%.

El error estándar del estimador de la media (o del total de una población) se utiliza para tres
propósitos:

75
Instituto Profesional Diego Portales
AUTÓNOMO

1.- Para comparar la PRECISIÓN obtenida a través del muestreo aleatorio simple con otros
métodos de muestreo.
2.- Para ESTIMAR la PRECISIÓN obtenida en un muestreo terminado.
3.- Para ESTIMAR el TAMAÑO de la MUESTRA que se necesita medir.

EL Error de Muestreo (e): Está dado por el estadístico t-Student. Recordemos que la media está
dada por X  e , el valor de la media más menos un error de estimación El error de estimación es
el estadístico t multiplicado por el error estándar de la media, es decir:

e  t  SX

Elevando al cuadrado queda:

s 2 ( N  n)
e2  t 2  S 2 X  t 2 ( ) , despejando n y N, queda
n N

N  n  e 2  t 2  s 2  N  t 2  s 2  n , luego, despejando n, queda


n  ( Ne 2  t 2  s 2 )  t 2  s 2  N , quedando finalmente el tamaño muestral n como:

t 2  s2  N
n  , donde:
Ne 2  t 2  s 2

S2 = Varianza de la muestra
t = t de Student para (n-1) grados de libertad (g.l.) y la probabilidad deseada, por
ejemplo, al 95%
e = Error deseado en unidades para el tamaño de la unidad muestral, es decir, error de
muestreo.

Ejemplo: Se define como población de estudio a “todos aquellos directores de empresas


industriales y comerciales que en 2004 tienen un capital superior a $ 300 millones de pesos, con
ventas superiores a los $ 1000 millones de pesos al año y / o con más de 300 personas
empleadas”. Con estas características se precisó que la población era de N = 1176 directores
generales, ya que 1176 empresas reunían las mencionadas características. ¿Cuál es el número de
directores generales “n” que se debe entrevistar para tener un error menor al 15%?.

Se toma una pre-muestra superior a 50 sujetos, es decir, se entrevistan a 50 directivos.


Supongamos que la variable más importante de estudio es la cantidad diaria de tiempo que
dedican al trabajo. Supongamos los siguientes resultados del pre-muestreo:

76
Instituto Profesional Diego Portales
AUTÓNOMO


n
i 1
xi
X = 12,5 horas diarias.
n


n 2

i 1
( x i  x)

2
S n 1 = 9,52
n 1

( N  n)
= 0,95748 = 0.9785 > 0.95, luego no se ocupa en el cálculo del error estándar.
N


n 2

i 1
( x i  x) S 2 n 1 S n 1 3.08545
SX  =    0.4363485
(n  1)n n n 50

T-Student(49, 95%) = 1.6766


e  0.1 horas, error promedio de muestreo en horas diarias de trabajo Un valor tan pequeño de
error que exijamos al muestreo nos arrojará indudablemente un tamaño muestral muy grande.
Así:

t 2  s2  N 1.6766 2  9.52  1176


n    817 gerentes en total.
Ne 2  t 2  s 2 1176  0.12  1.6766 2  9.52

Si nos conformamos con un error de muestreo de ½ hora, es muy probable que necesitemos
entrevistar a menos gerentes ( e  0.5 ). Así, el tamaño muestral queda:

t 2  s2  N 1.6766 2  9.52  1176


n    98
Ne 2  t 2  s 2 1176  0.5 2  1.6766 2  9.52

Como ya están muestreados 50, entonces queda por muestrear 98-50 = 48.

Si la varianza de la variable arrojada por el pre-muestreo fuese, en realidad, menor, por ejemplo
2.1 en vez de 9.52, el tamaño muestral definitivo quedaría:

t 2  s2  N 1.6766 2  2.1  1176


n    23 ,
Ne 2  t 2  s 2 1176  0.5 2  1.6766 2  2.1

lo que quiere decir que con el premuestreo de 50 sujetos basta y sobra. Este resultado, también
nos indica que el error de muestreo es menos de 0,5 horas.

Luego, para una población finita que se quiere muestrear, es importante hacer un pre-
muestreo lo suficientemente grande para permitir un tamaño muestral definitivo, pequeño.

77
Instituto Profesional Diego Portales
AUTÓNOMO

Además, si el tamaño muestral, todavía parece muy grande, se puede aceptar un error mayor, por
ejemplo, encontrar una media, más menos, tres cuartos de error. Para el caso anterior, sería un
promedio de 12,5  0,75 horas/día. Si comparamos los resultados anteriores, podemos observar
que al hacer menos exigente la prueba, en cuanto al error permitido, el tamaño muestral se reduce
significativamente, con el consiguiente ahorro de tiempo y dinero.

Existen métodos para seguir calibrando este tamaño muestral, pues dependiendo de las
pruebas estadísticas que se van a realizar, éstas van a ser más o menos exigentes en el tamaño
muestral. Para efectos de este curso, este aproximación es suficiente, y para más detalles se debe
recurrir a un buen libro de estadística o econometría.

El mismo método anterior, se puede aplicar usando un error porcentual de la media. Por
ejemplo, si dividimos por x , el numerador y el denominador de la fórmula y, sabiendo que el
coeficiente de variación muestral (CV) es:

S n 1 e
CV  100  , y el error de muestreo en porcentaje es: E %  100  , obtenemos la nueva
X X
fórmula:

N  t 2  CV 2
n 
NE 2  t 2  CV 2

Esta última expresión es más fácil de usar, porque en términos prácticos, es más fácil
decir que una variable tiene una media de tanto, más menos un 5% o un 10% de error con
respecto a esa media. En el ejemplo anterior, la media es de 12,5 horas / diarias, más / menos 4%
0.5
(Es decir, E %  100   4% ).
12.5

2.5.2.5.2 Muestreo aleatorio estratificado (MAE). En el muestreo aleatorio simple, la


variabilidad de un estimador depende de: 1) El tamaño de la muestra (n), 2) la variabilidad de los
datos en la muestra y en la población..

Si la población es muy heterogénea, y los costos limitan el tamaño de la muestra, podría


ser imposible obtener un estimador lo suficientemente preciso, tomando una muestra aleatoria
simple de toda la población. De suceder ello, la población heterogénea, puede ser dividida en sub
poblaciones más homogéneas (ESTRATOS), con el objeto de reducir la variación dentro de las
subdivisiones y aumentar la precisión del estimador (obteniendo un menor error de muestreo).

Algunas ventajas del MAE sobre el MAS:

78
Instituto Profesional Diego Portales
AUTÓNOMO

1.- Se obtiene estimadores de la media y varianza para cada subdivisión de la población (Por
ejemplo, en la tabla de frecuencia corresponden a las clases de tamaño)

2.- Para cierta intensidad de muestreo, la estratificación rinde estimadores más precisos de los
parámetros, que una muestra al azar simple, del mismo tamaño.

Desventajas para su aplicación:


1.- Debe conocerse el tamaño de cada uno de los estratos o clases.
2.- Se debe muestrear todos los estratos, si se necesita un estimador para cada uno de ellos.

En el MAE, hay tres grandes problemas que deben ser atendidos. Ellos son:
- El problema de la varianza.
- El problema de asignación de unidades muestrales (Como elijo cada sujeto)
- El problema de la estratificación de la población (Qué criterios uso para identificar cada
estrato).

Estratificar: Consiste en agrupar los sujetos componentes de la población de acuerdo a ciertas


características semejantes, como, edad, estatura, nivel de ingreso, nivel socioeconómico, sexo,
estado de salud, etc.

Es aconsejable que la base de la estratificación sea la misma característica que será estimada a
través del procedimiento de muestreo, por ejemplo, si se está estudiando el nivel de ingreso, la
estratificación de la población debe hacerse principalmente de acuerdo al nivel de ingreso.

Al aplicar el MAE, existen 3 tipos de varianza:


- Varianza de toda la Población
- Varianza entre los estratos
- Varianza dentro de los estratos

Al estratificar se busca dividir la población, de modo que la varianza dentro de los estratos sea
mínima, aceptando que la varianza entre los estratos puede ser de una magnitud importante. En el
caso de una población homogénea, no existen diferencias entre aplicar un MAE o un MAS,
además, no se podría estratificar en buena forma.

Las “N” unidades de la población se dividen en sub poblaciones de tamaño N1, N2, N3, etc., hasta
Nm, de modo que N1 + N2 + N3 + ... + Nm = N. Como “N” es el tamaño de la población original,
lo anterior significa que no hay sobre posición de las poblaciones y que tampoco hay unidades
que no se incluyen en alguno de los estratos.

79
Instituto Profesional Diego Portales
AUTÓNOMO

Una vez determinados los estratos, se saca al azar una muestra de cada uno de ellos, en forma
independiente. Las muestras obtenidas son de tamaño n1, n2, ..., nm, de modo que n1 + n2+ ... + nm
= n. Donde “n” es el tamaño de la muestra de la población.

Simbología para un estrato “j” cualquiera:

Nj = Número total de unidades muestrales (o sujetos de la medición) del estrato.


nj = Número de unidades del estrato en la muestra.
xij = Valor obtenido para la i-ésima unidad muestral del estrato j.
Pj = Proporción del estrato con respecto al total o ponderación del estrato, donde:

Nj
Pj 
N

fj = Fracción de muestreo en el estrato, donde:

nj
fj 
Nj

nj

x ij
xj  1
= Media muestral del estrato j
nj

nj
x j   xij = Total del estrato
1

nj

 (x ij  x j )2
s 2j  1
= varianza muestral del estrato
n j 1

M = Número de estratos

N j xj
X  1
= Media muestral
N

M
X  Nj xj  N  X = Total poblacional
1

80
Instituto Profesional Diego Portales
AUTÓNOMO

El error estándar de la media ( S x ) se obtiene de:

M M N 2j 1 M   N 2j  S 2j N j  n j 

S 2 x   ( Pj2 S xj2 )   ( S xj2 )  2 
 ( )( )
1 1 N2 N 1 
 nj Nj  

Cuando los estratos son suficientemente grandes, se utiliza la relación siguiente:

1 M Nj Sj
2 2

Sx    n )
2
(
N2 1 j

Por ejemplo: Hay tres estratos de personas que se dedican a la publicidad, el estrato a
corresponde “a” aquellos profesionales especializados en publicidad escrita (diarios, revistas,
afiches), el estrato “b” corresponde a aquellos profesionales que se dedican a la publicidad que se
pasa por televisión y radio, y el estrato “c” corresponde a todos aquellos profesionales que se
dedican a la publicidad caminera. Supongamos que en una ciudad determinada se identificaron
520, 350 y 180 sujetos en el estrato “a”, “b” y “c”. En un pre-muestreo estratificado se encuestó
a 25, 15 y 8 sujetos respectivamente. Entre las variables de estudio se encontraban los años de
experiencia profesional que resultó ser en promedio por estrato de 5.5, 12.8 y 8.1 años promedio
de experiencia, con desviaciones estándar de 1.1, 3.8 y 2.2 años respectivamente. La media
poblacional está dada por:

N j xj
520  5.5  350  12.8  180  8.1 8798
X  1
   8.38 años de experiencia promedio
N 520  350  180 1050
estimados. Podemos asumir entonces que el promedio de la población es estimado por la media
muestral de 8.38 años.

El error estándar de la media es:

1 M Nj Sj N 2j  S 2j 520 2  1.12 350 2  3.8 2 180 2  2.2 2


2 2 M
1 1
2  (
Sx   ( )  )    )
N 1 nj N 1 nj 1050 25 15 8

1 388.09
Sx   13087.36  117926.67  19602)   0.3696
1050 1050

Cuando se realiza un MAE se debe considerar que existen dos componentes de la varianza de los
datos, por un lado está la variabilidad dentro de cada estrato (cada estrato tiene su propia
desviación estándar), y por otro lado está la variabilidad entre estratos. Se deduce que la
reducción de la variabilidad dependerá de la reducción de la variabilidad dentro de los estratos,

81
Instituto Profesional Diego Portales
AUTÓNOMO

aceptando que la variabilidad sea grande entre los estratos, pues debido a la variabilidad entre
estratos es que decidimos hacer un MAE en vez de una MAS (Note que en el cálculo del error
estándar sólo interviene la variabilidad dentro de los estratos).

La reducción de la variabilidad dentro de los estratos depende de la buena estratificación y, por


supuesto, del número de estratos en que se divida la población parental. Por ejemplo, si queremos
determinar el ingreso promedio de la población de publicistas del ejemplo anterior, podríamos
encontrar que el ingreso varía mucho de acuerdo a las edades (asumiendo que a mayor
experiencia tienen un mayor ingreso), entonces podemos estratificar por rangos de edad. Ahora si
en el estudio están consideradas las variables “años de experiencia profesional” e “ingreso
promedio” podemos considerar la creación de subestratos, es decir, cada uno de estratos “a”, “b”
y “c” anteriormente definidos puede a su vez estar estratificado en “a1”, “a2”, “b1”, “b2”, “c1” y
“c2”, suponiendo que dividimos cada estrato en dos rangos de edad cada uno, por ejemplo, “1”:
menos o igual a 35 años y “2”: mayor de 35 años.

La asignación de unidades muestrales: Solucionando el problema de la estratificación, surge la


pregunta: ¿Cómo repartir las unidades muestrales en los estratos? Esto se refiere a la asignación
de los elementos de la muestra a cada una de las subpoblaciones.

Conociendo el tamaño de la muestra “n” o número de unidades muestrales a medir en toda la


población, hay varias formas de realizar la asignación.

1.- Asignación proporcional al tamaño del estrato. Consiste en asignar mayor número de unidades
muestrales a aquel estrato que tenga mayor tamaño, es decir, solo se toma el tamaño como
variable de decisión. Esto es:

Nj
nj  n  n pj
N

Por ejemplo, se ha determinado que una población de estudiantes es de 8500 alumnos, en los
cuales se identificó 3 estratos bien definidos, de 2500, 3200 y 2800. En un proceso de
premuestreo para determinar el “n” muestral se encuestaron a 220 alumnos. Los costos de
muestreo por estrato son $ 3000, $ 5000 y $4000, respectivamente, con desviaciones estándar
arrojadas en el premuestreo de 1.8, 0.4 y 1.1, respectivamente. Suponiendo que los 220 sujetos a
encuestar en el premuestreo deben distribuirse proporcionalmente de acuerdo al tamaño de cada
estrato, los “nj” muestrales serán:

N1 2500
n1  n   220  0.294118  220  64,7  65
N 8500
N 3200
n2  2  n   220  0.376471  220  82,8  83
N 8500
N 2800
n3  3  n   220  0.3294118  220  72,47  72
N 8500
82
Instituto Profesional Diego Portales
AUTÓNOMO

Al sumar los “nj” ( 65+83+72), resulta el “n” muestral igual a 220 sujetos.

2.- Asignación óptima. Consiste en seleccionar los tamaños muestrales de cada estrato “nj” de
modo que tal muestreo conduzca a un estimador de mínima varianza. Aquí se considera el
tamaño y la variabilidad del estrato y el costo de medición de las unidades muestrales.

Puesto que están presentes el costo y la varianza del estimador, el problema puede ser abordado
desde 2 puntos de vista:
a) Minimizar la varianza del estimador para un costo dado del muestreo, o
b) Minimizar el costo de muestreo para un valor específico dado de la varianza del estimador.

M
Con la formula simple de costo: C  A   c j n j , en el cual, “C” es un presupuesto disponible
i 1
fijo para las actividades de muestreo, y es por ello una condición que debe cumplir el muestreo.
La constante “A” representa un costo fijo y “cj” es el costo de medición de una unidad de
muestreo en el estrato “j”. EL problema es minimizar:

1 M  N j  nj 
2 2
 NjSj 
S 2
x  Q(n1 , n2 ,..., nm )  Q  ( 2 ) ( ) ( ) , sujeto a la restricción:
N j 1 
 nj Nj 

M
L(n1 , n2 ,...., nM )  L A   (c j n j )  c  0
j 1

La asignación óptima de “nj” es aquella que minimiza “Q” bajo la restricción “L”. Para encontrar
esos “nj” óptimos se usa el método de Lagrange (Método de cálculo de los multiplicadores de
Lagrange) y se construye la función “F”:

 M 
F  Q    L  s x2     A   (c j n j )  C 
 j 1 

Derivando “F” respecto a “nj” se puede llegar a la siguiente expresión:

n N jsj
cj
nj  M N jsj
(
j 1 cj
)

Por ejemplo: Supongamos que en el premuestreo del ejemplo anterior (estudiantes) se quiere
encuestar en cada estrato de acuerdo a una asignación óptima en función de los costos de
83
Instituto Profesional Diego Portales
AUTÓNOMO

muestreo y del error estándar. La desventaja de esta alternativa es que se necesita tener un
conocimiento del error estándar de cada estrato, por lo es aplicable solo después que se ha
encontrado el “n” muestral y se ha realizado un pre-muestreo. Para darle sentido a este ejemplo,
supongamos que ya se hizo un premuestreo con algún criterio arbitrario y encontramos una
estimación para los errores estándar por estrato. Su pongamos también que al estimar el “n”
muestral este es de 220 personas. Entonces, la distribución óptima por estrato es:

n N jsj
220  2500  1.8
cj 3000 18074.8444
n1     115,9  116
M N jsj 2500  1.8 3200  0.4 3200  1.1 155.9164
(
j 1 cj
)
3000

5000

4000

n N jsj
220  3200  0.4
cj 5000 3982.4254
n2     25,54  26
M N jsj 2500  1.8 3200  0.4 3200  1.1 155.9164
(
j 1 cj
)
3000

5000

4000

n N jsj
220  3200  1.1
cj 4000 12244.3391
n1     78,53  79
M N jsj 2500  1.8 3200  0.4 3200  1.1 155.9164
(
j 1 cj
)
3000

5000

4000

La suma de 116+26+79 da 221 que difiere de n = 220 la aproximación de los valores nj.

A partir de esta relación se puede ver que se toma una muestra de mayor tamaño si el estrato:
- Es más grande
- Es más variable
- El muestreo en el estrato es más barato

Hasta el momento se tiene una relación de “nj” en función de “n”, pero “n” (tamaño total de la
muestra) es aún desconocido. La solución depende si la muestra:

a) Es elegida para lograr un costo total C


b) Es elegida para lograr un error estándar determinado.

a.i) Presupuesto fijo para realizar la muestra, con costos variables “cj” de medición por estrato. Si
por ejemplo, el estudio que se está llevando a cabo tiene un tipo de financiamiento en el cual se
ha asignado para la etapa de muestreo una cantidad determinada y fija de dinero, digamos en este
caso $ 2.000.000.
84
Instituto Profesional Diego Portales
AUTÓNOMO

Al tener un presupuesto fijo de “C”, el tamaño muestral “n” se obtiene al sustituir la última
expresión que encontramos para “nj”, en la función de restricción de costos “L”. Con ello:

M N jsj
(
j 1 cj
)
n  (C  A) M

 (N
j 1
j sj cj )

Siendo variables los costos de medición en cada estrato. Es decir, el costo de medir en el estrato
“a” es “c1”, el costo de medir en el estrato “b” es “c2” y el costo de medir en el estrato “c” es “c3”

Igual que en todos los métodos de muestreo, para ajustar el “n” muestral definitivo, previamente
debemos haber realizado un pre-muestreo para encontrar estimaciones del error estándar de cada
estrato.

Por ejemplo: Tomemos el ejemplo de los publicistas:

520  1.1
350  3.8 180  2.2
 
5000 10000 4500
n  (2.000.000  800.000)
520  1.1  5000  350  3.8  10000  180  2.2  4500

8.09  13.3  5.9 27.2923


n  (1.200.000)  1.200.000   163,74  163
40446.51  133000  26564.5 200011.01

Esto significa, que de acuerdo al presupuesto se pueden entrevistar hasta 163. (Recordemos que
el pre-muestreo de donde obtuvimos estos datos tenía un “n” , de 25+15+8, igual a 48 personas.
Este “n” me está diciendo que para asegurar una buena estimación de los parámetros de esta
población estratificada, debo aumentar mi “n” muestral de 48 a 163 personas.

a.ii) Presupuesto fijo para realizar la muestra, pero con costos iguales de medición por estrato. Si
los costos de medición son iguales en todos los estratos, es decir, que me cuesta lo mismo
encuestar a cada sujeto, independiente del estrato al que pertenezca (cj = c), entonces la relación
para “nj” se transforma en:

n N jsj
nj  M

 (N
j 1
j sj)

Esta relación permite realizar una asignación óptima, considerando la variabilidad, tamaño y
costos iguales en cada estrato. Esta es llamada la asignación de Neyman. En este caso la relación
de “n” para un costo total fijo se transforma en:
85
Instituto Profesional Diego Portales
AUTÓNOMO

CA
n
c

Por ejemplo, supongamos que el presupuesto que tenemos para muestrear es de $ 2.000.000, y los
costos fijos “A”, como los gastos por diseño y confección de los instrumentos de medición, la
compra de una grabadora, etc., son de $ 800.000. Por otro lado, se estimó que el costo promedio
por encuestar a cada sujeto (honorarios del encuestador, papel, lápiz, viáticos) es de $ 5000 por
persona. Entonces, la cantidad máxima de personas que se pueden entrevistar con tal presupuesto
es de:

C  A 2.000.000  800.000
n   240 personas.
c 5.000

b.i) Tamaño de muestra para un error estándar predeterminado, con costos variables “cj” de
medición por estrato. Al estimar la media estratificada puede pre especificarse un error estándar
determinado S x , de modo que la asignación óptima es aquella que minimiza el costo total “C”, y
se puede encontrar el costo total “C” de muestreo para un valor determinado del error estándar.

M N jsj M

(
j 1 cj
) ( N j s j c j )
j 1
n M
, donde:
N S   (N j s )
2 2
x
2
j
j 1

S x es asumido un valor deseado, y los costos de muestreo por estrato son variables. Por ejemplo,
supongamos que queremos nuestra muestra con un error estándar predeterminado igual a 0.2,
tenemos:

M N jsj 520  1.1 350  3.8 180  2.2


(
j 1 cj
)
5000

10000

4500
 27.2923

 (N
j 1
j s j c j )  520  1.1  5000  350  3.8  10000  180  2.2  4500  200011.01

Reemplazando:

27.2923  200011.01
n  107.76  108
1050 0.2  (520  1.12  350  3.8 2  180  2.2 2 )
2 2

Siguiendo el mismo procedimiento, si necesito mi muestreo con un error estándar predeterminado


de 0.3, entonces “n” será de 52 personas, y así sucesivamente.
86
Instituto Profesional Diego Portales
AUTÓNOMO

b.ii) Tamaño de muestra para un error estándar predeterminado, con costos iguales de medición
por estrato. Si los costos de medición en cada estrato son iguales, entonces se simplifica la
fórmula a:

M
( Pj s j ) 2
j 1
n M
1
S x2 
N
 (P s
j 1
j
2
j )

En este caso, la fórmula para estimar el “n” muestral se simplifica porque los cuesta lo mismo
muestrear en cualquiera de los estratos. En este caso, la estimación de “n” sería:

520 350 180


(  1.1   3.8   2.2) 2
1050 1050 1050 4.789744898
n   104
1 520 350 180 0.04  0.005945
0.2 
2
(  1.1 
2
 3.8 
2
 2.2 )
2

1050 1050 1050 1050

Note que en el caso anterior para este mismo error estándar daba 108 sujetos.

2.5.2.5.3 Muestreo sistemático (MS). Este método de muestreo es uno de los tres principales
junto al MAS y MAE.

En el muestreo sistemático, las unidades muestrales individuales (sujetos) son seleccionadas de


acuerdo a un esquema (sistema) rígido predeterminado, es decir, corresponde a un muestreo o
“selección” no aleatoria, excepto la primera unidad.

El objetivo principal del MS es muestrear la población en la forma más uniforme posible, esto es,
cubrir toda su extensión con un patrón determinado. Con ello, se puede observar que el MS:

- Provee buenos estimadores de la media poblacional y del total poblacional.


- Es más rápido y barato de aplicar. La selección mecánica y uniforme de unidades
muestrales, no necesita de la elección aleatoria.
- Facilita el traslado entre unidades muestrales. Al tener una dirección fija se disminuye el
tiempo de localización de unidades muestrales en terreno.
- Es más fácil de supervisar su ejecución.
- Los estimadores de la media y el total pueden ser mejores pueden se mejores que en el
MAS, excepto cuando hay correlación entre las unidades muestrales.

Hay muchas maneras de aplicar el muestreo sistemático. En principio distinguiremos la


distribución espacial y la distribución en listados.

87
Instituto Profesional Diego Portales
AUTÓNOMO

Distribución espacial. Como en este caso nos estamos refiriendo principalmente al muestreo de
diferentes características de las personas, la elección de los sujetos de la muestra puede asociarse
a su distribución espacial (como están distribuidas las personas en el territorio), por ejemplo, las
personas que viven en una ciudad pueden ser elegidas por su dirección postal, o cada 100 casas se
puede encuestar una. También se puede determinar encuestar a las personas que vivan en la casa
más cerca de cierta coordenada que puede encontrarse con un GPS. Por ejemplo, se decide tomar
encuestar una persona por kilómetro cuadrado, o una persona por “manzana” de la ciudad. Por
ejemplo en una ciudad de 322 manzanas se debe encuestar a 322 personas en total. Como se que
dentro de cada manzana debo elegir una persona, necesito un criterio para elegirla. Por ejemplo,
la casa de mitad de cuadra de la calle norte de cada manzana. Si no hay casa en es lugar,
entonces, la inmediata al lado oeste de la ubicación original. Este tipo de muestreo asegurará una
distancia homogénea de aproximadamente 125 metros entre cada sujeto encuestado, y en forma
gráfica en el plano se verá como una malla de puntos sobre la ciudad.

Listados. Independiente de donde vivan las personas, su nombres y datos pueden estar
disponibles en listas que conforman la población definida para el estudio. Por ejemplo, el listado
de todos los alumnos de una universidad alcanza 15.500 personas, pero por el tiempo y cantidad
de recursos disponibles se requiere hacer un muestreo sobre una fracción representativa de ellos.
Por ejemplo, se decide ordenar alfabéticamente todos los nombres de los alumnos y se encuesta 1
alumno cada 50 de la lista. Para ello primero hay que determinar aleatoriamente el primer alumno
de la lista, lo cual puede hacerse poniendo 50 números, del 1 al 50, en una tómbola. Se saca un
número al azar y ese corresponde al primer sujeto o unidad muestral y luego, los demás sujetos
son aquellos correspondientes cada 50 personas.

Se debe notar en el ejemplo anterior, que la primera unidad muestral es elegida al azar y las
demás son elegidas por una regla predeterminada.

Hay una gran disponibilidad de listados de datos, pero una desventaja de ellos es que puede ser
difícil o costoso de ubicar, porque se pueden haber cambiado de dirección, están de viaje u
ocupados. Para evitar tal problema, es práctico usar el directorio telefónico, pero dependiendo del
estudio, pueden resultar sesgos de muestreo ya que solo se ocupará personas que tienen teléfono.

Aunque existen otras formas de calcular los estimadores de la población cuando se usa este
sistema de muestreo, para efectos de este curso se recomienda usar el mismo procedimiento
usado para el caso del muestreo aleatorio simple (MAS). Esto es, para calcular la media muestral,
la varianza muestral, el error estándar y el error de muestreo, y los intervalos de confianza.

Con respecto al tamaño de la muestra, hay que cuidar que el “n” no sea menor que el sugerido
por el procedimiento para calcular el tamaño muestral usado en el MAS. Por ejemplo, si se
determinó que el tamaño muestral para un MAS es de “n = 98 personas”, entonces el MS debe
encuestar a mínimo 98 personas, pudiendo aumentar el tamaño muestral, si lo desea, pero no
disminuirlo.

88
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.2.5.4 Muestreo por conglomerado (MPC). Este tipo de muestreo es aplicable cuando la
extensión del área a muestrear es muy grande, es decir, la población abarca una gran superficie
(extensión) y, por condiciones geográficas, topográficas, de distancia u otras, resulta demoroso y
caro el traslado entre las distintas unidades muestrales.

En este caso, en cada punto de muestreo es preferible establecer un grupo de unidades más
pequeñas que conforman la unidad muestral. A los elementos o unidades más pequeñas también
se les denomina unidades de registro.

Para efecto de cálculo, al hacer las estimaciones se utiliza el promedio de cada conglomerado.
Por ejemplo, se está haciendo una evaluación del rendimiento académico de los alumnos de
enseñanza media después de haber estado sometidos a un nuevo método de enseñanza de las
matemáticas. El estudio abarca toda una región y se asignan como unidades muestrales a los
cursos (conglomerados) individuales de los liceos de la región. Cada curso está compuesto por un
grupo de alumnos que en este caso corresponden a las unidades de registro. Cuando se hacen los
cálculos se considera el rendimiento promedio por curso (conglomerado).

La distribución de cada conglomerado en la población es al azar, pero se puede seguir algún


criterio determinado para orientar cada unidad muestral. Por ejemplo, el primer curso al azar y los
demás se eligen de acuerdo a algún criterio.. Con ello se gana tiempo en las mediciones.

El MPC consiste en la selección de “n” grupos, cada uno de ellos compuesto por “m” elementos
o unidades de registro. A partir de ellos se hacen las estimaciones de los parámetros
poblacionales según lo siguiente:

Estimador de la media poblacional:

1 n m
- A nivel de unidades de registro: x  xij
n  m i 1 j 1

1 n
- A nivel de conglomerados: x  xi
n i 1

1 m
- Media de un conglomerado “i” cualquiera: xi   xij
m i 1

n
1
- Error estándar de la media de obtiene de: s x2  
n(n  1) i 1
( x i  x) 2

La variabilidad del MPC corresponde a la suma de los cuadrados de los desvíos de los unidades
de registro respecto a la media poblacional. La variabilidad dentro de los conglomerados debe ser
máxima y la variabilidad entre los conglomerados debe ser mínima.
89
Instituto Profesional Diego Portales
AUTÓNOMO

2.5.2.5.5 Muestreo doble o de dos fases. Este método de muestreo también fue diseñado para
reducir los costos y tiempos de medición, por lo que es de gran utilidad cuando la variable de
interés o principal es difícil y costosa de medir.

En términos generales, se puede decir que fue ideado para permitir el uso de regresión en aquellas
situaciones en que se desconoce: La media de la población, o el total de la variable
independiente.

Descripción del método:

a) Se toma una muestra pequeña (submuestra) de la variable independiente “x” (la variable
barata o fácil de medir) para estimar en buena forma:
- La media de “x”.
- El total de “x”.
b) Se toma una muestra pequeña (Submuestra) de la variable dependiente “y” (difícil o cara
de medir), y de la independiente “x”, para obtener una estimación de la relación entre “x”
e “y”.
c) Se aplica la media, o el total de la variable “x”, de la muestra grande a la relación y = f(x)
obtenida, para estimar la media o el total de “y”.

Por ejemplo: Supongamos la situación hipotética en que se está haciendo un estudio que incluye
la medición del nivel de motivación laboral de los trabajadores de cierto sector de la economía.
Para medir el nivel de motivación laboral se debe recurrir a tediosas y largas entrevistas,
sometimiento a tests psicológicos y llenado de cuestionarios para llegar a un índice de motivación
laboral. Este procedimiento de medición es caro en tiempo y dinero. Por otro lado, estudios
científicos han demostrado que el índice de motivación laboral está explicado en un alto
porcentaje por el número de horas a la semana (x1), incluidas las horas extra.

Fase 1. Se procedió a tomar una muestra probabilística de x1, encontrándose una carga laboral
promedio de 48.51 horas / semana, en una muestra de 400 personas.

Fase 2. Se procedió a entrevistar a 50 trabajadores elegidos al azar a los cuales se les midió el
índice de motivación laboral “y”, el número de horas trabajadas a la semana “x 1“. Se ajustaron
los 50 datos con un procedimiento de regresión lineal y se encontró la relación:
y  184,1  2,75x , con r =-0,94.

Se calcula y(48,51) = 184,1-2,75·48,51 = 50,7 % (Estimación del índice de motivación laboral,


con escala predefinida de 0 a 100%).

Por lo general, el muestreo se calcula en 2 fases, por lo que se le denomina doble. La primera fase
consiste en obtener la muestra grande y la segunda consiste en obtener la muestra pequeña.

90
Instituto Profesional Diego Portales
AUTÓNOMO

Existe un gran número de métodos de muestreo que incluyen principalmente combinaciones del
MAS, MAE y MS. Para efectos de este curso y de las aplicaciones en ciencias sociales los
métodos revisados hasta este punto son suficientes para abarcar la mayoría de los estudios a los
cuales se verán enfrentados.

2.5.3 La recopilación de los datos.

Corresponde a la medición propiamente tal de las variables sobre los sujetos de medición, una
vez que se ha determinado y especificado el tipo de investigación, el diseño, ubicación y número
de sujetos que se van a medir (muestra adecuada).

Recolectar los datos implica tres actividades estrechamente vinculadas entre sí:

a) Seleccionar un instrumento de medición


b) Aplicar el instrumento de medición
c) Preparar las mediciones obtenidas para que se puedan analizar correctamente
(codificación de los datos).

Medir es un proceso que consiste en asignar números a objetos y eventos de acuerdo a reglas, lo
cual se ajusta muy bien a las ciencias exactas, pero en ciencias sociales existe un sin número de
eventos difíciles de medir. Por ejemplo, se puede medir el nivel de ingreso de una persona o un
país, en unidades monetarias, pero es muy difícil medir el nivel de satisfacción de los clientes
respecto al consumo de cierto producto. Por ello, muchas veces, la medición parece acercarse
más al proceso de vincular conceptos abstractos como indicadores empíricos. En este contexto, el
instrumento de medición juega un papel fundamental.

Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o variables que el investigador tiene en mente.

En toda investigación se usa un instrumento para medir las variables contenidas en las hipótesis,
y cuando no hay hipótesis, simplemente para medir las variables de interés. La medición es
efectiva, cuando el instrumento de medición empleado representa las variables de interés del
estudio.

El instrumento de medición debe tener:


Confiabilidad
Validez

Confiabilidad. Se refiere al grado en que su aplicación repetida al mismo sujeto u objeto,


produzca iguales resultados. Por ejemplo, si se mide el grado de satisfacción de los consumidores
cuando consumen un producto. El instrumento de medición será confiable si al repetir la
medición a los mismos sujetos, los resultados de la medición son los mismos (Test- Retest). Si al
contrario, ambos resultados son diferentes, entonces no se puede confiar en ellos.

91
Instituto Profesional Diego Portales
AUTÓNOMO

Validez. Se refiere al grado en que el instrumento mide la variable que pretende medir. Por
ejemplo, si se está midiendo la satisfacción del cliente por el consumo de un producto, no
terminemos midiendo las preferencias o gustos del consumidor por ese producto (Gustos es
distinto de satisfacción).

Hay diversos factores que pueden afectar la confiabilidad y la validez de los instrumentos de
medición, tales como:
La improvisación
Instrumentos no validados
Lenguaje
Condiciones es que se aplica el instrumento

Improvisación. Para desarrollar un instrumento de medición se requiere conocer muy bien la


variable que se quiere medir y la teoría que la sustenta. Por ejemplo, para medir la motivación
laboral, requiere amplios conocimientos en la materia, estar actualizado al respecto y revisar
cuidadosamente la literatura correspondiente. Un instrumento de medición, sobre todo en
ciencias sociales, toma una gran cantidad de tiempo para su desarrollo, debiendo pasar por etapas
de prueba de su eficacia y validez antes de ser aplicado. Si se construye un instrumento de
medición a la rápida, lo más probable es que carecerá de validez y confiabilidad.

Instrumentos no validados. Puede ocurrir que se caiga en la tentación de querer usar un


instrumento de medición usado en el extranjero, el cual si funciona en ese país (Diferencias de
cultura, tiempo en que se aplicó, lenguaje), pero no en el nuestro, y antes de aplicarlo no se
somete a un chequeo de su validez para la situación del país.

Lenguaje. Puede ocurrir que un instrumento ocupa términos muy elevados para la persona a la
que se le está aplicando, por ello, se debe tener la precaución de aplicar el instrumento adecuado,
en el lenguaje adecuado a la persona adecuada. Por ejemplo, si es una encuesta aplicada a
hombres, no les puede preguntar sobre su ciclo menstrual o cómo superó el embarazo.

Condiciones de aplicación. El ruido, el frío, la falta de tiempo suficiente, o un ambiente en


tensión pueden ser fatales para con la calidad de las respuestas que está dando el entrevistado o
encuestado, por ello, debe buscarse el lugar y momento adecuado para llevar a cabo el proceso de
medición.

Si se trata de un documento escrito, debe ser legible, que no falten páginas, no muy
extenso para que la persona no se agote ni aburra.

Construcción del instrumento de medición. Existen diversos tipos de instrumentos de medición,


cada uno con características diferentes. Sin embargo, el procedimiento general para construirlos
es semejante.

Los pasos a seguir pueden enumerarse como sigue:


92
Instituto Profesional Diego Portales
AUTÓNOMO

a) Hacer un listado de las variables que se pretenden medir (las contenidas en las hipótesis
de estudio).
b) Revisar su definición conceptual y comprender su significado.
c) Revisar como han sido definidas operacionalmente.
d) Elegir el o los instrumentos de medición encontrados en bibliografía que ya han sido
desarrollados y adaptarlos al contexto de la investigación.
e) En caso de no elegir un instrumento ya desarrollado y se quiera confeccionar uno, se debe
pensar en cada variable y sus dimensiones.
f) Indicar como se codificarán los datos de cada ítem y variable. Codificar los datos,
significa asignarles un valor numérico que los represente.
g) Una vez elaborado el instrumento de medición se procede a aplicar una prueba piloto de
medición, y luego se analizan los inconvenientes, las preguntas mal hechas, el tiempo de
duración de la prueba, y se corrigen todos los errores que se detecten.
h) Se modifica el instrumento de medición en base a la prueba piloto o de prueba.

Escalas. Para asignar un valor a una variable, se debe definir previamente, la escala de
medición de esa variable, por ejemplo, para medir temperatura, se usa la escala Celsius o
Fahrenheit. La escala Celsius está definida con valor cero en el punto de congelación del agua, y
en 100 grados en el punto de ebullición. Se trata de una escala evidentemente artificial, donde se
usan 2 puntos de referencia para definirla. Otro ejemplo, puede ser la medición del tiempo, donde
se toma el nacimiento de Cristo como año cero para contar los años en la cultura judeocristiana,
los días se cuentan respecto al tiempo que demora la tierra en dar una vuelta al sol (1 año), y al
mismo tiempo con respecto al movimiento de rotación. Por otro lado, la unidad de medida
“metro” se hace con respecto a una barra de metal depositada en “bureau” de medidas de Francia,
luego, todas las mediciones en kilómetros, metro, centímetros y milímetros se hacen con respecto
a ese patrón de comparación.

En ciencias sociales, hay diferentes variables que ni siquiera tienen escala definida, por
ejemplo, ¿cómo podemos medir el nivel de abstracción de una persona?, o el ¿nivel de
concentración?, o ¿el grado de satisfacción o descontento? Para ello, podemos definir categorías
de esa variable. Por ejemplo, podemos definir 3 estados de concentración: 1) Muy concentrado,
2) medianamente concentrado, y 3) desconcentrado. Un profesor, para evaluar a sus alumnos
puede usar una lista de cotejo y de acuerdo a la observación directa, ir tomando nota del estado de
concentración de cada alumno del curso.

A medida que aumenta el grado de sofisticación de la medición de una variable, entonces la


cantidad de niveles aumenta.

93
Instituto Profesional Diego Portales
AUTÓNOMO

Existen 4 formas de asignar niveles de medición a las variables (Paso “e” mencionado arriba):

1) Nivel de medición nominal. Las categorías no tienen orden o jerarquía, solo se mide y
cada nivel indica diferencias con respecto a la otra categoría. Por ejemplo, la variable
sexo tiene 2 categorías, pero ninguna de las dos es más importante que la otra. No hay
orden de mayor o menor. Ejemplo: Sexo, 1.- masculino, 2.- femenino. Si a masculino le
asignamos 1 y a femenino 2, los números no pueden ser manipulados aritméticamente.
2) Nivel de medición ordinal. Es un nivel de varias categorías, que mantienen un orden de
mayor a menor. Por ejemplo, nivel de satisfacción: 0.- Insatisfecho, 1.- poco satisfecho,
2.- satisfecho, 3.- muy satisfecho, 4.- extremadamente satisfecho. Si le asignamos un
número a cada categoría, denota un grado de menor a mayor o de mayor a menor.
3) Nivel de medición por intervalos. Además de orden o jerarquía entre categorías, se
establecen intervalos iguales de medición. Las distancias entre categorías son iguales
entre categorías son las mismas a través de toda la escala. Por ejemplo, si se quiere medir
la variable ingreso por persona que trabaje en forma remunerada, se puede definir una
escala en función del ingreso mínimo o, directamente en unidades monetarias. El primer
intervalo puede ser 1 ingreso mínimo (que va desde cero a 1), el segundo 2 ingresos
mínimos, el tercero 3 ingresos mínimos y así sucesivamente. Otra manera es medir en
unidades monetarias, por ejemplo si alguien gana $ 300.000 mensuales, el intervalo de
medición es $ 1, luego, esa medición cae en el intervalo $ 300.000. En este caso se habla
de intervalo, porque las personas no ganan $ 300.000,51, pues el sueldo se redondea a la
unidad monetaria. En el caso de personas que ganan US$ 8,75 la hora, el intervalo de
medición será un centavo de dólar. Otro ejemplo, es la escala de medición de la
temperatura en las ciencias naturales.
4) Nivel de medición de razón. Además de tener todas las características de los niveles de
medición anteriores, incluye al cero como un valor (no arbitrario), que corresponde aquel
punto en la escala donde no existe la propiedad. Por ejemplo, el mismo estudio anterior,
donde se averigua el ingreso de las personas, pero ahora aplicado a todas las personas,
sean adultos, niños, ancianos, cesantes, trabajadores remunerados o trabajadores
voluntarios. Los niños en este caso como no ganan sueldo ni salario tendrán asignado el
cero a esa variable.

2.5.3.1 Tipos de instrumentos de medición en la investigación social.

Escalas para medir las actitudes. La actitud es una predisposición para responder
consistentemente de una manera favorable ante un objeto o símbolo, por ejemplo, actitudes hacia
el aborto, la ley, la política, etc.

Las actitudes tienen diversas propiedades, entre las que se destacan: Dirección (positiva o
negativa) e intensidad (alta o baja). Estas propiedades forman parte de la medición en distintos
tipos de escalas. Mientras más minuciosidad de la medición, existirán escalas de más categorías.

94
Instituto Profesional Diego Portales
AUTÓNOMO

Cuestionarios. Consiste en un conjunto de preguntas respecto a una o más variables a medir. El


contenido de las preguntas de un cuestionario puede ser muy variado, y básicamente, se puede
hablar de 2 tipos de preguntas: Cerradas o abiertas.

Las preguntas cerradas contienen categorías o alternativas de respuesta que han sido
previamente delimitadas. Por ejemplo las preguntas de alternativas. Como, ¿le gusta la gestión de
tal político? “Si” o “no”. El encuestado tiene las opciones de responder sí o no, no tiene más
alternativas de respuesta. Obviamente, pueden haber preguntas cerradas con más de 2 alternativas
de respuesta, y muchas veces este tipo de preguntas acepta la posibilidad de marcar más de una
alternativa.

Por otro lado, las preguntas abierta no delimitan de antemano las alternativas de respuesta.
Por lo cual, el número de categorías de respuesta es muy elevado, en teoría, infinito. Por ejemplo,
¿Por qué votó por fulano?

Cada clase de preguntas tiene sus ventajas y desventajas. Las preguntas cerradas son fáciles de
codificar y preparar para su análisis, y requieren de un menor esfuerzo por parte de los
encuestados para responderlas. La principal desventaja, es que limitan el espectro de respuestas
que puede encontrar en la muestra.

Las preguntas abiertas son útiles cuando no tenemos información sobre las posibles
respuestas de las personas. Su principal desventaja, es que son difíciles de codificar, clasificar y
preparar su análisis; además, no todas las personas tienen la misma capacidad para expresarse.

El tipo de preguntas que se incluyan en un cuestionario, depende de los recursos de


tiempo y dinero que se disponga para analizar las respuestas, el grado de profundización de la
investigación y el conocimiento previo que se tenga de las posibles respuestas de los encuestados.

Es recomendable hacer las preguntas necesarias para obtener la información de la variable


deseada. Si una pregunta es suficiente, no es necesario incluir más.

Independiente si las preguntas son cerradas o abiertas, éstas deben ser claras y
comprensibles, no incomodar al encuestado, deben referirse a un solo aspecto por pregunta, no
deben inducir las respuestas (por ejemplo. ¿Los trabajadores de la empresa son muy productivos?
Induce a responder que si son productivos, en cambio ¿Qué tan productivos considera usted a los
trabajadores de la empresa?, resultaría mucho más conveniente), no deben apoyarse en
instituciones, ideas respaldadas socialmente ni en evidencia comprobada (por ejemplo: La iglesia
considera que el aborto es un atentado contra la vida, ¿qué opina usted?, en cambio, ¿qué opina
sobre el aborto? Sería una pregunta mucho más conveniente), que el orden de las alternativas de
respuesta no afecte la respuesta, y por último, el lenguaje usado en las preguntas debe ser
adaptado al de las personas encuestadas.

95
Instituto Profesional Diego Portales
AUTÓNOMO

También es recomendable partir con las preguntas más sencillas y fáciles de contestar y
dejar las difíciles para el final.

Las instrucciones son tan importantes como las preguntas y es necesario que sean claras
para los usuarios a quienes van dirigidas. Además, si el cuestionario es muy corto, se puede
perder información, pero si es muy largo puede resultar tedioso, por lo que debe pensarse sólo en
un par de minutos (no más de 15). Por último, el cuestionario puede ser auto administrado (el
encuestado lo lee y lo contesta solo), o ser hecho por entrevista personal, en que el encuestador va
preguntando y el encuestado contesta verbalmente para que el encuestador anote la respuesta (Por
ejemplo, el cuestionario del censo).

Observación. La observación directa de comportamientos, y el registro de ellos puede ser una


buena herramienta de medición de conductas. La ventaja de la observación, es que si los
individuos no se dan cuenta que los están observando, se comportan en forma natural, y se puede
recolectar una gran cantidad de datos en poco tiempo. Por ejemplo, observar la actitud de los
peatones para cruzar la calle. Se fijó o no en el tráfico, en el semáforo, cruzó a mitad de calle o en
la esquina, iba distraído o atento al momento de cruzar la calle, etc.

Pruebas e inventarios estandarizados. Existen pruebas ya desarrolladas por otros investigadores


que han sido implementadas por mucho tiempo, en el mismo contexto de la investigación y que
sean válidas y confiables. Por ejemplo, el test de Rorscharch y los tests de inteligencia.

Muchas veces se usan combinaciones de los distintos tipos de instrumentos de medición,


para tener diferentes enfoques sobre las variables. Por ejemplo, el investigador puede encuestar a
los clientes de un supermercado sobre la aceptación de un producto, y también puede registrar
por observación, el comportamiento de ellos cuando una promotora ofrece el producto para
probarlo dentro del supermercado.

2.5.4 Análisis de datos y presentación de resultados.

Una vez que se han tomado los datos, se han codificado (transformado a números) y se
han digitado en el computador, todo el procedimiento de medición es convertido en una base de
datos, que a no ser un tipo muy especial de codificación, puede manejarse sin problemas en una
planilla de cálculo.

Para el análisis de los datos se puede usar la misma planilla de cálculo o algún software
estadístico especializado, como el “STATISTICA” o el “SAS” (Statistical Análisis System). En
la actualidad casi todos los softwares de este tipo son amigables con el usuario (para manejarlos),
lo que no quita la necesidad o requisito de un conocimiento previo de estadística descriptiva.

96
Instituto Profesional Diego Portales
AUTÓNOMO

El análisis depende de tres factores:


1) El nivel de medición de las variables
2) La manera como se hayan formulado las hipótesis
3) El interés del investigador

Los principales análisis que pueden efectuarse son:


a) Estadística descriptiva para las variables en forma individual
b) Razones y tasas
c) Cálculos y razonamientos de estadística inferencial
d) Análisis univariados y bivariados
e) Análisis multivariados

Estadística descriptiva para cada variable. Se refiere a la descripción de la población de acuerdo a


los datos tomados en la muestra, para ello se analiza la distribución de frecuencia, calcular las
medidas de tendencia central (Como la moda, la mediana, la media aritmética, la media
geométrica) y las medidas de la variabilidad de los datos como la varianza, desviación estándar y
el error estándar.

Distribución de frecuencias. Se grafican los respectivos histogramas de cada variable para


determinar el tipo de distribución de probabilidad que tienen. Por lo general, con un tamaño
muestral grande, las distribuciones tienden a la “Normal”. El histograma puede confeccionarse
con las frecuencias absolutas o con las frecuencias relativas.

Cuando la escala de medición de la variable es muy extensa, los datos se agrupan por
rangos o clases. Por ejemplo, si la variable corresponde a la edad de la población, que puede ir de
0 a 102 años (mínimo y máximo encontrado en la muestra), para no hacer un gráfico con 102
barras, los datos se pueden agrupar de 10 en 10 añosa, entonces resulta un histograma de 11
barras.

Medidas de tendencia central. Corresponden a estimadores de parámetros poblacionales que


ayudan a caracterizar la población. Las principales medidas de tendencia central son la media, la
moda y la mediana. La media corresponde al promedio de los datos de la muestra, la moda en el
valor más repetido de la muestra y la mediana corresponde al valor de la variable ubicado en el
medio de todos los datos de la muestra. Donde:
n

x i
La media es, x  i 1

n
n 1
La mediana es x i ubicado en la posición , cuando ordenamos de menor a mayor todos los
2
datos de la muestra. (n, tamaño de la muestra).

97
Instituto Profesional Diego Portales
AUTÓNOMO

Medidas de la variabilidad. Indican la dispersión de los datos con respecto a la media,e s decir
qué tan diseminados están los datos. Por ejemplo, el rango, la varianza, el error estándar y la
desviación estándar. Donde:

Rango, es: La distancia entre el máximo valor y el mínimo valor tomado en la muestra. Mientras
mayor sea esa diferencia, más probabilidades de que los datos están dispersados.

Varianza (muestral), es: La distancia al cuadrado promedio entre cada valor con respecto a la
media de los datos. La desventaja de este estimador es que se expresa al cuadrado de la unidad de
la variable que se mide. Por ejemplo, si la variable es en centímetros, la varianza se expresa en
centímetros cuadrados.
n

 (x i  x) 2
S n21  i 1

n 1

Desviación estándar (muestral): Es la raíz cuadrada de la varianza, y permite corregir el problema


de la unidad de medición al cuadrado. Por ejemplo, si la unidad de medición es en centímetros, la
desviación también es en centímetros, y se puede interpretar como la distancia promedio de todos
los datos de la muestra con respecto a la media. Mientras menos sea, quiere decir que los datos
están más agrupados o menos dispersos.

 (x i  x) 2
S n 1  i 1

n 1

Error estándar de la media. No es un estimador de algún parámetro de la población, pero puede


interpretarse como la desviación estándar de cada media, de cada muestra que se tomó. Por
ejemplo, si se tomaron 20 muestras, de 10 personas cada una (200 datos), a cada una de esas
muestras le calculamos la media. Ahora, como hemos promediado solo tenemos 20 datos (medias
muestrales), si calculamos la desviación estándar de ellas con respecto a la gran media
poblacional, debería dar el error estándar de la media, que se expresa generalmente por la
expresión:

 (x i  x) 2
S n 1
Sx  i 1

(n  1)  n n

( N  n)
Para el caso de poblaciones finitas, se usa un factor de corrección , que no considera
n
cuando su valor es menor a 0,95 (Ver página 57). Esto es:

98
Instituto Profesional Diego Portales
AUTÓNOMO

 (x i  x) 2
( N  n) S n 1 ( N  n)
Sx  i 1

(n  1)  n N n N

Inferencia estadística. Teniendo claro si la distribución es normal, y ya calculados los estimadores


de los parámetros poblacionales, se puede estandarizar los datos usando “Z” o “t” de “Student”,
con ello se pueden hacer aplicaciones de pruebas de hipótesis, usando las tablas estadísticas que
contienen las probabilidades de aceptación o rechazo de las hipótesis estadísticas. Por ejemplo,
para comparar medias o varianzas.

Cuando se pretende generalizar los resultados de la muestra a toda la población, es decir,


ir de lo particular a lo general, estamos asumiendo que los valores encontrados en nuestro
proceso de medición al tomar una muestra estiman el valor de los parámetros de la población en
cuestión. En este caso, se dice que estamos aplicando inferencia estadística. Como asumimos que
la muestra representa a la población, entonces estamos habilitados para afirmar con un grado de
certeza (probabilidad) que una hipótesis, por ejemplo, es verdadera con un 95% de confianza.
Esto significa, que existe un 95% de probabilidad que la hipótesis que dije que es verdadera es
realmente verdadera, y hay sólo un 5% de probabilidad que esté equivocado en la estimación
estadística.

Razones y tazas. A partir de los datos se pueden obtener relaciones entres las distintas variables o
dentro de la misma variable. Por ejemplo, podemos encontrar que el 54% de los ciudadanos
apoyan la gestión del gobierno (de cada 1000 personas encuestadas, 54 la aprueban), que el 10%
de la población no un buen acceso a la salud, o que la relación entre el peso y la talla de la
población a aumentado de 1.05 a 1,2 en los últimos 10 años, es decir, la población está más
obesa.

Análisis univariados y bivariados. Pueden ser paramétricos o no paramétricos. En el caso de los


paramétricos, se debe considerar los siguientes supuestos:
- La distribución poblacional de la variable dependiente es normal
- El nivel de medición de la variable dependiente es por intervalos o razón
- Cuando 2 o más poblaciones son estudiadas, ellas tienen una varianza homogénea.

En el caso de las pruebas no paramétricas, en cambio:


- No requieren de supuestos acerca de la distribución de los datos
- Las variables no necesariamente deben estar medidas en un nivel por intervalos o razón,
éstos deben ser resumidos a categorías discretas, es decir, las variables deben ser
categorías.

Las principales pruebas paramétricas son:


- El coeficiente de correlación y la regresión lineal
- La prueba “t”
99
Instituto Profesional Diego Portales
AUTÓNOMO

- Prueba de contraste de la diferencia de proporciones


- Análisis de varianza unidireccional (ANOVA one way)
- Análisis de varianza factorial (ANOVA)
- Análisis de covarianza (ANCOVA)

Las principales pruebas no paramétricas son:


- La chi cuadrada (  2 )
- Los coeficientes de correlación e independencia para tabulaciones cruzadas
- Los coeficientes de tabulación por rangos ordenados de Spearman y Kendall

Estas pruebas pueden ser revisadas en detalle en cualquier libro de estadística matemática,
bioestadística o de econometría.

Análisis multivariado. Son aquellos en que se analiza la relación que existe entre muchas
variables independientes (xi), y al menos una dependiente (y). Son métodos complejos que
requieren del uso de computadores. Entre los análisis multivariados más importantes está la
regresión múltiple, que es similar a la regresión lineal simple, pero con más de una variable
independiente (xi). Es usual, que una variable de interés en una investigación científica dependa
de muchos factores y no sólo de uno, por ello, es muy probable que el lector tenga que desarrollar
modelos de múltiples variables, más de una vez.

Otro análisis muy frecuente de usar es el análisis multivariado de varianza, similar al


ANOVA, pero con más variables.

100
Instituto Profesional Diego Portales
AUTÓNOMO

TERCERA UNIDAD
LA INVESTIGACIÓN

OBJETIVO GENERAL DE LA UNIDAD TEMÁTICA

- Explicar los métodos de investigación educacional, identificando ventajas y desventajas.


- Identificar los sectores o áreas susceptibles de ser investigados.

101
Instituto Profesional Diego Portales
AUTÓNOMO

3.1 Historia de la investigación

3.1.1 Historia del pensamiento Científico. Los esfuerzos para ordenar el conocimiento se
remontan a los primeros tiempos históricos (con escritura), los testimonios escritos más antiguos
de investigaciones protocientíficas proceden de las culturas mesopotámicas, y corresponden a
listas de observaciones astronómicas, sustancias químicas o síntomas de enfermedades, además
de numerosas tablas matemáticas, inscritas en caracteres cuneiformes sobre tablillas de arcilla.
Otras tablillas que datan aproximadamente del 2000 a.C. demuestran que los babilonios conocían
el teorema de Pitágoras, resolvían ecuaciones cuadráticas y habían desarrollado un sistema
sexagesimal de medidas (basado en el número 60) del que se derivan las unidades modernas para
tiempos y ángulos.

En el valle del Nilo se han descubierto papiros de un periodo cronológico próximo al de


las culturas mesopotámicas que contienen información sobre el tratamiento de heridas y
enfermedades, la distribución de pan y cerveza, y la forma de hallar el volumen de una parte de
una pirámide. Algunas de las unidades de longitud actuales proceden del sistema de medidas
egipcio y el calendario que empleamos es el resultado indirecto de observaciones astronómicas
prehelénicas.

3.1.2 Orígenes de la Teoría Científica. El conocimiento científico en Egipto y Mesopotamia era


sobre todo de naturaleza práctica.

Es de destacar que por su posición filosófica, los griegos fueron muy buenos en geometría
pero no desarrollaron una "ciencia" fáctica (basada en la experiencia y en hechos observados).

Uno de los primeros griegos, en el siglo VI a.C., que intentó explicar las causas
fundamentales de los fenómenos naturales fue el filósofo Tales de Mileto. Fue un gran
matemático que pensaba que la Tierra era un disco plano que flotaba en el elemento universal, el
agua. El matemático y filósofo Pitágoras, de época posterior, estableció una escuela de
pensamiento en la que las matemáticas se convirtieron en disciplina fundamental en toda
investigación científica. Los eruditos pitagóricos postulaban una Tierra esférica que se movía en
una órbita circular alrededor de un fuego central. En Atenas, en el siglo IV a.C., la filosofía
natural jónica y la ciencia matemática pitagórica llegaron a una síntesis en la lógica de Platón y
Aristóteles. En la Academia de Platón se subrayaba el razonamiento deductivo y la
representación matemática; en el Liceo de Aristóteles primaban el razonamiento inductivo y la
descripción cualitativa. La interacción entre estos dos enfoques de la ciencia ha llevado a la
mayoría de los avances posteriores.

Por esta época (300 a. c.), Euclides (quien probablemente estudió en Atenas con
discípulos de Platón) escribe "Elementos de geometría", es un extenso tratado de matemáticas en
13 volúmenes sobre materias tales como geometría plana, proporciones en general, propiedades
102
Instituto Profesional Diego Portales
AUTÓNOMO

de los números, magnitudes inconmensurables y geometría del espacio. En esta obra se parte de
conceptos que se toman como verdades absolutas (axiomas o postulados) y se los utiliza para
"demostrar" propiedades (teoremas). Estos teoremas son la base para demostrar otros teoremas,
armando una estructura sistematizada que aún hoy se utiliza en matemática. Es de destacar que el
quinto postulado (postulado de las paralelas) es de extrema importancia ya que en el siglo XIX su
negación dará origen a la geometría llamada no euclidiana.

Durante la llamada época helenística, que siguió a la muerte de Alejandro Magno, el


matemático, astrónomo y geógrafo Eratóstenes, tomó la distancia entre dos ciudades egipcias y
calculó de forma asombrosamente precisa, las dimensiones de la Tierra. Por otro lado el
astrónomo Aristarco de Samos, propuso un sistema planetario heliocéntrico (con centro en el
Sol), aunque este concepto no halló aceptación en la época antigua. El matemático e inventor
Arquímedes sentó las bases de la mecánica y la hidrostática (una rama de la mecánica de fluidos);
el filósofo y científico Teofrasto fundó la botánica; el astrónomo Hiparco de Nicea desarrolló la
trigonometría, y los anatomistas y médicos Herófilo y Erasístrato basaron la anatomía y la
fisiología en la disección.

Tras la destrucción de Cartago y Corinto por los romanos en el año 146 a.C., la
investigación científica perdió impulso hasta que se produjo una breve recuperación en el siglo II
d.C., bajo el emperador y filósofo romano Marco Aurelio. Durante este breve lapso el astrónomo
Claudio Ptolomeo propuso la teoría donde la Tierra era el centro del Universo (teoría
geocéntrica). También surgieron las obras médicas del filósofo y médico Galeno que se
convirtieron en tratados médicos de referencia para las civilizaciones posteriores.

Un siglo después surgió la nueva ciencia experimental de la alquimia a partir de la


metalurgia. Sin embargo, hacia el año 300, la alquimia fue adquiriendo un tinte de secretismo y
simbolismo que redujo los avances que sus experimentos podrían haber proporcionado a la
ciencia.

3.1.3 La Ciencia Medieval y Renacentista. Durante la edad media existían seis grupos
culturales principales: en lo que respecta a Europa, de un lado el Occidente latino y, de otro, el
Oriente griego (o bizantino); en cuanto al continente asiático, China e India, así como la
civilización musulmana (también presente en Europa) y, finalmente, en el ignoto continente
americano, desligado del resto de los grupos culturales mencionados, la civilización maya. El
grupo latino no contribuyó demasiado a la ciencia hasta el siglo XIII; los griegos no elaboraron
sino meras paráfrasis de la sabiduría antigua; los mayas, en cambio, descubrieron y emplearon el
cero en sus cálculos astronómicos, antes que ningún otro pueblo. En China la ciencia vivió
épocas de esplendor, pero no se dio un impulso sostenido. Las matemáticas chinas alcanzaron su
apogeo en el siglo XIII con el desarrollo de métodos para resolver ecuaciones algebraicas
mediante matrices y con el empleo del triángulo aritmético. Pero lo más importante, fue el
impacto que tuvieron en Europa varias innovaciones prácticas de origen chino. Entre ellas
estaban los procesos de fabricación del papel y la pólvora, el uso de la imprenta y el empleo de la
brújula en la navegación. Las principales contribuciones indias a la ciencia fueron la formulación
de los numerales denominados indoarábigos, empleados actualmente, y la modernización de la
103
Instituto Profesional Diego Portales
AUTÓNOMO

trigonometría. Estos avances se transmitieron en primer lugar a los árabes, que combinaron los
mejores elementos de las fuentes babilónicas, griegas, chinas e indias. En el siglo IX Bagdad,
situada a orillas del río Tigris, era un centro de traducción de obras científicas y en el siglo XII
estos conocimientos se transmitieron a Europa a través de España, Sicilia y Bizancio.

En el siglo XIII la recuperación de obras científicas de la antigüedad en las universidades


europeas llevó a una controversia sobre el método científico. Los llamados realistas apoyaban el
enfoque platónico, mientras que los nominalistas preferían la visión de Aristóteles. En las
universidades de Oxford y París estas discusiones llevaron a descubrimientos de óptica y
cinemática que prepararon el camino para Galileo y para el astrónomo alemán Johannes Kepler.

La gran epidemia de peste y la guerra de los Cien Años interrumpieron el avance


científico durante más de un siglo, pero en el siglo XVI la recuperación ya estaba plenamente en
marcha. En 1543 el astrónomo polaco Nicolás Copérnico publicó De revolutionibus orbium
caelestium (Sobre las revoluciones de los cuerpos celestes), que conmocionó la astronomía. Otra
obra publicada ese mismo año, Humani corporis fabrica libri septem (Siete libros sobre la
estructura del cuerpo humano), del anatomista belga Andrés Vesalio, corrigió y modernizó las
enseñanzas anatómicas de Galeno y llevó al descubrimiento de la circulación de la sangre. Dos
años después, el libro Ars magna (Gran arte), del matemático, físico y astrólogo italiano
Gerolamo Cardano, inició el periodo moderno en el álgebra con la solución de ecuaciones de
tercer y cuarto grado.

3.1.4 La Ciencia Moderna. El proceso de desarrollo de la ciencia occidental comenzó en el siglo


XIII, pero después de un largo proceso de evolución, recién el siglo XVII se puede considerar el
comienzo real de la ciencia moderna. Existen posturas que consideran que la creencia en un Dios
todopoderoso, históricamente, ha sido un obstáculo para el desarrollo de la ciencia , pues la
creencia en Dios y la explicación teísta del universo habría bloqueado la inquietud del hombre
por buscar otro tipo de interpretaciones y explicaciones del universo. Por otro lado, hay quienes
afirman que la matriz básica teísta proporcionada por el cristianismo dio una base de creencias
que catalizaron los demás factores que dieron lugar a la ciencia, y al contrario de ser un
impedimento, la creencia en Dios habría sido una ayuda para el desarrollo de la ciencia. Por
ejemplo, científicos como Johannes Kepler, Nicolás Copérnico, Sir Isaac Newton, Galileo Galilei
es sus obras, ante todo reconocían la existencia de un Dios que explicaba la perfección y
magnificencia del mundo, el universo y sus leyes.

La ciencia moderna comenzó autónomamente cuando se combinan las matemáticas,


experimentación y el control experimental, en el siglo XVII. Este proceso es presentado por
algunos como un inicio brusco como consecuencia de eliminar la metafísica y la religión que
impidió su desarrollo. Esta posición suele ser un argumento de ateos cientifistas y otros para
atacar al cristianismo o al teísmo en general.

Parece ser que durante todas las generaciones que dieron lugar a la ciencia moderna se
compartía la creencia en Dios como fundamento último de la realidad y de su orden y
104
Instituto Profesional Diego Portales
AUTÓNOMO

regularidades, así como la creencia de que el ser humano presentaba una analogía con Dios en
cuanto a su inteligencia. Inteligencia que les permitiría conocer esa realidad

A los métodos antiguos de inducción y deducción, Galileo añadió la verificación


sistemática a través de experimentos planificados, en los que empleó instrumentos científicos de
invención reciente como el telescopio, el microscopio o el termómetro.

El proceso de evolución de la ciencia hasta el siglo XVII fue lento pero progresivo. Así
por ejemplo, en el siglo XII, Roberto Grossete (Obispo de Lincon), hizo grandes avances en
óptica, proponiendo por ejemplo una interpretación del arco iris.

Roger Bacon (siglo XIII), franciscano, sostuvo que la tierra era redonda y se podía
circunnavegar(Tres siglos antes que se hiciera), advirtió errores en el calendario, continuó el
trabajo de Grossete en óptica, trabajó en alquimia, y afirmo la importancia de las matemáticas y
la experimentación para el progreso de las ciencia.

San Alberto Magno (Siglo XIII), dominico, hizo una síntesis enciclopédica de todos los
conocimientos en ciencias naturales de la época, uniendo conocimientos de judíos, cristianos y
musulmanes.

Santo Tomás de Aquino (Siglo XIII), dominico, hizo la síntesis filosófico-teológica más
importante del medioevo. Estimuló la independencia de los saberes y el trabajo intelectual
posterior, con la idea central de un mundo racional e inteligible. Proporcionó un marco válido
para la integración de todos los saberes de la época.

En el siglo XIV, se destacan, en Oxford, Thomas Bardwardine, por su representación


matemática del movimiento, William Heytesbury, quien desarrolla el teorema de la velocidad
media o teorema de Merton College, y desempeñó un papel importante en el teorema de la caída
de Galileo. En París, Jean Buridan, intenta explicar el movimiento mediante la teoría del ímpetus
o impulso comunicado a un proyectil cuando es lanzado, que se explica también en la caída de
los cuerpos por acción de la gravedad, lo que sirvió para formular la noción de inercia. Por otro
lado, Nicole Oresme, realizó importantes aportes en matemáticas, en la representación
geométrica de la cualidades (importante para la nueva física), a la ley del movimiento acelerado,
a la caída de los cuerpos (Usó una figura geométrica idéntica a la que usó Galileo unos tres siglos
más tarde), a la teoría del ímpetus y a la rotación de la tierra.

A finales del siglo XVII se amplió la experimentación: el matemático y físico Evangelista


Torricelli empleó el barómetro; el matemático, físico y astrónomo holandés Christiaan Huygens
usó el reloj de péndulo; el físico y químico británico Robert Boyle y el físico alemán Otto von
Guericke utilizaron la bomba de vacío.

La culminación de esos esfuerzos fue la formulación de la ley de la gravitación universal,


expuesta en 1687 por el matemático y físico británico Isaac Newton en su obra Philosophiae
naturalis principia mathematica (Principios matemáticos de la filosofía natural). Al mismo
105
Instituto Profesional Diego Portales
AUTÓNOMO

tiempo, la invención del cálculo infinitesimal por parte de Newton y del filósofo y matemático
alemán Gottfried Wilhelm Leibniz sentó las bases de la ciencia y las matemáticas actuales.

Los descubrimientos científicos de Newton y el sistema filosófico del matemático y


filósofo francés René Descartes dieron paso a la ciencia materialista del siglo XVIII, que trataba
de explicar los procesos vitales a partir de su base físico-química. La confianza en la actitud
científica influyó también en las ciencias sociales e inspiró el llamado Siglo de las Luces, que
culminó en la Revolución Francesa de 1789. El químico francés Antoine Laurent de Lavoisier
publicó el Tratado elemental de química en 1789 e inició así la revolución de la química
cuantitativa.

Los avances científicos del siglo XVIII prepararon el camino para el siguiente, llamado a
veces “siglo de la correlación” por las amplias generalizaciones que tuvieron lugar en la ciencia.
Entre ellas figuran la teoría atómica de la materia postulada por el químico y físico británico John
Dalton, las teorías electromagnéticas de Michael Faraday y James Clerk Maxwell, también
británicos, o la ley de la conservación de la energía, enunciada por el físico británico James
Prescott Joule y otros científicos.

La teoría biológica de alcance más global fue la de la evolución, propuesta por Charles
Darwin en su libro El origen de las especies, publicado en 1859, que provocó una polémica en la
sociedad, no sólo en los ámbitos científicos, tan grande como la obra de Copérnico. Sin embargo,
al empezar el siglo XX el concepto de evolución ya se aceptaba de forma generalizada, aunque su
mecanismo genético continuó siendo discutido.

Mientras la biología adquiría una base más firme, la física se vio sacudida por las
inesperadas consecuencias de la teoría cuántica y la de la relatividad. En 1927 el físico alemán
Werner Heisenberg formuló el llamado principio de incertidumbre, que afirma que existen límites
a la precisión con que pueden determinarse a escala subatómica las coordenadas de un suceso
dado. En otras palabras, el principio afirmaba la imposibilidad de predecir con precisión que una
partícula, por ejemplo un electrón, estará en un lugar determinado en un momento determinado y
con una velocidad determinada. La mecánica cuántica no opera con datos exactos, sino con
deducciones estadísticas relativas a un gran número de sucesos individuales.

3.1.5 La Ciencia en España y America Latina. Los comienzos de la ciencia española se


remontan (dejando aparte el primitivo saber de San Isidoro de Sevilla) a la civilización
hispanoárabe y sobre todo a la gran escuela astronómica de Toledo del siglo XI encabezada por
al-Zarqalluh (conocido por Azarquiel en la España medieval). Después de la conquista de la
ciudad de Toledo por el rey Alfonso VI en 1085, comenzó un movimiento de traducción
científica del árabe al latín, promovido por el arzobispo Raimundo de Toledo. Este movimiento
continuó bajo el patrocinio de Alfonso X el Sabio y los astrónomos de su corte (entre los que
destacó el judío Isaac ibn Cid); su trabajo quedó reflejado en los Libros del saber de astronomía y
las Tablas alfonsíes, tablas astronómicas que sustituyeron en los centros científicos de Europa a
las renombradas Tablas toledanas de Azarquiel.
106
Instituto Profesional Diego Portales
AUTÓNOMO

En la primera mitad del siglo XVI, España participó en el movimiento de renovación


científica europea, en el que intervinieron de forma destacada Juan Valverde de Amusco,
seguidor de Andrés Vesalio, y la escuela de los calculatores, promotores de la renovación
matemática y física, a la que pertenecían Pedro Ciruelo, Juan de Celaya y Domingo de Soto. El
descubrimiento de América estimuló avances, tanto en historia natural (con José de Acosta y
Gonzalo Fernández de Oviedo) como en náutica (con Pedro de Medina, Martín Cortés y Alonso
de Santa Cruz).

Después de que Felipe II prohibiera estudiar en el extranjero, la ciencia española entró en


una fase de decadencia y neoescolasticismo de la cual no saldría hasta finales del siglo XVII, con
el trabajo de los llamados novatores. Este grupo promovía semiclandestinamente las nuevas ideas
de Newton y William Harvey, y a él pertenecían, entre otros, Juan Caramuel y Lobkowitz, Juan
de Cabriada y Antonio Hugo de Omerique, cuya obra Analysis Geometrica (1698) atrajo el
interés de Newton. En la misma época, desde Nueva España, Diego Rodríguez comentó los
hallazgos de Galileo.

El sistema newtoniano, todavía prohibido por la Iglesia, se difundió ampliamente en el


mundo hispano del siglo XVIII, a partir de Jorge Juan y Antonio de Ulloa (socios del francés
Charles de La Condamine en su expedición geodésica a los Andes) en la península Ibérica, José
Celestino Mutis en Nueva Granada y Cosme Bueno en Perú.

El otro pilar de la modernización científica de la Ilustración fue Linneo, cuya


nomenclatura binomial fascinó a toda una generación de botánicos europeos, estimulando nuevas
exploraciones. En España, Miguel Barnades y más tarde sus discípulos Casimiro Gómez Ortega y
Antonio Palau Verdera enseñaron la nueva sistemática botánica. El siglo XVIII fue la época de
las expediciones botánicas y científicas al Nuevo Mundo, entre las que destacaron la de Mutis
(corresponsal de Linneo) a Nueva Granada, la de Hipólito Ruiz y José Pavón a Perú, la de José
Mariano Mociño y Martín de Sessé a Nueva España, y la de Alejandro Malaspina alrededor del
globo. También en los territorios americanos la ciencia floreció en instituciones como el Real
Seminario de Minería de México, el Observatorio Astronómico de Bogotá o el Anfiteatro
Anatómico de Lima.

Las Guerras Napoleónicas y de Independencia interrumpieron el avance de la ciencia


tanto en la península Ibérica como en Latinoamérica. En España la recuperación fue muy lenta; la
vida científica se paralizó prácticamente hasta la aparición de nuevas ideas (el darwinismo en
primer lugar) como secuela de la revolución de 1868 y la República. En esta renovación
científica desempeñó un papel fundamental el neurólogo Santiago Ramón y Cajal, primer premio
Nóbel español (en 1906 compartió el Premio Nobel de Fisiología y Medicina con el médico
italiano Camillo Golgi por sus descubrimientos sobre la estructura del sistema nervioso); también
intervinieron José Rodríguez de Carracido en química, Augusto González de Linares en biología,
José Macpherson en geología y Zoel García Galdeano en matemáticas. En América Latina
pueden referirse como representativas de la renovación científica del siglo XIX una serie de
instituciones positivistas: en México, la Sociedad de Historia Natural (1868), la Comisión
107
Instituto Profesional Diego Portales
AUTÓNOMO

Geográfico-Exploradora (1877) o la Comisión Geológica (1886); en Argentina, el Observatorio


Astronómico (1882), el Museo de Ciencias Naturales (1884), la Sociedad Científica Argentina
(1872), el Observatorio de Córdoba (1870), dirigido por el estadounidense Benjamin Gould, y la
Academia de las Ciencias de Córdoba (1874); por último en Brasil, la Escuela de Minas de Ouro
Preto, el Servicio Geológico de São Paulo y el Observatorio Nacional de Río de Janeiro.

Gracias al empuje que el Premio Nóbel de Ramón y Cajal dio a la ciencia en general, en
1907 el gobierno español estableció la Junta para la Ampliación de Estudios para fomentar el
desarrollo de la ciencia, creando becas para el extranjero y, algo más tarde, una serie de
laboratorios. Cuando Pío del Río Hortega se instaló en el laboratorio de histología establecido por
la Junta en la Residencia de Estudiantes de Madrid, se convirtió en el primer investigador
profesional en la historia de la ciencia española. El centro de innovación en ciencias físicas fue el
Instituto Nacional de Física y Química de Blas Cabrera, que a finales de la década de 1920
recibió una beca de la Fundación Rockefeller para construir un nuevo y moderno edificio. Allí
trabajaron Miguel Ángel Catalán, que realizó importantes investigaciones en espectrografía, y el
químico Enrique Moles. En matemáticas el centro innovador fue el Laboratorio Matemático de
Julio Rey Pastor, cuyos discípulos ocuparon prácticamente la totalidad de cátedras de
matemáticas de España. Muchos de ellos fueron becados en Italia con Tullio Levi-Civita, Vito
Volterra, Federigo Enriques y otros miembros de la gran escuela italiana, cuyo manejo del
cálculo tensorial les había asociado con la relatividad general de Einstein. Rey Pastor fue un
impulsor de la visita que Einstein realizó a España en 1923, en la que el físico alemán fue
recibido sobre todo por matemáticos, ya que la física estaba mucho menos desarrollada. En
biomedicina, además de la neurohistología, adquirió relevancia la fisiología, dividida en dos
grupos: el de Madrid, regido por Juan Negrín, quien formó al futuro premio Nóbel Severo Ochoa,
y el de Barcelona, dirigido por August Pi i Sunyer. Durante la década de 1920 ambos grupos
trabajaron en la acción química de las hormonas, sobre todo de la adrenalina.

En América Latina la fisiología, al igual que en España, ocupaba el liderazgo en las


ciencias biomédicas. Los argentinos Bernardo Houssay y Luis Leloir ganaron el Premio Nóbel en
1947 y 1970 respectivamente; fueron los primeros otorgados a científicos latinoamericanos por
trabajos bioquímicos. En física, distintos países consideraron que la física nuclear era el camino
más práctico hacia la modernización científica, debido a la facilidad para obtener aceleradores de
partículas de países europeos o de Norteamérica. No obstante, la física nuclear comenzó, por su
mínimo coste, con el estudio de los rayos cósmicos. En la década de 1930, los brasileños
Marcello Damy de Souza y Paulus Aulus Pompéia descubrieron el componente penetrante o
„duro‟ de los rayos cósmicos; en 1947 César Lattes, investigando en el Laboratorio de Física
Cósmica de Chacaltaya (Bolivia), confirmó la existencia de los piones. También la genética
resultó ser un campo de investigación fructífero en América Latina. En 1941 el genetista
estadounidense de origen ucraniano Theodosius Dobzhansky emprendió el primero de sus viajes
a Brasil donde formó a toda una generación de genetistas brasileños en la genética de
poblaciones. Su objetivo era estudiar las poblaciones naturales de Drosophila (moscas utilizadas
para la investigación genética) en climas tropicales para compararlas con las poblaciones de
regiones templadas que ya había investigado. Descubrió que las poblaciones tropicales estaban

108
Instituto Profesional Diego Portales
AUTÓNOMO

dotadas de mayor diversidad genética que las templadas y, por lo tanto, pudieron ocupar más
"nichos" ecológicos que éstas.

Tanto en España como en América Latina la ciencia del siglo XX ha tenido dificultades
con los regímenes autoritarios. En la década de 1960 se produjo en Latinoamérica la llamada
„fuga de cerebros‟: en Argentina, por ejemplo, la Facultad de Ciencias Exactas de la Universidad
de Buenos Aires perdió más del 70% del profesorado debido a las imposiciones del gobierno
contra las universidades. Bajo la dictadura militar de la década de 1980, los generales expulsaron
de este país a los psicoanalistas, y el gobierno apoyó una campaña contra la „matemática nueva‟
en nombre de una idea mal entendida de la matemática clásica. En Brasil, bajo la dictadura
militar de la misma época, un ministro fomentó la dimisión de toda una generación de
parasitólogos del Instituto Oswaldo Cruz, dando lugar a lo que se llamó „la masacre de
Manguinhos‟.

3.1.6 Comunicación Científica. A lo largo de la historia, el conocimiento científico se ha


transmitido fundamentalmente a través de documentos escritos, algunos de los cuales tienen una
antigüedad de más de 4.000 años. Sin embargo, de la antigua Grecia no se conserva ninguna obra
científica sustancial del periodo anterior a los Elementos del geómetra Euclides. De los tratados
posteriores escritos por científicos griegos destacados sólo se conservan aproximadamente la
mitad. Algunos están en griego, mientras que en otros casos se trata de traducciones realizadas
por eruditos árabes en la edad media. Las escuelas y universidades medievales fueron los
principales responsables de la conservación de estas obras y del fomento de la actividad
científica.

Sin embargo, desde el renacimiento esta labor ha sido compartida por las sociedades
científicas; la más antigua de ellas, que todavía existe, es la Accademia nazionale dei Lincei (a la
que perteneció Galileo), fundada en 1603 para promover el estudio de las ciencias matemáticas,
físicas y naturales. Ese mismo siglo, el apoyo de los gobiernos a la ciencia llevó a la fundación de
la Royal Society de Londres (1660) y de la Academia de Ciencias de París (1666). Estas dos
organizaciones iniciaron la publicación de revistas científicas, la primera con el título de
Philosophical Transactions y la segunda con el de Mémoires.

Durante el siglo XVIII otras naciones crearon academias de ciencias. En Estados Unidos,
un club organizado en 1727 por Benjamín Franklin se convirtió en 1769 en la Sociedad Filosófica
Americana. En 1780 se constituyó la Academia de las Artes y las Ciencias de América, fundada
por John Adams, el segundo presidente estadounidense. En 1831 se reunió por primera vez la
Asociación Británica para el Desarrollo de la Ciencia, seguida en 1848 por la Asociación
Americana para el Desarrollo de la Ciencia y en 1872 por la Asociación Francesa para el
Desarrollo de la Ciencia. Estos organismos nacionales editan respectivamente las publicaciones
Nature, Science y Compte-Rendus. El número de publicaciones científicas creció tan rápidamente
en los primeros años del siglo XX que el catálogo Lista mundial de publicaciones científicas
periódicas editadas en los años 1900 - 1933 ya incluía unas 36.000 entradas en 18 idiomas.
Muchas de estas publicaciones son editadas por sociedades especializadas dedicadas a ciencias
concretas.
109
Instituto Profesional Diego Portales
AUTÓNOMO

Desde finales del siglo XIX la comunicación entre los científicos se ha visto facilitada por
el establecimiento de organizaciones internacionales, como la Oficina Internacional de Pesas y
Medidas (1875) o el Consejo Internacional de Investigación (1919). Este último es una
federación científica subdividida en uniones internacionales para cada una de las ciencias. Cada
pocos años, las uniones celebran congresos internacionales, cuyos anales suelen publicarse.
Además de las organizaciones científicas nacionales e internacionales, muchas grandes empresas
industriales tienen departamentos de investigación, de los que algunos publican de forma regular
descripciones del trabajo realizado o envían informes a las oficinas estatales de patentes, que a su
vez editan resúmenes en boletines de publicación periódica.

3.2 Límites de la investigación científica.

Ya a principios del siglo XVII, Francis Bacon, un filósofo inglés, cuestionaba la veracidad
del conocimiento (científico). Se preguntaba cómo podemos estar seguros de la completa
fiabilidad de nuestro conocimiento. Hasta ese momento, la tradición iniciada por los primeros
filósofos griegos concedía la prioridad a la deducción lógica, pero para Bacon ésta no era
suficiente. Este pensador consideraba que tanto la observación de la naturaleza como la
experimentación formal eran necesarias para demostrar una hipótesis de manera apropiada. Este
concepto sigue siendo válido hoy en día: las teorías científicas se examinan desde diversos
ángulos y deben confirmarse de manera fiable antes de ser aceptadas.

Sin embargo, la ciencia no es algo inmutable, los descubrimientos científicos recientes


deben considerarse como parte de un diálogo entre especialistas. La diversidad de opiniones
sobre los descubrimientos fruto de la investigación pone de relieve el hecho de que la ciencia es
un proceso dinámico en continua evolución.

Los límites de la investigación científica están relacionados directamente con la ética


científica, más que con la capacidad de descubrir o generar nuevos conocimientos, pues este
último es un proceso evolutivo que por su propia inercia lleva a la comunidad científica y a la
humanidad a un progreso sostenido en nuevos conocimientos. La pregunta es, ¿qué precio
debemos pagar por los nuevos conocimientos? Un ejemplo claro es la experimentación con
animales y seres humanos. Como los animales no pueden reclamar, menos agruparse y
defenderse, lo que nosotros hagamos con ellos va a depender de nuestra formación moral y la
conciencia de la sociedad, lo cual se puede ver reflejado en las organizaciones defensoras de los
animales y en las organizaciones ecologistas.
110
Instituto Profesional Diego Portales
AUTÓNOMO

Un caso dramático es el de los animales que son capturados vivos para disección y
posterior investigación, o el de las ballenas, que son “cazadas” (Nótese entre comillas) por parte
de los japoneses con fines de investigación; sin embargo, todos sabemos que es para fines
comerciales. La experimentación con animales por parte de la industria cosmética, pues primero
se prueban cremas, champúes, jabones, entre otros ungüentos, en animales sumamente alérgicos
como los conejos. La justificación oficial es científica, pero la justificación de fondo es
netamente comercial, para sacar nuevos productos al mercado. Una posición muy
antropocentrista es que “es preferible que dañe a animales que a las personas”, sin embargo, a la
sociedad se le olvida que los seres humanos somos animales (mamíferos) y parte de un
ecosistema, que por leyes naturales debe estar en equilibrio armónico. Esto también incluye a los
seres humanos con respecto a la naturaleza.

Respecto a la experimentación con humanos, el debate y la presión pública puede frenar


tales investigaciones, pero hasta qué punto. La cura del cáncer y del sida, pueden ser
motivaciones suficientes para experimentar con seres humanos, dada la importancia para la
sociedad. Aunque los pacientes que se prestan para este tipo de experimentos, normalmente son
compensados con tratamientos gratis y una serie de atenciones, ellos siguen siendo conejillos de
indias, y el límite a esas prácticas solo lo va imponer la sociedad.

Es importante recordar que “un bien” no puede ser la justificación de “un mal”, por ello,
ante cuestiones morales y éticas se debe tener claro los límites. Ante ello, la Congregación para la
Doctrina de la Fe, de la Iglesia Católica, presenta una interesante postura, no extremista ni
contraria a los avances científicos, pero apegada al equilibrio del bien y el mal, ante cuestiones
científicas y bioéticas.

Otro tema ético de relevancia, es la validez científica de los hallazgos. Muchas veces, se
hacen estudios para situaciones particulares o especiales, en que un factor tiene tal o cual efecto
ante un tratamiento, lo cual le da suficiente validez interna al estudio, la cuestión es, ¿cuál es la
validez externa?, o dicho de otra manera, en qué otras situaciones se repite tal efecto.

Muchos científicos se apresuran a publicar lo que sea, con tal de publicar y justificar una
productividad científica. Dada la rapidez con que de transmiten las comunicaciones hoy en día, y
la competitividad en el ambiente científico, los investigadores atochan las editoriales de revistas
científicas con un sinfín de artículos, no todos ellos con la misma calidad científica. En el mismo
afán por publicar y publicar, las editoriales de estas revistas no siempre son lo suficientemente
minuciosas para filtrar los artículos por su calidad, resultando publicaciones científicas en
revistas de alto nivel con todo tipo de errores. Por ejemplo, en un curso de doctorado de la
Universidad Austral, tenemos un taller donde discutimos el contenido de artículos científicos, y
111
Instituto Profesional Diego Portales
AUTÓNOMO

son contados los artículos científicos a los cuales no se les detecta algún error o contienen algún
método que no sea cuestionable. Este ejemplo real, puede servir para darnos cuenta que no todo
los que se publica es de calidad científica. El lector e investigador, por lo tanto, debe ser cauto y
no creer todo lo que está escrito, la mejor receta, es no perder la capacidad crítica cuando se está
leyendo una información.

Lo anterior, no debe quitar importancia a la necesidad de divulgación de la ciencia, que


ayudarán a la comunidad científica a ir más rápido en las investigaciones, pues, un investigador
que no publica sus avances, no aporta a la sociedad ni a la comunidad científica.

En definitiva, los factores más importantes que pondrán los límites a la investigación
científica serán la ética del investigador y la calidad de la investigación.

3.3 Métodos de la investigación científica

La actividad científica consiste en la teorización y la metodología usada para desarrollar


su actividad. La ciencia consiste esencialmente en la “observación-hipótesis-verificación-
replicación”. Si durante el proceso se va confirmando la hipótesis, entonces se puede tener
confianza razonable y se pueden desarrollar teorías.

Muchas veces, las hipótesis se estableces de forma intuitiva y después se les da una forma
más operativa. La confirmación del grado de verdad de ellas se puede hacer de forma directa o
indirecta.

Directa. Se confirma una predicción cuando esta se cumple. Se afirma que va a pasar tal cosa
ante tales o cuales circunstancias y después se evalúa que realmente se cumpla predicción,
generalmente, mediante observación y experimentación. Por ejemplo, se plantea la siguiente
hipótesis: “EL consumo de carne aumenta cuando baja su precio”. Supongamos que la situación
inicial corresponde a la oferta de carne en los supermercado con precio promedio de 2500 $/kg,
en una determinada localidad. Si por ciertas razones, el precio cae abruptamente a 1000 $/kg y se
observa como aumenta el consumo de la carne por parte de los habitantes de esa ciudad, entonces
se ha comprobado la hipótesis de investigación, en forma directa.

112
Instituto Profesional Diego Portales
AUTÓNOMO

Indirecta. Se confirma una hipótesis por la observación de las evidencias indiscutibles. Por
ejemplo, se plantea una hipótesis que afirma que los continentes están en movimiento (deriva
continental). Con antecedentes indirectos se puede demostrar que los continentes se han venido
moviendo por años, por ejemplo, comparando la forma del continente africano con la parte de
Sudamérica, se puede apreciar que ambas calzan casi perfectamente, sugiriendo que ambos,
alguna vez estuvieron pegados. Por otro lado, una forma directa de comprobar el movimiento de
los continente sería calculando la velocidad de avance del continente con ayuda del monitoreo
satelital.

El afán de comprobar la veracidad de una hipótesis puede requerir el planteamiento de


experimentos, pero se debe tener en cuenta, que lo fundamental es la observación y la capacidad
de poder replicar tales observaciones. El experimento aporta mayor grado de control sobre las
variables de estudio, pero no es esencial en el proceso. En caso contrario, muchas ciencias no
serían posibles.

En ciencia, hay evidencias no experimentales, pero que se basan en la observación. No se


puede experimentar directamente con las montañas ni con las estrellas, pero si se pueden
establecer hipótesis (predicciones) para contrastar por simple observación.

El método de la investigación científica en, en la actualidad, un proceso establecido,


definido y similar para las diferentes áreas del conocimiento. Este proceso, debe seguir los
protocolos para asegurar, tanto la validez interna como externa, de las investigaciones y sus
resultados. Si un investigador cae en la tentación de saltarse estos pasos, corre el grave riesgo de
llegar a conclusiones equivocadas o erróneas, que le restarán o anularán completamente la
validez de la investigación.

3.4 La investigación descriptiva

En contraste con la investigación experimental, donde se manipulan los factores y


tratamientos y se controlan las variables que participan en tal experimento, la investigación
descriptiva busca la caracterización de una población tal y como está en estado natural. No existe
un ánimo de reproducir de manera artificial una situación determinada, sino que se busca la
observación detallada de los eventos que ocurren en forma natural, tanto en un momento dado
como a través del tiempo.

El proceso de observación y medición de parámetros poblacionales puede llevar a


concluir sobre las relaciones de causa efecto entre ciertos factores y variables de respuesta, a
113
Instituto Profesional Diego Portales
AUTÓNOMO

través de estudios correlacionales. Por ejemplo, se observa y mide una cierta población de
personas, de una determinada localidad, supongamos una cierta comuna “x”, la población de
interés del estudio puede definirse de acuerdo a los criterios de interés del estudio. En este caso,
consideremos un estudio demográfico, donde nos interesa la tasa de mortalidad, de natalidad, la
distribución de la población de acuerdo a la edad, al nivel socioeconómico, nivel educacional y al
sexo Podemos encontrar en nuestro estudio que un 30% de la población gana más de 4 ingresos
mínimos mensuales, que el 97,5% de la población sabe leer y escribir, o que el 45% de ella tiene
menos de 30 años. Con estos parámetros podemos caracterizar la población de personas que
viven en esa comuna (Nivel descriptivo), pero además, se puede ir más lejos, y analizar las
relaciones que existen entre las variables medidas, como por ejemplo, puede interesarnos saber,
cuál es la relación entre nivel socioeconómico y los años de escolaridad, o cual es la relación
entre el nivel socioeconómico (y) respecto al sexo (x1), la edad (x2) y los años de escolaridad (x3).
Supongamos que encontramos una dependencia estadísticamente significativa, al 95% de
confianza, del nivel socioeconómico con respecto a esas variables, entonces podemos afirmar los
siguiente:

y  f ( x1 , x2 , x3 )  a0  a1  x1  a2  x2  a3  x3 ,

donde ai, son los coeficientes de una regresión lineal múltiple. Esto para el ejemplo, pero bien
podría tratarse de cualquier otro modelo matemático, hasta no lineal. Un ejemplo de modelo no
lineal puede ser:

y  f ( x1 , x2 , x3 )  3 a0  a1  x1  a2  x2  a3  x3

Independiente del modelo que se encuentre, la cuestión es que al hacer la regresión de los datos,
este modelo se convierte en una función (ajustada). Supongamos para el ejemplo, que el modelo
explica en un 90% el nivel socioeconómico, entonces, gracias al estudio podremos concluir varias
cosas: Por ejemplo:

1) A mayor escolaridad, hay una mayor esperanza de tener un mejor nivel


socioeconómico, independiente de la edad y del sexo.
2) Las mujeres son remuneradas en un 30% menos que los hombres,
independiente del nivel educacional y la edad.
3) A mayor edad, las personas tienen oportunidad de tener un mejor nivel
socioeconómico, independiente del nivel de educación y sexo.

114
Instituto Profesional Diego Portales
AUTÓNOMO

Obviamente, este es un ejemplo hipotético, que puede comprobarse realizando tal estudio
(Se pueden usar los datos del último censo).

La investigación descriptiva, por el hecho de no ser experimental, no deja de ser válida e


importante desde el punto de vista científico, sobre todo en las ciencias sociales, donde no se
puede experimentar con las personas como si fueran ratones de laboratorio.

El nivel explicativo de los estudios puede llevarnos entonces a un nivel correlacional, y al


encontrar las explicaciones de los elementos causales de lo que estamos midiendo, puede
proporcionar el suficiente conocimiento e información para llevar la investigación a un nivel
explicativo.

115
Instituto Profesional Diego Portales
AUTÓNOMO

CUARTA UNIDAD
LA COMUNICACIÓN FORMAL DE LA INVESTIGACIÓN CIENTÍFICA

OBJETIVO GENERAL DE LA UNIDAD TEMÁTICA


 Aplicar los requisitos formales de investigación en un trabajo práctico.

116
Instituto Profesional Diego Portales
AUTÓNOMO

4.1 Normas formales de presentación de trabajos de investigación. Existe una variedad de


tipos de trabajos escritos que sirven para reportar temas científicos. Entre ellos, el más popular es
el Artículo científico (Paper, en inglés), que corresponde a un reporte escrito de una investigación
determinada. En general, la regla más importante es de los trabajos escritos es respecto a su
redacción, la cual debe ser clara, libre de ambigüedades y entendible por las demás personas que
la lean.

Artículo científico (“Paper”, en inglés). Corresponde a un reporte breve y resumido de


una investigación científica que se publica en una revista científica determinada. Dependiendo
del real aporte del estudio científico podrá ser aceptado y publicado en una revista científica de
prestigio internacional. Las revistas científicas ISI son reconocidas a nivel mundial por su
seriedad en cuanto a los contenidos de los artículos científicos, y todo trabajo de gran calidad
podrá ser aceptado para ser publicado en ellas; por supuesto, después de una exhaustiva revisión,
por parte de un comité editorial de la revista.

Otras revistas de reconocido prestigio local, también con comité editorial, que filtra los
artículos por su calidad, son las de categoría Scielo.

Los artículos de menor calidad científica, en cuanto a su calidad, de aporte a la ciencia, en


forma de nuevos y novedosos conocimientos, podrán ser aceptados por revistas no ranquedas
(Como las ISI o Scielo), pero en la comunidad científica no serán consideradas de mucha validez
científica.

La estructura de un artículo científico está conformada por:


a) Título o nombre de la investigación
b) Lista de autores (Pueden ser varios)
c) Resumen o Summary o abstract (Normalmente en inglés, independiente del idioma en
que esté escrito el artículo).
d) Introducción. Se hace una breve revisión bibliográfica del tema en cuestión (Marco
teórico). Al final de la introducción, pero incluida en ella, se plantean las hipótesis del
estudio y los objetivos, aunque la mayoría de las veces, la o las hipótesis van implícitas en
los objetivos (General y específicos).
e) Materiales y métodos. Se describe los materiales usados para la investigación, como
datos, instrumentos de medición, modelos, y la metodología o pasos que se siguieron para
llevar a cabo tal investigación científica.
f) Resultados, Se presentan en forma resumida los resultados obtenidos en la investigación,
con tablas, gráficos, figuras.
g) Discusión (Normalmente va incluida en los resultados, es decir como “Resultados y
discusión”), donde se comentan los resultados, los pro y contra de tal o cual resultado, las
ventajas y desventajas, y se trata de dar algún grado explicativo a los análisis.
h) Conclusiones. Se afirma de acuerdo a los resultados, el aporte del estudio, por ejemplo,
se encontró que el rendimiento académico de los adolescentes depende del nivel
socioeconómico y el grado de escolaridad de los padres. Aquí se afirma o se rechaza lo
117
Instituto Profesional Diego Portales
AUTÓNOMO

planteado en la hipótesis, más aquellas afirmaciones que surgieron en el transcurso del


estudio, aunque no estuvieran incluidas en los objetivos. Como regla general, las
conclusiones están íntimamente ligadas a los objetivos planteados. Por ejemplo, si se
plantearon , 3 objetivos de investigación, al menos deben incluirse 3 conclusiones de la
investigación.
i) Bibliografía. Se detallan las referencias bibliográficas usadas y mencionadas en el
artículo.

Agradecimientos o reconocimientos. Antes de la bibliografía, es frecuente encontrar un breve


párrafo de agradecimientos a las personas o instituciones que colaboraron en el estudio. Sin
embargo, este no es un ítem obligatorio del reporte científico.

Además, cada artículo está identificado por el nombre de la revista donde fue publicado,
el volumen, el número de la revista, y las páginas donde aparece.

Ponencia. Es la comunicación escrita que una persona presenta ante algún evento científico,
como simposio, congreso o seminario. Aunque normalmente siguen un formato similar a los
artículos científicos, las organizaciones de estos eventos son las que dan la “pauta” del formato
que debe tener. Siguen siendo, breves, resumidos y de un grado de validez científica que
justifique la exposición ante tal evento. La ventaja de la ponencia (para el autor) es que el tema de
investigación puede ser sometido a discusión y comentarios directos de otros científicos en el
evento, lo cual puede ayudarle a mejorar algunos detalles de la investigación, tanto de forma
como de fondo.

Tesina. Corresponde a un trabajo escrito, relativamente breve, presentado por un estudiante para
ser evaluado por un profesor. El formato depende de los requisitos entregados por el profesor o la
facultad.

Tesis. Corresponde a un trabajo escrito, donde se puede demostrar con ciertas pruebas empíricas
y razonamientos algún nuevo conocimiento o algún aporte a la ciencia.

Originalmente, la tesis era el trabajo escrito que se presentaba en una universidad para acceder al
grado de doctor, pero hoy en día corresponde a aquel trabajo escrito, con la respectiva calidad y
validez científica, para optar a un grado académico (de licenciatura, maestría o doctorado).

A medida que es mayor el grado académico, el aporte científico puede ser mayor, pero en
general, las tesis son estudios minuciosos, detallados y extensos, sobre un tema en particular, que
pueden abarcar desde una 50 paginas hasta 200 páginas, en comparación con un artículo
científico que pueden promediar unas 15 páginas. En cuanto a la extensión, no existe una regla
estricta, por ellos en mejor hablar en términos cualitativos de trabajos extensos o breves.

Trabajos de grado, de título o seminarios. Cumplen la misma función que una tesis, pero sin
tantas exigencias de originalidad o de calidad científica. Sin embargo, este tipo de trabajo tienden
a ser extensos y cuidadosos.
118
Instituto Profesional Diego Portales
AUTÓNOMO

Ensayos. Son relativamente libres en su estructura en la que el autor expone razonadamente ideas
y opiniones sin que, sin embargo, se utilice plenamente una metodología científica.
Normalmente, el autor, trata de abarcar un tema, no necesariamente científico, a veces, desde un
punto de vista muy personal, sobre un tema contingente y de interés, científico o público.

4.2 Normas de presentación formal de trabajos orales de investigación. Están enfocadas


principalmente a la claridad de las ideas que se están presentando y el nivel resumido de ellas.

Los puntos a tener en consideración para una presentación oral pueden ser muchos, pero
los más importantes son:

1.- Apariencia personal. Un expositor que cuide su apariencia personal no necesariamente


mejorará la calidad de su trabajo, pero si agradará al auditorio. Por ejemplo, no es lo mismo
llegar a exponer un trabajo con sandalias y traje de baño que en tenida formal o semi formal. No
es lo mismo llegar a presentar un trabajo, sucio y despeinado que peinado y aseado.

Cómo se presente va a depender de las situación. Por ejemplo, muchas instituciones solicitan
tenida formal, pero en un evento científico como seminario o simposio, puede ser aceptable
exponer vestido en forma casual.

2.- Material de apoyo audiovisual. Que corresponde a cualquier recurso útil para hacer más
clara la explicación y presentación del trabajo científico. Como películas, grabaciones de sonido,
uso de papelógrafos, retroproyectores para transparencias, y del computador y “data show”.

También puede llevarse especimenes, maquetas, o unidades muestrales del estudio. Por
ejemplo, en una exposición médica, con el previo consentimiento del paciente, se puede presentar
al enfermo en cuestión.

3.- Síntesis. El peor enemigo de un buen trabajo científico, es un expositor aburrido, que puede
depender de la forma como expone y del grado de resumen del trabajo que está presentando. No
es necesario abusar de las transparencias y presentar toda la investigación, con la redacción del
documento en detalle. En este caso es recomendable hacer un resumen temático y sólo presentar
los títulos de cada idea, que el expositor debe desarrollar en forma oral y no escrita.

La exposición oral debe enfocarse en la investigación que se está presentando y no


llevarla por las ramas. Cuando se está exponiendo, es muy fácil tentarse a explicar detalles que no
aportan y perder tiempo valioso, esto puede ayudar al expositor a perderse y desconcentrarse.

No se debe abusar de la lectura del material, pues debe saberlo de memoria. Eso queda
para el auditorio. No hay que olvidar que los asistentes pueden leer por su propia cuenta.

En cada transparencia no se debe incluir más de 2 o 3 ideas, y el contenido debe


exponerse de tal manera que pueda ser digerido o entendido por parte del público. Un buen
119
Instituto Profesional Diego Portales
AUTÓNOMO

expositor que domine el tema que expone, debe tener la capacidad de explicar temas complicados
de manera sencilla.

4.- El tamaño de la letra, figuras y tablas. Deben ser de un tamaño apropiado, de manera que la
última persona en la sala pueda leer lo que está en la pantalla.

5.- Actitud y postura del expositor. El expositor debe presentar su trabajo con conocimiento de
causo, seguridad, en voz alta, de manera que la última persona de la sala pueda escuchar
claramente lo que dice.

Otra regla de oro, es nunca dar la espalda al público ni hablarle a la pizarra ni hablar para
sí mismo. Hay que recordar que hay un auditorio atento a escuchar lo que el expositor dice.

6.- Tiempo de la exposición. Está ligado a la capacidad de síntesis que el expositor tiene. No se
debe abusar de la paciencia del auditorio, pues el tiempo es un recurso muy escaso para cada uno
de los participantes. Es mejor hacer una breve, resumida y clara exposición y dejar todo el tiempo
que el auditorio quiera para las preguntas, comentarios y discusión al final de la exposición.

Una exposición no debe durar más de 15 minutos, y en el caso de temas de investigación


muy extensos, es muy recomendable estructurar la exposición en bloques. Por ejemplo, el primer
bloque de exposición, un descanso o “break ”, y luego, un bloque final de preguntas y discusión
del tema.

Por último, el expositor debe hacer un esfuerzo para hacer una exposición entretenida, y
didáctica. De esa manera el público no terminará ni aburrido, ni cansado, ni con sueño.

120
Instituto Profesional Diego Portales
AUTÓNOMO

BIBLIOGRAFÍA

Cochran, W. G. 1978. Técnicas de Muestreo. Compañía Editorial Continental S.A. 7º Edición.


México. 507 p.

Congregación para la Doctrina de la Fe. 1998. Instrucción Donum vitae sobre el respeto de la
vida humana naciente y la dignidad de la procreación. Respuesta a algunas
cuestiones de actualidad. Human Life International - Vida Humana Internacional.
http://www.vidahumana.org/vidafam/iglesia/donum.html

Dampier, W. C. 1992. Historia de la ciencia y sus relaciones con la filosofía y la


Religión, Tecnos, Madrid, 570 p.

DeGroot, M. H. 1988. Probabilidad y Estadística. Addison-Wesley Iberoamericana. 2º Edición.


Wilmington, Delaware, E.U.A. 694 p.

Freund, J. E. 1990. Estadística Matemática con Aplicaciones. Prentice-Hall Hispanoamericana.


4º Edición. México. 622 p.

Hernández-Sampieri, R. H., C. C. Fernández y P. L. Baptista. 1998. Metodología de la


Investigación. McGraw-Hill. 2º Edición. México. 501 p.

Montgomery, D. C. 1991. Diseño y Análisis de Experimentos. Grupo Editorial Iberoamérica.


México. 589 p.

Padua, J. 1979. Técnicas de Investigación Aplicadas a las Ciencias Sociales. Fondo de Cultura
Económica. México. 360 p.

Periodismo científico. 2002. Los límites éticos de la divulgación científica. Periodismo


Científico 44:1-2. http://www.ciencytec.com/pc/PC44.pdf

Sabino, C. 1994. Cómo hacer una tesis. Editorial Panapo, Caracas, 240 págs. Ultima
actualización: Diciembre de 2003 http://paginas.ufm.edu/sabino/CHT-Cap2.htm

Sokal, R. R. y F. J. Rohlf. 1979. Biometría: Principios y métodos estadísticos en la


investigación biológica. H. Blume Ediciones. 1º Edición española. Madrid. 832 p.

121
Instituto Profesional Diego Portales
AUTÓNOMO

122

También podría gustarte