Está en la página 1de 56

UNIDAD 3

TEXTO 3.1CAPITULO 6: FORMULACION DE HIPOTESIS

Hipótesis
Las hipótesis son guías para una investigación o estudio. Indican lo que tratamos de probar y se definen
como explicaciones tentativas del fenómeno investigado. Se derivan de la teoría existente y deben formularse
a manera de proposiciones. Son respuestas provisionales a las preguntas de investigación. Son el centro, la
medula o eje del método deductivo cuantitativo.
El hecho de que formulemos o no hipótesis depende de un factor esencial: el alcance inicial del estudio.
Las investigaciones cuantitativas que formulan hipótesis son aquellas cuyo planteamiento define que su
alcance será correlacional o explicativo, o las que tienen un alcance descriptivo, pero que intentan pronosticar
una cifra o un hecho. Los estudios cualitativos, por lo regular, no formulan hipótesis antes de recolectar datos.
Las hipótesis no necesariamente son verdaderas, y pueden o no comprobarse con datos. Son
explicaciones tentativas, no los hechos en sí.
En el ámbito de la investigación científica, las hipótesis son proposiciones tentativas acerca de las
relaciones entre dos o más variables, y se apoyan en conocimientos organizados y sistematizados. Una vez
que se prueba una hipótesis, ésta tiene un impacto en el conocimiento disponible, que puede modificarse y por
consiguiente, pueden surgir nuevas hipótesis.
Variables
Una variable es una propiedad que puede fluctuar y cuya variación es susceptible de medirse u
observarse. Ej: genero, atractivo físico, religión, agresividad verbal, etc.
Adquieren valor para la investigación científica cuando llegan a relacionarse con otras variables, es
decir, si forman parte de una hipótesis o una teoría. En este caso se las suele denominar constructos o
construcciones hipotéticas.
¿De donde surgen las hipótesis?
Bajo el enfoque cuantitativo es natural que las hipótesis surjan del planteamiento del problema que se
vuelve a evaluar y si es necesario se replantea después de revisar la literatura. Es decir, provienen de la revisión
de la literatura. Pueden surgir del postulado de una teoría, del análisis de ésta, de generalizaciones empíricas
pertinentes a nuestro problema de investigación y de estudios revisados o antecedentes consultados.
La revisión inicial de la literatura hecha para familiarizarnos con el problema de estudio nos lleva a
plantearlo, después ampliamos la revisión de la literatura y afinamos o precisamos el planteamiento, del cual
derivamos la hipótesis. Al formular la hipótesis volvemos a evaluar nuestro planteamiento del problema.
Los objetivos y preguntas de investigación pueden ser reafirmados o mejorados durante el desarrollo
del estudio. Asimismo, a través del proceso quizá se nos ocurran otras hipótesis que no estaban contempladas
en el planteamiento original.
Las fuentes de hipótesis de un estudio tienen mucho que ver a la hora de determinar la naturaleza de
la contribución de la investigación en el cuerpo general de conocimientos. Una hipótesis que simplemente
emana de la intuición o de una sospecha puede hacer finalmente una importante contribución a la ciencia. Sin
embargo, si solamente ha sido comprobada en un estudio, existen dos limitaciones con respecto a su utilidad.
Primero, no hay seguridad de que las relaciones entre las variables halladas en un determinado estudio sean
encontradas en otros. Segundo, una hipótesis basada simplemente en una sospecha no es propicia de ser
relacionada con otro conocimiento o teoría. Así pues, los hallazgos de un estudio basados en tales hipótesis
no tienen una clara conexión con el amplio cuerpo de conocimientos de la ciencia social.
Una hipótesis que nace de los hallazgos de otros estudios está libre en alguna forma de la primera de
estas limitaciones. Si la hipótesis está basada en resultados de otros estudios, y si el presente estudio apoya la
hipótesis de aquellos, el resultado habrá servido para confirmar esta relación en una forma normal. Una
hipótesis que se apoya no simplemente en los hallazgos de un estudio previo, sino en una teoría en términos
más generales, está libre de la segunda limitación: la de aislamiento de un cuerpo de doctrina más general.
A pesar de esto, es necesario recalcar que hipótesis útiles y fructíferas también pueden originarse en
planteamientos de un problema cuidadosamente revisado, aunque el cuerpo teórico que las sustente no sea
abundante. Lo que sí contribuye una grave falla en la investigación es formular hipótesis sin haber revisado

1
con cuidado la literatura, ya que se cometerían errores como sugerir hipótesis de algo bastante comprobado o
algo que ha sido contundentemente rechazado.
¿Qué características debe tener una hipótesis? (según el enfoque cuantitativo)
1. Deben referirse a una situación real. Solo pueden someterse a prueba en un universo y contexto bien
definidos. Es muy frecuente que cuando las hipótesis provienen de una teoría o una generalización empírica
(afirmación comprobada varias veces en la realidad), sean manifestaciones contextualizadas o casos concretos
de hipótesis generales abstractas. La hipótesis: “A mayor satisfacción laboral mayor productividad”, es general
y susceptible de someterse a prueba en varias realidades. En estos casos, al probar nuestra hipótesis
contextualizada aportamos evidencia a favor de la hipótesis más general.
2. Las variables o términos de la hipótesis deben ser comprensibles, precisos y lo más concretos
posibles.
3. La relación entre variables propuesta por una hipótesis debe ser clara y verosímil (lógica). Por ej:
“la disminución del consumo del petróleo en EE.UU se relaciona con el grado de aprendizaje del algebra por
parte de niños que asisten a escuelas públicas en Buenos Aires” sería inverosímil y no es posible considerarla.
4. Los términos o variables de la hipótesis deben ser observables y medibles, así como la relación
planteada entre ellos, o sea, tener referentes en la realidad. No deben incluir aspectos morales, o cuestiones
que no podemos medir.
5. Deben estar relacionadas con técnicas disponibles para probarlas. Al formular la hipótesis, tenemos
que analizar técnicas o herramientas de investigación para verificarla, si es posible desarrollarlas y si se
encuentran a nuestro alcance (se puede dar el caso de que existan pero no estén a nuestro alcance).
Tipos de hipótesis
1. de investigación
2. nulas
3. alternativas
4. estadísticas.
Hipótesis de investigación
Son proposiciones tentativas acerca de las posibles relaciones entre dos o más variables, y deben
cumplir los 5 requisitos mencionados. También se las denomina hipótesis de trabajo. Pueden ser:
1. DESCRIPTIVAS DE UN VALOR O DATO PRONOSTICADO: se utilizan a veces en estudios
descriptivos, para intentar predecir un dato o valor en una o más variables que se van a medir u observar. Ej:
“el aumento del número de divorcios de parejas cuyas edades oscilan entre los 18 y 25 años, será de 20% el
próximo año”.
2. CORRECCIONALES: especifican las relaciones entre dos o más variables y cómo están asociadas.
Alcanzan el nivel predictivo y parcialmente explicativo. No es importante el orden en que coloquemos las
variables. Por ej: “A mayor autoestima, habrá menor temor al éxito” (aquí la hipótesis señala que cuando una
variable aumenta, la otra disminuye; y si ésta disminuye, aquella aumenta).
3. DE DIFERENCIA DE GRUPOS: se formulan en investigaciones cuya finalidad es comparar grupos.
Cuando el investigador no tiene bases para presuponer a favor de qué grupo será la diferencia, formula una
hipótesis simple de diferencia de grupos (“el efecto persuasivo para dejar de fumar no será igual en los
adolescentes que vean la versión del comercial televisivo en colores, que el efecto en los adolescentes que
vean la versión del comercial en blanco y negro”). Y cuando sí tiene bases, establece una hipótesis direccional
de diferencia de grupos (“los adolescentes le atribuyen más importancia al atractivo físico en sus relaciones
de pareja, que las adolescentes a las suyas”. Esto último, por lo común, sucede cuando la hipótesis se deriva
de una teoría o estudios antecedentes, o bien, el investigador está bastante familiarizado con el problema de
estudio. Esta clase de hipótesis llega a abarcar dos, tres o más grupos.
4. CAUSALES: no solamente afirma la o las relaciones entre dos o más variables y la manera en que
se manifiestan, sino que además presupone un “sentido de entendimiento” de las relaciones. Tal sentido puede
ser más o menos completo, esto depende del número de variables que se incluyan, pero todas estas hipótesis
establecen relaciones de causa-efecto.
Correlación y causalidad son conceptos asociados, pero distintos. Si dos variables están
correlacionadas, ello no necesariamente implica que una será causa de la otra. Para establecer causalidad antes
debe haberse demostrado correlación, pero además la causa debe ocurrir antes que el efecto. Asimismo, los
2
cambios en la causa tienen que provocar cambios en el efecto. Al hablar de hipótesis, a las supuestas causas
se las conoce como variables dependientes. Únicamente es posible hablar de variables independientes y
dependientes cuando se formulan hipótesis causales o hipótesis de la diferencia de grupos, siempre y cuando,
en éstas últimas se explique cuál es la causa de la diferencia supuesta en la hipótesis.
Distintos tipos de hipótesis causales:
1. Hipótesis causales bivariadas: en éstas se plantea una relación entre una variable independiente y
una variable dependiente. Ej: “percibir que otra persona del genero opuesto es similar a uno en cuanto a
religión, valores y creencias, nos provoca mayor atracción hacia ella”.

2. Hipótesis causales multivariadas: plantean una relación entre diversas variables independientes y una
dependiente, o una independiente y varias dependientes, o diversas variables independientes y varias
dependientes.
Ej: “la cohesión y la centralidad en un grupo sometido a una dinámica, así como el tipo de liderazgo
que se ejerza dentro del grupo, determinan la eficacia de éste para alcanzar sus metas primarias”.

Independiente Dependiente

Ej: “La variedad y la autonomía en el trabajo, así como la retroalimentación proveniente del desarrollo
de éste, generan mayor motivación intrínseca y satisfacción laborales”
Independientes Dependiente

Las hipótesis multivariadas pueden plantear otro tipo de relaciones causales, en donde ciertas variables
intervienen modificando la relación (hipótesis con presencia de variables intervinientes). Ej: “La paga aumenta
la motivación intrínseca de los trabajadores, cuando se administra de acuerdo con el desempeño”. Esquema
causal con variable interviniente:

Es posible que haya estructuras causales de variables más complejas que resulta difícil de expresar en una
sola hipótesis, porque las variables se relacionan entre sí de distintas maneras. Entonces se plantean las
relaciones causales en 2 o más hipótesis, o de forma grafica. Estructura causal compleja multivariada:

Esta figura podría desglosarse en múltiples hipótesis, por ejemplo:


H1: “la paga incrementa la satisfacción laboral”
H2: “la integración, la comunicación instrumental y la comunicación formal incrementan la satisfacción
laboral”
H3: “la centralización disminuye la satisfacción laboral”
H4: “la satisfacción laboral influye en la reasignación de personal”
H5: “la oportunidad de capacitación mediatiza la vinculación entre la satisfacción laboral y la reasignación de
personal”
H6: “la reasignación de personal afecta la integración, la efectividad organizacional, la formalización, la
centralización y la innovación”.

Cuando las hipótesis causales se someten al análisis estadístico, se evalúa la influencia de cada variable
independiente (causa) en la dependiente (efecto), y la influencia conjunta de todas las variables independientes
en la dependiente o dependientes.

¿QUE SON LAS HIPOTESIS NULAS? (del texto Formulación de Hipótesis)

Las hipótesis nulas son el reverso de las hipótesis de investigación. También constituyen proposiciones
acerca de la relación entre variables, solo que sirven para refutar o negar lo que afirma la hipótesis de
investigación. Si la hipótesis de investigación propone: “los adolescentes le atribuyen más importancia al

3
atractivo físico en sus relaciones de pareja que las adolescentes”, la hipótesis nula seria: “los adolescentes
No le atribuyen más importancia al atractivo físico en sus relaciones de pareja que las adolescentes”.
Como este tipo de hipótesis resalta la contrapartida de la hipótesis de investigación, hay prácticamente tantas
clases de hipótesis nulas como de investigación. Es decir, la clasificación de hipótesis nulas es similar a la
tipología de las hipótesis de investigación: hipótesis Nulas Descriptivas de un valor o dato pronosticado;
hipótesis que niegan o contradicen la relación entre dos o más variables, hipótesis que niegan que haya
diferencia entre grupos que se comparan, e hipótesis que niegan la relación de causalidad entre dos o más
variables.
Las hipótesis Nulas se simbolizan así: Ho.

Hipótesis Alternativas:
Son posibilidades alternas ante las hipótesis de investigación y nula. Ofrecen otra descripción, otra
explicación distinta a las que proporcionan estos tipos de hipótesis.
Si la hipótesis de investigación establece: “esta silla es roja”; la hipótesis Nula establece: “esta silla no es
roja”; y podrían formularse una o más hipótesis alternativas: “esta silla es azul”, “esta silla es verde”.
Las hipótesis alternativas se simbolizan: Ha y sólo pueden formularse cuando efectivamente hay otras
posibilidades.

¿En una investigación se formulan hipótesis de investigación, nula y alternativa?


Al respecto no hay reglas universales. Existen artículos muy variados en la constitución de hipótesis.
Se recomienda que aunque se incluyan exclusivamente las hipótesis de investigación, todas se tengan
presentes, no solo al plantearlas, sino durante todo el estudio. Esto ayuda a que el investigador esté siempre
alerta ante todas las posibles descripciones y explicaciones del fenómeno.

¿Cuántas hipótesis se pueden formular en una investigación?


Cada investigación es diferente. Algunas contienen gran variedad de hipótesis porque el problema de
investigación es complejo, mientras que otras investigaciones contienen una o dos hipótesis. La calidad de
una investigación no necesariamente está relacionada con el número de hipótesis que contenga.

¿En una investigación se pueden formular hipótesis descriptivas de un dato que se pronostica en una
variable, hipótesis correlaciónales, hipótesis de la diferencia de grupos e hipótesis causales?
SI. En una misma investigación es posible establecer todos los tipos de hipótesis, porque el problema de
investigación así lo requiere.
Los estudios que se inician y concluyen como descriptivos, formularan hipótesis descriptivas; los
correlaciónales podrían establecer hipótesis descriptivas de estimación, correlelacionales y de diferencia de
grupos; los explicativos podrían incluir hipótesis descriptivas de pronóstico, correlaciónales, de diferencia de
grupos y causales. No debemos olvidar que una investigación puede abordar parte del problema de manera
descriptiva y parte explicativa. Aunque debemos señalar que los estudios descriptivos no suelen contener
hipótesis.
Los tipos de estudios que no establecen hipótesis son los exploratorios. No puede presuponerse algo que
apenas va a explorarse.

¿Qué es la prueba de hipótesis?


No podemos probar que una hipótesis sea verdadera o falsa, sino argumentar que fue apoyada o no, de
acuerdo con ciertos datos obtenidos en una investigación particular. Desde el punto de vista técnico no se
acepta una hipótesis a través de un estudio, sino que se aporta evidencia en su favor o en contra. Cuantas
más investigaciones apoyen una hipótesis, más credibilidad tendrá, y será válida para ese contexto.
Las hipótesis, en el enfoque cuantitativo, se someten a prueba en la “realidad” cuando se aplica un diseño de
investigación, se recolectan datos con uno o varios instrumentos de medición y se analizan e interpretan esos
mismos datos.

¿Cuál es la utilidad de las hipótesis? Funciones.


4
● Son las guías de una investigación en el enfoque cuantitativo. Formularlas nos ayuda a saber lo que
tratamos de buscar, de probar. Proporcionan orden y lógica al estudio. Son como los objetivos de un
plan. Las sugerencias formuladas en las hipótesis pueden ser soluciones a los problemas de
investigación. Si lo son o no, efectivamente es la tarea de estudio.
● Tienen una función descriptiva y explicativa, según el caso. Cada vez que una hipótesis recibe
evidencia empírica en su favor o en contra, nos dice algo acerca del fenómeno con el cual se asocia o
se hace referencia. Si la evidencia es a favor, la información sobre el fenómeno se incrementa, y aun
así la evidencia es en contra, descubrimos algo acerca del fenómeno que no sabíamos antes.
● La tercera función es probar teorías. Cuando varias hipótesis de una teoría reciben evidencia positiva,
la teoría va haciéndose más robusta y cuanto más evidencia haya a favor de aquellas, más evidencia
habrá a favor de esta.
● Sugerir teorías. Diversas hipótesis no están asociadas con teoría alguna, pero llega a suceder que
como resultado de la prueba de hipótesis, se pueda construir una teoría o las bases para ésta.

¿Qué ocurre cuando no se aporta evidencia a favor de las hipótesis de investigación?


No siempre los datos apoyan las hipótesis. Pero no significa que la investigación carezca de utilidad. Lo
importante es analizar por qué no se aportó evidencia a favor de las hipótesis.
Para que las hipótesis tengan utilidad, no es necesario que sean las respuestas correctas a los problemas
planteados.

¿Deben definirse las variables de una hipótesis como parte de su formulación?


Al formular una hipótesis es indispensable definir los términos o variables incluidos en ella. Esto es
necesario por:
● Para que el investigador y en general cualquier persona que lea la investigación le den el mismo
significado a los términos incluidos en las hipótesis.
● Asegurarnos de que las variables pueden ser medidas, observadas, evaluadas o inferidas, es decir que
de ellas se puedan obtener datos de la realidad.
● Confrontar nuestra investigación con otras similares. Si tenemos definidas nuestras variables,
podemos comparar nuestras definiciones con las de otros estudios para saber “si hablamos de lo
mismo”. Si la comparación es positiva, confrontaremos los resultados de nuestra investigación con
los resultados de las demás.
● Evaluar más adecuadamente los resultados de nuestra investigación, porque las variables y no sólo
las hipótesis, se contextualizan.

Definición conceptual o constitutiva


Una definición conceptual trata a la variable con otros términos. Se trata de definiciones de diccionarios o de
libros especializados y cuando describen la esencia o las características de una variable, objeto o fenómeno
se les denomina definiciones reales. Estas constituyen la adecuación de la definición conceptual a los
requerimientos prácticos de a investigación.
Tales definiciones son necesarias pero insuficientes para definir las variables de la investigación, porque no
nos vincula directamente con la “realidad” o con el “fenómeno, contexto, expresión, comunidad o
situación”.

Definiciones operacionales
Una definición operacional constituye el conjunto de procedimientos que describen las actividades que un
observador debe realizar para recibir las impresiones sensoriales, las cuales indican la existencia de un
concepto teórico en mayor o menor grado.
Especifica qué actividades u operaciones deben realizarse para medir una variables. Una definición
operacional nos dice que para recoger datos respecto de una variable, hay que hacer esto y esto otro, además
articula procesos o acciones de un concepto que son necesarios para identificar ejemplos de este.

5
Cuando un investigador dispone de varias opciones para definir operacionalmente una variable, debe elegir
la que proporcione mayor información sobre la variable, capte mejor su esencia, se adecue más a su contexto
y sea más precisa.
Los criterios para evaluar una definición operacional son básicamente cuatro: Adecuación al contexto,
Capacidad para captar los componentes de la variable de interés, confiabilidad y validez. Una correcta
selección de las definiciones operacionales disponibles o la creación de la propia definición operacional se
encuentra muy relacionada con una adecuada revisión de la literatura.
Algunas variables no requieren ser definidas en el reporte de investigación porque ésta es muy obvia y
compartida, el mismo título de la variable la define.

RESUMEN:

● Las hipótesis son proposiciones tentativas acerca de las relaciones entre dos o más variables y se
apoyan en conocimientos organizados y sistematizados.
● Las hipótesis son el centro del enfoque cuantitativo-deductivo.
● Las hipótesis contienen variables, estas son propiedades cuya variación es susceptible de ser medida,
observada o inferida.
● Las hipótesis surgen normalmente del planteamiento del problema y la revisión de la literatura, y
algunas veces a partir de teorías.
● Las hipótesis deben referirse a una situación, un contexto, un ambiente, un evento empírico. Las
variables contenidas deben ser precisas, concretas, y poder observarse en la realidad; la relación entre
las variables debe ser clara, verosímil y medible. Así mismo las hipótesis tienen que vincularse con
técnicas disponibles para probarlas.
● Al definir el alcance del estudio (exploratorio, descriptivo, correlacionar o explicativo) es que el
investigador decide establecer o no hipótesis. En los estudios exploratorios no se establecen
hipótesis.
● Las hipótesis se clasifican en: A) hipótesis de investigación; B) hipótesis nulas, C) hipótesis
alternativas y D) hipótesis estadísticas.
● La hipótesis estadísticas se clasifican en: A) hipótesis estadísticas de estimación; B) hipótesis
estadísticas de correlación; C) hipótesis estadísticas de la diferencia de grupos.

LAS HIPOTESIS DE INVESTIGACION SE CLASIFICAN EN:

1_ Hipotesis descriptiva de un dato o valor que se pronostica

2_hipotesis correlacionales:
▪ Hipótesis que establecen simplemente la relación entre las variables:
*Bivariadas
*Multivariadas
▪ Hiptesis que establecen cómo es la relación entre las variables( hipótesis direccionales:
* Bivaridas
*Multivariadas

3_ Hipotesis de la diferencia de grupos:


▪ Hipótesis que establecen diferencias entre los grupos a comaprar
▪ Hipótesis que especifican a favor de qúe grupo es la diferencia.

4_Hipotesis causales:
▪ Bivariadas
▪ Multivariadas:
*hipótesis con varias variables independientes y una dependiente
*hipótesis con una variable independeiente y varias dependeientes.
6
*hipótesis con diversas variables tanto independientes como dependedientes
*hipótesis con presencia de variables intervinientes
*hipótesis altamente complejas.

Texto 3.2 Denis Baranger: Construcción y análisis de datos

Capítulo 1: La estructura de los datos

¿Qué es un dato? El dato más elemental ya conlleva toda una serie de elecciones teórico-metodológicas. El
dato es eminentemente racional: no se “ve” más que lo que ya se está dispuesto a ver.

1. Unidades de análisis, variables y valores.


Según nos dice Galtung todo dato hace referencia a una estructura constituida por tres elementos; unidad de
análisis, variables y valor. Cualquier dato aislado consistirá pues en…
ü Una unidad de análisis que
ü En una variable especifica presentara
ü Un determinado valor
Un dato se expresa en una proposición
Torgerson propuso el uso del término “sistema” para denotar todo tipo de objetos o de “cosas”.
Cuando a partir de la observación de un sistema predicamos una propiedad, podemos decir que estamos
realizando una medición. Lo fundamental es que los sistemas no son jamás medidos en sí mismos sino que lo
que medimos son siempre propiedades de los sistemas; es así que estamos en condiciones de producir una
nueva definición:
El dato es un producto de un procedimiento de
medición, y medir supone predicar una propiedad
Se puede afirmar que el conocimiento científico consiste en la identificación de sistemas de determinadas
clases, en la medición de sus propiedades, y en el establecimiento de relaciones entre dichas propiedades. Por
lo demás, es obvio que en ciencias sociales no nos interesan todos los sistemas, ni tampoco todas sus
propiedades.
No solamente existen sistemas de los cuales es posible predicar propiedades, sino que los sistemas mismos
son susceptibles de ser definidos en última instancia a partir de una determinada combinación de propiedades.
A partir de la noción de “sistema” y de “propiedad”, podemos establecer los conceptos de “universo” (y
correlativamente, el de “muestra”), “unidad de análisis,” ”variable” y ”constante”. Estos términos cobraran un
sentido específico cuando se los considere dentro de una estructura definida en un determinado nivel de
inclusión. Así, podemos reconocer en el “Universo” el nivel de mayor inclusión posible, que se compone de
todos los sistemas existentes, de todos los que han existido y existirán; en este nivel se incluyen también –al
menos potencialmente- todas las propiedades posibles. Ahora bien, apelando a determinadas propiedades
podemos definir sub-universos –o, simplemente-, “universos”– dentro de este “Universo” mayor en un
número ilimitado.
En cualquier nivel de inclusión que se tome, las propiedades aparecerán jugando entonces un doble papel:
alguna de ellas, tomadas como constantes, estarán definiendo un universo, mientras que otras funcionarán
como variables y podrán ser objetos de investigación. Podemos ahora introducir la idea de que todos los
sistemas que corresponden a un nivel de inclusión dado conforman un universo, y que cada uno de estos
sistemas que componen dicho universo es susceptible de ser considerado como una unidad de análisis. Ello
nos permite definir:
Una unidad de análisis es un sistema definido por presentar determinadas
propiedades, algunas de ellas constantes (las que definen su potencia a un universo compuesto por
todos los sistemas que presentan esas mismas propiedades) y otras variables (las que podrán ser
materia de investigación dentro de ese universo).
Disponemos ahora de una primera definición de lo que es una “variable”, entendido como un determinado
tipo de propiedad, a partir de los conceptos de “unidad de análisis” y de “universo”. En lo que sigue, nos
7
proponemos continuar elucidando este concepto de “variable”, para lo cual deberemos introducir una nueva
idea: la de “valor”.
La siguiente definición de Galtung en un buen punto de partida para esclarecer las relaciones que
median entre los tres elementos constitutivos del dato:
Dado un conjunto de unidades, un valor es algo que puede predicarse de una unidad, y variable es un
conjunto de valores que forma una clasificación.
De acuerdo a lo que se ha venido exponiendo, no debe haber ninguna dificultad en reconocer de inmediato
que un “valor” es simplemente una propiedad. Ahora bien, hemos dicho que una variable también es una
propiedad; ¿significa esto que “valor” y “variable” son dos términos que denotan el mismo concepto, el de
“propiedad”?. En absoluto.
Una variable es un conjunto estructurado de valores.

2. Nivel de medición
Puesto que las variables no consisten en otra cosa que un conjunto de valores vinculados unos a otros por
relaciones de diferente tipo, una base fundamental para la clasificación de las variables es la que se encuentra
en el tipo de relaciones que mantienen entre sí sus valores. Dicho de otro modo, las variables pueden ser muy
diferentes en cuanto a su estructura interna. La importancia de esta distinción es crucial, porque las estructuras
constitutivas de las variables determinan totalmente el tipo de operaciones a las que pueden ser sometidas.
No es del todo errónea la idea de que distingue a las ciencias sociales en general de las ciencias sociales en
general de las ciencias de la naturaleza globalmente consideradas son los distintos niveles de medición en que
operan predominantemente unas a otras.
Es corriente considerar que existen cuatro niveles distintos de medición: nominal, ordinal, intervalar y
racional. Se puede definir “medida” como <cualquier procedimiento empírico que suponga la asignación de
símbolos, de los cuales los numerales son solamente de un tipo, para los objetos o sucesos que concuerdan
con las reglas previamente establecidas>.
· Nivel nominal:
La operación más básica y a la vez más sencilla de toda ciencia es la clasificación. Al clasificar, agrupamos
nuestras unidades de análisis en clases mutuamente excluyentes basándonos en sus semejanzas y diferencias.
De este modo tenemos una escala nominal. El requerimiento fundamental para construir una escala nominal
es que se puedan distinguir dos o más categorías significativas y que se establezcan los criterios según los
cuales los individuos, grupos, objetos o respuestas serán incluidos en una o en otra categoría.
En ciencias sociales son muchas las propiedades que se encuentran definidas nominalmente: sexo, estado civil,
nacionalidad, religión, afiliación partidaria, etc.
· Nivel ordinal:
En este nivel aparece la idea de orden. No sólo se puede distinguir entre distintas categorías, sino que es
posible afirmar si una unidad de análisis posee en mayor, en igual o en menor grado que otra la propiedad que
se está midiendo. Así, por ejemplo, en una escala de la jerarquía militar no solamente podemos decir que un
capitán, un teniente y un sargento son diferentes entre sí, sino que dichas categorías pueden ordenarse con
respecto a la autoridad que reviste cada uno de esos grados:
Capitán > teniente > sargento
Pero lo que podemos determinar con exactitud es cuanta más autoridad tiene un capitán que un teniente, ni si
la diferencia entre estos es menor o mayor que la que media entre los grados de sargento y de teniente. <Una
escala ordinal defina la posición relativa de objetos o individuos con respecto a una característica, sin
implicación alguna en cuanto a la distancia entre posiciones>.
· Nivel intervalar:
Cuando se alcanza construir una escala de intervalos iguales, no solamente es posible diferenciar y ordenar
las unidades de análisis, sino que también se puede especificar la distancia que separa a unas de otras en una
determinada propiedad. Este nivel de medición requiere que se establezca algún tipo de medida que pueda ser
considerado por todos como una norma común y que sea repetible, esto es, que se pueda aplicar
indefinidamente a los mismos objetos produciendo los mismos resultados. Para el caso, ello es lo que ocurre
en física con las escalas de temperatura Celcius y Farenheit. Para la mayoría de las variables en ciencias
sociales no existe procedimientos de medición que garanticen tan siquiera la igualdad de intervalos.
8
· Nivel racional:
Se alcanza a producir una escala de intervalos que cuenta con un punto ceron absoluto. Es solamente en este
nivel que se justifican afirmaciones del tipo <A pesa el doble que B>, o bien <Yo gasté la mitad que vos>.
Empero, la discusión entre escalas de intervalos y de razones resulta irrelevante las más de las veces.

Capítulo 2: La matriz de datos

Ante cualquier objeto de intervención, ya sea este de significación teórica o de importancia meramente
práctica, las decisiones metodológicas propiamente dichas tienen necesariamente lugar dentro de un cierto
marco conceptual. Dentro de ese marco se debe determinar: a) el grado en que dicho objeto es susceptible de
ser producido en tanto objeto científico dentro de la estructura de la matriz de datos; y b) todas las operaciones
que hagan a la producción del objeto dentro de este esquema, y muy particularmente las que tengan que ver
con la definición de las unidades de análisis y de las propiedades que les sean aplicables.

1- La forma de l matriz de datos


Si afirmamos: <En 1980, había en la provincia de Misiones 50.553 hogares con necesidades básicas
insatisfechas>, podemos distinguir en este enunciado:
A) Una unidad de análisis: La provincia de Misiones
B) Una variable: El número de hogares con nec. básicas insatisf.
C) Un valor: 50.553
Estrictamente limitándonos a esta sola unidad de análisis, puede parecer poco pertinente hablar de una
“variable”, puesto que ésta no variaría. No obstante, el número de hogares con necesidades básicas
insatisfechas pudo haber sido otro. De hecho la “variable” es tal en la medida en que hace posible la
comparación entre varias unidades de análisis; así por ejemplo, para ese mismo año de 1980 la unidad de
análisis Capital Federal presentaba en esta variable un valor de “67.692”.
Este enunciado es de los más simples, desde luego, como que se refiere a una sola característica de un objeto
único. Ocurre que muchas veces estamos interesados en proposiciones que se refieren a toda una clase de
objetos, y en las que se establecen relaciones entre varias de sus propiedades. Por ejemplo, <en las elecciones
para Gobernador del 6 de septiembre de 1987 en Posadas, las mujeres votaron por los candidatos radicales en
mayor proporción que los varones>. Debería distinguir aquí:
A) Varias unidades de análisis: los electores del 6 de sept de 1987 en Posadas
B) Dos variables: B) a) Sexo
B) b) Dirección del voto
C) Los valores q conforman respectivamente estas variables: C) a) 1(Varón) / 2(Mujer)
C) b) 1 (radical) / 2(no radical)
La matriz es una forma de hacer inmediatamente visible la estructura tripartita de estos datos.
Es factible considerar que las investigaciones pueden diferenciarse según el número de unidades de análisis y
de variables que toman en cuenta. Se puede pensar así en investigaciones más o menos “intensivas” –según la
cantidad de variables que consideren- y más o menos “extensivas” –de acuerdo al número de análisis que sean
observadas. Combinando ambas características, generamos una tipología de las investigaciones posibles.
Según Galtung, <lo ideal es la combinación (muchas, muchas) –tantas unidades y tantas dimensiones como
sea posible. Sin embargo, nosotros suponemos que la palabra muchas se utiliza de tal manera que todo esto es
imposible, por falta de recursos tales como tiempo, energía, personal y dinero.> Del mismo modo la
investigación del tipo (una, una) no tendría sentido.
Finalmente si el objetivo del conocimiento científico es establecer relaciones entre variables, su instrumento
privilegiado habrá de ser la correlación –esto es, comparar variables variables para un conjunto de UA. Y
como se entenderá no es posible el uso de la correlación sino a partir de un cierto número de unidades y
contando por lo menos con dos variables.

2) Niveles de inclusión
9
Las variables son susceptibles de ser clasificadas de acuerdo a varios criterios, entre otros:
a) El nivel de medición en que se inscriben: nominal, ordinal, intervarlar;
b) El papel que cumplen en el análisis: desde este punto de vista se podrá distinguir entre variables
independientes, dependientes e intervinientes;
c) Su grado de complejidad: se pueden reconocer así indicadores (variables simples) o índices (variables
complejas o compuestas).

UNIDAD 4

Textp 4.1: Cap. 7: CONCEPCION O ELECCION DEL DISEÑO DE INVESTIGACION (Hernández


Sampieri)
¿Qué es un diseño de investigación?
El término DISEÑO se refiere al plan o estrategia concebida para obtener la información que se desea.
En el enfoque CUANTITATIVO el investigador utiliza su o sus diseños para analizar la certeza de las
hipótesis formuladas en un contexto particular o para aportar evidencia respecto de los lineamientos de la
investigación (si es que no se tienen hipótesis).
Si el diseño está concebido cuidadosamente, el producto final de un estudio (sus resultados) tendrá
mayores posibilidades de éxito para generar conocimiento.
¿Cómo debemos aplicar el diseño elegido o desarrollado?
Dentro del enfoque CUANTITATIVO, la calidad de una investigación se encuentra relacionada con
el grado en que apliquemos el diseño tal como fue preconcebido (particularmente en el caso de los
experimentos).
En el proceso cuantitativo, ¿de qué tipos de diseños disponemos para investigar?
1. Investigación experimental:
- pre-experimentos,
- experimentos puros,
- cuasi-experimentos.
2. Investigación no experimental:
- diseños transversales,
- diseños longitudinales.

DISEÑOS EXPERIMENTALES
¿Qué es un experimento?
Es un estudio en el que se manipulan intencionalmente 1 o más variables independientes (supuestas
causas-antecedentes), para analizar las consecuencias que la manipulación tiene sobre una o más variables
dependientes (supuestos efectos consecuentes), dentro de una situación de control para el investigador.
CAUSA EFECTO
(Variable independiente) (Variable dependiente)
X Y
Los experimentos son estudios de intervención en los que un investigador genera una situación para
tratar de explicar cómo afecta a quienes participan en ella en comparación con quienes no lo hacen.
¿Cuál es el primer requisito de un experimento?
Es la manipulación intencional de una o más variables independientes. La independiente es la que se
considera como supuesta causa en una relación entre variables, es la condición antecedente, y al efecto
provocado por dicha causa se lo denomina variable dependiente (consecuente).
La variable dependiente se mide

10
La variable dependiente no se manipula, sino que se mide para ver el efecto que la manipulación de la
variable independiente tiene en ella.
La letra X suele utilizarse para simbolizar una variable independiente o tratamiento experimental, las
letras o subíndices a, b indican distintos niveles de variación de la independiente y la letra Y se utiliza para
representar una variable dependiente.
Grados de manipulación de la variable independiente
El nivel mínimo de manipulación es de presencia-ausencia de la variable independiente. Cada nivel o
grado de manipulación involucra un grupo en el experimento.
- PRESENCIA-AUSENCIA: implica que un grupo se expone a la presencia de la variable independiente y el
otro no. Posteriormente, los dos grupos se comparan. El GRUPO DE CONTROL o grupo testigo es en el que
está ausente la variable independiente. El GRUPO EXPERIMENTAL es el que recibe el tratamiento o
estimulo experimental. Ambos grupos participan en el experimento. En general puede afirmarse lo siguiente:
si en ambos grupos todo fue igual, menos la exposición a la variable independiente, es muy razonable pensar
que las diferencias entre los grupos se deban a la presencia-ausencia de tal variable.
- MAS DE DOS GRADOS: manipular la variable independiente en varios niveles tiene la ventaja de que no
solo se puede determinar si la presencia de la variable independiente o tratamiento experimental tiene un efecto
sino también si distintos niveles de la variable independiente producen diferentes efectos. Es decir, si la
magnitud del efecto (Y) depende de la intensidad del estimulo.
- MODALIDADES DE MANIPULACION EN LUGAR DE GRADOS: existe otra forma de manipular una
variable independiente que consiste en exponer a los grupos experimentales a diferentes modalidades de la
variable, pero sino que esto implique cantidad. En ocasiones la manipulación de la variable independiente
conlleva una combinación de cantidades y modalidades de ésta. Finalmente, es necesario insistir en que cada
nivel o modalidad implica, al menos, un grupo. Si hay tres niveles (grados) o modalidades, se tendrán 3 grupos
como mínimo.
¿Cómo se define la manera de manipular las variables independientes?
Al manipular una variable independiente es necesario especificar que se va a entender por esa variable
en el experimento (definición operacional experimental). Es decir, trasladar el concepto teórico a un estimulo
experimental.
Por ej:
Variable independiente a manipular: exposición a la violencia televisada en adultos.
Operacionalización: exposición a un programa donde haya golpes, insultos, agresiones.
A veces resulta sumamente difícil representar el concepto teórico en la realidad, sobre todo con
variables internas, variables que pueden tener dos significados o variables que sean difíciles de alterar. La
socialización, la cohesión, la conformidad, la motivación, etc son conceptos que requieren un enorme esfuerzo
para operacionalizarse.
Para definir cómo se va a manipular la variable es necesario:
1. consultar experimentos antecedentes para ver si en estos resultó exitosa la forma de manipular la variable
independiente. Resulta imprescindible analizar si la manipulación de esos estudios puede aplicarse al contexto
especifico del nuestro, o como se extrapolaría a nuestra situación experimental.
2. evaluar la manipulación antes de que se conduzca el experimento: ¿las operaciones experimentales
representan la variable conceptual que se tiene en mente? ¿Los diferentes niveles de variación de la variable
independiente harán que los sujetos se comporten de diferente forma? ¿Qué otras maneras existen para
manipular la variable?
3. incluir verificaciones para la manipulación. Cuando se experimenta con personas hay varias formas de
verificar si realmente funciono la manipulación:
a. entrevistar a los participantes.
b. incluir mediciones relativas a la manipulación durante el experimento.
¿Cuál es el segundo requisito de un experimento?
Consiste en medir el efecto que la variable independiente tiene en la dependiente. Si no podemos
asegurar que se midió de manera adecuada, los resultados no servirán y el experimento será una pérdida de
tiempo.
¿Cuántas variables independientes y dependientes deben incluirse en un experimento?
11
Depende de cómo se haya planteado el problema de investigación y de las limitaciones que existan.
Conforme se aumenta el número de variables independientes se incrementarán las manipulaciones que deben
hacerse y el número de grupos requeridos para el experimento.
Por otro lado, en cada caso podría optar por medir más de una variable dependiente y evaluar múltiples
efectos de las independientes (en distintas variables). Al aumentar las variables dependientes, no tienen que
incrementarse los grupos, porque estas variables no se manipulan. Lo que aumenta es el tamaño de la medición
(cuestionarios con más preguntas, mayor número de observaciones, entrevistas más largas, etc) porque hay
más variables que medir.
¿Cuál es el tercer requisito de un experimento?
Es el control o la validez interna de la situación experimental. Si en el experimento se observa que una
o más variables independientes hacen variar a las dependientes, la variación de estas últimas se debe a la
manipulación de las primeras y no a otros factores o causas; y si se observa que una o más independientes no
tienen un efecto sobre las dependientes, se puede estar seguro de ello. Tener control significa saber que está
ocurriendo realmente con la relación entre las variables independientes y las dependientes.
Cuando hay control es posible determinar la relación causal. En la estrategia de la experimentación, el
investigador no manipula una variable sólo para comprobar la co-variación, sino que al efectuar un
experimento es necesario realizar una observación controlada.
Fuentes de invalidación interna
Existen diversos factores que tal vez nos confundan y sean motivo de que ya no sepamos ni la presencia
de una variable independiente o un tratamiento experimental surte o no un verdadero efecto. Se trata de
explicaciones rivales frente a la explicación de que las variables independientes afectan a las dependientes.
Atentan contra la validez interna, que se refiere a cuanta confianza tenemos en que sea posible interpretar los
resultados del experimento y éstos sean válidos. Se relaciona con la calidad del experimento y se logra cuando
hay control, cuando los grupos difieren entre sí solamente en la exposición a la variable independiente
(ausencia-presencia o en grados o modalidades), cuando las mediciones de la variable dependiente son
confiables y válidas, y cuando el análisis es el adecuado para el tipo de datos que estamos manejando.
Fuente o Descripción El investigador debe:
amenaza a la
validez interna
Historia Eventos externos que ocurran durante el Asegurarse de que los
experimento e influyan solamente a algunos participantes de los grupos
de los participantes. de control y experimentales
experimenten los mismos
eventos.
Maduración Los participantes cambian o maduran, esto Seleccionar participantes
afecta los resultados. que cambien o maduren de
manera similar durante el
experimento.
Inestabilidad del Poca o nula confiabilidad del instrumento. Elaborar un instrumento
instrumento de estable y confiable.
medición
Inestabilidad del Las condiciones del ambiente o entorno del Lograr que estas condiciones
ambiente experimento no son iguales para todos los sean las mismas para todos
experimental grupos participantes. los grupos.
Administración Que la aplicación de una prueba o Tener pruebas equivalentes y
de pruebas instrumento de medición antes del confiables, pero que no sean
experimento influya las respuestas de los las mismas y que los grupos
individuos cuando se vuelve a administrar la que se comparen sean
prueba después del experimento. equiparables.

12
Instrumentació Que las pruebas o instrumentos aplicados a Administrar la misma prueba
n los distintos grupos no sean equivalentes. a todos los grupos
participantes.
Regresión Seleccionar participantes que tengan Elegir participantes que no
puntuaciones extremas en la variable medida tengan puntuaciones
y que no se mida su valoración real. extremas o pasen por un
momento anormal.
Selección Que los grupos del experimento no sean Lograr que lo sean.
equivalentes.
Mortalidad Que los participantes abandonen el Reclutar suficientes
experimento. participantes para todos los
grupos.
Difusión de Que los participantes de distintos grupos se Mantener a los grupos tan
tratamientos comuniquen entre sí afectando los resultados. separados como sea posible.
Compensación Que los participantes del grupo de control Proveer beneficios a todos
perciban que no reciben nada y eso los los grupos.
desmoralice y afecte los resultados.
Conducta del Que su comportamiento afecte los resultados. Actuar igual con todos los
experimentador grupos y ser “objetivo”.
¿Cómo se logran el control y la validez interna?
El control en un experimento logra la validez interna y se alcanza mediante:
1. varios grupos de comparación (dos como mínimo).
2. equivalencia de los grupos en todo, excepto en la manipulación de la o las variables independientes.
Varios grupos de comparación
Con un solo grupo no estaríamos seguros de que los resultados se debieran al estimulo experimental o
a otras razones. Los experimentos con un grupo se basan en sospechas o en lo que aparentemente es, pero
carecen de fundamentos. Se corre el riesgo de seleccionar sujetos atípicos y de que intervengan la historia, la
maduración y más fuentes de invalidación interna, sin que el experimentador se dé cuenta. Por ello, el
investigador debe tener, al menos, un punto de comparación: dos grupos, uno al que se le administra el
estimulo y otro al que no.
Equivalencia de los grupos
Para tener control no basta con dos o más grupos, sino que éstos deben ser similares en todo, menos
en la manipulación de la o las variables independientes. El control implica que todo permanece constante,
salvo tal manipulación o intervención. Si los grupos no son equivalentes, entonces no podemos confiar en que
las diferencias se deban en realidad a la manipulación de la variable independiente y no a otros factores, o a
la combinación de ambos.
Los grupos deben ser equivalentes al iniciar y durante todo el desarrollo del experimento, menos en lo
que respecta a la variable independiente. Asimismo, los instrumentos de medición deben ser iguales y
aplicados de la misma manera.
Equivalencia inicial
Implica que los grupos son similares entre sí al momento de iniciarse el experimento. No se refiere a
las equivalencias entre individuos sino a la equivalencia entre grupos. Si tenemos dos grupos en un
experimento, es indudable que habrá, por ej, personas muy inteligentes en un grupo, pero también debe
haberlas en el otro. Si en uno hay mujeres, en el otro debe haberlas en la misma proporción. Y así con todas
las variables que lleguen a afectar a la o las variables dependientes, además de la independiente.
Equivalencia durante el experimento
Cuanto mayor sea la equivalencia durante su desarrollo, habrá mayor control y posibilidad de que si
observamos o no efectos estemos seguros de que verdaderamente los hubo o no. Cuando trabajamos
simultáneamente con varios grupos es difícil que las personas que dan las instrucciones y vigilan el desarrollo
de los grupos sean las mismas. Entonces debe buscarse que su tono de voz, apariencia, edad, género y otras

13
características capaces de afectar los resultados sean iguales o similares, y mediante entrenamiento debe
estandarizarse su proceder.
¿Cómo se logra la equivalencia inicial?: asignación al azar.
La asignación al azar nos asegura probalísticamente que dos o más grupos son equivalentes entre sí.
Es una técnica de control que tiene como propósito dar al investigador la seguridad de que variables extrañas,
conocidas o desconocidas, no afectarán de manera sistemática los resultados de estudio. Funciona para hacer
equivalentes a los grupos de participantes, es una precaución contra interferencias que pueden o no ocurrir, y
ser o no importante si ocurren.
Puede llevarse a cabo empleando trozos de papel: se escribe el nombre de cada participante en uno de
los pedazos de papel, luego se juntan todos los trozos, se revuelven y se van sacando para formar los grupos.
También puede llevarse a cabo utilizando una moneda: con cada sujeto se lanza y se le asigna un grupo
según el lado que haya tocado. Limitado solo a 2 grupos.
Una tercera forma es mediante el programa STATS que numera a todos los participantes y les asigna
números al azar de manera aleatoria.
La asignación al azar funciona mejor cuanto mayor sea el número de participantes con que se cuenta
para el experimento, cuanto mayor sea el tamaño de los grupos.
Otra técnica para lograr la equivalencia inicial: el emparejamiento
El proceso consiste en igualar a los grupos en relación con alguna variable específica (ej: agudeza
visual, conocimientos previos, ingresos, etc)que puede influir de modo decisivo en la o las variables
dependientes.
El 1° paso es elegir la variable concreta de acuerdo con algún criterio teórico. Debe estar muy
relacionada con las variables dependientes.
El 2° consiste en obtener una medición de la variable elegida para emparejar a los grupos. Esta
medición puede existir o efectuarse antes del experimento.
El 3° es ordenar a los participantes en la variable sobre la cual se va a efectuar el emparejamiento (de
las puntuaciones más altas a las más bajas).
El 4° es formar parejas, tercias, cuartos, etc de participantes según la variable de aparejamiento e ir
asignando a cada integrante de cada pareja, tercia o cuarto a los grupos del experimento, buscando un balance
entre estos.
Conforme más variables se usan para el emparejamiento, el proceso es más complejo.
Una tipología sobre los diseños experimentales
a. pre-experimentos
b. experimentos puros
c. cuasi-experimentos.
Simbología de los diseños experimentales
R: asignación al azar o aleatoria.
G: grupo de sujetos.
X: tratamiento, estimulo o condición experimental (presencia de algún nivel o modalidad de la variable
independiente).
0: una medición de los sujetos de un grupo (prueba, cuestionario, observación, etc). Si aparece antes del
estimulo o tratamiento, se trata de una pre-prueba. Si aparece después es una pos-prueba.
- : ausencia de estimulo (nivel “cero” en la variable independiente). Indica que se trata de un grupo de control
o testigo.
La secuencia horizontal indica tiempos distintos (de izquierda a derecha) y cuando en dos grupos
aparecen dos símbolos alineados verticalmente, esto indica que tienen lugar en el mismo momento del
experimento.
Pre-experimentos
Se llaman así porque su grado de control es mínimo.
1. Estudio de caso con una sola medición.
Podría diagramarse de la siguiente manera:
G X 0

14
Consiste en administrar un estimulo o tratamiento a un grupo y después aplicar una medición de una
o más variables para observar cuál es el nivel del grupo de éstas.
Este diseño no cumple con los requisitos de un experimento “puro”. No hay manipulación de la
variable independiente (niveles) o grupo de contraste (ni siquiera el mínimo de presencia-ausencia). Tampoco
hay una referencia previa de cuál era el nivel que tenía el grupo en las variables dependientes antes del
estímulo. No es posible establecer causalidad con certeza ni se controlan las fuentes de invalidación interna.
2. Diseño pre-prueba/pos-prueba con un solo grupo.
Podría diagramarse de la siguiente manera:
G 01 X 02
A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental, después se le
administra el tratamiento y finalmente se le aplica una prueba posterior al estímulo. Ofrece una ventaja sobre
el anterior: existe un punto de referencia inicial para ver qué nivel tenía el grupo en la o las variables
dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin embargo, el diseño no resulta
conveniente para fines de establecer causalidad: no hay manipulación ni grupo de comparación, y es posible
que actúen varias fuentes de invalidación interna.
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no
se encuentre en su estado normal.
En ocasiones, este diseño se utiliza con un solo individuo (estudio de caso experimental).
Los dos diseños pre-experimentales no son adecuados para el establecimiento de relaciones causales
porque se muestran vulnerables en cuanto a la posibilidad de control y validez interna. En ciertas ocasiones,
los diseños pre-experimentales sirven como estudios exploratorios, pero sus resultados deben observarse con
precaución.
Experimentos puros
Son aquellos que reúnen los dos requisitos para lograr el control y la validez interna:
1. grupos de comparación (manipulación de la variable independiente);
2. equivalencia de los grupos.
Estos diseños llegan a incluir una o más variables independientes y una o más dependientes. Asimismo,
pueden utilizar pre-pruebas y pos-pruebas para analizar la evolución de los grupos antes y después del
tratamiento experimental.
1. Diseño con pos-prueba únicamente y grupo de control
Este diseño incluye dos grupos: uno recibe el tratamiento experimental y el otro no (grupo de control).
Es decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los
sujetos se asignan a los grupos de manera aleatoria. Cuando concluye la manipulación, a ambos grupos se les
administra una medición sobre la variable dependiente en estudio.
En este diseño, la única diferencia entre los grupos es la ausencia o presencia de la variable
independiente. De preferencia, la pos-prueba debe administrarse inmediatamente después de que concluya el
experimento, en especial si la variable dependiente tiende a cambiar con el paso del tiempo. La pos-prueba se
aplica de manera simultánea a ambos grupos.
La comparación entre las pos-pruebas de ambos grupos nos indica si hubo o no efecto de la
manipulación. Si ambas difieren significativamente nos indica que el tratamiento experimental tuvo un efecto
a considerar. Por tanto, se acepta la hipótesis de diferencia de grupos. Si no hay diferencias se acepta la
hipótesis nula.
El diseño con pos-prueba puede extenderse para incluir más de dos grupos. En este caso, se usan 2 o
más tratamientos experimentales. Los participantes se asignan al azar a los grupos, y los efectos de los
tratamientos experimentales se investigan comparando las pos pruebas de los grupos.
Si se carece de grupo de control, el diseño puede llamarse “diseños con grupos de asignación aleatoria
y pos prueba únicamente”.
En el diseño con pos-prueba únicamente y grupo de control, así como en sus posibles variaciones y
extensiones, se logra controlar todas las fuentes de invalidación interna. La administración de pruebas no se
presenta porque no hay pre-prueba.
Lo que no influya en un grupo también influirá de manera equivalente en todos los demás. Este
razonamiento se aplica a todos los diseños experimentales “puros”.
15
2. Diseño con pre-prueba pos-prueba y grupo de control
Incorpora la administración de pre-pruebas a los grupos que componen el experimento. Los
participantes se asignan al azar a los grupos, después se les aplica simultáneamente la pre-prueba; un grupo
recibe el tratamiento experimental y el otro no (grupo de control); por último, se les administra, también
simultáneamente, una pos-prueba.
La adición de la prueba previa ofrece dos ventajas:
a. sus puntuaciones sirven para fines de control en el experimento, pues al compararse las pre-pruebas de los
grupos se evalúa que tan adecuada fue la asignación aleatoria.
b. es posible analizar el puntaje-ganancia de cada grupo (la diferencia entre las puntuaciones de la pre prueba
y la pos prueba).
Este diseño elimina también las fuentes de invalidación interna.
3. Diseño de 4 grupos de Solomon
Solomon describió un diseño que era la mezcla de los dos anteriores. La suma de estos dos diseños
origina 4 grupos: dos experimentales y 2 de control, los primeros reciben el mismo tratamiento experimental
y los segundos no. Solo a uno de los grupos experimentales y a uno de los grupos de control se les administra
la pre-prueba; a los 4 grupos se les aplica la pos-prueba. Los participantes se asignan en forma aleatoria. Los
efectos se determinan comparando las 4 pos-pruebas. Los grupos 1 y 3 son experimentales y los 2 y 4 son de
control.
La ventaja es que el experimentador tiene la posibilidad de verificar los posibles efectos de la pre-
prueba, puesto que a unos grupos se les administra un test previo y a los otros no. Es posible que la pre-prueba
afecte a la pos-prueba o que aquella interactúe con el tratamiento experimental.
Este diseño controla todas las formas de invalidación interna.
4. Diseños experimentales de series cronológicas múltiples
Los 3 diseños experimentales que se han desarrollado sirven más bien para analizar efectos inmediatos
o a corto plazo. En ocasiones el experimentador está interesado en analizar efectos en el mediano o largo
plazo, porque tiene las bases para suponer que la influencia de la variable independiente sobre la dependiente
tarda en manifestarse.
En otras situaciones se busca evaluar la evolución del efecto en el corto, mediano y largo plazo (no
solo el resultado). También, en ocasiones la aplicación del estimulo por una sola vez no tiene efectos. En tales
casos es conveniente adoptar diseños con varias pos-pruebas, o bien con diversas pre-pruebas y pos-pruebas,
con repetición del estimulo, con varios tratamientos aplicados a un mismo grupo y otras condiciones. A estos
diseños se los conoce como SERIES CRONOLOGICAS EXPERIMENTALES.
En estos diseños se pueden tener dos o más grupos y los participantes son asignados al azar.
5. Diseños factoriales
En ocasiones, el investigador pretende analizar experimentalmente el efecto que sobre la o las variables
dependientes tiene la manipulación de más de una variable independiente. Manipulan dos o mas variable
independientes e incluyen dos o más niveles o modalidades de presencia en cada una de las variables
independientes. Se utilizan muy a menudo, en la investigación experimental. La construcción básica de un
diseño factorial consiste en que todos los niveles o modalidades de cada variable independiente son tomados
en combinación con todos los niveles o modalidades de las otras variables independientes.
¿Qué es la validez externa?
Un experimento debe buscar, ante todo, la validez interna, es decir, la confianza en los resultados. Si
no se logra, no hay experimento puro. Lo primero es eliminar las fuentes que atentan contra dicha validez.
También es deseable que un experimento tenga validez externa, que se refiere a que tan generalizables son los
resultados de un experimento a situaciones no experimentales, así como a otros participantes o poblaciones.
Fuentes de invalidación externa
1. efecto reactivo o de interacción de las pruebas
Se presenta cuando la pre-prueba aumenta o disminuye la sensibilidad o la calidad de la reacción de
los participantes a la variable experimental, lo cual contribuye a que los resultados obtenidos para una
población con pre-prueba no puedan generalizarse a quienes forman parte de esa población pero sin pre-
prueba.
2. efecto de interacción entre los errores de selección y tratamiento experimental
16
Este factor se refiere a que se elijan personas con una o varias características que hagan que el
tratamiento experimental produzca un efecto, que no se daría si las personas no tuvieran esas características.
A veces este factor se presenta cuando se reclutan voluntarios para la realización de algunos experimentos.
3. efectos reactivos de los tratamientos experimentales.
La “artificialidad” de las condiciones puede hacer que el contexto experimental resulte atípico,
respecto a la manera en que se aplica regularmente el tratamiento. Por ej, a causa de la presencia de
observadores y equipo, los participantes llegar a cambiar su conducta normal en la variable dependiente
medida, la cual no se alteraría en una situación común donde se aplicara el tratamiento. Por ello, el
experimentador tiene que ingeniárselas para hacer que los sujetos se olviden de que están en un experimento
y no se sientan observados.
4. interferencia de tratamientos múltiples
Si se aplican varios tratamientos a un grupo experimental para conocer sus efectos por separado y en
conjunto; incluso, si los tratamientos no son de impacto reversible, es decir, si no es posible borrar sus efectos,
las conclusiones que solamente podrán hacerse extensivas a aquellos que experimentan la misma secuencia
de tratamientos, sean múltiples o la repetición del mismo.
5. imposibilidad de replicar los tratamientos.
Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no experimentales,
es difícil generalizar a éstas.
6. descripciones insuficientes del tratamiento experimental.
En ocasiones, el tratamiento o los tratamientos experimentales no se describen lo suficiente en el
reporte del estudio y, por consecuencia, si otro investigador desea reproducirlos le resultara muy difícil o
imposible hacerlo. Las instrucciones deben incluirse y la precisión es un elemento importante.
7. efectos de novedad e interrupción
Un nuevo tratamiento puede tener resultados positivos simplemente por ser percibido como novedoso,
o bien, lo contrario: tener un efecto negativo porque interrumpe las actividades normales de los participantes.
En este caso, es recomendable incluir a los sujetos paulatinamente al tratamiento y esperar a que asimilen los
cambios provocados por éste.
8. el experimentador.
También es considerado una fuente de invalidación interna. Puede generar alteraciones o cambios que
no se presentan en situaciones no experimentales. Es decir que el tratamiento solamente tenga efecto con la
intervención del experimentador.
9. interacción entre la historia o el lugar y los efectos del tratamiento experimental
Un experimento conducido en un contexto particular (tiempo y lugar), en ocasiones no puede ser
duplicado.
10. mediciones de la variable dependiente.
Puede suceder que un instrumento no registre cambios en la variable dependiente y otro sí. Si un
experimento utiliza un instrumento para recolectar datos, y de este modo sus resultados puedan compararse,
otros estudios deberán evaluar la variable dependiente con el mismo instrumento o uno equivalente.
Para lograr una mayor validez externa es conveniente tener grupos lo más parecidos posible a la
mayoría de las personas a quienes se desea generalizar, y repetir el experimento varias veces con diferentes
grupos. También, tratar de que el contexto experimental sea lo más similar al contexto que se pretende
generalizar.
¿Cuáles pueden ser los contextos de los experimentos?
Se habla de experimentos de laboratorio y experimentos de campo. Los primeros se realizan bajo
condiciones controladas, en las cuales el efecto de las fuentes de invalidación interna es eliminado, así como
el de otras posibles variables independientes que no son manipuladas o no interesan. Los de campo son
estudios efectuados en una situación “realista” en la que una o más variables independientes son manipuladas
por el experimentador en condiciones tan cuidadosamente controladas como lo permite la situación.
¿Qué alcance tienen los experimentos y cuál es el enfoque del que se derivan?
Debido a que analizan las relaciones entre una o más variables independientes y una o más
dependientes, así como los efectos causales de las primeras sobre las segundas, son estudios explicativos (que
obviamente determinan correlaciones). Se trata de diseños que se fundamentan en el enfoque cuantitativo y
17
en el paradigma deductivo. Se basan en hipótesis pre-establecidas, miden variables y su aplicación debe
sujetarse al diseño preconcebido; al desarrollarse, el investigador está centrado en la validez, el rigor y el
control de la situación de investigación. Asimismo, el análisis estadístico resulta fundamental para lograr los
objetivos de conocimiento. Su fin es estimar los efectos causales.
Simbología de los diseños con emparejamiento en lugar de asignación al azar
Otra técnica para hacer inicialmente equivalentes a los grupos es el emparejamiento. Este método es
menos preciso que la asignación al azar. Los diseños se representan con una E de emparejamiento, en lugar
de la R (asignación aleatoria o al azar).
¿Qué otros experimentos existen?: Cuasi-experimentos
Los diseños cuasi-experimentales también manipulan deliberadamente, al menos, una variable
independiente para observar su efecto y relación con una o más variables dependientes, sólo que difieren de
los experimentos puros en el grado de seguridad o confiabilidad que pueda tenerse sobre la equivalencia inicial
de los grupos. Los sujetos no se asignan al azar ni se emparejan sino que dichos grupos ya están formados
antes del experimento: son grupos intactos (por ej: grados escolares, grupos terapéuticos ya integrados,
equipos deportivos previamente formados, etc).
Pasos de un experimento
1. decidir cuantas variables independientes y dependientes deberán incluirse en el experimento. Deben
incluirse las variables que sean necesarias para probar las hipótesis, alcanzar los objetivos y responder las
preguntas de investigación.
2. elegir los niveles o modalidades de manipulación de las variables independientes y traducirlos en
tratamientos experimentales.
3. desarrollar el instrumento o instrumentos para medir la o las variables dependientes.
4. seleccionar para el experimento una muestra de personas que posean el perfil que interesa.
5. reclutar a los participantes del experimento. Esto implica tener contacto con ellos, darles las explicaciones
necesarias, obtener su consentimiento e indicarles día, lugar, hora y persona con quien deben presentarse.
6. seleccionar el diseño experimental o cuasi experimental apropiado para nuestras hipótesis, objetivos y
preguntas de investigación.
7. planear como vamos a manejar a los participantes del experimento. Es decir, elaborar una ruta crítica de
qué van a hacer las personas desde que llegan al lugar del experimento hasta que se retiran.
8. en el caso de experimentos puros, dividirlos al azar o emparejarlos; y en el caso de cuasi experimentos,
analizar cuidadosamente las propiedades de los grupos intactos.
9. aplicar las pre pruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de
control) y las pos pruebas.

¿CUÁLES SON LOS TIPOS DE DISEÑOS DE INVESTIGACIÓN NO EXPERIMENTALES?


Distintos autores han adoptado diversos criterios para clasificar a la investigación no experimental.
Sin embargo, en este libro quisiéramos considerar la siguiente manera de clasificar a dicha investigación: Por
su dimensión temporal en los cuales se recolectan datos.
En algunas ocasiones la investigación se centra en analizar cuál es el nivel o estado de una o diversas
variables en un momento dado, o bien en cuál es la relación entre un conjunto de variables en un punto en el
tiempo. En estos casos el diseño apropiado es el transversal o transeccional. Otras veces la investigación se
centra en estudiar cómo evoluciona o cambia una o más variables o las relaciones entre éstas. En situaciones
como ésta el diseño apropiado (bajo un enfoque no experimental) es el longitudinal.

INVESTIGACIÓN TRANSECCIONAL O TRANSVERSAL: recolectan datos en un solo momento, en


un tiempo único. Su propósito es describir variables, y analizar su incidencia e interrelación en un momento
dado. Por ejemplo, investigar el número de empleados, desempleados y subempleados en una ciudad en cierto
momento. Pueden abarcar varios grupos o subgrupos de personas, objetos o indicadores. Por ejemplo, medir
los niveles de aprovechamiento de grupos de primero, segundo y tercer año de instrucción básica o primaria.
O tal vez medir la relación entre la autoestima y el temor de logro en atletas de deportes acuáticos, de raqueta
y de pista. Pero siempre, la recolección de los datos es en un único momento.

18
A su vez, los diseños transeccionales pueden dividirse en exploratorios, descriptivos y
correlacionales/causales
Exploratorios: es comenzar a conocer una variable o un conjunto de variables, una comunidad, un contexto,
un evento, una situación. Se trata de una exploración inicial en un momento específico.
Descriptivos: tienen como objetivo indagar la incidencia y los valores en que se manifiesta una o más
variables. El procedimiento consiste en medir en un grupo de personas u objetos una o —generalmente— más
variables y proporcionar su descripción. Son, por lo tanto, estudios puramente descriptivos que cuando
establecen hipótesis, éstas son también descriptivas. Ejemplo: Las famosas encuestas nacionales de opinión
sobre las tendencias de los votantes durante periodos de elección. Su objetivo es describir el número de
votantes en un país que se inclinan por los diferentes candidatos contendientes en la elección. Es decir, se
centran en la descripción de las preferencias del electorado. Los estudios transeccionales descriptivos nos
presentan un panorama del estado de una o más variables en uno o más grupos de personas, objetos o
indicadores en determinado momento. En ciertas ocasiones el investigador pretende hacer descripciones
comparativas entre grupos o subgrupos de personas, objetos o indicadores (esto es, en más de un grupo). Por
ejemplo, un investigador que deseara describir el nivel de empleo en tres ciudades. En este tipo de diseños
queda claro que ni siquiera cabe la noción de manipulación puesto que se trata a cada variable individualmente,
no se vinculan variables.

Causales: tienen como objetivo describir relaciones entre dos o más variables en un momento determinado. Se
trata también de descripciones, pero no de variables individuales sino de sus relaciones, sean éstas
puramente correlacionales o relaciones causales. En estos diseños lo que se mide es la relación entre variables
en un tiempo determinado. Por lo tanto, pueden limitarse a establecer relaciones entre variables sin precisar
sentido de causalidad o pueden pretender analizar relaciones de causalidad. Cuando se limitan a relaciones no
causales, se fundamentan en hipótesis correlacionales y cuando buscan evaluar relaciones causales, se basan
en hipótesis causales.
Ejemplo: Una investigación que pretendiera indagar la relación entre la atracción física y la confianza durante
el noviazgo en parejas de jóvenes, observando qué tan relacionadas están ambas variables (se limita a ser
correlacional).
Es importante saber que en ciertas ocasiones sólo se pretende correlacionar variables, pero en otras se busca
establecer relaciones causales. Desde luego, debemos recordar que la causalidad implica correlación pero no
toda correlación significa causalidad. Primero establecemos correlación y luego causalidad.
Su diferencia con los experimentos es la base de la distinción entre experimentación y no experimentación.
En los diseños transeccionales correlacionales/causales, las causas y efectos ya ocurrieron en la realidad
(estaban dadas y manifestadas) y el investigador las(os) observa y reporta. En cambio, en los diseños
experimentales y cuasiexperimentales el investigador provoca —intencionalmente— al menos una causa y
analiza sus efectos o consecuencias.
En estos diseños en su modalidad únicamente causal, a veces se reconstruyen las relaciones a partir de la (s)
variable (s) dependiente (s) en otras a partir de la(s) independiente (s) y en otras más sobre la base de
variabilidad amplia de las independientes y dependientes.
Veamos ahora una investigación causal prospectiva. En los diseños donde se reconstruyen las relaciones sobre
la base de variabilidad amplia de las independientes y dependientes no se parte de una variable en especial ni
de grupos, sino que se evalúa la estructura causal completa.
Todos los estudios transeccionales causales nos brindan la oportunidad de predecir el comportamiento de una
o más variables a partir de otras, una vez que se establece la causalidad. A estas últimas se les denomina
variables predectoras.

Encuestas de opinión: son investigaciones no experimentales transeccionales descriptivas o causales, ya que


a veces tienen los propósitos de unos u otros diseños y a veces de ambos. Generalmente utilizan cuestionarios
que se aplican en diferentes contextos.

INVESTIGACIÓN LONGITUDINAL: En ciertas ocasiones el interés del investigador es analizar cambios


a través del tiempo en determinadas variables o en las relaciones entre éstas. Entonces se dispone de
19
los diseños longitudinales, los cuales recolectan datos a través del tiempo en puntos o periodos especificados,
para hacer inferencias respecto al cambio, sus determinantes y consecuencias.
Los diseños longitudinales suelen dividirse en tres tipos: diseños de tendencia (trend), diseños de análisis
evolutivo de grupos (cohort) y diseños panel, como se indica en el siguiente esquema.

De tendencia: son aquellos que analizan cambios a través del tiempo (en variables o sus relaciones)
dentro de alguna población en general. Su característica distintiva es que la atención se centra en una
población. Por ejemplo, una investigación para analizar cambios en la actitud hacia el aborto en una
comunidad. Dicha actitud se mide en varios puntos en el tiempo (digamos anualmente durante 10 años)
y se examina su evolución a lo largo de este periodo. Se puede observar o medir toda la población o bien
tomar una muestra representativa de ella cada vez que se observen o midan las variables o las relaciones
entre éstas.

De evolución de grupo: examinan cambios a través del tiempo en subpoblaciones o grupos específicos.
Su atención son las “cohorts” o grupos de individuos vinculados de alguna manera o identificados por
alguna característica común. Los diseños de los que estamos hablando hacen seguimiento de los grupos
a través del tiempo y por lo común se extrae una muestra cada vez que se mide al grupo o subpoblación
más que incluir a toda la subpoblación.

Diferencia entre diseños de tendencia y de evolución de grupo: en los dos se estudia el cambio en
subpoblaciones o poblaciones, pero debido a que en cada momento o tiempo se recolectan datos sobre una
muestra diferente aunque equivalente el cambio se evalúa colectivamente y no de manera individual. Si hay
variaciones el investigador no seria capaz de establecer en forma especifica qué individuos las provocan.
Ejemplo: Un investigador está interesado en estudiar las actitudes de los maestros respecto a las asociaciones
de profesionales en la Región “A”. Las actitudes son medidas cada tres años durante un periodo de 15 años.
En cada momento que se hace la medición, se seleccione de la población de maestros existente en ese
momento, una muestra de ellos. La membresía de la población puede cambiar a través del tiempo al menos
parcialmente (algunos pueden dejar de ser maestros o ingresar nuevos maestros), pero en cualquier momento
o tiempo la población es la misma: los maestros de la Región ‘A” (llamada población general). Éste sería un
ejemplo de un diseño de tendencia.
Si el investigador estuviera interesado en estudiar las actitudes hacia los sindicatos de profesionales por parte
de los maestros que se iniciaron como tales en 1986, en la Región “A”, el estudio involucraría el análisis de
una subpoblación o grupo específico. Tres años después, la siguiente muestra se obtendría de lo que queda de
esa subpoblación, la cual —en 1989— estará constituida por maestros con tres anos de experiencia. Desde
luego, algunos de los maestros que se iniciaron como tales en 1986 habrán dejado la docencia, y el estudio
incluirá sólo las actitudes del grupo o subpoblación de maestros que comenzaron a serlo en dicho año y en
1989 continúan en el magisterio (de toda la población de maestros se estudia a una subpoblación). Éste sería
un ejemplo de diseño de evolución de grupo o cohort.

Diseños longitudinales panel: son similares a las dos clases de diseños vistas anteriormente, sólo que el
mismo grupo específico de sujetos es medido en todos los tiempos o momentos. Un ejemplo lo sería una
investigación que observara anualmente los cambios en las actitudes de un grupo de ejecutivos en relación a
un programa para elevar la productividad, digamos durante cinco años. Cada año se observaría la actitud de
los mismos ejecutivos. Es decir, los individuos y no sólo la población o subpoblación, son los mismos.
En los diseños panel se tiene la ventaja de que además de conocer los cambios grupales, se conocen
los cambios individuales. Se sabe qué casos específicos introducen el cambio. La desventaja es que a veces
resulta muy difícil obtener exactamente a los mismos sujetos para una segunda medición u observaciones
subsecuentes. Este tipo de diseños puede estudiar poblaciones o grupos más específicos y es conveniente
cuando se tiene poblaciones relativamente estáticas.
Los diseños longitudinales se fundamentan en hipótesis de diferencia de grupos, correlacionales y
causales. Estos diseños recolectan datos sobre variables —o sus relaciones— en dos o más momentos, para

20
evaluar el cambio en éstas. Ya sea tomando a una población (diseños de tendencia o trends) a una subpoblación
(diseños de análisis evolutivo de un grupo o “cohort”) o a los mismos sujetos (diseños panel).

Comparación de los diseños transeccionales y longitudinales: Los estudios longitudinales tienen la ventaja
de que proporcionan información sobre cómo las variables y sus relaciones evolucionan a través del tiempo.
Sin embargo, suelen ser más costosos que los transeccionales. La elección de un tipo de diseño u otro, depende
más bien del propósito de la investigación. Asimismo pueden combinarse ambos enfoques, por ejemplo: Un
investigador puede analizar en un momento dado la productividad en grandes, medianas y pequeñas empresas;
y ver cómo se modifica (o no se modifica) la productividad de las grandes empresas a los seis meses, al año y
a los dos años.

¿CUÁLES SON LAS CARACTERÍSTICAS DE LA INVESTIGACIÓN NO EXPERIMENTAL EN


COMPARACIÓN CON LA INVESTIGACIÓN EXPERIMENTAL?
El control sobre las variables es más riguroso en los experimentos que en los diseños cuasi-experimentales y
a su vez, ambos tipos de investigación tienen mayor control que los diseños no experimentales. En un
experimento se analizan relaciones “puras” entre las variables de interés, sin contaminación de otras variables,
y por ello podemos establecer relaciones causales con mayor precisión. En cambio, en la investigación no
experimental, resulta más complejo separar los efectos de las múltiples variables que intervienen.
En los diseños experimentales las variables independientes pocas veces tienen tanta fuerza como en la realidad
o la cotidianeidad. Por lo tanto, si se encuentra un efecto en el laboratorio, éste tenderá a ser mayor en la
realidad. En cambio, en la investigación no experimental estamos más cerca de las variables hipotetizadas
como ‘reales” y —consecuentemente— tenemos mayor validez externa (posibilidad de generalizar los
resultados a otros individuos y situaciones cotidianas).
Una desventaja de los experimentos es que normalmente seleccionan un número de personas poco o
medianamente representativo respecto a las poblaciones que estudian. La mayoría de los experimentos utilizan
muestras no mayores de 200 personas, lo que dificulta la generalización de resultados a poblaciones más
amplias. Por tal razón los resultados de un experimento deben observarse con precaución y es a través de la
réplica de éste —en distintos contextos y con diferentes tipos de personas— como van generalizándose dichos
resultados.
En resumen, ambas clases de investigación —experimental y no experimental— se utilizan para el
avance del conocimiento y en ocasiones resulta más apropiado un tipo u otro dependiendo del problema de
investigación a que nos enfrentemos.

Los estudios de caso: poseen sus propios procedimientos y clases de diseños. Son estudios que al utilizar los
procesos de investigación cuantitativa o mixta; analizan profundamente una unidad para responder al
planteamiento del problema, probar hipótesis y desarrollar alguna teoría. En ocasiones utilizan la
experimentación, es decir se constituyen en estudios preexperimentales. Otras veces se fundamentan en un
diseño no experimental y en ciertas situaciones se convierten en estudios etnográficos al emplear métodos
cualitativos.

RESUMEN
1. La investigación no experimental es la que se realiza sin manipular deliberadamente las variables
independientes, se basa en variables que ya ocurrieron o se dieron en la realidad sin la intervención directa del
investigador. Es un enfoque retrospectivo.
2. La investigación no experimental es conocida también como investigación expost-facto (los hechos y
variables ya ocurrieron) y observa variables y relaciones entre éstas en su contexto natural.
3. Los diseños no experimentales se dividen de la siguiente manera:
4. Los diseños transeccionales realizan observaciones en un momento único en el tiempo. Cuando miden
variables de manera individual y reportan esas mediciones son descriptivos. Cuando describen relaciones entre
variables son correlacionales y si establecen procesos de causalidad entre variables son
correlacionales/causales.

21
5. Los diseños longitudinales realizan observaciones en dos o más momentos o puntos en el tiempo. Si
estudian a una población son diseños de tendencia, si analizan a una subpoblación o grupo específico son
diseños de análisis evolutivo de grupo y si estudian a los mismos sujetos son diseños panel.
6. La investigación no experimental posee un control menos riguroso que la experimental y en aquélla es
más complicado inferir relaciones causales. Pero la investigación no experimental es más natural y cercana a
la realidad cotidiana.
7. El tipo de diseño a elegir se encuentra condicionado por el problema a investigar, el contexto que rodea
a la investigación, el tipo de estudio a efectuar y las hipótesis formuladas.

CAPITULO 9: RECOLECCIÓN DE DATOS CUANTITATIVOS.


Se analizaran los requisitos que un instrumento debe cubrir para recolectar apropiadamente datos
cualitativos: confiabilidad validez y objetividad. Se presenta el proceso para elaborar un instrumento de
medición y las principales alternativas para recolectar datos: entrevistas, cuestionarios, formas para evaluar
contenidos, sistemas de observación y pruebas, por último se examina el procedimiento de codificación de
datos cuantitativos y la forma de prepararlos para su análisis.
Etapa de recolección de datos: una vez que seleccionamos el diseño de investigación apropiado y la muestra
adecuada, de acuerdo a nuestra hipótesis o problema, la siguiente etapa es la de recolectar datos pertinentes
sobre los atributos, conceptos, cualidades o variables de los participantes, casos, sucesos, comunidades u
objetos involucrados en la investigación.
Recolección de datos implica elaborar un plan detallado de procesamientos que nos conduzcan a reunir datos
con un propósito específico. Este plan incluye determinar:
- Cuales con las fuentes de donde vamos a obtener los datos?
- En donde se localizan tales fuentes?. Definirlas con precisión.
- A través de qué medio o que método vamos a recolectar los datos? Implica elegir uno o varios medios
y definir los procedimientos que utilizaremos en la recolección de los datos. El método o métodos deben ser
confiables, validos y objetivos.
- Una vez recolectados, de qué forma vamos a prepararlos para que puedan analizarse y respondan al
planteamiento del problema?
El plan se nutre de diversos elementos:
1- Las variables, conceptos o atributos a medir, contenidas en los planteamientos o hipótesis.
2- Las definiciones operacionales, es decir, como hemos operacionalizado las variables es crucial para
determinar el método para medirlas, lo cual a su vez, resulta fundamental para realizar las inferencias de los
datos.
3- La muestra.
4- Los recursos disponibles (tiempo, apoyo institucional, económico, etc).
El plan se implementa para obtener datos requeridos. Los atributos, cualidades y variables deben ser
medibles. EJEMPLO:
- Las variables a medir son: satisfacción de las recompensas, grado de responsabilidad, desarrollo
personal, confianza en si mismo.
- Definiciones operacionales: encuesta del clima organizacional que mide las variables de interés.
- La muestra: 300 trabajadores.
- Recursos disponibles: económicos, suficientes. Tiempo: un mes.

Que significa medir?


En la vida diaria medimos constantemente. Medir significa “asignar números, símbolos o valores a las
propiedades de objetos o eventos de acuerdo con reglas”. No se le asignan a los objetos sino a sus propiedades.
Definición es más apropiada para las cs físicas que para las cs sociales, ya que varios de los fenómenos que
son medidos en éstas no pueden caracterizarse como objetos o eventos, ya que son demasiados abstractos
para ellos. Es más adecuado definir la medición como el “proceso de vincular conceptos abstractos con
indicadores empíricos”, el cual se realiza mediante un plan explicito y organizado para clasificar los datos
disponibles, en términos del concepto que el investigador tiene en mente. En este proceso, el instrumento de
medición o de recolección de datos tiene un papel central. Sin él no hay observaciones clasificadas.
22
La definición incluye dos consideraciones: la primera es desde el punto de vista empírico y se resume en
que el centro de atención es la respuesta observable. La segunda es desde una perspectiva teórica y se refiere
a que el interés se sitúa en el concepto subyacente no observable que se representa por medio de la respuesta.
Asi, los registros de los instrumentos de medición, representan valores visibles de conceptos abstractos. Un
instrumento de medición adecuado es aquel que registra datos observables que representan verdaderamente
los conceptos o las variables que el investigador tiene en mente. En términos cuantitativos: capturo
verdaderamente la “realidad” que deseo capturar. La función de la medición es establecer una correspondencia
entre el “mundo real” y el “mundo conceptual”. El primero provee evidencia empírica, el segundo proporciona
modelos teóricos para encontrar sentido a ese segmento del mundo real que estamos tratando describir.
La medición es efectiva cuando el instrumento de recolección de datos de la realidad representa las
variables que tenemos en mente. Al medir estandarizamos y cuantificamos los datos.

Requisitos que debe cubrir un instrumento de medición.


1- CONFIABILIDAD: se refiere al grado en que su aplicación repetida al mismo objeto o sujeto produce
resultados iguales. Se determina mediante diversas técnicas, las cuales se comentaran brevemente después de
revisar los conceptos de validez y objetividad. Grado en el que un instrumento produce resultados consistentes
y coherentes.
2- VALIDEZ: grado en que un instrumento realmente mide a variable que pretende medir.es una cuestión
mas compleja que debe alcanzarse en todo instrumento de medición que se aplica. Grado en el que un
instrumento en verdad mide la variable que se busca medir. Diferentes tipos de evidencia:
- Evidencia relacionada con el contenido: se refiere al grado en que un instrumento refleja un dominio
específico de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o variable
medida. Se refiere al grado en que un instrumento refleja un dominio específico de contenido de lo que se
mide. El dominio de una variable normalmente es definido o establecido por la literatura. Estos estudios
exploratorios donde las fuentes previas son escasas, el investigado comienza a adentrarse en el problema de
investigación y a sugerir como puede estar construido tal dominio. De cualquier manera en cada estudio uno
debe probar que instrumento utilizado es válido. La pregunta que responde a la validez del contenido es: el
instrumento mide adecuadamente las principales dimensiones de la variable en cuestión?
- Evidencia relacionada con el criterio: es establece la validez de un instrumento de medición al
compararla con algún criterio externo que pretende medir lo mismo. Cuanto más se relacionen los resultados
de medición con el criterio, la validez de criterio será mayor. Si el criterio se fija en el presente de manera
paralela, se habla de validez concurrente (los resultados del instrumento se correlacionan con el criterio en el
mismo momentos o punto de tiempo).
Si el criterio se fija en el futuro, se habla de validez predictiva. El principio de la validez de criterio es sencillo:
si diferentes instrumentos o criterios miden el mismo concepto o variable, deben arrojar resultados similares.
La pregunta que responde a este criterio es: en qué grado el instrumento comparado con otros criterios externos
mide lo mismo? o, que tan cercanamente las puntuaciones del instrumento se relacionan con otros resultados
sobre el mismo concepto?.
- Evidencia relacionada con el constructo: significado del instrumento, esto es, qué está midiendo y
como opera para medirlo. Parte del grado en el que las mediciones del concepto proporcionadas por el
instrumento se relacionan de manera consistente con otras mediciones de otros conceptos, de acuerdo con
modelos o hipótesis derivadas teóricamente. A tales conceptos se los denomina constructos. Un constructo es
una variable medida y que tiene lugar dentro de una hipótesis, teoría o esquema teórico. Es un atributo que no
existe aislado, sino en relación con otros. Debe explicar el modelo teórico- emperico que subyace a la variable
de interés.
Incluye tres etapas: en la primera se establece y especifica la relación teoría entre los conceptos; en la segunda
se correlacionan los conceptos y se analiza cuidadosamente la correlación; y por último, se interpreta la
evidencia empírica de acuerdo con el nivel en el que clarifica la validez de constructo de una medición en
particular.
El proceso de validación de un constructo está vinculado con la teoría. No es conveniente llevar a cabo tal
validación, a menos que exista marco teórico que soporte la variable en relación con otras variables. Cuanto
más elaborada y con probada se encuentre la teoría que apoya la hipótesis, la validación del constructo arrojara
23
mayor luz sobre la validez general de un instrumento de medición. Para aportar validez de constructo, las
mediciones de las dimensiones deben estar asociadas entre su y fundirse en un concepto más general,
asimismo, correlacionarse con mediciones del involucramiento y el compromiso. Las preguntas que se
responden con esta validez son: el concepto teórico está realmente reflejado en el instrumento?, que significan
las puntuaciones del instrumento?, como opera el instrumento?, etc.
La validez de un instrumento de medición se evalúa sobre la base de todos los tiempos de evidencia.
Cuanto mayor evidencia de validez de contenido. De validez de criterio y de validez de constructo tenga un
instrumento de medición, este se acercara mas a representar las variables que pretende medir.

VALIDEZ TOTAL: validez del contenido + validez de criterio + validez de constructo

- Relación entre confiabilidad y validez: no se asumen, se prueban; un instrumento de medición puede


ser confiable, pero no necesariamente valido. Es requisito q el instrumento de medición demuestre ser
confiable y valido, de no ser así, los resultados de la investigación no deben tomarse en serio. Los factores
que pueden afectar la confiabilidad y la validez de los instrumentos de medición e introducen errores son
diversos, entre ellos los más comunes son:
● Improvisación: algunas personas creen que elegir un instrumento de medición o desarrollar uno es algo
que puede tomarse a la ligera, lo cual habla de un poco o nulo conocimiento del proceso de elaboración de los
instrumentos. Esta improvisación genera casi siempre instrumentos pocos validos o confiables, que no deben
existir en la investigación. Para construir un instrumento de medición se requiere conocer muy van la variable
que se pretende medir, asi como la teoría que lo sustenta.
● Utilización de instrumentos desarrollados en el extranjero que no han sido validados para nuestro
contexto: cultura y tiempo. Traducir un instrumento, aun cuando adoptemos los términos a nuestro lenguaje y
los contextualicemos, no es una validación.
● Instrumento resulta inadecuado para las personas que se les aplica: no es empático. Utilizar un
lenguaje muy elevado para el sujeto participante, tener en cuenta el género, edad, conocimientos, motivación,
contexto, y otras diferencias, son errores q llegan a afectar a la validez y confiabilidad del instrumento de
medición. Tener en cuenta que quien realiza la investigación debe siempre adaptarse a los sujetos
participantes, y no estos a la investigación.
● Cuestiones vinculadas con los estilos personales de os sujetos participantes tales como: deseabilidad
social, tendencia a asentir con respecto a todo lo que se pregunta, dar respuestas inusuales o contestar siempre
negativamente.
● Constituido por las condiciones en las que se aplica el instrumento de medición. Son cuestiones que
llegan a afectar negativamente la validez y confiabilidad, al igual que si el tiempo que se brinda para responder
al instrumento es inapropiado.
● Falta de estandarización. Que el orden de las preguntas sea distinto para algunos individuos, que los
instrumentos de observación no sean equivalentes, etc. Este elemento también se vincula con la objetividad.
● Aspectos mecánicos tales como si el instrumento es escrito, que no sean legibles las instrucciones.
Muchos de los errores se pueden evitar mediante una adecuada revisión de la literatura que nos permite
seleccionar las dimensiones apropiadas de las variables del estudio, criterios para comparar los resultados de
nuestro instrumento, teorías de respaldo, etc.
3- OBJETIVIDAD: se refiere al grado en que el instrumento es permeable a la influencia de los sesgos y
tendencias de los investigadores que lo administran, califican e interpretan. Se trata de un concepto difícil de
alcanzar, sobre todo para las cs. sociales. En ciertas ocasiones se resuelve mediante el consenso. La objetividad
aumenta las reducirse la incertidumbre. La certidumbre total no existe ni en las cs físicas, el conocimiento es
aceptado como verdadero, hasta q nueva evidencia demuestre lo contrario. La objetividad se refuerza mediante
la estandarización en la aplicación del instrumento y la evaluación de los resultados, asi como el emplear
personal capacitado y experimentado en el instrumento.
Los estudios cuantitativos buscan que la influencia de las características y las tendencias del investigador se
reduzca al mínimo posible. La validez, confiabilidad y objetividad no deben tratarse de forma separada, ya
que sin alguna de las tres el instrumento no es útil para llevar a cabo un estudio.

24
Como se sabe si un instrumento de medición es confiable y valido?
En la práctica es casi imposible que una medición sea perfecta. Generalmente se tiene un grado de error,
aunque se trata de que este error sea el mínimo posible, por lo que cualquier fenómeno se conceptualiza con
la siguiente fórmula: x= t + e. x representa los valores observados; t los valores verdaderos; y e el grado de
error en la medición. Si no hay un error de medición, el valor observado y el verdadero son equivalentes,
situación que refleja el ideal de la medición. Cuanto mayor sea el error al medir, el valor que observamos se
aleja del valor real o verdadero.

● Calculo de la confiabilidad: diversos procedimientos para calcular la confiabilidad de un instrumento


de medición. Todos utilizan formulas que producen coeficientes de confiabilidad. La mayoría de estos puede
oscilar entre cero y uno, donde un coeficiente de cero significa nula confiabilidad y uno representa un máximo
de confiabilidad. Cuanto más se acerque el coeficiente a cero, mayor error habrá en la medición. Los
procedimientos más utilizados para determinar la confiabilidad mediante un coeficiente son:
- Medida de estabilidad: un mismo instrumento de medición se aplica dos o más veces a un mismo grupo
de personas, después de cierto periodo. Su la correlación entre los resultados de las diferentes aplicaciones es
altamente positiva, el instrumento se considera confiable. El periodo entre las mediciones es un factor a
considerar.
- Método de formas alternativas o paralelas: no se administra el mismo instrumento de medición, sino
dos o más versionaos equivalentes a este. Las versiones son similares en contenido, instrucciones, duración y
otras características. Se administra a un mismo grupo de personas simultáneamente o dentro de un periodo
relativamente corto. Es confiable si la correlación entre los resultados de ambas administraciones es positiva
de manera significativa.
- Método de mitades partidas: necesita solo una aplicación de la medición. El conjunto total de ítems o
reactivos se divide en dos mitades equivalentes y se comparan las puntuaciones o los resultados de ambas. Si
el instrumento es confiable, las puntuaciones de las dos mitades deben estar muy correlacionada.
- Medida de consistencia interna: coeficientes que estiman la confiabilidad ( alfa y KR-20 y 21): el
método de cálculo en ambos casis requiere una sola administración del instrumento de medición. No es
necesario dividir en dos mitades los ítems del instrumento, simplemente se aplica la medición y se calcula el
coeficiente.
La confiabilidad varía de acuerdo con el número de ítems que incluya el instrumento de medición. Cuantos
más ítems haya, mayor será la confiabilidad.

● Calculo de la validez: para calcularla primero es necesario revisar como ha sido medida la variable por
otros investigadores. Con base en dicha revisión, elaborar un universo de ítems o reactivos posibles para
medir la variable y sus dimensiones. Se consulta a investigadores familiarizados con la variable para ver si el
universo es verdaderamente exhaustivo. Se seleccionan los ítems bajo una cuidadosa evaluación, uno por uno.
Se administran los ítems, se correlacionan las puntuaciones de estos entre sí, y se hacen estimaciones
estadísticas para ver si la muestra es representativa. Para calcular la validez de contenido son necesarios varios
coeficientes.

Procedimientos para construir un instrumento de medición.


Plan de recolección que responde a la pregunta de a través de qué métodos vamos a recolectar datos.
Tener en cuenta las siguientes fases:
1- REDEFINICIONES FUNDAMENTALES: tener claridad sobre los conceptos o variables de la
investigación. Al comenzar a desarrollar el o los instrumentos de medición, es necesario una última reflexión
para cerciorar cuáles son nuestras variables. Se siguiere contestar las siguientes preguntas:
- Que va a ser medido (identificación y listado de variables)?.
- Que o quienes van a ser medidos?.-
- Cuando (fechas precisas)?.
- Donde (lugar especifico)?
- Nuestro propósito al recolectar los datos?
- Definiciones operacionales son?
25
- Qué tipo de datos queremos obtener?
Como resultado de responder a las preguntas, se tienen las redefiniciones más importantes para proseguir.
2- REVISION ENFOCADA EN LA LTERATURA: si al elaborar el marco teórico realizamos una
revisión adecuada de la literatura, esta fase suele ser innecesaria. Pero puede ocurrirle a quien se inicia en la
investigación, que al consultar las fuentes primarias, no se haya enfocado en los instrumentos de medición
utilizados. Resulta indispensable volver a revisar la literatura, centrándose en tales instrumentos . se
recomienda considerar los siguientes elementos:
- Las variables que idea el instrumento o herramienta,
- Los dominios de contenido de las variables.
- La muestra.
- Las condiciones de administración.
- La información sobre la confiabilidad.
- La información sobre la validez.
- La información sobre la objetividad.
- Los recursos necesarios para administrarlos.
Sobre la base de tales elementos, se seleccionan uno o varios instrumentos que pudieran ser apropiados para
nuestra investigación.
3- IDENTIFICACION DEL DOMINIO DE LAS VARIABLES A MEDIR Y SUS INDICADORES:
simultanea a la anterior, se refiere a la dedición de las variables que habremos de medir, fundamentándonos
en la revisión de otros instrumentos. Señalar con precisión los componentes, dimensiones o factores que
teóricamente integran a la variable. Establecer los indicadores en cada dimensión.
4- DESICIONES CLAVE: una vez evaluados los instrumentos utilizados previamente, es necesario
tomar una serie de decisiones fundamentales, que agrupamos en tres rubros:
● Utilizar un instrumento de medición ya elaborado, adaptarlo o desarrollar uno nuevo. En el primer
caso, debemos elegir un instrumento que se encuentre disponible y sea posible su aplicación. Debemos asi
mismo seleccionar el que se haya generado lo más recientemente posible, el que se cite con mayor frecuencia
y amplitud en la literatura, reciba mejores evaluaciones por expertos, el que demuestre mayor confiabilidad,
validez y objetividad, se adecue mejor a nuestra muestra y contexto, etc. Solamente deben seleccionarse
instrumentos que reporten confiabilidad. Validez y objetividad.
En la segunda situación, el instrumento elegido se adapta al ambiente de nuestro estudio. Es decir, se realizan
algunos justes en la presentación, instrucciones, ítems. Tmb se revisa el lenguaje y la redacción. Si ninguna
de las dos opciones anteriores resulta satisfactoria, entonces tenemos que desarrollar uno propio. Puede
elaborarse a parir de instrumentos previos, de nuevas concepciones e ítems, o bien, una mezcla de estas.
● Resolver el tipo de instrumento y formato. Simultanea a la primera cuando se utiliza un instrumento
ya elaborado o adaptado, pues este ya posee sus características y tiene un formato propio. Pero cuando se
desarrolla uno nuevo, el investigador debe decidir de qué tipo será y cuál será su formato, esto depende de sus
características físicas.
● Determinar el contexto de la administración. Implica decidir en qué espacio físico se implementa. La
naturaleza de los datos buscados y el tipo de instrumento elegido nos ayudan en ello, ya sabemos si deseamos
datos escritos y vamos a utilizar un cuestionario, este puede administrarse en distintos contextos.
5- CONSTRUCCION DEL INSTRUMENTO: implica la generación de todos los ítems y categorías del
instrumento. Esta construcción depende del tipo de instrumento y formato. Un ítem es una pregunta de
cuestionario, una categoría, una estadística. Al final de esta estaba el producto es una primera versión del
instrumento. Es como vamos a registrar los datos y el valor q le habremos de otorgar, a esto se lo conoce
como “codificación”. Codificar lo datos significa asignarles un valor numérico o simbólico que los represente.
A las categorías de cada ítem y variable se les asignan valores numéricos o signos que tiene un significado.
Cada ítem y variable deberán tener una codificación para sus categorías, a esto se lo conoce como pre
codificación hay veces que un ítem no puede ser codificado a priori, porque es muy difícil conocer cuáles
serán sus categorías.
La codificación es necesaria para analizar cuantitativamente os datos. A veces se utilizan letras o símbolos
en lugar de números, y esta puede o no incluirse en el instrumento de medición. Es importante indicar el nivel
de medición de cada ítem y el de las variables, porque es parte de la codificación y debido a que dependiendo
26
de dicho nivel se selecciona uno u otro tipo de análisis estadístico. Hay cuatro niveles de medición
ampliamente conocidos:
- Nivel de medición nominal: hay dos o más categorías del ítem o variable. Las categorías no tiene orden
ni jerarquía. Lo que se mide se coloca en una u otra categorías lo cual indica tan solo diferencias respecto de
una o más características, las categorías reflejan diferencias en la variable. Los números utilizados en esta
medición tiene una función puramente de clasificación y no se pueden manipular de manera aritmética. Las
variables nominales pueden incluir dos categorías o bien, tres o más categorías.
- Nivel de medida ordinal: hay varias categorías y estas mantienen un orden de mayor a menor. Las
etiquetas o los símbolos de las categorías sí indican jerarquía. Los números definen posiciones, sin embargo,
las categorías no están ubicadas en intervalos iguales. Tampoco se utilizan las operaciones aritméticas.
- Niveles de medición por intervalos: además del orden o la jerarquía entre categorías, se establecen
intervalos iguales en la medición. Las distancias entre categorías son las mismas a los largo de toda la escala.
Hay un intervalo constante, una unidad de medida. Este nivel de medición permite utilizar las operaciones
aritméticas básicas y algunas estadísticas modernas.
- Nivel de medición de razón: además de tenerse todas las características del nivel de intervalos , el cero
es real y es absoluto. Cero absolutos implica que hay un punto en la escala donde está ausente o no existe la
propiedad medida.
6- PRUEBA PILOTO: consiste en administrar el instrumento a personas con características semejantes
a las de la muestra objetivo de la investigación. Se somete a prueba no solo el instrumento de medición, sino
tmb las concisiones de aplicación y los procedimientos involucrados. Se analiza si las instrucciones se
comprenden y si los ítems funcionan de manera adecuada, se evalúa el lenguaje y la redacción. Los resultados
sede utilizan para calcular la confiabilidad inicial y de ser posible la validez del instrumento de medición. La
prueba piloto se realiza con una péquela muestra, cuyos resultados se usan para calcular la confiabilidad inicial
y de ser posible la validez del instrumento. Las recomendaciones que se realizan son:
- Que se disponga de espacios para comentarios de los sujetos participantes.
- Que se solicite a los participantes que marquen las ambigüedades, las categorías no incluidas,
redacción confusa.
- Tome en cuenta y se evalué lo escrito por los participantes durante todo el proceso.
- Etc.
7- VERSION FINAL: asi, con los resultados de la prueba, el instrumento de medición preliminar se
modifica, ajusta y mejora. Se tiene la versión final para administrar, la cual incluye un diseño grafico atractivo
para los participantes.
8- ENGRENAMIRNTO DEL PERSONAL: las personas del equipo de investigación que van a
administrar y/o calificar el instrumento , ya sea que se trate de entrevistadores , observadores, encuestadores
o que dirijan las sesiones para aplicarlo, deben recibir un entrenamiento teniendo en cuenta:
- Propósito del estudio,
- Calendarización y tiempos de estudio.
- Importancia de su participación,
- Auspiciantes,
- Establecimiento de confianza,
- Etc.
Durante el entrenamiento el personal que habrá de aplicar y/o calificar las respuestas o mediciones,
deben realizar varios ensayos delante de todos para corregir aquellas situaciones que puedan afectar la
objetividad y el correcto desempeño en la recolección de datos.
9- AUTORIZACIONES: antes de recolectar los datos es necesario garantizar varias autorizaciones. En
primer término, por los representantes de las organizaciones a las cuales pertenecen los participantes. Para
este fin conviene producir una breve presentación del estudio en algún formato multimedia o de video y
presentar el protocolo o proyecto que de cualquier manera debemos elaborar.
10- ADMINISTRACION DEL INSTRUMENTO: este es el momento de la verdad, todo nuestro trabajo
conceptual y de planeación se confronta con los hechos. La administración depende del tipo de instrumento
que hayamos seleccionado y la experticia de todo equipo que participa. Momento de revisar las principales

27
clases de instrumentos para medir. Los instrumentos que será revisados son: cuestionarios, escalas de
actitudes, registro del contenido y observación.

De que tipos de instrumentos de medición o recolección de datos cuantitativos disponemos en la


investigación?
En la investigación disponemos de diversos tipos de instrumentos para medir las variables de interés y
en algunos casos llegan a combinarse varias técnicas de recolección de los datos.
● CUESTIONARIOS: instrumento mas utilizado para recolectar dato, consiste en un conjunto de
preguntas respecto de una o más variables a medir. Este instrumento puede tener preguntas de tipo cerrado o
preguntas abiertas. Las preguntas cerradas contiene categorías u opciones de respuestas que han sido
previamente delimitadas. Es decir, se presentan a los participantes, las posibilidades de respuesta, quienes
deben acotarse a ellas. Pueden ser dicotómicas o incluir varias opciones de respuesta. Las categorías de
respuestas son definidas a priori por el investigador y se le muestran al sujeto encuetando, quien debe elegir
la opción que describa mas adecuadamente su respuesta. Cuando las preguntas presentan varias opciones,
estas deben recoger todas las posibilidades de respuesta. Hay preguntas cerradas donde el sujeto puede
seleccionar más de una opción o categoría de respuesta; en otras el encuetando tiene que jerarquizar opciones,
o bien designar un puntaje a una o diversas cuestiones, en otras se anota una cifra dentro de un rango
predeterminado y en otras el sujeto se ubica en una escala.
Por otro lado están las preguntas abiertas que no delimitan de antemano las alternativas de respuesta, por
lo cual el número de categorías de respuesta es muy elevado, en teoría , es infinito, y puede variar de población
en población.

Conviene usar preguntas cerradas o abiertas?


Un cuestionario obedece a diferentes necesidades y a un problema de investigación, lo cual origina que en
cada estudio el tipo de pregunta sea distinta. En algunos casos solo se utilizan preguntas cerradas, en otras
solo abiertas, y en algunos casos preguntas mixtas.
Las preguntas cerradas son más fáciles de codificar y preparara para su análisis, requieren menos esfuerzo
por parte de los encuestados, ya que no tienen que escribir ni verbalizar pensamientos, sino únicamente
seleccionar la alternativa que sintetice su respuesta. Se reduce la ambigüedad de las respuestas y favorece las
comparaciones entre las respuestas. La principal desventaja es que se limitan las respuestas de la muestra y
ninguna de las categorías describe con exactitud lo que las personas tienen en mente. Para formular preguntas
cerradas es necesario anticipar las posibles respuestas.
Las preguntas abiertas proporcionan una info más amplia y son particularmente útiles cuando no tenemos
info sobre las posibles respuestas de las personas o cuando esta es insuficiente. Su desventaja es que son más
difíciles de codificar, clasificar, y preparar para el análisis, tmb pueden generar confusión en sus repuestas.
Responder a preguntas abiertas requiere de mayor esfuerzo y de más tiempo.
La elección del tipo de preguntas que contenga el cuestionario depende del grado en que puedan anticipar
las posibles respuestas, los tiempos de que se disponga para codificar y si se quiere una respuesta más precisa
o profundizar en alguna cuestión. Con frecuencia las preguntas cerradas se construyen con fundamento en
preguntas abiertas.

Las preguntas van pre codificadas? Siempre que se pretenda efectuar análisis estadístico, se requiere
codificar las respuestas de los participantes a las preguntas del cuestionario, y debemos recordar que esto
significa asignarles un símbolo o valores numéricos y que cuando se tienen preguntas cerradas es posible
codificar a priori o decodificar las opciones de respuesta, e incluir este pre codificación en el cuestionario. En
las preguntas abiertas la codificación surge luego de que se realizaron las encuestas y se obtuvieron las
respuestas.

Que preguntas son obligatorias? Las demográficas o de ubicación del sujeto, la edad, genero, nivel socio
económico, estado civil, escolaridad, etc. En cada investigación debemos analizar cuáles son pertinentes y nos
resultaran útiles.

28
Que características debe tener una pregunta? Las características que deben cubrirse al plantearlas son:
- Preguntas tiene que ser claras, precisas, comprensibles, para los sujetos encuestados. Deben evitar
términos confusos, ambiguos y de doble sentido.
- Es aconsejable que las preguntas sean lo más breves posibles, porque las largas resultan tediosas,
toman más tiempo y pueden distraer a los participantes.
- Deben formularse con un vocabulario simple, directo y familiar para los participantes. El lenguaje
debe adaptarse al habla de la población a la que van dirigidas las preguntas.
- No pueden incomodar al sujeto encuestado, ni ser percibidas como amenazantes y nunca este debe
sentir que se le enjuicia.
- Las preguntas deben referirse preferentemente a un solo aspecto o una relación lógica. Cuando se
expresan dos aspectos en la misma pregunta suele llegar a confundir, por lo que es necesario dividir la
pregunta.
- Las preguntas no habrían de inducir las respuestas. Se tienen que evitar las preguntas tendenciosas o
que dan pie a elegir un tipo de respuesta. El participante nunca debe sentirse presionado.
- Las preguntas no pueden apoyarse en instituciones, ideas respaldas socialmente ni en evidencia
comprobada, ya que es tmb una manera de inducir respuestas.
- Es aconsejable que evitar preguntas que nieguen el asunto que s interroga, tampoco incluir dobles
negaciones.
- No deben hacerse preguntas racistas o sexistas, ni que ofendan a los participantes. Se recomienda
sortear las preguntas con fuerte carga emocional o muy complejas.
- En las preguntas con varias categorías de respuesta, y donde el sujeto participante solo tiene que elegir
una , llega a ocurrir que el orden en el que se presentan dichas opciones afecta las respuestas de los
participantes. Resulta conveniente rotar el orden de la lectura de las respuestas a elegir de manera
proporcional.
Con relación a cada pregunta del cuestionario sugieren cuestionar: es necesaria la pregunta?, es lo
suficientemente concreta?, responderán los participantes sinceramente?

¿CÓMO DEBEN SER LAS PRIMERAS PREGUNTAS DE UN CUESTIONARIO?

En algunos casos es conveniente iniciar con preguntas neutrales o fáciles de contestar, para que el respondiente
vaya adentrándose en la situación. No se recomienda comenzar con preguntas difíciles de responder o
preguntas muy directas. Imaginemos un cuestionario diseñado para obtener opiniones en torno al aborto que
empiece con una pregunta poco sutil tal como: ¿Está usted de acuerdo en que se legalice el aborto en este
país? Sin lugar a dudas será un fracaso.
A veces los cuestionarios pueden comenzar con preguntas demográficas sobre el estado civil, sexo,
edad, ocupación, nivel de ingresos, nivel educativo, religión, ideología, puesto en una organización o algún
tipo de afiliación a un grupo, partido e institución. Pero en otras ocasiones es mejor hacer este tipo de preguntas
al final del cuestionario, particularmente cuando los sujetos puedan sentir que se comprometen al responder
al cuestionario. Cuando construimos un cuestionario es indispensable que pensemos en cuáles son las
preguntas ideales para iniciar. Éstas deberán lograr que el respondiente se concentre en el cuestionario.

¿De qué está formado un Cuestionario?: Además de las preguntas y categorías de respuestas, un
cuestionario está formado por portada, introducción, instrucciones insertas a lo largo del mismo y
agradecimiento final.
Portada: incluye la carátula; en general debe ser atractiva gráficamente para favorecer las respuestas. Debe
incluir el nombre del cuestionario y el logotipo de la institución que lo patrocina.
Introducción: debe incluir: propósito general del estudio; motivaciones para el sujeto encuestado;
agradecimiento; tiempo aproximado de respuesta; espacio para que firme o indique su consentimiento;
identificación de quién o quiénes lo aplican; explicar brevemente como se procesaran los cuestionarios y una
cláusula de confidencialidad del manejo de la información individual; instrucciones iníciales claras y sencillas.
Agradecimiento final: aunque haya agradecido de antemano vuelva a agradecer la participación.
29
Formato, distribución de instrucciones preguntas y categorías: las preguntas deben estar organizadas para
que sea más fácil de responder el cuestionario. La manera en que pueden distribuirse preguntas y categorías
de respuesta es variada cada quien es capaz de utilizar el formato que desee o juzgue conveniente, lo
importante es que en su totalidad sea comprensible para el usuario, las instrucciones, preguntas y respuestas
se diferencien, no resulte visualmente tedioso y se pueda leer sin dificultades.

¿De qué tamaño debe ser un cuestionario?: No existe una regla al respecto, pero si es muy corto se pierde
información y si resulta largo puede resultar tedioso de responder. En este último caso, las personas pueden
‘negarse a responder o —al menos— no completar el cuestionario. El tamaño depende del número de variables
y dimensiones a medir, el interés de los respondientes y la manera como es administrado.

¿Cómo se codifican las preguntas abiertas?: Las preguntas abiertas se codifican una vez que conocemos
todas las respuestas de los sujetos a las cuales se les aplicaron o al menos las principales tendencias de
respuestas en una muestra de los cuestionarios aplicados. El procedimiento consiste en encontrar y darles
nombre a los patrones generales de respuesta (respuestas similares o comunes), listar estos patrones y después
asignar un valor numérico o símbolo a cada patrón. Así, un patrón constituirá una categoría de respuesta. Para
cerrar las preguntas abiertas, se sugiere el siguiente procedimiento:

1. Seleccionar determinado número de cuestionarios mediante un método adecuado de muestreo,


asegurando la representatividad de los sujetos investigados.
2. Observar la frecuencia con que aparece cada respuesta a la pregunta.
3. Elegir las respuestas que se presentan con mayor frecuencia (patrones generales de respuesta).
4. Clasificar las respuestas elegidas en temas, aspectos o rubros, de acuerdo con Un criterio lógico,
cuidando que sean mutuamente excluyentes.
5. Darle un nombre o título a cada tema, aspecto o rubro (patrón general de respuesta).
6. Asignarle el código a cada patrón general de respuesta.

Al “cerrar” preguntas abiertas y ser codificadas, debe tenerse en cuenta que un mismo patrón de respuesta
puede expresarse con diferentes palabras. Por ejemplo, ante la pregunta: ¿Qué sugerencias podría hacer para
mejorar al programa “Estelar”? Las respuestas: “Mejorar las canciones y la música”, “cambiar las canciones”,
“incluir nuevas y mejores canciones”, etc., pueden agruparse en la categoría o patrón de respuesta “modificar
la musicalización del programa”.

En qué contextos puede administrarse o aplicarse un cuestionario?


Los cuestionarios pueden ser aplicados de diversas maneras:

A) Auto-administrado. En este caso el cuestionario se les proporciona directamente a los respondientes,


quienes lo contestan. No hay intermediarios y las respuestas las marcan ellos. Pero la forma de administración
puede tener distintos contextos: individual, grupal o por envío.
En el caso individual el cuestionario se entrega al sujeto y este lo responde ya sea que acuda a un lugar para
hacerlo o lo conteste en su lugar de trabajo u otro.
En el caso grupal se reúne a los participantes en grupo (chocolate por la noticia).
En el caso de autoadministración por envío se les manda el cuestionario a los participantes por correo postal
privado o mensajeria, por medio del correo electrónico, también se les puede pedir que ingresen a una página
web para responderlo.
B) Por entrevista personal. Las entrevistas implican que una persona calificada aplica el cuestionario a
los sujetos participantes, primero hace las preguntas a cada sujeto y anota las respuestas. Su papel es crucial,
es una especie de filtro. Las instrucciones son para el entrevistador. Normalmente se tienen varios
entrevistadores, quienes deberán estar capacitados en el arte de entrevistar y conocer a fondo el cuestionario,
y no deben sesgar o influir las respuestas. Su propósito es lograr que culmine exitosamente cada entrevista,
evitando que decaiga la concentración del participante, además de orientar a éste en el tránsito del instrumento.
Las explicaciones que proporcione deberán ser breves pero suficientes. Tiene que ser neutral pero cordial y
30
servicial. Al principio de la entrevista se debe comentar el propósito general del estudio, las motivaciones y
el tiempo aproximado de respuesta, agradeciendo de antemano la colaboración.
Rogers y Bouey diferencian la entrevista cuantitativa y la cualitativa, con relación a la primera
mencionan las siguientes características: el principio y final se define con claridad; el mismo instrumento es
aplicado a todos los participantes; el entrevistador pregunta el entrevistado responde; se busca que sea
individual sin personas que alteren la entrevista; es poco a nada anecdótica; la mayoría de las preguntas suelen
ser cerradas; el entrevistador y el propio cuestionario controlan el ritmo y dirección de la entrevista; el contexto
social no es un elemento a considerar; el entrevistador procura que el patrón de comunicación sea similar.
C) Por entrevista telefónica. Esta situación es similar a la anterior, solamente que la entrevista no es “cara
a cara” sino a través del teléfono. El entrevistador le hace las preguntas al respondiente por este medio de
comunicación. Junto con la aplicación grupal de cuestionarios es la manera más económica de aplicar un
instrumento de medición, con la posibilidad de asistir a los sujetos de la muestra. El nivel de rechazo suele ser
menor que la entrevista frente al sujeto participante. Algunas recomendaciones para las entrevistas telefónicas
son las siguientes: enviar una carta previa en la que se indique el objetivo de la entrevista; realizar la
comunicación en el día y hora acordada; el entrevistador debe identificarse y recordarle al entrevistado el
propósito del estudio; entre la carta previa y la comunicación no debe pasar mas de una semana; el
entrevistador debe asegurarse que esta hablando con la persona correcta; indicar el tiempo que tomara la
entrevista; utilizar un cuestionario breve con preguntas perfectamente estructuradas y sencillas; el
entrevistador debe vocalizar correctamente y a la misma velocidad de su interlocutor; anotar casos de rechazos
y las razones; en el entrenamiento simular las condiciones de aplicación; establecer metas de comunicaciones
telefónicas por hora; si se pretende grabar la entrevista debe interrogarse al participante si esta de acuerdo.

Consejos para la administración del cuestionario, dependiendo del contexto:


Cuando se tiene población analfabeta, con niveles educativos bajos o niños que apenas comienzan a leer o no
dominan la lectura, el método más conveniente de administración de un cuestionario es por entrevista. Aunque
hoy en día ya existen algunos cuestionarios muy gráficos que usan escalas sencillas.
Con trabajadores de niveles de lectura básica se recomienda utilizar entrevistas o cuestionarios
autoadministrados sencillos que se apliquen en grupos con la asesoría de entrevistadores o supervisores
capacitados.
En algunos casos, con ejecutivos que difícilmente pueden dedicarle a un solo asunto más de 20 minutos, se
pueden utilizar cuestionarios autoadministrados o entrevistas telefónicas. Con estudiantes suelen funcionar los
cuestionarios autoadministrados.
Asimismo, algunas asociaciones hacen encuestas por correo y ciertas empresas envían cuestionarios a sus
ejecutivos y supervisores mediante el servicio interno de mensajería o por correo electrónico. Cuando el
cuestionario contiene unas cuantas preguntas (su administración no toma más de 4 minutos —o máximo 5—
), la entrevista telefónica es una buena alternativa.
Ahora bien, sea cual fuere la forma de administración, siempre debe haber uno o varios supervisores que
verifiquen que se están aplicando correctamente los cuestionarios.
Escalas para medir las actitudes: una actitud es una predisposición aprendida para responder
coherentemente de una manera favorable o desfavorable ante un objeto, un ser vivo, actividad, etc. las
actitudes tienes diversas propiedades entre las que se destacan dirección e intensidad. Los métodos mas
conocidos para medir por escalas las variables que constituyen actitudes son: el método de escalamiento de
Likert, el diferencial semántico y la escala da Guttman.
Escalamiento tipo Likert: consiste en un conjunto de ítems presentador en forma de afirmaciones o juicios
ante los cuales se pide la reacción de los participantes. A cada punto se le asigna un valor numérico. Así, el
participante obtiene una puntuación respecto de la afirmación y al final su puntuación total, sumando las
puntuaciones obtenidas en relación con todas las afirmaciones. Las afirmaciones califican al objeto de actitud
que se esta midiendo. El objeto de actitud puede ser cualquier “cosa física”, un individuo, un concepto o
símbolo, una marca, una actividad, etc.

31
UNIDAD 5:
Texto 5.1:CAPITULO 8. SELECCIÓN DE LA MUESTRA
¿Sobre qué o quiénes se recolectaran los datos?
Unidades de análisis: se las denomina también casos o elementos
Solo cuando debemos realizar un censo debemos incluir en el estudio a todos los casos del universo o
población, sino utilizamos una muestra.
El interés se centra en “que o quienes”, los participantes, objetos, sucesos o comunidades de estudio. Esto,
depende del planteamiento inicial de la investigación: no sólo del objetivo de la investigación sino del diseño

32
de la misma, para lograr una coherencia entre los objetivos de la investigación y la unidad de análisis de la
misma.
Para seleccionar una muestra, lo primero que hay que hacer es definir la unidad de análisis; después,
se delimita la población.
La muestra es un subgrupo de la población de interés sobre el cual se recolectaran datos, y que tiene que
definirse de antemano, deben delimitarse las características de la población y debe ser ésta estadísticamente
representativa de la población.

Muestreo cuantitativo:
Objetivo central: seleccionar casos representativos para la generalización.

Generalizar: *características
* Hipótesis
Con la finalidad de construir y probar teorías que expliquen a la población o fenómeno

Mediante una técnica adecuada

¿Cómo se delimita una población?


Una vez que se ha definido cuál será nuestra unidad de análisis, se procede a delimitar la población: el conjunto
de todos los casos que concuerdan con una serie de especificaciones. Es preferible establecer claramente las
características de la población, a fin de delimitar cuáles serán los parámetros muestrales.
Población o universo: conjunto de todos los casos que concuerdan con determinadas especificaciones

Limite de población (delimitación de la muestra


en
la población o universo)

La delimitación de las características de la población no sólo depende de los objetivos del estudio, sino de
otras razones prácticas: la calidad de un trabajo estriba en delimitar claramente la población con base al
planteamiento del problema; debe situarse claramente en torno a sus características de contenido, lugar y en
el tiempo.
Para una adecuada delimitacion del universo o población: Los criterios que cada investigador cumpla
dependen de sus objetivos de estudio, lo que es importante es establecerlos claramente. Toda investigación
debe ser transparente, sujeta a crítica, y este ejercicio no es posible si al examinar los resultados, no pueden
referirse a la población utilizada en un estudio.

¿Cómo seleccionar la muestra?


La muestra es, en esencia, un subgrupo de la población; subconjunto de elementos que pertenecen a ese
conjunto definido en sus características (población).

33
Pocas veces se puede medir a toda la población, por lo que obtenemos o seleccionamos una muestra y se
pretende que este
subconjunto sea un reflejo
fiel del conjunto de la
población.

Tipos de muestra
Muestra probabilística: subgrupo de la población en el que todos los elementos de esta tienen la misma
posibilidad de ser elegidos.
Muestra no probabilística o dirigida: subgrupo de la población en la que la selección de los elementos no
depende de la probabilidad sino de las características de la población.

Categorizamos las muestras en dos grandes ramas: las muestras no probabilísticas y las muestras
probabilísticas. En estas últimas todos los elementos de la población tienen la misma posibilidad de ser
escogido, se obtiene definiendo las características de la población, el tamaño de la muestra y a través de una
selección aleatoria y/o mecánica de las unidades de análisis.
En las muestras no probabilísticas, la elección depende de causas relacionadas con las características del la
investigación o de quien que hace la muestra. Aquí el procedimiento depende del proceso de toma de
decisiones de una persona o grupo de personas.
El elegir entre una muestra probabilística o una no probabilística, depende de los objetivos del estudio, del
esquema de investigación y de la contribución que se piensa hacer con dicho estudio.

8.4. ¿CÓMO SE HACE UNA MUESTRA PROBABILÍSTICA?


Las muestras probabilísticas tienen muchas ventajas, quizás la principal es que puede medirse el tamaño de
error en nuestras predicciones. El principal objetivo en el diseño de una muestra probabilística es el de reducir
al mínimo este error al que se le llama error estándar
Son esenciales en los diseños de investigación por encuestas en donde se pretende hacer estimaciones de
variables en la población, estas variables se miden con instrumentos y se analizan con pruebas estadísticas
para el análisis de datos en donde se presupone que la muestra es probabilística.
Los elementos muestrales tendrán valores muy parecidos a los de la población, de manera que las mediciones
en el subconjunto, nos darán estimados precisos del conjunto mayor. La precisión de dichos estimados
depende del error en el muestreo, que se puede calcular.
Para hacer una muestra probabilística son necesarios dos procedimientos:
1. calcular un tamaño de muestra que sea representativo de la población;
2. seleccionar los elementos muestrales de manera que al inicio todos tengan la misma posibilidad de ser
elegidos.
Uno debe preguntarse: dado que una población es de N tamaño, ¿Cuál es el menor numero de unidades
muestrales que necesito para conformar una muestra (n) que me asegure un nivel de error estándar, menos de
0.01? : La respuesta es encontrar una muestra que sea representativa con cierta posibilidad de error y nivel de
confianza
Muestra probabilística estratificada: muestreo en el que la población se divide en segmentos y se selecciona
una muestra para cada segmento.

34
En ocasiones el interés del investigador es comparar sus resultados entre segmentos o grupos de la
población.
Lo que aquí se hace es dividir a la población en subpoblaciones o estratos y se selecciona una muestra para
cada estrato. La estratificación aumenta la precisión de la muestra e implica el uso deliberado de diferentes
tamaños de muestra para cada estrato, a fin de lograr reducir la varianza de cada unidad de la media muestral”
Dice Kish que en un número determinado de elementos muestrales n = Znh (la Z en realidad es ese dibujo
que representa la suma de, como no lo tengo pongo Z!) la varianza de la media muestral y puede reducirse
al mínimo si el tamaño de la muestra para cada estrato es proporcional a la desviación estándar dentro del
estrato.
Esto es:

En donde la muestra n será igual a la suma de los elementos muestrales nh. El tamaño den y la varianza de y
pueden minimizarse, si calculamos “submuestras” proporcionales a la desviación estándar de cada estrato.
Esto es:

En donde, nh y Nh son muestras y población de cada estrato, y sh es la desviación estandar de cada elemento
en un determinado estrato. Entonces tenemos que:

Muestreo probabilística por racimos


Muestreo en el que las unidades de análisis se encuentran encapsuladas en determinados lugares físicos.
Racimos: son sinónimos de clusters o conglomerados
El muestrear por racimos implica diferenciar entre la unidad de análisis y la unidad muestral. La unidad
de análisis (quiénes van a ser medidos, sujeto o sujetos a quienes en última instancia vamos a aplicar el
instrumento de medición) y unidad muestral se refiere al racimo a través del cual se logra el acceso a la unidad
de análisis.
El muestreo por racimos se selecciona los racimos, siguiendo los ya reseñados pasos de una muestra
probabilística simple o estratificada, y dentro de estos racimos se seleccionan a los sujetos u objetos que van
a ser medidos. Para ello se hace una selección que asegure que todos los elementos del racimo tienen la misma
probabilidad de ser elegidos.
¿Cómo se lleva a cabo el procedimiento de selección de la muestra?
Sobre muestra probabilística: dichos tipos de muestra dependen de dos cosas: del tamaño de la muestra; del
procedimiento de selección.
Se determina el tamaño de la muestra n, pero ¿cómo seleccionar los elementos muestrales? Se precisa el
número de racimos necesario ¿cómo se seleccionan los elementos muestrales?: se eligen siempre
aleatoriamente para asegurarnos que cada elemento tenga la misma probabilidad de ser elegidos.
Pueden usarse 3 procedimientos de selección:
1. Tómbola
Consiste en numerar todos los elementos muestrales del 1. Al n. Hacer unas fichas, una por cada elemento,
revolverías en una caja, e ir sacando n fichas, según el tamaño de la muestra. Los números elegidos al azar
conformarán la muestra.
Cuando nuestro muestreo es estratificado, se sigue el procedimiento anterior pero por cada estrato.

2. Números random o números aleatorios


El uso de números random significa la utilización de una tabla de números que implica un mecanismo de
probabilidad muy bien diseñado. Los números random fueron generados con una especie de ruleta electrónica.
Existe una tabla de un millón de dígitos

35
Siguiendo el ejemplo del inciso anterior, determinamos una muestra, y a partir de este se determinó una
submuestra para cada estrato.
Se eligen aquellos casos que se dictaminen en la tabla de números random, hasta completar el tamaño de la
muestra. Los números pueden recorrerse hacia arriba, hacia abajo, horizontalmente. Al fin siempre se logra
que cada elemento muestral tenga la misma probabilidad de ser elegido.

Selección sistemática de elementos muestrales.


Este procedimiento implica el seleccionar dentro de una población N a un número n de elementos a partir de
un intervalo K. K es un intervalo que va a estar determinado por el tamaño de la población y el tamaño de la
muestra. De manera que tenemos que K = N/n, en donde K = es un intervalo de selección sistemática N = es
la población y n = es la muestra
La selección sistemática de elementos muestrales 1/K se puede utilizar para elegir los elementos de
η para cada estrato y/o para cada racimo. La regla de probabilidad que dice que cada elemento de la población
tiene que tener la misma probabilidad de ser elegido, se mantiene empezando la selección de 1/K al azar. Este
procedimiento de selección es poco complicado y tiene varias ventajas: cualquier tipo de estratos en una
población X, se verán reflejados en la muestra, la selección sistemática logra una muestra proporcionada.

Los listados y otros marcos muestrales


Falta discutir sobre algo esencial que precede a la selección de una muestra: el listado, el marco muestral:
marco de referencia que permite identificar físicamente a los elementos de la población, la posibilidad de
enumerarlos y por ende, proceder a la selección de los elementos muestrales. Se trata de un listado existente
o a una lista que se tiene que confeccionar ‘ad hoc”, con los casos de la población.
Los listados basados en listas existentes sobre una población pueden ser variados: el directorio telefónico, la
lista de miembros de una asociación, directorios especializados, las listas oficiales de escuelas de la zona, las
listas de las canciones de éxito publicadas por una revista, la lista de alumnos de una universidad, etc.
Hay listas que proporcionan una gran ayuda al investigador. No siempre existen listas que permitan
identificar a nuestra población. Será necesario pues recurrir a otros marcos de referencia que contengan
descripciones del material, organizaciones o sujetos que serán seleccionados como unidades de análisis. Con
frecuencia es necesario construir listas ad hoc, a partir de las cuales se elegirán los elementos que constituirán
las unidades de análisis en una determinada investigación.

De cada una de estas instancias daremos ejemplos mas detallados


Archivos
Cuando no hay una lista elaborada de sujetos, el investigador decide acudir a los archivos que constituyen su
marco muestral a partir del cual obtendrá la muestra.
En este caso y en otros en donde no todos los elementos del marco de referencia o de una lista se aconsejan el
reemplazo, con el siguiente elemento, sino simplemente no tomar en cuenta ese elemento, es decir como si no
existiera, continuándose con el intervalo de selección sistemática.

Mapas
Los mapas son muy útiles como marco de referencia en muestras por racimo. Por ejemplo, un investigador
quiere saber qué motiva a los compradores en una determinada tienda de autoservicio. Sobre un mapa de la
ciudad y a partir de la lista de tiendas que de cada cadena competidora: el mapa le permite ver la población
(tiendas autoservicio) y su situación geográfica, de manera que eligió zonas donde coexistan tiendas de la
competencia, como para asegurarse que el consumidor de la zona tenga todas las posibles alternativas.

Tamaño óptimo de una muestra


Las muestras probabilísticas, requieren dos procedimientos básicos: 1) la determinación del tamaño de la
muestra y 2) la selección aleatoria de los elementos muestrales.
Precisar adecuadamente el tamaño de la muestra puede tornarse en algo muy complejo. Puede resultar muy
útil el comparar qué tamaño de muestra han utilizado otros investigadores en ciencias sociales: reproducimos

36
las siguientes que indican el tamaño de la muestra más utilizada por los investigadores según sus poblaciones
(nacionales o regionales) y según los subgrupos que quieren estudiarse en ellas.

Las muestras nacionales, las que representan la población de un país, por lo general son de más de
1000sujetos.
Las muestras regionales (por ejemplo las que representen al área metropolitana) algún estado del país
o algún municipio o región son típicamente más pequeñas con rangos de 700 a 400 sujetos. El tamaño de una
muestra tiende más a depender del número de subgrupos que nos interesan en una población.

Recordemos que lo óptimo de una muestra depende en qué tanto su distribución se aproxima a la distribución
de las características de la población. Esta aproximación mejora al incrementarse el tamaño de la muestra

La distribución de muestras de 100 o más elementos tienden a ser normales y esto sirve para el
propósito de hacer estadística inferencial sobre los valores de una población. A esto se le llama teorema de
límite central: señala que una muestra de mas de 100casos, será una muestra con una distribución normal en
sus características, lo cual sirve para el propósito de hacer estadística inferencial.

Distribución normal: esta distribución en forma de campana se logra generalmente con muestras de
100 o más unidades muéstrales y es útil y necesaria cuando se hacen inferencias de tipo estadístico

¿Cómo son las muestras no probabilísticas?


Las muestras no probabilísticas, las cuales llamamos también muestras dirigidas suponen un procedimiento
de selección informal; se utilizan en cuanti y cualitativas. Selecciona sujetos “típicos” sin intentar que sean
representativos de una población determinada. Tienen desventajas: *al no ser probabilísticas, no podemos
calcular con precisión el error estándar (con qué nivel de confianza hacemos una estimación) ;en muestras no
probabilísticas tienen un valor limitado y relativo a la muestra en sí, mas no a la población, *los datos no
pueden generalizarse a una población, que no se consideró ni en sus parámetros, ni en sus elementos para
obtener la muestra.
La ventaja de una muestra no probabilística -desde la visión cuantitativa- es su utilidad para un
determinado diseño de estudio, que requiere no tanto de una “representatividad de elementos de una población,
sino de una cuidadosa y controlada elección de sujetos con ciertas características especificadas previamente
en el planteamiento del problema”.
Para el enfoque cuali, son de gran valor pues logran obtener los casos que interesan al investigador y ofrece
riqueza para la recolección y el análisis de datos.

Muestreo al azar por marcado telefónico (Random Digit Dialing)


Se utiliza para seleccionar muestras telefónicas. Involucra identificar areas geográficas y sus correspondientes
códigos telefónicos. Luego los demás dígitos del número pueden ser generados al azar de acuerdo con los
casos que requerimos para la entrevista (n).

Una máxima del muestreo y el alcance del estudio


Se trate de un muestreo u otro, lo importante es elegir a los informantes adecuados, de acuerdo al
planteamiento y el acceso a los mismos.
Los estudios exploratorios generalmente emplean muestras dirigidas, aunque podrian usarse muestras
probabilísticas. Las investigaciones experimentales, utilizar regularmente muestras dirigidas. Los estudios no
experimentales descriptivos o correlaciónales-causales deben emplear muestras probabilísticas si quieren
resultados generalizados.
En ocasiones, la muestra puede ser en varias etapas (poliétapica)

Texto 5.2 Los Metodos CUANTITATIVOS. - Venturini; Castelli-


Estadística descriptiva:
37
Sus orígenes se remontan a la antigüedad ya que todos los pueblos hicieron censos de población, recopilación
de datos para establecer la situación financiera de los estados, etc.
La palabra ESTADISTICA significa Recuento, o tabla numérica de datos. Se atribuye a Achenwall, profesor
de la Universidad de Gotingam, la introducción del nombre Estadistica para designar la “ciencia de las cosas
que pertenecen al Estado”.
Actualmente, la Estadistica es una ciencia que utiliza los resultados del Cálculo de probabilidades y tiene por
objeto la elaboración de métodos y modelos que permitan la descripción, el análisis y la predicción de
fenómenos reales.
La Estadística se organiza a fines del siglo XVII como una rama de la matemática aplicada y alcanza su
verdadero desarrollo en el siglo XVIII. Desde los comienzos de la civilización ya se utilizaban
representaciones graficas y otros símbolos en pieles, rocas, palos de madera y paredes para contar el numero
de personas , animales o cosas. Hacia el año 3000 a.c los babilonios usaban pequeñas tablillas de arcilla para
recopilar datos. En el siglo XXXI a.c, los egipcios analizaban los datos de la población y la renta de la zona.
En China existían registros numéricos similares con anterioridad al año 2000 a.c. Los griegos clásicos
realizaban censos cuya información se utilizaba hacia el 594ª.c para cobrar impuestos. El imperio Romano fue
el primer gobierno que recopiló una gran cantidad de datos sobre la población, superficie y renta de todos los
territorios bajo su control.
En nuestros días, la estadística se ha convertido en un metodo efectivo para describir con exactitud los valores
de datos económicos, politicos, sociales, psicológicos, biológicos o físicos, y sirve como herramienta para
relacionar y analizar dichos datos. El trabajo del experto estadístico no consiste solo en reunir y tabular los
datos, sino sobretodo en el proceso de “interpretación” de esa información.
La estadística descriptiva analiza, estudia y describe a la totalidad de individuos de una población. Su
finalidad es obtener información, analizarla, elaborarla y simplificarla lo necesario para que pueda ser
interpretada comododa y rápidamente. El proceso que sigue la estadística descriptiva es el Metodo
Estadistico.

El método estadístico:
Es el metodo por el cual se procesan los datos, cuenta con las siguientes etapas:
Recolección de datos: es la etapa inicial, estos datos brindan información sobre las características de los
individuos observados.
Agrupamiento de datos. Gráficos : los datos recogidos deben ser convenientemente ordenados y agrupados,
dispuestos en tablas o graficos para facilitar su lectura.
Medición De datos. Analisis: aquí comienza a actuar la matematica. Se observa si los datos tienden a centrarse
en torno de algunos valores denominados parámetros de posición (media, mediana,modo). Luego se analiza
la dispersión de esos valores respecto de esos parámetros de posicion. Surgen asi los parámetros de dispersión
(desviación media, varianza, desviación estándar)
Inferencia estadística: mientras la estadística descriptiva trabaja con TODOS los individuos de la población;
la estadística inferencial trabaja con muestras, subconjuntos formados por algunos individuos de la población.
La inferencia estadística puede permitir en algunos casos predecir el comportamiento futuro de la población
obeservada.

1)RECOLECCION DE DATOS:
para que el investigador social pueda llevar a cabo una investigación necesita de su materia prima, y ésta son
los DATOS y sus tecnicas el METODO ESTADISTICO. si la materia prima no es buena, el producto final,
su investigacion, tmp lo será. por eso es que es tan improtante esta etapa.
POBLACION: es el Total del conjunto de observaciones
Individuo: es cada uno de los elementos observados
Atributo: es el aspecto que se observa.
Ejemplo: se quiere realizar un estudio sobre los pesos de los alumnos de un curso. La POBLACION es el
conjunto de pesos, el INDIVIDUO es cada peso, y el ATRIBUTO es el peso.
Tipos de atributos:
Cualitativos: no se expresan por un numero (sexo, religión, nacionalidad)
38
Cuantitativos: se expresan por un numero (peso, estatura,salario)
Cuando el atributo es cuantitativo: si la variable se mide en un Numero Entero, es una Variable Discreta; si
se mide en números reales es una Variable Continua.

2)AGRUPAMIENTO DE DATOS. GRAFICOS.


El agrupamiento puede realizarse de diferentes maneras:
Ej: 1,62; 1,77; 1,64; 1,64; 1,64; 1,66; 1,69; 1,66; 1,66; 1,66; 1,66; 1,66; 1,74; 1,67; 1,67; 1,67; 1,67;
1,67; 1,69; 1,69; 1,69; 1,66; 1,69; 1,71; 1,71; 1,71; 1,72; 1,67; 1,74 ; 1,62

o Serie Simple: se indica la estatura correspondiente a cada alumno es una tabla o matriz de datos:

ALUMN ESTATUR
O A EN MTS

1 1,62
2 1,77
3 1,64
4 1,64
5 1,64
6 1,66
7 1,69
8 1,66
9 1,66
10 1,66
11 1,66
12 1,66
13 1,74
14 1,67
15 1,67
16 1,67
17 1,67
18 1,67
19 1,69
20 1,69
21 1,69
22 1,66
23 1,69
24 1,71
25 1,71
26 1,71
27 1,72
28 1,67
29 1,74
30 1,62

o Serie de Frecuencias:

39
X f fr fa %
1,62 2 0,07 2 7
1,64 3 0,1 5 10
1,66 7 0,23 12 23
1,67 6 0,2 18 20
1,69 5 0,17 23 17
1,71 3 0,1 26 10
1,72 1 0,03 27 3
1,74 2 0,07 29 7
1,77 1 0,03 30 3
30 1 100%
E

Frecuencia: es el número de veces que un valor se repite en el conjunto de observaciones.

Frecuencia absoluta (f) indica cuantas veces aparece el valor de cada variable

Frecuencia relativa (fr) es qué parte del total representa cada valor de la variable. Se obtiene dividiendo la
frecuencia absoluta por el número total de observaciones:

Frecuencia absoluta f
Fr= =
Total de observaciones n

Frecuencia acumulada (fa): indica cuantos datos se acumulan hasta un cierto valor. Se obtiene sumando a la
Frecuencia de ese valor, las Frecuencias de los valores anteriores.
Porcentaje (%): se obtiene multiplicando la Frecuencia relativa por 100. ( Fr x 100)

Intervalos de clase:
Cuando hay muchos datos, a veces conviene agruparlos por intervalos iguales llamados intervalos de clase.
Para determinar cuantos intervalos tomar y de qué amplitud, debemos primero, determinar el RANGO: que
es la diferencia entre el mayor valor y el menor valor.
La Amplitud se obtiene dividiendo el Rango por el numero de intervalos con los que se quiere trabajar. Si es
necesario el valor se puede aproximar.
Rango
A=
Numero de intervalos

GRAFICOS:
Otra forma de visualizar la información son los graficos. Hay distintos tipos.
● Graficos circulares: trabajan con porcentajes, el área de cada sector representa el porcentaje que
corresponde a la frecuencia de un cierto valor de la variable. Resultan muy adecuados cuando hay
POCOS VALORES, o bien cuando el carácter que se estudia es
cualitativo.

● Gráficos de barras simples:

40
a) horizontales

b) verticales

● Histogramas: se empelan para representar variables continuas dispuestas en intervalos de clase. El


histograma consiste en considerar rectángulos que tienen por base el intervalo de clase y por altura la
frecuencia en dicho intervalo.

● Polígono de frecuencia: es la curva que se obtiene asi: se determinan los puntos medios de cada
intervalo de clase y su correspondiente frecuencia; además el punto medio del intervalo que antecede
al primero y el que sigue al ultimo. La CURVA que uno esos puntos se denomina Poligono de
Frecuencias.

● Curvas: se emplean para representar la evolución de una variable a traves del tiempo.

3) MEDICION DE DATOS- análisis:

41
A partir de las observaciones, es necesario obtener números que las caractericen o representen. Estos se
denominan Parámetros. Ellos pueden ser:
✓ Parámetros de posición: Los más comunes son la media aritmética (promedio), la mediana y la moda.
Media Aritmética ( x ) : es el centro de gravedad de la distribución. Se calcula:
*si los datos NO están agrupados: X = X1 + X2 +… + Xn
N
es decir: X = Ex (chicas la E, es ese simbolito raro parecido q aparece en los apuntes, acá no hay)
n

*si los datos ESTÁN agrupados:


a) Serie de Frecuencias: la media aritmética se obtiene multiplicando cada valor por la frecuencia y luego
dividiendo por el número de observaciones:
X = X1.F1+X2.F2+…+XN.FN
N
Es decir: X = Ex. f
n
B) intervalo de clase: la media aritmética se obtiene multiplicando el valor medio de cada intervalo por la
frecuencia y luego dividiendo por el número de observaciones:
X = X1m . f1 + X2m .f2+…+ Xnm. fn
N

Es decir: X = Exm. f
N

La Mediana (Md)
Indica el valor de la variable por encima y por debajo del cual está la misma cantidad de observaciones.
a) Los datos NO están agrupados: se ordenan las observaciones de mayor a menos. Si N es par, la mediana
es el promedio de los valores centrales, si N es impar , es el valor central.

b) Los datos SI están agrupados:

*serie de frecuencias: la mediana corresponde al menor valor cuya frecuencia acumulada es mayor o igual
que N(es el total, o sea la cantidad de muestras. por Ej. 20 personas) dividido 2.
*intervalo de clase: consideramos los intervalos de clase y las frecuencias acumuladas. Determinamos el
intervalo de clase en el cual la frecuencia acumulada es el menor valor mayor o igual que n / 2. Se obtiene:
N - fa
Md = li + 2 h
f

EL Modo o la Moda (Mo)


Solo se aplica a datos agrupados. Es el valor de la variable al que corresponde la mayor frecuencia, osea el
que más se repite.
Formas de las curvas de distribución:
● Distribución normal: cuando coinciden los tres parámetros de posición: media aritmética, mediana y
modo, la distribución de dice norma. Gráficamente se representa por un dibujo campanular simétrico:
“la campana de Gauss” y representa el campo de probabilidad de las variables aleatorias continuas.
● Distribución no normal: cuando no coinciden los tres parámetros de posición la curva puede ser
Asimétrica a Izquierda, o asimétrica a Derecha.

42
✓ Parámetros de dispersión:
Desviación: es la diferencia entre el valor de cada variable y la media.
Desviación media (Dm)
a) Los datos no están agrupados (serie simple): se obtiene efectuando el cociente entre la suma de los
valores absolutos de las desviaciones y el numero de observaciones.

Dm = E( x – x)
N

b) Los datos están agrupados:


*serie de frecuencias: la desviación media es igual al promedio de los productos de los valores absolutos de
los desvíos por la frecuencia de la variable:
E (x – x ). f
n

*intervalo de clase: es igual al promedio de los productos d los valores absolutos de los desvíos respecto del
punto medio del intervalo por la frecuencia del intervalo:
E (Xm – X). F1
N
LA VARIANZA: se trabaja con los cuadrados de las desviaciones. (Es decir los 3 casos anteriores, cada uno
al cuadrado)

La desviación estándar (o) es la raíz cuadrada de la varianza. Mide la dispersión de los datos con respecto a la
media.
O = / o2

PARAMETROS:
DE POSICION:
Media aritmética
Mediana
Moda

DE DISPERSION:
Desviación
Desviación media
Varianza; desviación estándar.

5.3 Baranger 3-4 no esta

43
Unidad 6
Texto 6.1 leer de toma de nota

Texto 6.2: Indec

ACERCA DEL MÉTODO UTILIZADO PARA LA MEDICIÓN DE


LA POBREZA EN ARGENTINA
1. Consideraciones generales
La pobreza es, y ha sido por mucho tiempo, una temática central en el análisis de la situación social de los
países. En tanto fenómeno multidimensional, es medida por métodos alternativos que dan cuenta de las
distintas dimensiones que la caracterizan: por una parte, el método directo, también conocido como
Necesidades Básicas Insatisfechas (NBI) que consiste en identificar el conjunto de hogares que no pueden
satisfacer alguna necesidad básica. Por otra parte, el método indirecto, también llamado el "enfoque del
ingreso", que consiste en calcular el ingreso mínimo, o línea de la pobreza (LP), por encima de la cuál todas
las necesidades básicas se satisfacen e identificar a aquellos hogares o personas cuyos ingreso se ubican por
debajo de esta línea.
El concepto de pobreza relativa postula que las necesidades humanas varían de acuerdo a los cambios sociales
y a la oferta de productos en un contexto social determinado, dependiendo en última instancia del nivel de
ingresos general

2. Características del Método del Ingreso en la Argentina.


El INDEC utiliza para esas estimaciones el “enfoque del ingreso” siguiendo el concepto de pobreza absoluta.
De acuerdo con este método, un hogar es considerado pobre si su ingreso (la suma de los ingresos que reciben
todos los miembros del hogar) resulta menor que la “línea de pobreza”. La idea es evaluar si los recursos con
los que cuenta el hogar le permiten solventar un presupuesto que refleje la adquisición de aquellos bs y ss que
posibiliten a sus miembros convivir dignamente en sociedad y desarrollarse personalmente.

Las estimaciones que surgen de comparar los ingresos de los hogares que provienen de la Encuesta Permanente
de Hogares con el valor de la línea de pobreza que se computa regularmente. Para cada período se calcula una
línea de pobreza por hogar de manera de tomar en cuenta las diferencias que existen entre ellos en cuanto a la
cantidad de personas que lo componen, como en la distribución de sus miembros en términos de edades y
géneros.
En el año 1992 se introducen mejoras metodológicas donde el punto de partida de dicha metodología es el
cómputo del valor de la Canasta Básica de Alimentos. El valor monetario de esta canasta corresponde a la
Línea de Indigencia.

44
Para determinar dicha Canasta, se consideran inicialmente los valores recomendados por los nutricionistas
respecto de las cantidades mínimas de calorías y otros nutrientes que requieren personas de distinto género y
edad.

A los efectos de traducir esos requerimientos nutricionales en términos de un conjunto de alimentos


específicos, se toman en cuenta las pautas de consumo de la población: se considera la estructura de consumo
de un “grupo de referencia” conformado por hogares de ingresos relativamente bajos pero que no hayan
enfrentado una significativa limitación de recursos (hogares cuyos consumos de alimentos satisfacen
estrictamente, o superan levemente, los requerimientos nutricionales mínimos)
Finalmente, para la construcción de la Canasta Básica de Alimentos se realiza un ajuste que consiste en excluir
los alimentos cuyo costo por caloría es elevado, dichos productos son reemplazados por otros de similares
características, pero más baratos.
Las cantidades de los diferentes alimentos establecidos en la canasta básica se valorizaron utilizando "las listas
de precios medios mensuales obtenidos por el INDEC para el cálculo del Indice de Precios al Consumidor,
los que fueron promediados y agregados.

El componente no alimentario de la línea de pobreza se calcula de manera indirecta: En el "enfoque del


ingreso" .
El método al que se recurre se basa en postular que los hogares que satisfacen sus requerimientos nutricionales
también cubren las otras necesidades.
Específicamente, el componente no alimentario de la línea de pobreza se establece de manera agregada
considerando que su participación relativa debe ser la misma que los gastos no alimentarios tienen en el gasto
efectivo de la población de referencia. La relación Gasto en alimentos/ Gasto total se denomina coeficiente de
Engel. Entonces, se parte del gasto normativo de alimentación (el valor de la canasta básica) y se lo multiplica
por la inversa del coeficiente de Engel observado en la población de referencia.
Por lo tanto, la Línea de Pobreza de los hogares se calcula en función de la Canasta Básica Alimentaria a la
cual se le adiciona un factor de expansión (la inversa del coeficiente de Engel), que produce un monto mínimo
de ingreso necesario para cubrir todas las necesidades.

Ahora bien, es obvio que el gasto no alimentario de la población de referencia incluye gastos de vivienda,
medicamentos, indumentaria y transporte público, y turismo y mantenimiento de vehículos particulares. De
todos modos se insiste en que metodológicamente se emplea un estimador agregado: la inversa del coeficiente
de Engel.
A los efectos de poder seguir la evolución de la magnitud de la pobreza, esos valores originales son
regularmente actualizados a fin de tomar en cuenta la variación de los precios( el valor original de la canasta
alimentaria se actualiza con la variación de los precios de los artículos considerados en ella tomando los
precios medios de cada producto); para establecer en cada período el valor del coeficiente de Ángel, se procede
a actualizar la estructura de gastos del segundo quintil del ingreso per cápita del hogar (población de
referencia) de acuerdo a los cambios experimentados por los índices de precios correspondientes, lo cual
supone que se mantienen constantes las cantidades físicas del año base.

3. Comentarios sobre el ejercicio metodológico “Población Indigente y pobre en el total urbano: metodología
alternativa” de la Dirección Nacional de Coordinación de Políticas Macroeconómicas (DNCPM).
La DNCPM elaboró recientemente un informe en el cual se ejercita un cálculo de medición de la pobreza
basado en el “enfoque del ingreso”, pero que utiliza criterios metodológicos diferentes.
Esto merece algunas consideraciones.
En primer lugar, cuando se dispone de nueva información, no resulta recomendable realizar modificaciones
parciales de una metodología sino que deben encararse revisiones integrales.
No hay diferencias entre las metodologías del INDEC y de la DNCPM, ya que utilizan la misma Canasta
Básica Alimentaria.

45
Las diferencias surgen en el criterio utilizado para valorizar esa canasta ya que la DNCPM argumenta que los
precios medios - que utiliza el INDEC- no son representativos de los que pagan los hogares de menores
ingresos porque tienen un alto componente de precios tomados en grandes centros comerciales (a los cuales
los pobres no concurren).
La dificultad que tiene esta propuesta es que implica abandonar el mejor indicador disponible para medir la
evolución de los precios y optar por alternativas que importan una menor calidad en términos estadísticos.
Por otra parte, definido el valor de la CBA en el año base, la actualización supone aplicar tasas de variación
de los precios. Estadísticamente lo mejor es aplicar el
Estimador IPC de los alimentos que componen la CBA.

3. b Gastos no alimentarios.
La otra modificación que propone la metodología de la DNCPM se refiere al cálculo de la inversa del
coeficiente de Engel para determinar el componente no alimentario de la línea de pobreza. En
Primer lugar propone utilizar el primer quintil de ingreso per cápita como población de referencia y no el
segundo .
Se justifica el cambio argumentando que el INDEC considera como población de referencia un estrato que
tiene "consumos suntuarios" como los que se efectúan en concepto de compra y mantenimiento de vehículos
particulares.
En segundo lugar, a fin de contar con una estructura más actualizada del consumo – propone utilizar como
población de referencia el primer quintil de la Encuesta Nacional de Gastos de los Hogares de 1996/97.
Se vuelve a afirmar que el procedimiento correcto es utilizar la misma población de referencia, y esta debe
estar constituida por los hogares ubicados en el umbral inmediato superior a aquellos que apenas satisfacen
las necesidades básicas alimentarias.
Si la propuesta de considerar al primer quintil se basa en el cuestionamiento por la inclusión de determinados
rubros de gastos que podrían considerase suntuarios, un procedimiento más ajustado sería excluir tales rubros
del gasto de la población de referencia y recalcular el coeficiente de Engel.
Otro punto cuestionable de la metodología de la DNCPM, es que no solo utiliza dos poblaciones de referencia
sino que además, las mismas surgen de encuestas realizadas con una diferencia de 10 años.
En resumen, el ejercicio metodológico realizado por la DNCPM significa, en los hechos, que la Línea de
Indigencia estimada, tiene en común con la medición oficial, la misma población de referencia y la misma
composición de la Canasta Básica Alimentaria, cuyas pautas de consumo de alimentos es la que surge del año
base 1985, pero utiliza para valuarla precios más bajos.

4. Revisión del Método Oficial de Calculo de la Pobreza.


El INDEC se halla en la etapa final de revisión de la metodología oficial para la medición de la pobreza.
Como parte de esta actualización metodológica se realizó una revisión integral y comprensiva de la
metodología.
Esta estrategia permite abordar la cuestión de la valuación de la Canasta Básica de
Alimentos con el propósito de utilizar las alternativas que mejor reflejen los precios a los que se enfrenta la
población de referencia. También se adecuaron las normas nutricionales que sirven de base a la definición de
la canasta.
En la revisión metodológica actual se han tomado en cuenta ambos fenómenos de manera explícita la
disminución proporcional del gasto en ciertos rubros a medida que aumenta el número de miembros del hogar
y gastos son originados principalmente por personas con ciertas características también llamadas
equivalencias de consumo

Otra cuestión que se contempla en dicha revisión es la que hace al estudio de los sesgos de la medición de los
ingresos en las encuestas a hogares.
Todas estas revisiones y avances reconocen la necesidad de que se proporcione a los usuarios y público en
general la más amplia información acerca de la metodología y de los supuestos implícitos de las estimaciones
oficiales de pobreza. Marzo de 2003

46
VALORIZACION MENSUAL DE LA CANASTA BASICA ALIMENTARIA Y DE LA CANASTA
BASICA TOTAL
Concepto de Canasta Básica Alimentaria y de Canasta Básica Total
La medición de la pobreza con el método de la "Línea de Pobreza" (LP) consiste en establecer, a partir de los
ingresos de los hogares, si éstos tienen capacidad de satisfacer -por medio de la compra de bienes y servicios-
un conjunto de necesidades alimentarias y no alimentarias consideradas esenciales.
El procedimiento parte de utilizar una Canasta Básica de Alimentos (CBA) y ampliarla con la inclusión de
bienes y servicios no alimentarios (vestimenta, transporte, educación, salud, etcétera) con el fin de obtener la
Canasta Básica Total (CBT).
La CBA se ha determinado en función de los hábitos de consumo de la población. Previamente se tomaron
en cuenta los requerimientos normativos kilocalóricos y proteicos imprescindibles para que un hombre adulto,
entre 30 y 59 años, de actividad moderada, cubra durante un mes esas necesidades. Se seleccionaron luego los
alimentos y las cantidades a partir de la información provista por la Encuesta de Ingresos y Gastos de los
Hogares.

Para determinar la Canasta Básica Total, se consideraron los bienes y servicios no alimentarios. Se amplía la
CBA utilizando el "Coeficiente de Engel" (CdE), definido como la relación entre los gastos alimentarios y los
gastos totales observados.
Tanto la CBA como los componentes no alimentarios de la CBT se valorizan cada mes con los precios
relevados por el Índice de Precios al Consumidor (IPC).
Dado que los requerimientos nutricionales son diferentes según la edad, el sexo y la actividad de las personas,
es necesario hacer una adecuación que refleje las características de cada individuo en relación a sus
necesidades nutricionales. Para ello se toma como unidad de referencia la necesidad energética (2.700 kcal)
del varón adulto (de 30 a 59 años, con actividad moderada) y se establecen relaciones en función del sexo y
la edad de las personas construyendo así una tabla de equivalencias. A esa unidad de referencia se la denomina
"adulto equivalente".

2. Resultados recientes
El INDEC comunica periódicamente la incidencia de la pobreza y de la indigencia. En el primer caso se analiza
la proporción de hogares cuyo ingreso no supera el valor de la CBT; en el segundo, la proporción de los que
no superan la CBA.
Para efectuar esa comparación, se calculan los ingresos mensuales de cada uno de los hogares, relevados a
través de la Encuesta Permanente de Hogares (EPH) y se los compara con la CBA y la CBT correspondientes
al mismo hogar, considerando los valores "equivalentes" de todos sus miembros.

3. Composición de la Canasta Básica Alimentaria


Reproduce la composición de la Canasta Básica de Alimentos discriminando los artículos que la componen y
la cantidad de cada uno de ellos.

4. Tabla de equivalencias
Para calcular las unidades consumidoras en términos de adulto equivalente, se utiliza la tabla de equivalencias
de las necesidades energéticas.

5. Ejemplos de cálculos
5.1 Determinación de las unidades consumidoras (adultos equivalentes)
Se presentan a continuación un ejemplo de cómo se determina la cantidad de unidades consumidoras (adultos
equivalentes) para diferentes hogares.
– Hogar 1: de tres miembros, compuesto por una jefa de 35 años, su hijo de 18 y su madre de 61:
La jefa equivale a 0,74 de adulto equivalente.
El hijo equivale a 1,06 de adulto equivalente.
La madre equivale a 0,64 de adulto equivalente.
En total el hogar suma 2,44 unidades consumidoras o adultos equivalentes.
47
5.2 Determinación de los ingresos necesarios por hogar para superar el umbral de indigencia y de pobreza
La composición de cada hogar en términos de adultos equivalentes determina un valor de CBA específico
para ese hogar. Surge de multiplicar el costo de la CBA del adulto equivalente por la cantidad de adultos
equivalentes que conforman el hogar.
Para obtener el valor de la CBT, se multiplica el valor de la CBA del hogar por la inversa del Coeficiente de
Engel.
Los hogares serán considerados pobres si su ingreso es menor al valor de la CBT que le corresponde,
e indigente si su ingreso es inferior a la CBA correspondiente.

MAPA DE NECESIDADES BÁSICAS INSATISFECHAS 2001


El Censo y la localización de problemáticas sociales
El Censo Nacional de Población, Hogares y Viviendas 2001 es una herramienta muy ventajosa para la
focalización social y espacial ya que se trata de una fuente de información con cobertura universal que atiende
diversos aspectos de la temática sociodemográfica.
En primer lugar, la variedad de atributos que indaga permite describir las características sociales, demográficas
y habitacionales de la población (fuente básica para el conocimiento de las condiciones de vida de los hogares),
además por tratarse de un relevamiento nacional exhaustivo, el censo ofrece información específica de áreas
urbanas, localidades pequeñas y de la población dispersa en áreas rurales.
La información censal puede proporcionarse a distintos niveles de agregación geográfica y esta información
representada en mapas brinda una descripción que aumenta la precisión de los diagnósticos.

Localización de los hogares con Necesidades Básicas Insatisfechas


Se presenta una síntesis de algunos resultados censales (se muestra la incidencia y el perfil de los hogares con
Necesidades Básicas Insatisfechas)
Los hogares con Necesidades Básicas Insatisfechas son aquellos que presentan al menos una de las siguientes
condiciones de privación:
• Hacinamiento: hogares con más de tres personas por cuarto.
• Vivienda: hogares que habitan una vivienda de tipo inconveniente (pieza de inquilinato, vivienda precaria u
otro tipo, lo que excluye casa, departamento y rancho).
• Condiciones sanitarias: hogares que no tienen retrete.
• Asistencia escolar: hogares que tienen al menos un niño en edad escolar (6 a 12 años) que no asiste a la
escuela.
• Capacidad de subsistencia: hogares que tienen cuatro o más personas por miembro ocupado, cuyo jefe no
hubiese completado el tercer grado de escolaridad primaria.

Texto 6.3
Capitulo 11 - Hernandez Sampieri
· El reporte de resultados del proceso cuantitativo

Se mencionan dos tipos de reportes académicos y no académicos, así como los elementos más comunes que
integran un reporte producto de la investigación cuantitativa.

1. Antes de elaborar el reporte de investigación, debemos definir al receptor o usuario y al contexto:


Cuando el trabajo de investigación se ha revisado, organizado e interpretado es necesario comunicar los
resultados mediante un reporte, el cual puede adquirir diferentes formatos (libros, artículos etc).
Lo primero que se debe hacer es definir el tipo de reporte a elaborar, lo que depende de las razones por las
cuales surgió la investigación, los usuarios de estudio, el contexto en el cual se habrá de presentar.

48
Usuarios Contextos Estándares que normalmente Tipo de Report
comunes posibles aplican para elaborar el
reporte

Elaboradores de Académico, No Lineamientos lógicos o Resumen ejecutivo ,


políticas, académico estándares utilitarios. informe técnico ,
ejecutivos, presentaciones
-informe breve , orientación
funcionarios que visual del contenido , claridad audiovisuales
toman decisiones. de ideas etc.

Profesionistas y Académico, no Lineamiento lógicos o Resumen ejecutivo,


practicantes dentro académico estándares programáticos informe técnico,
del campo donde se presentaciones
- Orientación visual del
inserta el estudio. audiovisuales
contenido, resultados fácilmente
identificables y aplicables,
sugerencias practicas y
concretas para implementar.

Opinión pública no No académico Estándares centrados en la Articulo periodístico,


especializada( sencillez de los resultados. libro
estudiantes de
-brevedad,claridad,
primeros ciclos,
aplicabilidad a situaciones
grupos de la
cotidianas orientación visual
sociedad en general)
del contenido.

Académicos de la Académico Lineamientos utilizados en el Tesis , disertaciones,


propia institución pasado, para regular las informes de
educativa investigaciones en la escuela o investigación ,
facultad. Lineamientos presentación
individuales de los decanos y audiovisual, libro
profesores , investigadores de la
escuela, facultad o
departamentos.

Editores y revisores Académico Lineamientos publicados por el Artículos


de revistas editor y/o comité editorial de la
científicas revista. Es común que se
denominen normas o
instrucciones para los autores

49
Revisores de Académico Lineamientos o estándares Ponencia, poster o
ponencias para definidos en la convocatoria del cartel
congreso y congreso. Estos estándares son
académicos para el escrito que se presenta
externos( y/o publica así como para los
presentaciones en materiales adicionales
congresos, foros) requeridos.

2. Que elementos contiene un reporte de investigación academico?


Los elementos que contiene varían de acuerdo al tipo de reporte, sin embargo varios autores sugieren los
siguientes elementos:
a) Portada, incluye: titulo de investigación, nombre de los o el autor, institución, fecha y lugar donde se presenta.
b) Índice de reporte o tabla de contenidos, incluye: capítulos apartados y sub apartados, frecuentemente se
agregan indicies de tabla y/o figuras, cuadros y diagramas.
c) Resumen, constituye de una manera breve el contenido esencial del reporte de investigación, incluye el
planteamiento del problema, el método , los resultados más importantes y las principales conclusiones.
d) Cuerpo del documento incluye:
Introducción incluye: los antecedentes, el planteamiento del problema, el contexto de la
investigación, las variables y los términos de la investigación, importante que aparezca la
importancia e utilidad de la investigación para el campo profesional
Marco teórico: se incluyen las teorías que se manejaron
Método: acá se desarrolla como fue llevada a cabo la investigación , incluye enfoque (
cualitatito, cuantitativo, mixto) , contexto de investigación (lugar) casos universo y
muestra( tipo, procedencia, edades, genero) diseño utilizado ( experimental o no
experimental o que intervenciones se utilizaron, procedimiento un resumen de cada paso
en el desarrollo de la investigación) , descripción detallada de los procesos de recolección
de los datos y que se hizo con los datos una vez obtenidos , recolección es necesario
describir que datos fueron recabados , cuando y como .
Resultados lo cual es producto del análisis de los datos, generalmente el orden es: análisis
descriptivo de los datos, análisis inferenciales para responder a las preguntas y/o probar
hipótesis. El investigador se limita a describir sus hallazgos, una manera de hacerlo es
mediante tablas, cuadros, graficas, dibujos, diagramas.
Conclusiones, recomendaciones e implicaciones: , en esta parte se derivan conclusiones,
explicitan recomendaciones para otras investigaciones , se indica lo que debe hacerse ,
evalúan las implicancias de la investigación , relaciona los resultados con los estudios
existentes , destacan la importancia de todo el estudio etc.
e) Referencia o bibliografía: fuentes primarias utilizadas se incluye al final del reporte, ordenadas
alfabéticamente,.
f) Apéndices útiles para describir con mayor profundidad ciertos materiales, sin distraer la lectura del texto
principal.

3. Que elementos contiene un reporte de investigación o reporte no académico?


Portada-Índice-Resumen ejecutivo-Método-Resultados-Conclusiones-Apéndices

50
Pero cada elemento se trata con mayor brevedad y se eliminan las explicaciones técnicas que no pueden
ser comprendidas por los usuarios.

Capitulo 16- Hernandez Sampieri

· El reporte de resultados en el proceso cualitativo

1) Tipos

Usuarios Académico Contexto no


académico

Académicos de la Tesis y disertaciones, informes


propia institución de investigación, presentación
educativa. audiovisual, libros artículos

Editores y revisores de Artículos


revistas científicas.

Revisores de ponencias Ponencias, poster o afiches,


para congresos y presentaciones audiovisuales
académicos externos.

Elaboradores de Resumen ejecutivo, informe Resumen ejecutivo,


políticas ejecutivos o técnico, presentaciones informe técnico,
funcionarios que toman audiovisuales presentaciones
decisiones. audiovisuales

Profesionistas y Resumen ejecutivo, informe Resumen ejecutivo,


practicantes dentro del técnico, presentaciones informe técnico,
campo donde se inserta audiovisuales, libros presentaciones
el estudio. audiovisuales, libros

Opinión pública no Artículo periodístico o


especializada. reportaje , libros

Al igual que en los reportes cuantitativos, los reportes cualitativos son una manera de describir el estudio a
otras personas, y representa la culminación del proceso de investigación, el reporte debe ofrecer una respuesta
al planteamiento del problema y señalar las estrategias que se usaron para abordarlo.
Son más flexibles que los cuantitativos y se desarrollan mediante un esquema y forma narrativa.

A continuación algunas de sus características


- Lenguaje vivido, fresco y natural, con estilo más personal y se puede redactar en primera persona.
51
- Se redacta en tiempo pasado.
- El lenguaje no debe ser sexista/
- Las secciones deben relacionarse entre si a través de un hilo conductor.
- Deben contener fragmentos de testimonios.
- Se deben usar ejemplos, anécdotas, para enriquecer la narración
- En análisis, la interpretación y la discusión en el reporte deben incluir : las descripciones profundas y
completas de contexto ambiente o escenario, de los participantes los eventos y situaciones, las categorías ,
temas y patrones y de su interrelación, también es necesario aclarar cuál fue la posición del investigador frente
a los hechos.
- Se deben incluir todas las voces o perspectivas de los participantes, al menos las mas representativas.

2) Estructura del reporte cualitativo

Portada: comprende, titulo de la investigación, el nombre del autor o los autores , nombre de la
institución u organización
Índice de reporte o tabla de contenidos: capítulos, apartados y sub apartados
Resumen: contiene de manera breve el contenido fundamental del reporte de investigación y en
general incluye el planteamiento del problema , el método los resultaos más importantes y
principales conclusiones .
Cuerpo del documento:
Introducción: incluye antecedentes, planteamiento del problema, contexto de investigación,
importante que se comente la importancia del estudio para el campo profesional.
Método: como fue llevada la investigación?
- Contexto lugar o escenario
- Muestra o participantes: tipo procedencia, edad, genero etc.
- Diseño o abordaje: teoría fundamentada. Estudio narrativo etc.
- Procedimiento: resumen de cada paso en el procedimiento de la investigación.

Análisis y resultados: unidades de análisis, categorías, temas y patrones, descripciones detalladas,


significados para los participantes, experiencias de estos, ejemplos relevantes de cada categoría.
Discusión, conclusiones, recomendaciones e implicaciones.

Referencia o bibliografía
Apéndices un ejemplo de apéndice para un estudio cualitativo serian la guía de entrevistas.
3) Descripción del contexto o ambiente
A tener en cuenta:

- Primero se describe el contexto general, luego los aspectos específicos y detalles,


- La narración debe situar al lector en el lugar físico
- Se incluyen las percepciones tanto del investigador como de los las participantes

4) Presentación de los resultados


Tres aspectos son importantes en la presentación de los resultados por medio del reporte, la descripción
narrativa, el soporte de las categorías (con ejemplos), y los elementos gráficos.

52
Preg d parcial
que es un cuestionario, requisito, tipos..
que es una muestra, tipos de muestreo aleatorio
medir Media, Mediana y Moda
que es un diseño de intervencion, clasificacion y describir el experimental puro
y los NBI, que son y explicar los 5...
El otro parcial era: q es medir? Describir requisitos del instrumento. Requisitos de la investigacion
experimental. Tipos. Un ejercicio de media aritmetica y desviacion media en serie de frecuencias. Calcular
pobreza e indigencia en un caso. Y diseño descriptivo explicativo y correlacional. ejercicios de como sacar
la media aritmetica y la desviacion estandar, y calcular la linea de pobreza e indigencia (ellos te dan las
formulas)

(ANEXO)Metodología de la investigación social II. Olga Páez. Ficha resumen.


Conglomerado: Esta técnica tiene utilidad cuando el universo que se requiere estudiar admite ser subdividido
en universos menores de características similares a las del universo total. Entre ellos se escogen algunos que
serán los únicos que se procedan a investigar. Luego debe realizarse una segunda selección dentro de cada
uno de los conglomerados.
Estratificado: este supone que el universo puede desagregarse en subconjuntos menos, homogéneos
internamente pero heterogéneos entre si. El plan de subdivisión del conjunto “plan de representación” se
efectúa conforme al objetivo de la investigación. El reparto de la muestra en cada estrato, denominado
AFIJACION puede realizarse de tres maneras:
Afijación uniforme: que cada estrato tenga una muestra de igual tamaño
Afijación proporcional: que la muestra sea proporcional al número de elementos de cada estrato.
Afijación óptima: que la muestra de cada estrato sea proporcional al número de elementos y a la desviación
estándar.
Muestreo No Probabilístico: estas muestras no se basan en una teoría matematica-estadisticqa sino q
dependen del juicio del investigador. Estos métodos poseen ventajas en lo que se refiere a costos y tiempos,
pero es mas difícil controlar la validez de los resultados.
Por cuotas: en este método se fijan cuotas donde cada una consiste en un número de individuos q reúnen
determinadas condiciones. Se utiliza en encuestas de opinión. Consiste en predeterminar la cantidad de
elementos de cada categoría q habrán de integrar la muestra.
Intencional: las unidades se elijen de forma arbitraria designando a cada unidad según las caracterizas que
para l investigador resulten de relevancia. Se emplea el conocimiento y la opción personal para identificar

53
aquellos elementos qe deben ser incluidos en la muestra. Estas muestras no son tan útiles y se emplean en los
estudios de caso.
Muestra causal o accidental: es aquella q se obtiene sin ningún plan preconebido.las unidades elegidas resultan
producto de circunstancias fortuitas. El investigador no puede saber hasta que punto sus resultados podrán
proyectarse con confiabilidad.
Bola de nieve: se localizan algunos individuos, los cuales conducen a otros y estos a otros y así hasta conseguir
una muestra suficiente. Se aplica a casos especiales como drogadictos, pandillas,etc.

Tamaño de la muestra: la muestra descansa en el principio de que las partes representan al todo, y por tal,
refleja las características que definen a la población de la cual fue extraída, lo cual nos indica que es
representativa. Es decir, que para hacer una generalización exacta de una población, es necesario tomar una
muestra representativa.
La inferencia estadística realiza un estudio sobre una o varias muestras extraídas de una población o universo
y las conclusiones a las que se arriban son aplicables a todos los elementos de dicha población.
Limite de confianza: es la probabilidad de que el verdadero valor del parámetro estimado en la población se
sitúe en el intervalo de confianza obtenido.
Error sistemático: llamado de Distorsión o sesgo de la muestra, se presenta por causas ajenas a la muestra,
como:
Situaciones inadecuadas: se presentan cuando el encuestador tiene dificultades para obtener información y la
sustituye por la q más fácilmente está a su alcance, q no siempre es la más confiable.
Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas o respuestas inadecuadas, ya
sea por ignorancia o falta de datos relativos a los elementos incluidos. Distorsiones causadas por prejuicios,
interés personas.
Errores de cobertura: a causa de que no se han incluido elementos importantes y significativos para la
investigación que se realiza.
Error de muestreo o muestral: error de estimación o estándar. Es la diferencia entre un estadístico y su
parámetro correspondiente. Es una medida de la variabilidad de las estimaciones de muestras repetidas en
torno al valor de la población, nos da una noción clara de hasta dónde y con qué probabilidad una estimación
basada en una muestra se aleja del valor que se hubiera obtenido por medio de un censo completo.
A medida que incrementamos el tamaño de la muestra, el error muestral tiende a reducirse, pues la muestra
va acercándose más al tamaño del universo.
Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero determinar el porcentaje
de error que estamos dispuestos a admitir.
En estadística se llama, ESTIMACION, al conjunto de técnicas que permiten dar un valor aproximado de un
parámetro de una población a partir de los datos proporcionados por una muestra.
El termino PARAMETRO es utilizado para designar alguna característica descriptiva de los elementos de la
población. De forma análoga llamaremos estadístico A ALGUNA CARACTERISTICA DESCRIPTIVA DE
LOS ELEMENTOS DE LA MUESTRA.
Llamamos ERROR Muestral a la diferencia entre el valor del estadístico y el valor del parámetro. Para
determinar el tamaño de la muestra, el investigador necesita especificar el Error Muestra Tolerable, o sea
cuando se permite errar en la evaluación de los parámetros de interés., una fórmula para el cálculo del tamaño
mínimo de las muestras es:
No = 1
Eo (al cuadrado)
N: tamaño de la población
N: Tamaño de la muestra
No: Una primera aproximación para el tamaño de la muestra
Eo: error muestral tolerable
El uso de las MUESTRAS tiene el objetivo de extraer conclusiones q sean validas para el universo del cual se
obtuvo dicha muestra. Estas conclusiones tienen 2 propositos:
● ESTIMAR el valor de determinada característica de la población

54
● Prueba de Hipótesis estadísticas referidas a características de universo. Toman la forma de una
hipótesis nula. El investigador está interesado en rechazar esa hipótesis y aceptar consecuentemente
una hipótesis alternativa.
Condiciones de una buena muestra:
✓ TAMAÑO:
✓ Calidad

POBLACION Y MUESTRA
Población o universo: es el conjunto de todas las unidades o individuos en los que se desea estudiar el
fenómeno, el investigador debe definir y delimitar claramente el universo.
Una población está determinada por sus características definitorias. Por lo tanto, el conjunto de elementos que
posea esta característica se denomina Población o Universo. Población es la totalidad del fenómeno a estudiar,
donde las unidades de población poseen una característica común, la q se estudia y da origen a los datos d una
investigación.
Entonces, una población es el conjunto de todas las cosas q concuerdan con una serie determinada de
especificaciones.
En el caso q nuestro universo está compuesto por un numero alto de unidades será prácticamente imposible
examinar cada una de ellas, por ello se procede extraer una muestra. Cuando seleccionamos algunos elementos
con la intención de averiguar algo sobre una población determinada, nos referimos a este grupo de elementos
como Muestra.
La muestra descansa en el principio de que las partes representan al todo, y por tal, refleja las características
q definen la población de la que fue extraída.
Muestra es un subconjunto del universo, seleccionado por algun método de muestreo sobre el cual se realiza
la observación y recolección de los datos. El metodo de muestreo debe ser tal q asegure que la misma tenga
validez técnico-estadistica, es decir cumpla con los siguientes requisitos:
✓ Debe ser representativa: o reflejo general del unvierso estudiado, reproduciendo lo mas exactamente
las características del mismo
✓ Qe su tamaño sea estadísticamente proporcionado a la magnitud del universo
✓ Que el error muestral se mantega dentro de los limites adoptados como permitidos.

Las ventajas del uso de la muestra son:


▪ Económica: es mas económico el relevamiento de solo una parte de la población
▪ Tiempo: siempre será mas rápido relevar una muestra que la totalidad de la población
▪ Confiabilidad de los datos: al relevar un numero reducido de elementos, se puede prestar atención a
los casos individuales, evitando errores en la respuesta.
▪ Operacionalidad: es mas fácil realizar operaciones en pequeña escala. Uno de los problemas típicos en
grandes relevamientos es el control de los encuestadores.

Individuo-unidad de observación: es cada uno de los elementos que componen el universo y la muestra. Los
individuos no son necesariamente personas pueden serlo o sino ser acontecimientos.
Marco de referencia de un estudio estadístico:
1_ definir la unidad de observación. Las unidades de observación pueden tener existencia natural, como una
persona o cosa, o puede estar definida artificialmente como las distintas areas d una empresa.
2_ determinar qué vamos a medir
3_ definir si el relevamiento de datos se hace sobre la totalidad(población) o sobre una muestra. Si el analisis
se realiza en base a una muestra, el objetivo es obtener conclusiones acerca de la población.
4_ identificar el marco del muestreo.

Representativa: refleja lo mas exactamente posible al conjunto de la población


55
EL PLAN DE MEUSTREO: establece todo los pasos a seguir en la obtención de la muestra una vez que se
ha definido la población objetivo.
A) DEFINIR LA POBLACION:
Población: se defino como el conjunto de todos los elementos capaces de ser seleccionados en la muestra,
debe estar perfectamente definida en cuanto a los elementos que la componen y su probable distribución.
Unidad de muestreo: es un elemento o conjunto de elementos definidos en una población para ser
seleccionados en alguna etapa del proceso de muestreo.
Extensión del muestreo: se refiere al lugar físico donde se llevara a cabo la experiencia
Tiempo: hace referencia al periodo correspondiente a la recolección de la información.

B) IDENTIFICAR EL MARCO DE MUESTREO:


Es un listado de todas las unidades de muestreo q pueden ser seleccionadas en alguna etapa del proceso de
muestreo. La calidad de un marco de muestreo es de especial importancia para la calidad de la muestra.

Hay 4 problemas básicos q se deben tener en cuenta al utilizar un marco de muestreo:


Marco insuficiente: esto significa q el marco seleccionado no abarca todos los elementos q forman la población
definida para el estudio. Tales elementos no tienen ninguna probabilidad de ser seleccionados para integrar la
muestra y quedaran subrepresentados si la omisión es parcial y no representados si la omisión es total
Duplicaciones: algunos marcos pueden incluir mas de una vez algunas observaciones. En la medida q estas
repeticiones no puedan ser detectadas tmb producen sesgo en los resultados.
Marco anticuado: es posible q el marco no esté actualizado, por lo q puede contener unidades q ya no
pertenecen al universo de estudio o pueden no contener unidades q deberían ser incorporadas.
Elementos ajenos: un marco puede tener elementos q no pertenecen al universo en estudio.
C) DETERMINAR EL TAMAÑO DE LA MUESTRA
D) ELEGIR UN METODO DE SELECCIÓN DE LA MEUSTRA Y SELECIONARLA.
Tipos de muestra y procedimientos de selección:
PROBABILISTICO:
Aleatorio simple
Aleatorio sistemático
Conglomerado
Estratificado

NO PROBABILISTICO:
Por cuotas
Intencional / teórico
Casual- accidental
Bola de nieve.

56

También podría gustarte