Está en la página 1de 92

Fundamentos Conceptuales

de Estadı́stica
Fundamentos Conceptuales
de Estadı́stica

Oscar F. Soto Bocanegra

Universidad Nacional de Colombia


Facultad de Ciencias
Departamento de Estadı́stica
Sede Bogotá
Índice general

1 Introducción 1
1.1 Formas del saber . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Saber Cotidiano . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Saber Cientı́fico . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Método cientı́fico e investigación . . . . . . . . . . . . . . . . . 2
1.2.1 Caracterı́sticas de un Método Cientı́fico . . . . . . . . . 3
1.2.2 Investigación y su Procedimiento . . . . . . . . . . . . . 3
1.3 La Estadı́stica y la Investigación . . . . . . . . . . . . . . . . . 4
1.4 Reseña histórica de la Estadı́stica . . . . . . . . . . . . . . . . . 5

2 Conceptos fundamentales de Estadı́stica 9


2.1 Definiciones de Estadı́stica . . . . . . . . . . . . . . . . . . . . . 9
2.2 Caracterı́sticas del método estadı́stico . . . . . . . . . . . . . . 10
2.3 Clasificación de los métodos estadı́sticos . . . . . . . . . . . . . 11
2.4 Sistema conceptual básico . . . . . . . . . . . . . . . . . . . . . 11
2.4.1 El Colectivo, Agregado, Población, Universo . . . . . . . 11
2.4.2 Las Variables . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.3 Escalas de Medición o Clasificación . . . . . . . . . . . . 12
2.4.4 El Censo o Enumeración Completa . . . . . . . . . . . . 19

iv
ÍNDICE GENERAL v

2.4.5 El Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.6 Los Parámetros y las Estadı́sticas . . . . . . . . . . . . . 21

3 Metodologı́a de la Estadı́stica 22
3.1 Definición de Objetivos . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Definición del colectivo o población . . . . . . . . . . . . . . . . 23
3.3 Determinación de la cobertura . . . . . . . . . . . . . . . . . . 23
3.4 Determinación del marco de muestreo . . . . . . . . . . . . . . 23
3.4.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4.2 Problemas del Marco . . . . . . . . . . . . . . . . . . . . 24
3.4.3 Soluciones Generales . . . . . . . . . . . . . . . . . . . . 24
3.5 Definición de unidades . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.1 Unidad Poblacional . . . . . . . . . . . . . . . . . . . . 25
3.5.2 Unidad Muestral . . . . . . . . . . . . . . . . . . . . . . 25
3.5.3 Unidades de Observación . . . . . . . . . . . . . . . . . 25
3.6 Determinación del diseño muestral . . . . . . . . . . . . . . . . 26
3.6.1 Muestreo No Probabilı́stico . . . . . . . . . . . . . . . . 26
3.6.2 Muestreo Probabilı́stico . . . . . . . . . . . . . . . . . . 27
3.7 Recolección de información . . . . . . . . . . . . . . . . . . . . 27
3.8 Tratamiento de la información . . . . . . . . . . . . . . . . . . 28
3.8.1 Distribuciones de Frecuencias . . . . . . . . . . . . . . . 28
3.8.2 Clasificación Unidimensional . . . . . . . . . . . . . . . 29
3.8.3 Clasificación Bi y Pluridimensional . . . . . . . . . . . . 31
3.9 Análisis e Interpretación . . . . . . . . . . . . . . . . . . . . . . 33

4 Análisis de variables no cuantitativas 35


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Análisis básico en tablas 2 x 2 . . . . . . . . . . . . . . . . . . . 35
4.2.1 Notación y Consistencia . . . . . . . . . . . . . . . . . . 35
4.2.2 Independencia y Correspondencia . . . . . . . . . . . . . 36
4.2.3 Clasificación Multivariada Dicotómica . . . . . . . . . . 41
4.3 Clasificación múltiple . . . . . . . . . . . . . . . . . . . . . . . . 42
vi ÍNDICE GENERAL

5 Análisis descriptivo de una variable cuantitativa 44


5.1 Medidas caracterı́sticas unidimensionales . . . . . . . . . . . . . 44
5.1.1 La Media Aritmética . . . . . . . . . . . . . . . . . . . . 44
5.1.2 La Varianza . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.1.3 La desviación estándar y el coeficiente de variación . . . 48
5.1.4 Los Percentiles . . . . . . . . . . . . . . . . . . . . . . . 49
5.1.5 La Moda . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6 Estudios de relación entre variables cuantitativas 51


6.1 La regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2 La explicación de la variación del modelo . . . . . . . . . . . . 53

7 Algunos conceptos de Probabilidad 55


7.1 Teoremas básicos de Probabilidad . . . . . . . . . . . . . . . . . 55
7.1.1 Definición clásica . . . . . . . . . . . . . . . . . . . . . . 55
7.1.2 Teoremas básicos . . . . . . . . . . . . . . . . . . . . . . 55
7.2 Función de probabilidades . . . . . . . . . . . . . . . . . . . . . 56
7.3 Función de distribución . . . . . . . . . . . . . . . . . . . . . . 57
7.4 Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.5 La varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
7.6 Funciones especiales de probabilidad . . . . . . . . . . . . . . . 59
7.6.1 Bernoulli o bipuntual . . . . . . . . . . . . . . . . . . . 59
7.6.2 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.6.3 Binomial negativa . . . . . . . . . . . . . . . . . . . . . 60
7.6.4 Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.6.5 Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . 60
7.6.6 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.6.7 La multinomial . . . . . . . . . . . . . . . . . . . . . . . 62
7.6.8 Hipergeométrica generalizada . . . . . . . . . . . . . . . 62
7.6.9 La normal . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.6.10 La normal estandarizada o tipificada o reducida . . . . . 63

8 Conceptos de inferencia estadı́stica 64


ÍNDICE GENERAL vii

8.1 Generalidades acerca de inferencia . . . . . . . . . . . . . . . . 64


8.1.1 Inferencia Matemática . . . . . . . . . . . . . . . . . . . 65
8.1.2 Inferencia fáctica . . . . . . . . . . . . . . . . . . . . . . 65
8.1.3 Inferencia Estadı́stica . . . . . . . . . . . . . . . . . . . 65
8.1.4 Inferencia Reductiva . . . . . . . . . . . . . . . . . . . . 66
8.2 Inferencia estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . 66
8.2.1 Inferencia Clásica . . . . . . . . . . . . . . . . . . . . . . 67
8.2.2 Inferencia bayesiana . . . . . . . . . . . . . . . . . . . . 67
8.3 Distribuciones en el muestreo . . . . . . . . . . . . . . . . . . . 67

9 La estimación estadı́stica 72
9.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
9.2 Algunas propiedades de un buen estimador . . . . . . . . . . . 73
9.2.1 Insesgamiento . . . . . . . . . . . . . . . . . . . . . . . . 73
9.2.2 Consistencia . . . . . . . . . . . . . . . . . . . . . . . . 74
9.2.3 Eficiencia relativa . . . . . . . . . . . . . . . . . . . . . . 74
9.2.4 Suficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.3 Formas de hacer estimaciones . . . . . . . . . . . . . . . . . . . 75

10 Pruebas de hipótesis estadı́sticas 78


10.1 Hipótesis nula – Hipótesis alternativa . . . . . . . . . . . . . . . 78
10.2 Error tipo I – Error tipo II . . . . . . . . . . . . . . . . . . . . 79
10.3 Proceso general de prueba . . . . . . . . . . . . . . . . . . . . . 81
viii ÍNDICE GENERAL
CAPÍTULO 1

Introducción

1.1. Formas del saber


Los seres humanos poseen mayores o menores conocimientos, según el modo
y grado de participación en la totalidad de la cultura, pero las formas y tipos
de conocimientos generan dos modos principales del saber que son el Saber
Cotidiano y el Saber Cientı́fico.
Se sabe de manera natural por el solo hecho de vivir, y se sabe
cientı́ficamente cuando existe disposición de conocer con arreglo a ciertos
procedimientos.

1.1.1. Saber Cotidiano

Es el saber o conocimiento que se adquiere en la experiencia cotidiana. Se


trata de conocimientos inconexos entre si, a veces superficiales, constituidos por
una yuxtaposición de casos y hechos. Es el modo común y corriente, espontaneo
de conocer.
Este saber cotidiano, también llamado el conocimiento vulgar, se caracteriza
por ser superficial, en el sentido de que se conforma con lo aparente, con lo que
comprueba al pasar junto a las cosas. Además es no sistemático, tanto en el
proceso de adquisición y vinculación, como en el modo de establecer cánones de
validación; se limita a percibir lo inmediato a través de experiencias, vivencias,
estados de ánimo y emociones de la vida diaria, permaneciendo a nivel de
certeza sensorial.

1
2 CAPÍTULO 1. INTRODUCCIÓN

Otra caracterı́stica propia de este saber es la de ser acrı́tico puesto que


está apoyado solo en la evidencia inmediata y solo percibe entonces la epidermis
de la realidad; puede decir acerca de lo que pasa, pero no porque pasa lo que
pasa.

1.1.2. Saber Cientı́fico

Se acepta actualmente como definición de conocimiento cientı́fico o en


general Ciencia, a un conjunto de conocimientos racionales, ciertos o probables,
que obtenidos de manera metódica y verificados empı́ricamente, se sistematizan
orgánicamente, haciendo referencia a objetos de una misma naturaleza, cuyos
contenidos son susceptibles de ser transmitidos.
Es racional puesto que exige el uso de la razón y ello tiene exigencias
metódicas que conforman una serie de elementos básicos, tales como un sistema
conceptual, hipótesis, definiciones, etc.
Es cierto o probable; en la ciencia no existe la certeza absoluta, sino solo
la probabilidad inductiva; se trata de verdades parciales, sujetas a corrección
cuando nuevos datos o experiencias demuestran la necesidad de rectificación.
Los conocimientos de la ciencia no se adquieren al azar o en la vida
cotidiana, sino mediante reglas lógicas que acompañadas de procedimientos
técnicos se organizan según ciertas convenciones cientı́ficas; por esto la ciencia
es metódica.
También requiere la confrontación con la realidad y la sistematización
orgánica, ya que no se trata de conocimientos inconexos sino de un saber
ordenado lógicamente constituyendo un sistema de generalizaciones y principios
que relacionan los hechos entre sı́, deduciendo leyes y teorı́as.
Lo anterior implica que el saber cientı́fico se refiera a objetos de una
misma naturaleza, objetos pertenecientes a un determinado ámbito de la
realidad, que guardan entre sı́ caracteres de homogeneidad, acerca de los cuales
se afirma algo de sus propiedades estructurales y relaciones.
Finalmente, los conocimientos de una ciencia deben ser transmisibles por
medio, de un lenguaje que le es propio y que debe responder a todas las
exigencias de claridad y precisión.

1.2. Método cientı́fico e investigación


Entre un tipo del saber y otro existe una separación que no es cualitativa
sino de grado; lo diferenciador no está dado por la naturaleza del objeto de
estudio, ni por la veracidad de lo conocido sino por la forma de su adquisición
y los instrumentos del conocer. En tanto que el saber vulgar no es sistemático,
1.2. MÉTODO CIENTÍFICO E INVESTIGACIÓN 3

el cientı́fico lo es, requiere de un proceso formal es decir de un MÉTODO.


Se entiende por un Método Cientı́fico un camino a seguir mediante una
serie de operaciones, reglas y procedimientos fijados de antemano de manera
voluntaria y reflexiva, para alcanzar un determinado fin que puede ser material
o conceptual.

1.2.1. Caracterı́sticas de un Método Cientı́fico


Es FACTICO, en el sentido de que los hechos son fuente de información y
de respuesta. Se dice que un Método Cientı́fico parte de la observación de los
hechos, está basado en los hechos, tiene un referencial empı́rico.
TRASCIENDE LOS HECHOS; si bien un Método Cientı́fico parte de
los hechos particulares no se detiene en ellos, sino que mediante un salto del
nivel observacional al teórico los trasciende, los problematiza y establece leyes,
teorı́as, etc. La interpretación de los hechos se realiza desde un determinado
marco de referencia teórico que, a su vez, se apoya en supuestos meta – teóricos.
Se atiene a REGLAS METODOLÓGICAS formalizadas (operaciones,
procedimientos establecidos de antemano), pero no por eso deshecha la intuición
y la imaginación.
Se vale de la VERIFICACIÓN EMPÍRICA para formular respuestas
a los problemas planteados y para apoyar sus propias afirmaciones, exigiendo
una constante confrontación con la realidad que lleva a la problematización de
lo ya adquirido y admitido.
Esta permanente confrontación hace que un Método Cientı́fico sea
AUTOCORRECTIVO Y PROGRESIVO. Es autocorrectivo en cuanto va
rechazando, corrigiendo o ajustando las propias conclusiones en la medida que
algunos hechos demuestren la existencia de algún error u omisión. Es progresivo
ya que, al no tomar sus conclusiones como infalibles o finales, está abierto a
nuevos aportes y a la utilización de nuevas técnicas y procedimientos.
Es GENERALIZANTE. La cosa en particular o el hecho individual o
singular interesa en la medida en que es miembro de una ley o clase. No es que se
ignore la cosa individual o el hecho irrepetible, lo que ignora es el hecho aislado,
puesto que sus enunciados son universales y expresan el comportamiento o
relación que guardan determinados fenómenos de una manera regular.
Es OBJETIVO ya que busca alcanzar la verdad que los hechos muestran,
independientemente de la escala de valores y creencias del cientı́fico.

1.2.2. Investigación y su Procedimiento


El proceso especı́fico para aplicar un Método Cientı́fico es llamado en
términos generales, INVESTIGACIÓN. Formalmente se define como un
4 CAPÍTULO 1. INTRODUCCIÓN

procedimiento reflexivo, sistemático, controlado y crı́tico que tiene por finalidad


descubrir o interpretar los hechos y fenómenos, relaciones y leyes en un
determinado ámbito de la realidad.
El procedimiento implica una serie de etapas o fases ordenadas lógicamente,
que pueden ser resumidas de la siguiente forma:

Formulación correcta del problema a investigar.

Definición concreta de los objetivos que se persiguen.

Elección de los procedimientos metodológicos para realizar la


investigación.

Obtención de la información necesaria para el estudio.

Tratamiento de tal información.

Análisis e interpretación de la información.

Conclusiones del proceso investigativo.

1.3. La Estadı́stica y la Investigación


Aunque no siempre los estudios o investigaciones lo requieren, en un
gran número de ellos la cuantificación y medición de hechos numerosos es
imprescindible para la obtención de los objetivos planteados. Es en estos casos,
cuando la Estadı́stica aparece como una valiosa ciencia auxiliar de procesos de
investigación y estudio.
La formulación correcta de un problema a investigar, solo se puede lograr
en muchos casos, con base en el análisis, a veces simplemente exploratorio, de
datos referentes al problema. La definición de objetivos, la determinación de
procedimientos metodológicos, en fin, prácticamente todas las etapas de un
proceso investigativo, requieren para su mejor desarrollo de la Estadı́stica, en
las circunstancias anotadas anteriormente.
Los métodos propios de la Estadı́stica están ı́ntimamente relacionados
con las caracterı́sticas de un Método Cientı́fico. La Estadı́stica con sus
métodos descriptivos, permite la observación de los hechos y con sus métodos
inferenciales colabora con el proceso de transcenderlos, de generalizar el
comportamiento o relación de fenómenos, aportando además formas de medir
la confianza y validez de tales generalizaciones, con base en su soporte
probabilı́stico.
Se puede entonces ubicar a la Estadı́stica como un valioso auxiliar de un
Método Cientı́fico, ubicación esta que implica una visualización de esta Ciencia
en el aspecto de su aplicación práctica, sin considerar su ubicación formal, el
1.4. RESEÑA HISTÓRICA DE LA ESTADÍSTICA 5

objeto formal de su conocimiento desde el punto de vista filosófico y por ende


epistemológico.

1.4. Reseña histórica de la Estadı́stica


Como toda técnica, toda disciplina y toda ciencia, la Estadı́stica tuvo como
principio el ser un medio de satisfacer alguna necesidad del ser humano. Ahora
bien, desde sus orı́genes, este ha sentido la necesidad de cualificar hechos
numerosos, única forma en muchos casos, de tener alguna idea acerca del
comportamiento generalizado de tales hechos, objetivo este que solo se logra
por medio de procesos de sı́ntesis, de reducción, de compendio de la información
numérica que la citada clasificación produce.
Las estadı́sticas son tan antiguas como las sociedades humanas, afirma
Cansado y continúa anotando que desde que ellas existen se han producido
censos, relaciones, catastros, etc., con información sobre recursos humanos,
económicos o de otra ı́ndole. Se tienen referencias históricas acerca de los datos
recogidos por los israelitas y egipcios en relación con la medida de la población.
Parece ser que los datos más antiguos son los censos ordenados por el emperador
Tao, 2.200 a.C.
También tuvieron importancia los censos romanos hacia el año 555 a.C.,
de sumo interés dada la organización eminentemente polı́tica y guerrera de
Roma; unos cien años después fueron implantados los censores. El Breviarium
de Carlomagno, el Digest – Book de Guillermo de Orange, Descripciones
de España mandadas por el Califato de Córdoba al de Bagdad, Actividades
demográficas de la República veneciana, son ejemplos de bosquejos de procesos
estadı́sticos, obviamente rudimentarios, pero que muestran la necesidad de, por
lo menos, describir numéricamente fenómenos colectivos.
Se puede concluir entonces que la Estadı́stica, se origina como un medio
para ayudar al ser humano a comprender en forma sencilla y abreviada grandes
masas de información numérica, sin que esto quiera decir que la Estadı́stica
como ciencia, se limite hoy en dı́a a tan elemental proceso.
En realidad la Estadı́stica como ciencia organizada y formalizada, aparece
en épocas menos remotas, aproximadamente a finales del siglo XVII y
durante el XVIII, con sus principales exponentes en Alemania, donde existe
en la universidad de Gottinga una cátedra y curso de Estadı́stica. En ella
se enseñan y se ponen en práctica una serie de métodos numéricos para
hacer descripciones de hechos relacionados con el funcionamiento del Estado.
Estos métodos después de recibir la aceptación académica del encuadramiento
sistemático, empiezan a gozar del favor del público. Su objeto es la descripción
cuantitativa de las cosas del estado, pero aún le faltaba el contenido cientı́fico
más formal de la búsqueda de leyes generales del fenómeno colectivo
estudiado, que es el objeto de la disciplina, razón por la cual algunos tratadistas
6 CAPÍTULO 1. INTRODUCCIÓN

la consideraban como disciplina descriptiva y no como ciencia.


El hecho de estar los métodos asociados a hechos del estado y simplemente
describir el “status quo”, parece originar la palabra Estadı́stica, a partir de
la raı́z latina status o de la griega statera o de la palabra alemana staat,
todas relativas al concepto de Estado como ente gubernamental. Esta acepción
de la palabra Estadı́stica, desafortunadamente la única que tiene un gran
porcentaje de opinión pública en nuestro medio acerca de lo que es esta ciencia,
aparece recalcada en el prefacio de “Una visión polı́tica del estado actual
de Europa”, por E. A. W. Zimmermann, publicada en 1787, donde anota:
“Hace cerca de cuarenta años que esta rama del conocimiento polı́tico, que
tiene como objeto estudiar la potencia real y relativa de los distintos estados
modernos, la capacidad derivada de sus condiciones naturales, la industria
y la civilización de sus habitantes y la sabidurı́a de sus gobernantes, se ha
constituido, principalmente por obra de escritores alemanes, en una ciencia
independiente... Por la forma más conveniente que ahora ha tomado, esta
ciencia, conocida por el recién inventado nombre de Estadı́stica, ha llegado
a ser un estudio favorito en Alemania”.
Las técnicas descriptivas en boga, se diversifican a fenómenos no
necesariamente estatales, como la industria, la economı́a, etc. por lo que,
se define entonces a la Estadı́stica como un “Método para describir
numéricamente, caracterı́sticas de fenómenos colectivos”. Hoy en dı́a
los procesos descriptivos de la Estadı́stica, son una parte esencial de tal ciencia,
pero no los únicos; corresponderı́an al proceso inicial del Método Cientı́fico,
anteriormente citado, o sea a la observación de los hechos.
Aproximadamente, por la misma época en que se presenta la citada acepción
de Estadı́stica, está en auge una rama de las Matemáticas, con sus principales
exponentes en Francia e Inglaterra, que trata de controlar el comportamiento de
los juegos de azar y por ende de todo fenómeno afectado por este, dando origen
al Cálculo de Probabilidades, que se constituirá en un gran aporte para el mayor
desarrollo de la Estadı́stica. Se requiere de un procedimiento estructurado,
sistematizado, formalizado, es decir cientı́fico, para manejar la incertidumbre,
que además permita cuantificar los diversos niveles de esta.
Filosóficamente no se está descubriendo o desarrollando la probabilidad,
pues ella es inherente al ser humano, sino que se la está cuantificando. Al
respecto es conveniente considerar dos tipos de fenómenos a los que se enfrenta
el ser humano en su vida común y corriente y por consiguiente en su vida
técnica y cientı́fica. Ellos son los llamados fenómenos determinı́sticos y
los fenómenos aleatorios, caracterizados los primeros por ser de naturaleza
tal que, al observados o realizarlos bajo las mismas condiciones generales,
presentan siempre el mismo resultado, en tanto que los segundos no presentan
tal caracterización.
La distinción la origina el determinismo causal, que implica para los
fenómenos determinı́sticos un conocimiento y control absoluto de todos los
1.4. RESEÑA HISTÓRICA DE LA ESTADÍSTICA 7

factores que determinan el comportamiento del fenómeno, lo cual no sucede


en el caso aleatorio, donde se supone que adicionalmente actúan factores de
casualidad o del azar, debidos a conocimiento de factores causales pero con
la imposibilidad de controlarlos o desconocimiento de algunas de las causas.
Ciertos filósofos aseguran que todo fenómeno está constituido por factores de
causalidad y factores de casualidad, solo que en algunos casos la influencia
de estos últimos es tan poca, que se puede despreciar y se acepta entonces el
concepto de determinismo absoluto.
Frecuentemente se diferencian los dos tipos de fenómenos, anotando que
en los determinı́sticos se conocen los posibles resultados y en los aleatorios
no. Esto no es cierto, pues en general en las dos situaciones se conocen los
posibles resultados, lo que sucede es que en el caso determinı́stico se puede
predecir o determinar con certeza cual resultado se presentará o como
se comportará el fenómeno, mientras que en el caso aleatorio solo se puede
predecir con incertidumbre lo que ocurrirá. Por consiguiente, el ser humano
siempre ha tratado de medir su nivel de incertidumbre, es decir siempre ha
convivido con la probabilidad, en su sentido conceptual de ser una medida
de la verosimilitud de los resultados de fenómenos aleatorios. La palabra
verosimilitud es sinónima de potencia, fuerza, posibilidad (siendo un poco
circular) de ocurrencia o suceso.
Palabras, frases y actitudes, han sido utilizadas por el ser humano
para referirse a, o manejar lo incierto, constituyéndose aquellas en formas
elementales de medida (lógicamente no numérica) de la verosimilitud. Quien,
en situaciones inciertas, no ha dicho o ha oı́do decir: “yo creo que...”, “a
lo mejor...”, “posiblemente...”, inclusive un muy usual “lo más seguro es
que...”? Pues bien, estas formas de medir son poco formales, muy inciertas,
no sistematizadas, nada cientı́ficas y se requiere un proceso que si posea estas
cualidades; es lo que se empieza a desarrollar en la Matemática, especialmente
en Francia e Inglaterra, como se anotó anteriormente. La idea es cuantificar
la probabilidad.
Simultáneamente, con este desarrollo matemático de la probabilidad,
se empiezan a detectar en las “estadı́sticas descriptivas”, comportamientos
regularizados, tendenciosos, generalizados de los fenómenos que se describen. Se
detecta la regularidad estadı́stica, que se enunciará posteriormente, dando
lugar los dos procesos al nacimiento de una serie de métodos que permiten,
siempre con incertidumbre, predecir, proyectar, estimar, inferir fenómenos en
diferentes campos de la actividad humana corriente y sobretodo técnica y
cientı́fica.
Aparece entonces el concepto Estadı́stica, para referirse a una “Rama de
las matemáticas, que permite realizar inferencias en situaciones de
incertidumbre”, lo que constituye hoy una parte esencial de la Estadı́stica,
llamada la Inferencia Estadı́stica, pero que no corresponde exactamente a una
definición de lo que es esta ciencia.
8 CAPÍTULO 1. INTRODUCCIÓN

Una tercera acepción de la palabra Estadı́stica se encuentra, más o menos


en las mismas épocas citadas anteriormente, en Suecia e Inglaterra para hacer
referencia a técnicas de “Estudio numérico de sociedades humanas”, lo
que hoy llamamos Demografı́a, pero que es erróneamente conocido en muchos
cı́rculos, como definición única y exhaustiva, de Estadı́stica.
Como origen de la Estadı́stica formalizada y debido a estas tres acepciones
de la palabra, nos cita Cansado tres núcleos o corrientes diferentes:

La escuela administrativa, alemana, que considera los problemas


de información del estado; sus principales representantes son: Vito de
Seckendorff, Herman Conring y Godofredo de Achenwall.

La escuela probabilı́stica, originalmente italiana, aunque


primordialmente francesa, que estudia problemas relacionados con
los juegos de azar, sus principales exponentes son: Pascal, Fermat,
Laplace, Poisson, los Bernoulli y Gauss.
La escuela demográfica, inglesa – sueca, preocupada con problemas
actuariales; sus principales integrantes son Petty, Halley, King, Davenant
y John Graunt.

Finalmente y solo a principios del siglo XX, una segunda escuela inglesa,
principalmente preocupada con problemas de estudio e investigación en
agronomı́a y biometrı́a, inicia y pone los cimientos de la ciencia a la que
nos referimos actualmente con la palabra Estadı́stica. Son sus principales
componentes: Galton, Karl Pearson, W. Gosset (Student), R. A. Fisher.
CAPÍTULO 2

Conceptos fundamentales de Estadı́stica

2.1. Definiciones de Estadı́stica

Alexander M. Mood profesor universitario norteamericano, define a la


Estadı́stica como “la tecnologı́a del Método Cientı́fico, ya que le proporciona
instrumentos para la toma de decisiones cuando prevalecen condiciones de
incertidumbre”. Deberá adoptarse esta definición, más que como de Estadı́stica,
de Estadı́stica Aplicada.
El profesor escandinavo, Harald Crámer, presenta la siguiente definición:
“La Estadı́stica es una Ciencia basada en el cálculo de probabilidades, cuyo
objetivo fundamental consiste en investigar la posibilidad de extraer de los
datos estadı́sticos, inferencias válidas, elaborando los métodos mediante los
cuales puedan ser obtenidas dichas inferencias”.
Leo Dugué de Bernonville, profesor francés, la define como “La ciencia
que se aplica al estudio numérico de fenómenos colectivos. Estudio que
comprende la observación de los hechos, su correcta ordenación y adecuada
clasificación y su análisis y tiene como fin principal el descubrimiento de
caracterı́sticas o propiedades de tipo general, para la mayorı́a del colectivo,
pero no necesariamente a todos y cada uno de los casos”.
Como es deducible, estas definiciones y otras similares, no se contradicen,
por el contrario se complementan y permiten apreciar la gran relación entre
esta ciencia y el Método Cientı́fico. Ası́, se hace referencia a la observación de
los hechos, observación que por ser numérica genera los datos estadı́sticos y que
está asociada con el referencial fáctico del Método Cientı́fico; pero al igual que
en este, en la Estadı́stica se pretende inferir, generalizar, es decir trascender los

9
10 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

hechos.

2.2. Caracterı́sticas del método estadı́stico

A partir de las definiciones anteriores, se pueden colegir las siguientes


caracterı́sticas del método estadı́stico:

Es LÓGICO y su lógica está basada en la llamada “ley de los grandes


números”, la cual, expresada en términos no formales, dice que entre mayor sea
el número de hechos que se observan, mas exactas serán las conclusiones que se
obtengan y en la llamada “ley de regularidad de frecuencias” referida al hecho
de que si se realizan repeticiones u observaciones sucesivas e incrementadas
de un fenómeno, la frecuencia relativa de algún suceso de interés, tiende a
estabilizarse alrededor de un valor, el cuál corresponderá a la probabilidad de
tal suceso. Es conveniente anotar, a propósito de esta caracterı́stica, que la
Estadı́stica no es exacta y como sucede en este tipo de ciencias, trata de lograr
la mayor exactitud posible o sea el mayor acercamiento a la verdad.
El proceso de razonamiento que utiliza la Estadı́stica para alcanzar sus
objetivos de aplicabilidad es el INDUCTIVO y para su desarrollo propio el
DEDUCTIVO.
Por su misma naturaleza, el método estadı́stico es NUMÉRICO.
Todo estudio estadı́stico siempre conlleva algún tratamiento numérico de la
información, ası́ sea el elemental de contar.
Está referido siempre a FENÓMENOS COLECTIVOS o como algunos
autores sugieren, a AGREGADOS; como en un Método Cientı́fico, solo le
interesa el hecho individual como componente de un hecho numeroso, los
resultados que se obtienen no se pueden aplicar en forma particular o individual;
siempre es GENERALIZANTE.
Naturalmente el método estadı́stico es OBJETIVO, en la misma forma en
que se habla de objetividad en un Método Cientı́fico. Es esta una caracterı́stica
que algunos usuarios de “supuestos procesos estadı́sticos”, han desacreditado
al manipular, en el peor sentido de la palabra, información numérica para
comprobar o demostrar ası́, verdades predeterminadas o mostrar realidades
distorsionadas.
Como conclusión de esta caracterización de la Estadı́stica y siguiendo
a Mood, es conveniente tener presente que el fin último de la Estadı́stica,
su objetivo mediato, es colaborar con el Método Cientı́fico en procesos de
TOMA DE DECISIONES, cuando prevalecen condiciones de RIESGO
Y/O INCERTTDUMBRE.
2.3. CLASIFICACIÓN DE LOS MÉTODOS ESTADÍSTICOS 11

2.3. Clasificación de los métodos estadı́sticos


Para su desarrollo y aplicación la Estadı́stica utiliza diversos
procedimientos, los cuales pueden clasificarse de la siguiente manera, no
exhaustiva ni necesariamente excluyente:
MÉTODOS DESCRIPTIVOS: cuando las conclusiones que se obtienen
de las experiencias o datos en estudio, no rebasan los lı́mites de los mismos.
Tienen como objetivo fundamental su presentación y análisis como paso previo
a los procesos inferenciales.
MÉTODOS INDUCTIVOS O INFERENCIA ESTADÍSTICA:
cuando las conclusiones que se obtienen de los datos en estudio, rebasan los
lı́mites de los mismos. Implica en general, el tomar decisiones en el caso más
universal del cual forman parte los datos. El proceso de tomar decisiones en
situaciones generales, sobre la base de una información incompleta contenida
en algunos datos, es arriesgado y no puede realizarse con certeza absoluta sino
con incertidumbre. Sin embargo esta última no es total, pueden controlarse
sus niveles, puede medirse su magnitud, lo cual se lleva a cabo con base en el
CÁLCULO DE PROBABILIDADES.
MÉTODOS TEÓRICOS O TEORÍA ESTADÍSTICA: se está ante
la misma cuando se aborda el estudio de los fenómenos estadı́sticos, utilizando
los métodos matemáticos en toda su plenitud. Esto no supone, sin embargo,
que la Estadı́stica sea una rama de las Matemáticas, sino que al igual que
otras ciencias (Fı́sica, Economı́a, Quı́mica, etc.), la utiliza como instrumento, y
ası́ mientras en la Matemática Pura se permanece en el terreno de lo conceptual,
en estas ciencias es preciso que las conclusiones se ajusten a la realidad, pues
de lo contrario no sirven.

2.4. Sistema conceptual básico

2.4.1. El Colectivo, Agregado, Población, Universo


El objeto de estudio de la Estadı́stica son los llamados fenómenos colectivos
para los cuales, el comportamiento de una serie de caracterı́sticas, está afectado
por la casualidad o la aleatoriedad; también se les conoce con el nombre de
agregados, poblaciones o universos.
Como COLECTIVO o AGREGADO deben entenderse no solo los
colectivos humanos, sino cualquier conjunto de hechos numerosos de la misma
naturaleza, cualquiera que ella sea, que presentan ciertas caracterı́sticas
o modalidades distintivas, cuyo comportamiento generalizado y/o posible
relación son objeto de estudio.
Como POBLACIÓN, se define a un conjunto de medidas obtenidas al
12 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

observar alguna caracterı́stica de interés en los elementos del colectivo, lo que


indica que con un mismo colectivo pueden, en general, estar asociadas varias
poblaciones.
Algunos autores definen el concepto de UNIVERSO, como un colectivo
teórico, básico para el desarrollo de la Teorı́a Estadı́stica. Es necesario anotar
que casi siempre se utilizan los términos citados como sinónimos, sin que se
tenga un consenso aceptado en general, sobre el uso de los mismos.

2.4.2. Las Variables

Se define como una VARIABLE, a una caracterı́stica observable o a un


aspecto discernible en un objeto de estudio, que puede adoptar diferentes
valores o expresarse en varias categorı́as, o a una caracterı́stica observable
ligada, con una relación determinada, a otros aspectos observables.
Desde el punto de vista de su naturaleza, se habla de variables
CUALITATIVAS para referirse a aquellas cuyos elementos de variación
tienen un carácter cualitativo, no susceptible de observación medible
numéricamente y de variables CUANTITATIVAS como aquellas cuyas
propiedades pueden presentarse en diversos grados o intensidades de carácter
numérico.
De acuerdo con su naturaleza matemática, se diferencian las variables
cuantitativas en DISCRETAS y CONTINUAS, siendo las primeras aquellas
que están definidas sobre recorridos finitos o infinitos numerables; no pueden
tomar valores intermedios entre dos valores dados. Las continuas son aquellas
definidas sobre recorridos infinitos no numerables; pueden tomar cualquier valor
dentro de un recorrido dado.
Para clasificar o categorizar variables, se utilizan diferentes tipos de escalan,
siendo las más comunes las NOMINALES, las ORDINALES, las DE
INTERVALO, y las DE RAZÓN, cuyo uso depende básicamente de los
objetivos del estudio y de la naturaleza de la variable.

2.4.3. Escalas de Medición o Clasificación

2.4.3.1. La Medición

“El papel que desempeñan la medida y la cantidad en la Ciencia es muy


grande, pero creo que a veces se ha exagerado. La técnica matemática es
poderosa, y los hombres de ciencia están naturalmente ansiosos de aplicarla
siempre que sea posible; pero una ley puede ser muy cientı́fica sin ser
cuantitativa”: Russell, Dorta, and Serna.
“La generalización cientı́fica es siempre y necesariamente cuantitativa”:
2.4. SISTEMA CONCEPTUAL BÁSICO 13

Lundberg
“Cuando uno puede medir y expresar numéricamente lo que dice, conoce
algo de ello; pero mientras no pueda uno medir ni expresarse en números, su
conocimiento es escaso y poco satisfactorio”: Lord Kelvin
“Contar hechos observables es la operación básica de la medición. Contar
o computar es establecer una correspondencia biunı́voca entre el conjunto de
objetos que hay que contar y un subconjunto de los enteros positivos... Para
que una colección de hechos sea empı́ricamente contable, tiene que consistir en
miembros empı́ricamente distinguibles”: (Bunge 1972)
Las citas anteriores, algunas de ellas demasiado extremas, son evidencia de
la importancia que para los tratadistas de la ciencia, la metodologı́a cientı́fica y
la investigación, tienen la medición y la cuantificación. Pero es conveniente
tratar de responder a la inquietud relativa a si estos conceptos significan lo
mismo, si tienen la misma acepción y aplicación.
En el sentido más corriente y elemental, el concepto de medir es utilizado
para significar la asignación de valores numéricos o dimensiones a un objeto
u objetos mediante la utilización de determinados procedimientos. En términos
más estrictamente metodológicos, la medición consiste sustancialmente
en una observación cuantitativa, atribuyendo un número a determinadas
caracterı́sticas o rasgos del hecho o fenómeno observado. Esto no presenta
mayores inconvenientes si se trata de medir aspectos materiales y morfológicos
de los objetos de estudio; la dificultad aparece cuando se desean expresar
numéricamente aspectos más evanescentes e intangibles.
Cuando un fı́sico habla acerca de la medición, se refiere generalmente a
la asignación de números a observaciones, de modo que los números sean
susceptibles de análisis por medio de manipulaciones u operaciones de acuerdo
con ciertas reglas. Este análisis por manipulación, en el mejor sentido de la
palabra, dará nuevas informaciones de los objetos que se están midiendo. En
otras palabras, la relación entre los objetos que se están observando y los
números, es tan directa que mediante la manipulación de los números el fı́sico
obtiene nueva información acerca de los objetos. Por ejemplo, puede determinar
el peso de una masa de material homogéneo que haya sido partida por la mitad,
dividiendo su peso por dos.
En las ciencias sociales, el cientı́fico social, que toma al fı́sico como modelo,
suele intentar algo parecido a la calificación o medición de las variables sociales;
pero, en sus escalas, el investigador social muy a menudo menosprecia un
fundamento de la teorı́a de la medición.
Pasa por alto que, para hacer ciertas operaciones con los números que ha
asignado a las observaciones, la estructura del método de correspondencia de
los números (puntajes) a las observaciones debe ser isomórfica con respecto a
alguna estructura numérica que incluya estas operaciones. Si los dos sistemas
son isomórficos, sus estructuras son las mismas en las relaciones y operaciones
14 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

que permiten. Por ejemplo, si un investigador recoge datos compuestos de


puntajes numéricos y luego manipula estos puntajes por adición y división
(que son operaciones necesarias para obtener medias y varianzas), supone que
la estructura de su medición es isomórfica a la estructura numérica conocida
como aritmética. Es decir, supone que ha logrado un alto nivel de medida.
La teorı́a de la medición está formada por un conjunto de teorı́as separadas
y distintas, cada una referida a un nivel diferente de medición. Las operaciones
permitidas con un conjunto de puntajes dado, dependen del nivel de medida
que se logre. Parece ser que el problema radica esencialmente en la experiencia
que se tenga de los números y el concepto que de ellos se posea.
Haber, Runyon, and Mozo, en su texto de Estadı́stica General, presentan
como elemento de cuestionamiento la siguiente discusión: Al preguntar a un
niño y quizás, agregarı́amos nosotros, a muchos adultos, que es un número, la
posible respuesta es que “los números son sı́mbolos que representan cantidades
de cosas y que pueden sumarse, restarse, multiplicarse y dividirse”. Los
anteriores son conceptos aritméticos conocidos, pero ¿expresan en realidad
todos los posibles usos de los números? Al respecto se podrı́a preguntar: El
sı́mbolo 10 colocado en la espalda de la camiseta de un jugador de fútbol,
¿es un número como el que acaba de definir? ¿Qué puede decir acerca del
número de su casa? ¿Qué opina de la programación del canal 7 de televisión?
¿Estos números indican cantidades de cosas? ¿Pueden ser sumados, restados,
multiplicados y divididos? ¿Es lógico multiplicar el número de la camiseta de
un jugador, por cualquier otro número y obtener un resultado que tenga algún
significado?
Si se analiza cuidadosamente el empleo de los números en la vida cotidiana se
descubre un hecho muy importante: La mayorı́a de los números que se emplean
no poseen las propiedades aritméticas que ordinariamente se les atribuyen. Por
esta razón, vale la pena diferenciar dos términos, número y numeral. Los
numerales son sı́mbolos como Y, 10, IX, $. Los números son tipos de numerales
especı́ficos que guardan una relación fija con otros numerales. De este modo,
dos numerales, como 4 y 7 son números si, y solo si pueden sumarse, restarse,
multiplicarse y dividirse, con resultados significantes.
Ası́, siguiendo a Wehl, el único aspecto decisivo de la medición es la
representación simbólica, los números no son de ninguna manera los únicos
sı́mbolos utilizables, aplicables a objetos de acuerdo con normas. Partiendo
de esta concepción podrı́a afirmarse que lo cualitativo puede expresarse por
sı́mbolos y que, por tanto, los fenómenos que no admiten la expresión numérica
pueden ser mesurables en forma simbólica.
“En general, la medición puede definirse como un proceso mediante el
cual se asignan de un modo sistemático sı́mbolos a las observaciones, entre
los cuales se definen, con base en alguna convención, como legı́timas ciertas
relaciones determinadas. Ası́ los procedimientos de medición consisten siempre
en la comparación de una observación con una serie de sı́mbolos abstractos
2.4. SISTEMA CONCEPTUAL BÁSICO 15

(tales como palabras, números, letras, colores, sonidos, etc.) y en la asignación


a la observación de uno o más de tales sı́mbolos, de acuerdo con una regla
previa”, según lo anota Walter Wallace.
Con este alcance, la medición no es otra cosa que una forma de
observación; en otras palabras, la ciencia es cuantitativa porque se basa
en observaciones registradas y representadas en sı́mbolos. En consecuencia,
medición y cuantificación no es lo mismo; la cuantificación es una de las
modalidades de la medición. Lo que debe interesar acerca de los numerales
o sı́mbolos es la manera como pueden ser utilizados para alcanzar diferentes
objetivos. En la mayorı́a de los casos, estas metas no incluyen la representación
de una cantidad o importe. De hecho, existen tres modos fundamentales de
utilizar numerales o sı́mbolos:

Para nombrar (numerales nominales)

Para representar posición (numerales ordinales)

Para representar numéricamente una cantidad o magnitud (numerales


cardinales).

Como conclusión, aceptemos la definición que presenta Stevens sobre lo


que es medir, la cual precisa suficientemente esta cuestión: “Medir es algo
relativo. Varı́a en grado y género, en tipo y precisión. En su sentido más
amplio medir es asignar numerales a objetos o acontecimientos de acuerdo
con ciertas reglas. El hecho de que se lo puede hacer de acuerdo con diferentes
reglas origina diferentes tipos de escalas y diferentes tipos de medición. Las
reglas mismas se relacionan en parte con las operaciones empı́ricas concretas de
nuestros procedimientos experimentales los que, mediante sus diversos grados
de precisión, ayudan a determinar cuan adecuado es el ajuste entre el modelo
matemático y aquello que representa”.
(Bunge 1972) distingue cuatro elementos necesarios de toda medición:

El mesurandum, o propiedad del sistema concreto que se ha de medir.

El concepto cuantitativo (métrico) del mesurandum, o sea, la magnitud


que se supone representa la propiedad objetiva; en la medida de lo
posible este concepto debe estar sumido en alguna teorı́a cientı́fica y debe
analizarse lógicamente con base en variable(s) numérica(s), con objeto de
no perder de vista algún aspecto relevante.

Una escala conceptual y una escala material sobre las cuales puede
registrarse o medirse la magnitud,

Una unidad de medición que pertenezca a algún sistema de unidades


coherente.
16 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

Aunque se acepta que los elementos presentados por (Bunge 1972) son
necesarios, sin embargo no son suficientes para emprender una operación de
medición y consecuentemente tratar de establecer las diferentes escalas o niveles
de medición, concepto este que se adoptará, más como proceso de observación,
que como proceso de análisis.
El proceso de medición tiene como propósito inicial distinguir y por ende
clasificar objetos, casos, fenómenos y debe responder a una serie de principios
o requisitos que se enuncian a continuación.
En primer lugar el proceso de medición debe ser válido, entendiéndose
que cumple este requisito cuando mide de alguna manera demostrable aquello
que trata de medir, libre de distorsiones sistemáticas. Cabe anotar que existen
diferentes métodos de validación, a saber: La validez pragmática, consistente
en encontrar un criterio exterior al instrumento de medida, para relacionarlo
con las puntuaciones obtenidas. La validez predictiva, que se comprueba por
los resultados obtenidos en el futuro, y la validez concurrente, que contrasta
resultados de otros elementos de juicio, con tipos de validez pragmática. Otro
procedimiento de validación es el análisis factorial, aunque su aplicación se
limita principalmente a los aspectos psicosociales.
El segundo principio deseable en la medición es la fiabilidad. Una medición
es confiable o segura cuando aplicada repetidamente a un mismo individuo o
grupo, o al mismo tiempo por investigadores diferentes, proporciona resultados
iguales o por lo menos parecidos. La determinación de la confiabilidad consiste
pues, en establecer si las diferencias de resultados se deben a inconsistencias en
la medida.
El problema de la fiabilidad se presenta en el instrumental que se utiliza,
cuando la validez de las mediciones ofrece dudas en relación con lo que se
quiere medir. Los procedimientos más usuales para la determinación de la
fiabilidad son el análisis de la estabilidad de los resultados, mediante la
aplicación de mediciones repetidas y la equivalencia de los resultados cuando
los instrumentos son administrados por diferentes personas.
Finalmente se tiene el principio de la precisión. Se puede decir que una
medición es precisa cuando localiza con exactitud satisfactoria, en relación con
el propósito que se busca, la posición del fenómeno que se estudia.
El nivel de medida o escala de medida, expresiones aceptadas casi
universalmente, está formado por un conjunto de numerales distintos y un
conjunto de modalidades distintas relacionadas biunı́vocamente. Se suelen
distinguir cuatro niveles de medición que dan lugar a cuatro niveles de escalas:
nominal ordinal o de orden jerárquico, de intervalos y de razón o cociente.
Ahora bien, el tipo de escala estará dado, según sea verificable uno u otro tipo
de relación.
2.4. SISTEMA CONCEPTUAL BÁSICO 17

2.4.3.2. La Escala Nominal

Consiste en clasificar objetos o fenómenos, según ciertas caracterı́sticas,


tipologı́as o nombres, dándoles una denominación o sı́mbolo, sin que implique
ninguna relación de orden, distancia o proporción entre los objetos o fenómenos.
La medición se da a un nivel elemental cuando los números u otros sı́mbolos
se usan para la distinción y clasificación de objetos, persona o caracterı́sticas.
Cuando se utilizan números para representar las diferentes clases de una escala
nominal, estos no poseen propiedades cuantitativas y sirven solamente para
identificar las clases.
Todas las escalas tienen ciertas propiedades formales. De estas propiedades
se deducen, definiciones exactas de las caracterı́sticas de la escala más precisas
de lo que pueden darse en términos verbales. Estas propiedades pueden
formularse en forma más abstracta de lo que aquı́ se ha hecho, mediante un
conjunto de axiomas que delinean las operaciones para elaborar las escalas
y las relaciones entre los objetos a que se aplican. En una escala nominal,
la operación de escalamiento consiste en partir de una caracterı́stica dada y
formar un subconjunto de clases que se excluyen mutuamente. La única relación
implicada es la de equivalencia. Esto es, los miembros de cualquier clase deben
ser equivalentes en la propiedad medida.
La relación de equivalencia es reflexiva (x = x para todo x), simétrica (x = y
luego y = x) y transitiva (x = y y y = z luego x = z).
Puesto que en una escala nominal la clasificación puede presentarse
igualmente por cualquier conjunto de sı́mbolos, se dice que es “única hasta una
transformación de uno a uno”. Los sı́mbolos que representan a las diversas clases
de la escala pueden intercambiarse, llevando esto a cabo en forma consistente
y completa. Tales transformaciones son llamadas a veces “grupos simétricos
de transformaciones”. Los sı́mbolos que designan a los diferentes grupos en
una escala nominal pueden intercambiarse sin alterar la información esencial
de la escala; debido a esto, las estadı́sticas de tipo descriptivo admisibles
son aquellas que no se alteran por este proceso: el modo, la frecuencia, el
conteo, la proporción, etc. Se pueden desarrollar procesos analı́ticos acerca
de la distribución de las categorı́as, ası́ como la posible relación entre dos o
más caracterı́sticas clasificadas mediante este tipo de escala que llamaremos
“variables no – cuantitativas”.

2.4.3.3. La Escala Ordinal

Llamada también escala de orden jerárquico, con ella se establecen


posiciones relativas de los objetos o fenómenos en estudio, respecto a alguna
caracterı́stica de interés, sin que se reflejen distancias entre ellos. Puede suceder
que los objetos de una categorı́a de las escala no sean precisamente diferentes
a los objetos de otra categorı́a de la escala, sino que están relacionados entre
18 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

sı́. Los numerales empleados en las escalas ordinales no son cuantitativos, sino
que indican exclusivamente la posición en la serie ordenada y no “cual es” la
diferencia entre posiciones sucesivas de la escala.
Las relaciones entre los elementos en clasificación, pueden formularse con el
signo >, mayor que, o sea que axiomáticamente la diferencia fundamental entre
una escala nominal y una ordinal es que esta última incorpora no solamente
la relación de equivalencia (=) sino también la relación “más grande que”
(>). Esta relación es irreflexiva (no es verdad para ninguna x tal que x > x),
asimétrica (x > y luego x < y) y transitiva (x > y y y > z luego x > z).
Puesto que cualquier transformación tendiente a conservar el orden no altera
la información contenida en una escala ordinal, se dice que la escala es “única
hasta una transformación monotónica”. Esto es, no importa que números se
den a una pareja de clases o a los miembros de esas clases, siempre que el
número mayor sea dado a los miembros de la clase mayor o más preferida. Por
supuesto, pueden usarse números menores para grados más preferidos (...de
primera clase, de segunda clase, etc.); en tanto se sea consecuente, es indiferente
el uso del número mayor o menor para denotar “mayor” o “más preferido”.
Fundamentalmente, las escalas ordinales se estudian en Estadı́stica, con base
en las llamadas “estadı́sticas de orden” o “estadı́sticas de rango”.

2.4.3.4. La Escala de Intervalo

Representa un nivel de medición más preciso, matemáticamente hablando,


que las anteriores; no solo se establece un orden en las posiciones relativas de los
objetos o individuos, sino que se mide también la distancia entre los intervalos
o las diferentes categorı́as o clases. En este caso, la medición se ejecuta en
el sentido de una escala de intervalo; esto es, si la asignación de números a
varias clases de objetos es tan precisa que se sabe la magnitud de los intervalos
(distancias) entre todos los objetos de la escala, se ha obtenido una medida de
intervalo. Una escala de intervalo está caracterizada por una unidad de medida
común y constante que asigna un número real a todos bs pares de objetos en
un conjunto ordenado. En esta clase de medida, la proporción de dos intervalos
cualesquiera es independiente de la unidad de medida y del punto cero. En una
escala de intervalo, el punto cero y la unidad de medida son arbitrarios.
Axiomáticamente se puede ver que las operaciones y las relaciones en que se
origina la estructura de una escala de intervalo son tales que las diferencias en
la escala son isomórficas a la estructura de la aritmética. Los números pueden
asociarse con las posiciones de los objetos de tal manera que las operaciones de
la aritmética puedan realizarse significativamente con las diferencias entre los
números.
La consecuencia de cualquier cambio de los números asociados con los
objetos medidos en una escala de intervalo debe preservar no solamente el
orden de los objetos sino también las diferencias relativas entre ellos. Esto es,
2.4. SISTEMA CONCEPTUAL BÁSICO 19

la escala de intervalo es “única hasta una transformación linea1”. La escala


de intervalo es la primera escala verdaderamente cuantitativa. Las estadı́sticas
paramétricas, son las aplicables a estudios en estas escalas.

2.4.3.5. La Escala de Razón

Cuando una escala tiene todas las caracterı́sticas de una escala de intervalo
y además un punto cero real en su origen, se llama escala de razón. Además
de distinción, orden y distancia, ésta es una escala que permite establecer en
qué proporción es mayor una categorı́a de una escala que otra. El cero absoluto
o natural representa la nulidad de lo que se estudia.
Las operaciones y relaciones hechas con los valores numéricos en una escala
de razón son correspondientes a una escala isomórfica de la estructura de la
aritmética. Por consiguiente las operaciones de la aritmética son permisibles en
los valores numéricos asignados a los objetos mismos, ası́ como también en los
intervalos entre los números como sucede en las escalas de intervalo. Implican
que las relaciones de equivalencia, relación de mayor a menor, proporción
conocida de dos intervalos y proporción conocida de dos valores de la escala,
sean posibles de obtener operacionalmente.
Los números asociados con los valores de la escala de razón son “verdaderos”
números con un verdadero cero; solo la unidad de medida es arbitraria. Ası́ la
escala de razón es “única hasta la multiplicación por una constante positiva”.
Además de los procesos paramétricos básicos de las escalas de intervalo, en las
de razón pueden utilizarse estadı́sticas como la media geométrica, el coeficiente
de variación, las que requieren el conocimiento del verdadero valor cero.

2.4.4. El Censo o Enumeración Completa


Un censo o enumeración completa consiste en desarrollar los estudios
estadı́sticos, identificando y ubicando a TODOS los elementos del colectivo
o agregado, para obtener de ellos la información necesaria sobre las variables
de interés, con el fin de analizarla e interpretarla.
Este método presenta las siguientes caracterı́sticas:

No requiere de procesos de inferencia estadı́stica

Sus resultados sirven de marco muestral a otros estudios

Facilita la realización de estudios en subcolectivos

Produce costos demasiado altos, en todo tipo de recursos

Implica un complicado proceso de planeación, organización y control


20 CAPÍTULO 2. CONCEPTOS FUNDAMENTALES DE ESTADÍSTICA

En general los resultados se obtienen a mediano o largo plazo, perdiendo


oportunidad y actualidad
No permite la realización de estudios con altos niveles de especificidad y
desagregación
En algunos casos, la naturaleza del estudio impide la realización del
censo, por requerir procesos de observación de caracterı́sticas de estudio,
mediante métodos parcial o totalmente destructivos de los elementos del
agregado.

Las desventajas del método censal, no implican necesariamente que nunca


se puedan realizar estudios censales, por el contrario cuando las circunstancias
lo permitan por existir objetivos de tipo muy global, agregados relativamente
pequeños y fácilmente ubicables, recursos suficientes, etc., se debe utilizar este
tipo de enumeración.

2.4.5. El Muestreo
Para resolver los problemas que en general se presentan para realizar
censos, se ha desarrollado el método de muestreo, el cual de manera sencilla
puede definirse como un método cientı́fico que pone en práctica principios
estadı́stico – matemáticos, que permiten obtener información de una PARTE
de los elementos del agregado y hacer inferencias acerca de las caracterı́sticas
estudiadas, para todo el colectivo de origen.
Las principales caracterı́sticas del método son:

Costos en general más bajos que en el censo


Planeación, organización y control más sencillos y detallados
Resultados a corto plazo y oportunos
Posibilidad de realizar estudios más detallados, al permitir la obtención
de información a nivel mas especı́fico
Solución de los problemas ocasionados por procesos de medición
destructivos
Flexibilidad, que permite utilizar diferentes formas de medición, análisis
e inferencia
Requiere de procesos de inferencia estadı́stica
Dificulta, en algunos casos, los estudios desagregados en subcolectivos
No es aceptado, en algunas instancias, sobre todo por la falta de
conocimiento de sus bondades.
2.4. SISTEMA CONCEPTUAL BÁSICO 21

La parte de elementos que es seleccionada para el estudio, es conocida


como LA MUESTRA y para que el proceso tenga validez, esta debe tener
caracterı́sticas de confiabilidad con respecto al agregado del cual procede. En
procura de tal confiabilidad, se han desarrollado diferentes tipos de DISEÑO
MUESTRAL, que consiste en:

Determinar el tamaño de la muestra


Determinar el proceso de selección de la misma
Determinar los procesos de inferencia

2.4.6. Los Parámetros y las Estadı́sticas


Los resultados de estudios y análisis estadı́sticos, se reflejan básicamente
en un conjunto de diversas medidas de diferente ı́ndole y naturaleza. Cuando
tales medidas son resultado de una enumeración completa o sea que se refieren
a todo el agregado, reciben el nombre de PARÁMETROS y cuando son de
nivel muestral se les conoce como ESTADÍSTICAS o ESTADÍGRAFOS.
Por ser las muestras seleccionadas en general por métodos de azar, las
estadı́sticas o estadı́grafos se constituyen en “variables aleatorias”, para cuyo
manejo será necesario conocer o deducir, el comportamiento probabilı́stico de
las mismas.
Constituyen los anteriores conceptos, el conjunto básico del léxico
estadı́stico, especialmente relativos a lo que debe ser una introducción
a cualquier curso Inicial de Estadı́stica. Conceptos más especı́ficos, van
apareciendo en la medida en que se presenten otros métodos, técnicas y procesos
analı́ticos de esta ciencia.
CAPÍTULO 3

Metodologı́a de la Estadı́stica

Sin pretender ser exhaustivo, se esbozaran a continuación las fases generales


que se deben llevar a cabo para realizar un estudio utilizando las técnicas
estadı́sticas.

3.1. Definición de Objetivos

Indudablemente esta etapa constituye el punto de partida de todo estudio


y su importancia y trascendencia, para las fases posteriores, son innegables. Lo
esencial en este momento, es responder a preguntas como ¿Qué?, ¿Para qué?,
¿Por qué? y las respuestas a las mismas deben ser presentadas de manera clara,
concreta, concisa y unificada.
Cabe distinguir en este aspecto, al objetivo (u objetivos) general, que
corresponde a una definición a grandes rasgos del problema o tema de
estudio, de los objetivos especı́ficos, que son definiciones en detalle y altamente
desagregadas de los fines del mismo. Los objetivos especı́ficos, son subtemas en
que se divide el objetivo general y que una vez alcanzados, llevan en conjunto
al logro de este.
Desde el punto de vista estadı́stico, la definición de los objetivos especı́ficos
es de gran importancia, ya que ellos permiten clarificar el tipo de variables a
considerar, la información que se requiere sobre ellas y los procedimientos de
muestreo y análisis necesarios.

22
3.2. DEFINICIÓN DEL COLECTIVO O POBLACIÓN 23

3.2. Definición del colectivo o población


Tan fundamental para lograr buenos resultados del estudio, como la fase
anterior, lo es la de definición del colectivo o población, la cual, a ser realizada
en forma clara, concreta, concisa y unificada, debe hacer referencia al contenido,
las unidades, la extensión y momento de consideración de la misma.
La naturaleza de los elementos que forman el colectivo, su estructura y
configuración temporo – espacial, son aspectos que determinan hasta cierto
punto, el tipo de muestreo más conveniente a utilizar, el marco adecuado, los
métodos de obtención de la información y otros conceptos similares.
En múltiples ocasiones se diferencia la Población Objetivo, que es aquella
a la cual se refiere en términos generales la investigación, de la Población
de Estudio, Maestreo o Análisis, definida como la población objetivo con
una serie de restricciones, generadas por la misma naturaleza del estudio,
falta de cobertura del marco de muestreo, problemas de no – respuesta, etc.
En sentido estricto, solo queda representada en la muestra la población de
estudio o de encuesta, pero su descripción puede ser difı́cil si se quiere hacerlo
especı́ficamente, por lo que es más frecuente hacer referencia a la población
objetivo definida.

3.3. Determinación de la cobertura


Teniendo en cuenta los objetivos del estudio, la estructura poblacional,
los recursos disponibles y las caracterı́sticas de los métodos de enumeración
completa (censo) o parcial (muestreo) se determina cual de los dos se
deberá utilizar.
Considerando que en general los estudios se realizan mediante muestreo,
se enunciaran a continuación las fases siguientes, bajo el supuesto de que el
estudio se realizará utilizando el método de muestreo.

3.4. Determinación del marco de muestreo

3.4.1. Definición
Se entiende por Marco de Muestreo o Marco Muestral, todo artificio
o conjunto de artificios, que permita la identificación y ubicación de todos y
cada uno de los elementos de la población o en su defecto, de todas y cada
una de las unidades muestrales, ya que es la base del proceso de selección de
la muestra.
Los factores relevantes de la naturaleza del marco disponible o factible,
24 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

incluyen los tipos de unidades muestrales que contenga, la extensión de


la cobertura, la exactitud y completez del mismo, la cantidad y calidad
de información auxiliar en él y es determinante para el diseño de la
muestra. Algunos ejemplos de marcos son listas de elementos, archivos,
mapas, cartogramas, kárdex, dispositivos de entrada – salida en sistemas de
computación, etc.
Lo ideal es que el marco a utilizar sea ACTUALIZADO, lo que equivale a
que tenga una cobertura completa, no contenga elementos repetidos, ni blancos,
ni extraños. Todos y cada uno de los elementos del marco deben representar a
una y solo una unidad muestral y cada unidad muestral debe estar representada
por uno y solamente uno de los elementos del marco.
Sin embargo, en la mayorı́a de los casos prácticos, estas caracterı́sticas
son bastante difı́ciles de encontrar, lo cual genera uno de los problemas ms
complejos de solucionar en este tipo de estudios.

3.4.2. Problemas del Marco

Los problemas más comunes en la determinación del marco muestral son:

Unidades vacı́as, llamado también elementos faltantes, falta de cobertura


o marco incompleto y que consiste en que algunos elementos del agregado,
no aparecen en el marco

Blancos y extraños, corresponde este problema a situaciones en las cuales


el marco contiene elementos que ya no pertenecen a la población por
haber cambiado su estructura o porque definitivamente desaparecieron
de la misma.

Conglomerados de unidades muestrales, pueden aparecer juntas asociadas


con un listado aislado.

Un elemento del marco representa a más de una unidad muestral

Unidades duplicadas, problema que se presenta cuando una unidad


aparece más de una vez en el marco.

3.4.3. Soluciones Generales

Aunque para cada problema del marco se requieren soluciones especı́ficas,


que dependen en gran parte de la situación particular en que se encuentre el
investigador, se mencionan tres soluciones generales para tratar de solucionar
problemas:
3.5. DEFINICIÓN DE UNIDADES 25

Ignorarlos, si son relativamente pequeños comparados con otros errores


y el costo de solución es muy alto. Se deberá en este caso, referenciar la
circunstancia bajo la cual se está utilizando el marco.
Redefinir la población con base en el marco, si el error que se comete
es despreciable y si no cambia el sentido de los objetivos del estudio. Se
debe también comentar la situación.
Corregir el marco, solución que es la ideal, pero en ocasiones la menos
factible.

3.5. Definición de unidades


En términos generales son normas o patrones de conteo, medición, selección
u observación y su definición es fundamental en el estudio, por lo cual deber
hacerse también muy clara, concreta y unificadamente. Se distinguen y es
necesario definirlas en los correspondientes casos, los tipos de unidades que
a continuación se presentan.

3.5.1. Unidad Poblacional


También conocidas como las unidades elementales, corresponden al
elemento o hecho individual que se cuenta y/o mide y que unido a los demás
de su misma naturaleza, forma el colectivo que se estudia. Su naturaleza y
caracterı́sticas se determinan según los objetivos del estudio.

3.5.2. Unidad Muestral


Se constituye en el elemento básico para la selección de la muestra de
unidades poblacionales. Pueden ser estas mismas o grupos de ellas, como sucede
en el muestreo por conglomerados. Deben estar definidas en forma tal que cada
unidad poblacional pertenezca a una y solo una unidad de muestreo.
Se subdividen en unidades parciales, que son aquellas que aparecen en razón
del proceso de selección y constituyen siempre subdivisiones de la población a
través de las cuales ha de pasarse, antes de llegar a las unidades finales, definidas
estas últimas como aquellas que tienen caracterı́sticas definidas de permanencia
y son fácilmente distinguibles en perı́odos más o menos largos de tiempo.

3.5.3. Unidades de Observación


Son aquellos elementos de los cuales se obtiene la información, por lo cual se
les conoce también con los nombres de fuentes de información. Pueden coincidir
26 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

o no con la unidad poblacional y son determinantes para la calidad de la


información y para el proceso de recolección de la misma.

3.6. Determinación del diseño muestral


Definidos claramente los objetivos del estudio y la población, determinado
el marco muestral y los recursos disponibles y definidas ası́ mismo las diversas
unidades del proceso, se puede pasar a la fase de selección del tipo de diseño
muestral a utilizar, aunque en la práctica todas estas etapas se desarrollan
paralelamente.
Para determinar el tipo de selección se tienen en cuenta principalmente, los
objetivos del estudio, la estructura de la población, el marco y los recursos
disponibles (humanos, financieros, materiales, de disponibilidad de tiempo,
etc.). Para el tamaño de la muestra se deben considerar los siguientes aspectos:
tipo de selección, grado de confiabilidad de los procesos inferenciales, errores
de muestreo, recursos disponibles, caracterı́sticas básicas a analizar y tamaño
de la población.
Se suele hacer una gran clasificación de los tipos de diseño muestral, en
dos categorı́as que son el Muestreo No Probabilı́stico y el Muestreo
Probabilı́stico.

3.6.1. Muestreo No Probabilı́stico


Se caracteriza porque el diseño se realiza en forma subjetiva, arbitraria,
según el criterio del investigador o del entrevistador de campo. No existe
una oportunidad real de que un elemento en particular de la población,
sea seleccionado. No es posible, por lo tanto, calcular error de muestreo, ni
la confiabilidad de las inferencias. Se está simplemente en el campo de las
especulaciones y las suposiciones. Algunas modalidades de este tipo de muestreo
son:

El muestreo de conveniencia, que se caracteriza porque en general


la unidad de muestreo se auto – selecciona o se ha seleccionado debido
a su fácil disponibilidad. En estos casos no se especifica claramente la
población de la cual se ha tomado la muestra, por lo cual se desconoce la
diferencia entre el valor de interés de la población y el valor de la muestra,
en términos de tamaño y dirección. Desafortunadamente es un muestreo
utilizado extensivamente en la práctica.

Muestreo de comparación, para el cual los elementos son seleccionados


con base en lo que algún experto piensa acerca de lo que esas unidades
pueden aportar a la investigación, por lo cual se les conoce también como
3.7. RECOLECCIÓN DE INFORMACIÓN 27

muestras por expertos. En este caso se desconoce también el error de


muestreo y la confianza, pero si el criterio y ética del experto son válidos,
la muestra puede resultar mejor que la de conveniencia. Se utiliza este
tipo de muestreo moderadamente en la práctica.

El muestreo por cuotas, que puede considerarse más un método de


selección que un tipo de diseño. El tamaño de la muestra y los procesos
de inferencia se realizan en forma técnica, pero los elementos para la
muestra son seleccionados en forma subjetiva, pero con arreglo a ciertas
caracterı́sticas de “control” previamente determinadas. Es un método de
selección muy útil en las etapas previas de la investigación y si se elabora
con cuidado, puede suministrar información más definitiva. Se utiliza muy
extensamente en la práctica.

3.6.2. Muestreo Probabilı́stico


Se fundamenta en la probabilidad que tiene cada elemento del agregado
para hacer parte de la muestra. Dadas ciertas condiciones de confiabilidad,
error máximo admisible y tamaño poblacional, se deja al azar el diseño de la
muestra. El muestreo se realiza mediante reglas estadı́sticas que no permiten
ningún elemento de juicio al investigador, generando muestras más objetivas.
Permite medir la confiabilidad de los procesos de inferencia y el error
de muestreo que por su naturaleza conlleva. Presenta también diversas
modalidades, siendo las más clásicas el muestreo aleatorio simple, el muestreo
estratificado y el muestreo por conglomerados.

3.7. Recolección de información


Se define como el proceso estadı́stico mediante el cual se obtiene toda la
información pertinente a un problema dado. Para llevar a cabo esta tarea
de recopilación de datos e información, existen múltiples procedimientos y la
utilización de uno u otro, depende de la naturaleza del problema a estudiar,
del equipo de investigación disponible y de la estructura y caracterı́sticas de
las unidades de observación.
En términos globales se consideran dos situaciones básicas, que dependen
del estado de la información y que implican dos tipos de tareas diferentes a
saber:

Recopilación de datos sobre el terreno (información primaria)

Identificación y recolección de datos ya disponibles para ulterior


utilización (información secundaria).
28 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

En el primer caso el procedimiento se basa en la utilización de


“formularios estadı́sticos”, definidos como un instrumento de recopilación de
datos, rigurosamente estructurado, que traduce y operacionaliza determinados
problemas que son objeto de estudio. Aunque existen diferentes formas de
aplicarlo, estas se pueden resumir fundamentalmente en dos que son: “la
entrevista personal” y “el formulario postal”; modificaciones de estas
dos formas básicas, generan otras.
En la segunda situación, el proceso se reduce a la llamada “recopilación
documental”, para lo cual lo importante es la determinación de la calidad y
confiabilidad de la información a ser utilizada en estudio.
Al igual que todas las anteriores, esta fase es de gran importancia para
la investigación, pues ella va a generar la materia prima para su desarrollo,
cual son los datos. Existen diversas técnicas y recomendaciones respecto a la
manera de realizar este proceso, que hacen referencia desde la forma y tipos
de preguntas, hasta la presentación personal del encuestador en el caso de la
entrevista personal.

3.8. Tratamiento de la información


Cuando un investigador conduce un estudio, de ordinario reúne una gran
cantidad de información numérica o datos acerca del problema en cuestión.
Los datos podrán tener variedad de formas y su expresión original, tal cual
son recopilados, son usualmente un enredo de recuentos, mediciones, etc. Al
realizar la función descriptiva, la Estadı́stica formula reglas y procedimientos
para la depuración, clasificación, presentación y reducción de los datos, de tal
manera que sean útiles para su análisis e interpretación.
Es necesario depurar los datos, ordenarlos, clasificarlos y reducirlos a cifras
relativas como los porcentajes, los promedios, los coeficientes estadı́sticos y en
general las medidas básicas de interés.

3.8.1. Distribuciones de Frecuencias


Suponiendo que se han realizado n observaciones de las variables en estudio,
el proceso que genera un conjunto de n resultados observacionales, denominado
“datos originales”, que serán de igual dimensión al número de variables
consideradas.
Esta masa o acopio de información es difı́cil de manejar e interpretar
y no permite detectar, en primera instancia, hechos relevantes acerca del
comportamiento generalizado de las variables, en los n casos observados.
Un primer paso en logro de este último objetivo, consiste en agrupar la
información, clasificando los datos según los diferentes “valores” que puedan
3.8. TRATAMIENTO DE LA INFORMACIÓN 29

presentar una o un conjunto de caracterı́sticas, valores que constituirán las


diferentes categorı́as o clases para la clasificación. Dependiendo de la naturaleza
de las variables y de los objetivos propuestos, se utilizarán adecuadamente las
diferentes escalas de clasificación ya enunciadas.
El proceso continúa con el conteo (o recuento como lo llaman popularmente)
del número de observaciones o casos que se presentan en cada clase, generándose
de esta manera las llamadas “frecuencias” de clase, lo que da inicio al proceso
conocido como la reducción del dato.
De acuerdo con el número de variables que se tengan en cuenta cada
vez para la clasificación, se presentan fundamentalmente las clasificaciones
simples o unidimensionales, las de doble entrada o bidimensionales y
la clasificación múltiple, según que se consideren simultáneamente una dos o
más variables para el proceso, respectivamente.

3.8.2. Clasificación Unidimensional


Considerada cada variable por separado, se establecen adecuadamente las
diferentes clases o categorı́as para ella; simbolizando alguna de las clases como
Cj , se supone que se han generado m clases; entonces: j = 1, 2, 3, 4, . . ., m.
Los números que resultan directamente del proceso de conteo de casos en
cada clase, o sea la frecuencia, se acostumbra denominarlo más especı́ficamente
la “frecuencia absoluta”, la cual se simboliza por nj y presenta las
propiedades siguientes:

a. nj ≥ 0
b. nj ≤ n
m
P
c. nj = n
j=1

En la mayorı́a de estudios, más que saber el número de casos por clase,


interesa mucho más su proporción respecto al total de casos considerados,
pues en general las cifras relativas son más analı́ticas que los datos
absolutos. Se definen ası́ las llamadas “frecuencias relativas” o simplemente
“frecuencias”, como el cociente entre la frecuencia absoluta de cada clase y
el total de casos, simbólicamente:
nj
fj =
n

El estudio del comportamiento de las frecuencias relativas, ha sido


fundamental en el desarrollo del cálculo de probabilidades y es trascendental
para el establecimiento de la relación existente entre los métodos
30 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

observacionales de la Estadı́stica y los inductivos y el soporte probabilı́stico de


tal relación. Las frecuencias relativas son medidas empı́ricas de probabilidad.
Considerando las siguientes propiedades lógicas de estas frecuencias,
se establece un claro paralelo con aquellas asociadas con la medida de
probabilidad:

a. fj ≥ 0

b. fj ≤ 1
m
P
c. fj = 1
j=1

Para el análisis de tópicos importantes dentro de los procesos estadı́sticos, es


necesario, especialmente en el caso de variables cuantitativas, adicionar clase
por clase, las frecuencias tanto absolutas como relativas. El resultado de tal
operación es conocido como las “frecuencias acumuladas”, las cuales en el
caso relativo corresponden a la imagen empı́rica de la Función de Distribución
de una variable aleatoria.
Estas frecuencias, se representan generalmente por Nj y Fj , absolutas y
relativas respectivamente y dada alguna clase de la variable, por ejemplo la p
– ésima, se tendrá:
Xp Xp
Np = nj ; Fp = fj
j=1 j=1

Tabular y simbólicamente el proceso la siguiente forma:

FRECUENCIAS FRECUENCIAS
CLASES
ABSOLUTAS RELATIVAS
C1 n1 f1
C2 n2 f2
.. .. ..
. . .
Cj nj fj
.. .. ..
. . .
Cm nm fm
TOTAL N 1

El agrupamiento de la información permite ir detectando propiedades o


comportamientos regularizados de los datos, si existen, y como se anotó, es
fundamental para visualizar la relación entre la probabilidad y los métodos
estadı́sticos.
3.8. TRATAMIENTO DE LA INFORMACIÓN 31

Los cuatro tipos de frecuencias citados, son susceptibles de representaciones


gráficas, algunas de las cuales son de naturaleza analı́tica y otras de carácter
simplemente de presentación.

3.8.3. Clasificación Bi y Pluridimensional


Son múltiples los estudios en los cuales interesa analizar el comportamiento
conjunto de dos o más variables, especialmente con miras a tratar de establecer
la posible relación existente entre ellas y primer paso tras tal objetivo, es
clasificar los datos con relación a dos (o más) variables simultáneamente.
Las siguientes anotaciones del caso bidimensional, se pueden fácilmente hacer
extensibles para más de dos variables.
Determinadas las clases para cada una de las dos variables, éstas se disponen
en una tabla de doble entrada en la cual las filas y columnas principales
se destinan para presentar dichas clases. Las casillas al interior de la tabla,
constituyen las clases bidimensionales o clases conjuntas, correspondiendo a
la intersección de una clase de alguna de las variables, con una clase de la otra.
Es usual, sobretodo en computación, referirse en estos casos a clases o tablas
cruzadas.
Las frecuencias, resultado del conteo del total de casos en cada clase
conjunta, se llaman por extensión lógica “frecuencias bidimensionales” y las
de tipo relativo se asocian, a nivel empı́rico, con el concepto de “probabilidad
conjunta” o “probabilidad de la intersección” de dos eventos.
Si se denota por Cj alguna de las m clases de una de las caracterı́sticas,
generalmente la ubicada en la columna, y por Bk algo similar para alguna de las
w clases de la otra variable, las frecuencias absolutas bidimensionales presentan
las siguientes caracterı́sticas y propiedades:
njk =frecuencia de casos en la clase j – ésima de C y la k – ésima de B.
nj· = frecuencia de casos en la j – ésima clase de C, sin tener en cuenta a la
variable B (marginales de C)
n·k = frecuencia de casos en la k – ésima clase de B, sin tener en cuenta a la
variable C (marginales de B)
con las siguientes propiedades lógicas:

a. njk ≥ 0
b. njk ≤ n
c. njk ≥ nj·
d. njk ≥ n·k
m P
P w
e. njk = n
j=1 k=1
32 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

w
P
f. njk = nj·
k=1
m
P
g. njk = n·k
j=1

Las dos últimas propiedades indican que al sumar las frecuencias


bidimensionales, sobre el recorrido de una de las variables, se obtienen
las unidimensionales de la otra, conocidas comúnmente como “frecuencias
marginales”. Los puntos en la notación simbólica de estas últimas se refieren
a la variable que no se está considerando.
Las frecuencias relativas, tienen las siguientes propiedades lógicas:
n
fjk = jk = P (Cj ∩ Bk )
n
a. fjk ≥ 0
b. fjk ≤ 1
m P
P w
c. fjk = 1
j=1 k=1

w
P
d. fjk = nj·
k=1
m
P
e. fjk = n·k
j=1

Con base en las frecuencias absolutas marginales de cada una de las


variables (totales por filas y columnas), es factible tener una primera idea del
comportamiento de una de ellas en las diferentes clases de la otra.
Para esto, por ejemplo, se dividen las frecuencias absolutas de cada fila, por
el total de la misma, obteniendo de esta forma los porcentajes de cada casilla,
con respecto al total de la correspondiente fila. Estos porcentajes indican cómo
se distribuyen los casos de Cj con respecto a cada una de las clases de B. Una
discusión similar se presenta trabajando por columnas.
Este procedimiento equivale a nivel observacional, al concepto de
las “probabilidades condicionales” y es fundamental en los estudios
estadı́sticos sobre relación entre variables, especialmente cuando estas son de
naturaleza no – cuantitativa.
Simbólicamente el resultado serı́a el siguiente, considerando la j – ésima
clase de C y la k – ésima de B:
n
fk|j = jk = P (Bk |Cj )
nj·
3.9. ANÁLISIS E INTERPRETACIÓN 33

La presentación tabular de las frecuencias absolutas, tendrá la siguiente


forma:

CLASES B1 B2 ... Bk ... Bw TOTAL


C1 n11 n12 ... n1k ... n1w n1·
C2 n21 n22 ... n2k ... n2w n2·
.. .. .. .. .. .. .. ..
. . . . . . . .
Cj nj1 nj2 ... njk ... njw nj·
.. .. .. .. .. .. .. ..
. . . . . . . .
Cm nm1 nm2 ... nmk ... nmw nm·
TOTAL n·1 n·2 ... n·k ... n·w n

Cuando se consideran más de dos variables simultáneamente, el proceso se


denomina clasificación múltiple o pluridimensional y a partir de la consideración
conjunta de todas las variables, es posible deducir todas las situaciones de orden
menor. No es muy común presentar cuadros conjuntos para más de tres o cuatro
variables, pero los aspectos conceptuales se pueden desarrollar por partes, de
una manera relativamente sencilla.

3.9. Análisis e Interpretación


Obtenida, depurada y clasificada la información, siguen en orden
metodológico las aplicaciones de las técnicas estadı́sticas correspondientes para
su análisis y solo el conocimiento del soporte conceptual de estas, permitirá la
interpretación de los resultados.
Considerando que los métodos estadı́sticos aplicados y el desarrollo de
la Estadı́stica en sı́ misma, tienen una fuerte fundamentación probabilı́stica,
es necesario el conocimiento de los conceptos métodos del cálculo de
probabilidades, de las variables aleatorias, de las funciones y distribuciones
de probabilidad, tanto generales como especiales, ası́ como de las medidas
caracterı́sticas de una variable aleatoria.
Los llamados métodos descriptivos, que quizás se deberı́an llamar empı́ricos
u observacionales, son ası́ mismo importantes y se deberı́an presentar siempre,
en relación con los teóricos.
Las técnicas de estudio de asociación entre variables, sean estas
cuantitativas o no, se han constituido en los últimos tiempos en valiosos
auxiliares para la práctica y desarrollo de otras ciencias; algo similar sucede
con el análisis de series de tiempo, con el diseño de experimentos, los métodos
no paramétricos, el análisis multivariado, en fin, con todos los procedimientos
de análisis estadı́stico.
34 CAPÍTULO 3. METODOLOGÍA DE LA ESTADÍSTICA

Es de destacar el hecho de que, en los tiempos modernos, la inferencia


estadı́stica, con sus procesos básicos de estimación y pruebas de hipótesis,
constituye elemento fundamental no solo para la aplicación del Método
Cientı́fico, sino para su desarrollo y como consecuencia lógica, para la aplicación
y desarrollo de prácticamente todas las disciplinas y ciencias en el diario
transcurrir del ser humano.
De allı́ la gran importancia que actualmente ha adquirido y
seguirá adquiriendo la Estadı́stica, importancia que será mejor apreciada
en tanto que los docentes en esta ciencia, nos interesemos en darle énfasis a la
presentación conceptual de la misma, más que a sus procesos operacionales.
CAPÍTULO 4

Análisis de variables no cuantitativas

4.1. Introducción
En general cuando se observan variables no – cuantitativas en los elementos
de una población o de una muestra, el interés posterior a este proceso se centra
no solo en analizar comportamientos generalizados de las mismas, sino, más
comúnmente, en establecer si existen relaciones de correspondencia, coligación
o asociación entre dos o más de tales variables. Las variables no cuantitativas se
generan por escalas de medición nominal u ordinal, a diferencia de las variables
cuantitativas generadas por escalas de intervalo o de razón.
Los métodos para analizar las variables no cuantitativas son de
diversa ı́ndole, siendo los más preponderantes hoy en dı́a el Análisis de
Correspondencias, la Clasificación Automática, la Estadı́stica Textual, métodos
que superan los alcances de estas notas, en las cuales solo se presentan
fundamentos de tipo esencialmente descriptivo, para el tratamiento de tales
variables.

4.2. Análisis básico en tablas 2 x 2

4.2.1. Notación y Consistencia

En esta sección se presenta el caso en que se consideran dos


variables clasificadas cada una dicotómicamente (dos categorı́as mutuamente
excluyentes), produciendo cuatro clases conjuntas, como en la siguiente tabla:

35
36 CAPÍTULO 4. ANÁLISIS DE VARIABLES NO CUANTITATIVAS

CLASES B1 B2 TOTAL
A1 n11 n11 n1·
A2 n21 n21 n2·
TOTAL n·1 n·2 n

En esta tabla donde cada entrada en el cuerpo de la misma es llamada una


celda, es conveniente tener en cuenta la notación. Simbólicamente, A1 y A2
representan las dos clases de una de las variables y B1 y B2 las de la otra.
Es costumbre llamar primera variable a aquella en la vertical y segunda
a la ubicada en la horizontal. La primera clase de cada una de las variables
corresponde, generalmente, a una de sus modalidades de especial interés en un
estudio y la segunda clase a la negación de tal modalidad por lo que algunos
autores se refieren a la clase positiva y a la negativa de cada variable.
Las frecuencias, tanto conjuntas o bidimensionales como marginales, son
un caso particular de las discutidas en el Capı́tulo 3 y poseen entonces
las propiedades lógicas, que permiten en un primer análisis determinar la
consistencia de los datos y la condición necesaria y suficiente es que ninguna
frecuencia es negativa.
A partir de esta condición básica, se deducen otras formas del criterio de
consistencia, de las cuales se presentan a continuación algunos casos:

a. n12 ≥ 0
b. n12 ≤ n·2
c. n12 ≤ n1·
d. n11 + n12 + n21 + n22 = n
e. n12 ≥ n1· + n·2 − n

Formas similares se pueden deducir para las otras frecuencias y, en general,


es conveniente hacer antes de todo proceso una comprobación de la consistencia
de las mismas.

4.2.2. Independencia y Correspondencia


Para el análisis básico de los datos, desde el punto de vista de la posible
existencia de relación entre las caracterı́sticas, el punto de partida consiste en
suponer que tal relación no existe, lo cual en el caso absoluto, implica que
no existe relación alguna entre cada una de las clases de una de las variables
y cada una de las de la otra. La no existencia de algún tipo de relación o
correspondencia de comportamiento entre las dos variables se conoce como
“INDEPENDENCIA”.
4.2. ANÁLISIS BÁSICO EN TABLAS 2 X 2 37

El supuesto o Hipótesis de independencia se puede plantear para las dos


variables en su conjunto o solamente entre algunas de las clases, situación esta
última en la cual, el supuesto implica que la distribución de casos en alguna clase
de una de las variables, debe presentar la misma proporción en las dos clases
de la otra. Simbólicamente este “criterio de independencia”, se expresa de
la siguiente forma para el caso de la clase A1 con respecto a las clases B1 y B2 :
n11 n
= 12
n·1 n·2

De esta relación se deducen inmediatamente las similares:


n21 n n12 n n11 n
= 22 ; = 22 ; = 21
n·1 n·2 n1· n2· n1· n2·

Existen otras formas del criterio de independencia que son más útiles, desde el
punto de vista teórico. Ası́, a partir de la primera forma expuesta anteriormente,
se tiene:
n11 n − n11
= 1·
n·1 n − n·1
por tanto:
n − n·1 n − n12
= 1·
n·1 n12
y finalmente:
n12 n
= ·2
n1· n
De manera similar.

n12 n n n n n n
= 1· ⇒ n12 = 1· ·2 ⇒ 12 = 1· ·2
n·2 n n n n n
Esta última forma obtenida aquı́ descriptivamente, corresponde al criterio de
independencia probabilı́stica entre dos eventos cualesquiera, que para el caso
de la intersección de los mismos expresa que:

P (A1 ∩ B2 ) = P (A1 )P (B2 )

lo cual equivale a que si entre dos clases de dos variables existe independencia,
la proporción de casos en la clase conjunta, con respecto al total de casos, es
igual al producto entre las proporciones de casos, con respecto al total, de cada
clase.
Si la anterior relación se verifica, relaciones análogas se verificarán para las
otras tres clases conjuntas y por tanto se puede encontrar otra forma del criterio
de independencia, considerando que:
n1· n·2 n2· n·1
n12 n21 =
n2
38 CAPÍTULO 4. ANÁLISIS DE VARIABLES NO CUANTITATIVAS

obviamente n11 n22 es igual a la misma fracción, por consiguiente:


n11 n n n
= 12 ⇒ 11 = 21
n21 n22 n12 n22
Estas últimas formas indican que, en el caso de independencia, la razón de los
A1 a los A2 entre los B1 , es igual a la razón entre las dos clases de A en los B2
y análogamente para la razón de las clases de B entre las de A. Esta manera de
expresar el criterio de independencia permite reconocer con las solas frecuencias
bidimensionales, si las dos variables en estudio son o no independientes.
Todas las igualdades anteriores son rı́gidas a nivel de la teorı́a, pero en la
práctica se asumen como aproximadamente o relativamente iguales o lo que es
equivalente, como no significativamente diferentes, conceptos que implican
la utilización de los métodos estadı́sticos inferenciales, para determinar cuando
las diferencias pueden considerarse significativas o no.
Si las anteriores igualdades no se cumplen, en el sentido relativo expresado
antes, las clases o variables correspondientes, serán independientes, lo que
implica por lo menos la sospecha de la existencia de algún tipo de relación, que
se llama en algunos casos asociación, pero que corresponde más al concepto de
concordancia o correspondencia entre las clases o variables.
La concordancia o correspondencia es a menudo considerada como una
forma especial de asociación, pero en realidad existen diferencias entre los
conceptos. En general, con respecto a la correspondencia, lo más importante
es la similitud de comportamiento (en un sentido amplio) entre clases, con el
objetivo de determinar el grado de identidad de tal comportamiento. En el
caso de la asociación, se investiga la intensidad y forma de la relación, con el
fin de predecir valores de una variable, con base en los de otra, propósito que
en general no se persigue en el análisis de correspondencias.
La posible existencia de concordancia entre clases, se puede entonces
expresar de la siguiente manera:
n n
n11 > 1· ·1
n
lo que indica que son más los casos obtenidos en la clase conjunta A1 B1 que los
esperados si existiera independencia. Para los usuarios de los términos clases
positivas y negativas, esto indicarı́a que generalmente la clase positiva de una
variable concuerda mas con la positiva de la otra, razón por la cual se habla de
asociación positiva o simplemente asociación.
Si por el contrario:
n1· n·1
n11 <
n
los casos de la clase conjunta son menos de los esperados, situación que lleva
a hablar de asociación negativa o disociación, en el sentido de que las clases
positivas tienden a no concordar. De acuerdo con lo anotado, se debe hablar
más bien en términos de clases correspondientes o no correspondientes.
4.2. ANÁLISIS BÁSICO EN TABLAS 2 X 2 39

El caso extremo, llamado correspondencia absoluta o completa, implica que


todos los A1 deben ser B1 y viceversa, criterio este que es muy rı́gido y que se
puede flexibilizar al exigir solo que todos los A1 sean B1 o que todos los B1
sean A1 , según la clase que sea más pequeña.
Las formas anteriores y sus similares, para tratar los casos de relación son
los más naturales, desde el punto de vista teórico, pero es más lógico, sencillo
y claro en la práctica comparar proporciones, por ejemplo la proporción de los
A1 entre los B1 con la proporción de los A1 en los B2 .
Según lo observado en el caso de independencia, existen muchas formas de
comparación, por lo que se debe preguntar cuál será la mejor. Dos principios
deciden la cuestión: el primero indica que de dos comparaciones es mejor la que
muestre con mayor claridad la identidad de la correspondencia y el segundo
que de dos comparaciones disponibles será mejor la que ponga de manifiesto el
aspecto más importante del problema que se estudia.
El primer principio indica que las comparaciones de la forma:
n11 n
> 12
n·1 n·2

son mejores que las de tipo:

n11 n
> 1·
n·1 n
porque es evidente que si la mayorı́a de casos considerados son B1 , esto
es que se aproximan a n entonces la relación de los A1 a los B1 se
aproximará necesariamente a su relación con el total de casos, aunque la
diferencia de relación con los B2 sea considerable, por lo que la segunda forma
se presta a confusiones.
Las comparaciones que se basan en proporciones respecto al total de filas y/o
columnas, son conocidas como perfiles fila y perfiles columna respectivamente, y
constituyen la base de métodos más avanzados del análisis de correspondencias.
En el caso esencialmente descriptivo, además de valorar la relación de
concordancia entre clases, algunos autores han propuesto “indicadores” de
la intensidad de la relación, que involucre no solo a algunas clases de las dos
variables, sino a estas en su conjunto.
En la determinación de tales indicadores, son deseables las siguientes
caracterı́sticas:

a. El ı́ndice tendrá un valor máximo fijo (usualmente 1) para todos los casos
de correspondencia completa y un valor fijo (generalmente 0) si existe
independencia (esto no excluye la posibilidad de que ocasionalmente el
indicador sea negativo)
40 CAPÍTULO 4. ANÁLISIS DE VARIABLES NO CUANTITATIVAS

b. El ı́ndice debe ser independiente del número de observaciones y del número


de clases.
c. La permutaciones de las categorı́as no influirán en su valor.
d. El ı́ndice será simétrico.
e. Para efectos inferenciales, deberá tener una distribución muestral conocida
y deberá ser robusto.

Con las anteriores bases pueden idearse indicadores de diversas formas,


siendo el más sencillo, aunque no siempre el más ventajoso, el que corresponde
a la expresión:
n n − n12 n21
Q = 11 22
n11 n22 + n12 n21
Es evidente que Q valdrá cero cuando las variables sean independientes, pues el
numerador será cero; tomará el valor +1 si existe completa concordancia entre
A1 y B1 y/o entre A2 y B2 puesto que el segundo término del numerador y
denominador será cero; análogamente valdrá −1 cuando la concordancia sea
completa entre A1 y B2 y/o entre A2 y B1 . A este coeficiente se le conoce,
con una terminologı́a un poco errada, como coeficiente de asociación entre
atributos.
Otro coeficiente similar en cuanto a sus propiedades es el llamado coeficiente
de coligación: qn n
1 − n12 n21
Y = q n11 n22
1 + n12 n21
11 22

Se deduce que:
2Y
Q=
1+Y2
Los anteriores indicadores son fundamentalmente descriptivos, pero no implican
necesariamente la existencia de independencia o de relación, ya que para
rechazar el supuesto de independencia, es necesario desarrollar pruebas de
hipótesis estadı́sticas, tema que se presentará posteriormente en estas notas.
Sin embargo se expone la prueba más conocida, para el supuesto de
independencia entre dos variables de naturaleza no – cuantitativa clasificadas
dicotómicamente, basada en una variable Chi – cuadrado, con distribución Chi
– cuadrado con un grado de libertad. La variable tiene la forma:
2
2 n |n11 n22 − n12 n21 | − n2
χ =
(n11 + n12 ) (n21 + n22 ) (n11 + n21 ) (n12 + n22 )
Esta variable resulta de comparar las frecuencias observadas en las clases
conjuntas, con las correspondientes esperadas si la hipótesis de independencia
se cumpliera. La prueba es unilateral a la derecha y requiere que las frecuencias
esperadas no sean muy pequeñas (no menores que cinco).
4.2. ANÁLISIS BÁSICO EN TABLAS 2 X 2 41

4.2.3. Clasificación Multivariada Dicotómica


En la mayorı́a de las aplicaciones prácticas se consideran simultáneamente
más de dos caracterı́sticas o variables en el estudio y particularmente puede
desearse analizar la posible relación entre algunas de ellas, cuando se tienen
en cuenta otras. En las anotaciones siguientes, se presentan los métodos para
llevar a cabo estos procesos, considerando el caso de tres variables, clasificadas
todas en forma dicotómica. La extensión al caso de más de tres variables es
inmediato.
Llamando C1 y C2 a cada una de las clases de la tercera variable en estudio,
se generan ahora clases conjuntas y frecuencias tridimensionales, de las cuales se
pueden derivar las bi y uni dimensionales, lo cual preservando el orden asignado
a cada variable, produce formas simbólicas como las siguientes:
n121 =número de casos que pertenecen a la primera clase de A, la segunda de
B y la primera de C.
n1·1 =número de casos que pertenecen a la primera clase de A y a la primera
de C, sin tener en cuenta a B
n··1 = número de casos que pertenecen a la primera clase de C, sin considerar
a A, ni a B. Tabular y simbólicamente se tendrá:

C1 C2
CLASES TOTAL
B1 B2 B1 B2
A1 n111 n121 n112 n122 n1··
A2 n211 n221 n212 n222 n2··
TOTAL n·11 n·21 n·12 n·22 n

Existen entonces ocho frecuencias tridimensionales, doce bidimensionales y


seis unidimensionales, que poseen propiedades intuitivas de consistencia, como
las expuestas en el caso bidimensional, algunas de ellas son:

1. n121 ≥ 0
2. n121 ≤ n·21 ; n121 ≤ n1·1 ; n121 ≤ n12·
3. n121 ≤ n1·· ; n121 ≤ n·2· ; n121 ≤ n··1
4. n111 + n112 + n121 + n122 + n211 + n212 + n221 + n222 = n

Los análisis de relación en este tipo de clasificación pretenden estudiar la


independencia o no entre dos clases de dos de las variables, dada alguna clase de
la tercera, utilizándose el termino asociación en subcolectivos para referirse
a este tipo de métodos, también conocidos como el estudio de asociaciones
parciales.
La base de los criterios de independencia o concordancia son similares al
caso bidimensional y como caso particular se presentan algunas formas de tales
criterios al estudiar la relación entre A y B, dentro del subgrupo de los C.
42 CAPÍTULO 4. ANÁLISIS DE VARIABLES NO CUANTITATIVAS

A1 y B2 serán concordantes o correspondientes en el subcolectivo de los C1 ,


si:
n1·1 n·21
n121 >
n··1
o, utilizando comparaciones entre proporciones, se presenta alguna de estas
formas:

n121 n1·1
1. n·21 > n··1

n121 n·21
2. n1·1 > n··1

n121 n111
3. n·21 > n·11

n121 n221
4. n1·1 > n2·1

De manera similar el ı́ndice de concordancia o asociación parcial, tendrá la


forma:
n n − n121 n211
QAB.1 = 111 221
n111 n221 + n121 n211
al conservar el mismo ı́ndice del caso bidimensional, pero especificando el
subcolectivo donde la asociación parcial se quiere estudiar.
Para tres variables se estudiarı́an tres asociaciones totales a saber: la de A
con B, la de A con C y la de B con C y seis parciales, las de A con B en cada
clase de C, las de A con C en cada clase de B y las de B con C en cada clase
de A.

4.3. Clasificación múltiple


Las situaciones analizadas en los numerales anteriores, son la base de
aquellas más complejas en las cuales, como se anotó en 3.8.3, las dos o
más variables consideradas se clasifican cada una en más de dos categorı́as,
manteniéndose el interés en el análisis de la independencia o en su defecto, de
la correspondencia entre ellas.
Es conveniente recordar que en la presentación de esta clasificación (3.8.3)
se convino considerar “m” clases para una variable y “w” para la otra
y se discutieron los conceptos básicos referentes a las propiedades de las
frecuencias tanto absolutas como relativas, ası́ como tanto bidimensionales,
como marginales y condicionales. En el léxico del análisis de correspondencias,
se les denomina a estas últimas “perfiles fila” y “perfiles columna”.
Los criterios de independencia mencionados en el caso de tablas 2 x 2, se
generalizan, en este caso y ası́, por ejemplo si Aj (alguna clase de la primera
4.3. CLASIFICACIÓN MÚLTIPLE 43

variable), es independiente de Bk (una clase cualquiera de la segunda), entonces:


nj· n·k
njke =
n
donde la “e” del primer miembro de la igualdad, se refiere a los “esperado”
bajo el supuesto de independencia.
Si la igualdad anterior se cumple para todo j y todo k, las variables A y B
serán independientes completa o absolutamente. De no ser ası́, las diferencias
njk − njke , serán un primer indicador de posible concordancia o discordancia
entre las clases comparadas y deberán ser resumidas en un solo indicador, que
deberá ser independiente del signo de las diferencias, puesto que:
m X
X w  
njk − njke =0
j=1 k=1

El ı́ndice comúnmente propuesto corresponde a una variable Chi – cuadrado,


que se utiliza fundamentalmente dentro de un proceso de prueba de hipótesis
de independencia, similar a la presentada en el caso 2 x 2 y que es:
 2
m X
X w njk − njke m X
X w
n2jk
χ2 = = −n
j=1 k=1
njke j=1 k=1
njke

La variable es no negativa y su valor tenderá a infinito en tanto las diferencias


entre las frecuencias bidimensionales observadas sean muy diferentes de las
esperadas en caso de independencia, por lo que la prueba de hipótesis
correspondiente es unilateral a la derecha y utiliza como referencial teórico
una función Chi – cuadrado con (m − 1)(k − 1) grados de libertad.
No sobra recalcar que los métodos hasta aquı́ expuestos son
fundamentalmente descriptivos y deberán ser utilizados con arreglo a los
requerimientos teóricos que los sustentan.
CAPÍTULO 5

Análisis descriptivo de una variable cuantitativa

5.1. Medidas caracterı́sticas unidimensionales

Se ha comprobado que, en general, los colectivos estadı́sticos tienden a


comportarse respecto a los aspectos en estudio, de una manera variable,
pero con ciertas tendencias o regularidades, comportamientos que se
describen con base en una serie de medidas llamadas “caracterı́sticas” o
“caracterizadoras” de los mismos.
Tales medidas estudian entonces la tendencia y la variabilidad o dispersión
de los diferentes factores en observación dentro de un estudio y son la base
para procesos analı́ticos más profundos que el de simplemente describir el
comportamiento de las variables. Se presentan a continuación algunas de tales
medidas, enfatizando más su conceptualización, que sus procesos de cálculo.

5.1.1. La Media Aritmética

Conocida también como el promedio aritmético o simplemente la media


o el promedio, se define como el cociente entre la suma de todos los valores
observados de la variable en cada elemento considerado y el total de éstos o sea
que es una razón entre el total de la variable y el total de elementos en que ha
sido observada.
La fórmula para calcular esta medida tiene la siguiente forma, cuando se

44
5.1. MEDIDAS CARACTERÍSTICAS UNIDIMENSIONALES 45

trabaja con los dalos originales:


n
1X
M (x) = x̄ = x
n i=1 i

que se transforma en el caso de datos agrupados en:


m m
1X X
M (x) = x̄ = ẋj nj = ẋj fj
n j=1 j=1

De acuerdo con su definición y naturaleza, la media aritmética es el valor


“alrededor del cual” la variable tiende preferencialmente a agruparse; implica
que los elementos del colectivo o de la muestra presentaron para la variable,
valores que están alrededor del promedio.
Por ser una medida estadı́stica, su interpretación y por ende su utilización
debe hacerse en términos generales y no es aplicable a escala individual o
particular, error este muy usual de cometer. Es conveniente insistir en que
el promedio es un punto de referencia de la tendencia al agrupamiento, por
lo cual se le interpreta como el momento de inercia de las magnitudes de la
variable.
Corresponde, a nivel descriptivo, al concepto de Valor Esperado o Esperanza
Matemática de una variable aleatoria, cuyo significado se intuye fácilmente del
nombre asignado a la medida.
Posee además propiedades de tipo matemático, con aplicaciones tanto
para desarrollos teóricos como prácticos, algunas de las cuales se presentan
a continuación:

1. −∞ ≤ M (x) ≤ ∞
2. M (x − x̄) = 0
3. M (x − x̄)2 = mı́n
4. M (k) = k
!
m
P m
P 
5. M xj = M xj
j=1 j=1

6. M (x ± k) = M (x) ± k
7. M (kx) = kM (x)
8. M (k1 ± k2 x) = k1 ± k2 M (x)
!
m
Q m
Q 
9. M xj = M xj si las variables son independientes.
j=1 j=1
46 CAPÍTULO 5. ANÁLISIS DESCRIPTIVO DE UNA VARIABLE CUANTITATIVA

10. Sea x sobre un conjunto particionado en m subconjuntos y sean: nj y


Mj (x) la parte de datos y la media aritmética de la variable en cada
parte de la partición, entonces:
m
X nj
MT (x) = Mj (x)
j=1
n

Para complementar los anteriores conceptos, se presentan las caracterı́sticas


generales del promedio, que son:

Ser una medida de tendencia central (en el sentido de centro de equilibrio)


de base matemática, susceptible por tanto de tratamiento algebraico.

Tener un sentido claro como valor de tendencia del agrupamiento de los


datos.

Requerir, para su cálculo, de todos los valores de la variable.

Verse afectada por valores extremos o “raros”, lo cual puede distorsionar


el concepto de regularidad o tendencia.

5.1.2. La Varianza
Partiendo del hecho de que la tendencia generalizada de los datos se
ha representado o sintetizado por el promedio, será pertinente observar la
diferencia entre los datos (representados) y la media (representante), para tener
alguna idea de que tan buena es tal representación. Si en suma tales diferencias
son pequeñas, se deberá a buena representación o sea que los datos realmente
tienen alguna tendencia. En caso contrario, esto último deberá descartarse.
Para corroborar lo anterior, obsérvense los tres conjuntos de dalos siguientes:

Conjunto I 700 700 700 700 700


Conjunto II 698 699 700 701 702
Conjunto III 50 100 350 1000 2000

Se puede comprobar fácilmente que en los tres casos el promedio es 700,


pero no por esto se puede decir que los datos se comportan igual, en términos
generales.
Evidentemente, mientras en el conjunto I los valores se “concentran”
exactamente en 700, en el II “tienden” a agruparse, en forma bien marcada,
alrededor de tal número, pero no tiene sentido alguno hablar en el caso III,
de que realmente los datos muestren alguna tendencia y menos que ella sea
alrededor de 700. No se puede creer con fe ciega, en la representatividad del
promedio.
5.1. MEDIDAS CARACTERÍSTICAS UNIDIMENSIONALES 47

Retomando el primer párrafo de este subcapı́tulo, por definición de la media,


la suma de las diferencias entre los datos y esta, es siempre nula. Para obviar
el problema, se toman los cuadrados de tales diferencias y se promedian,
generándose ası́ una de las medidas de dispersión más importantes dentro
de los análisis estadı́sticos, conocida como “la varianza”, con la siguientes
expresiones simbólicas:
n n
1X 2 1X 2
V (x) = S 2 = (xi − x̄) = x − x̄2
n i=1 n i=1 i

en el caso de los originales, y:


m m n
1X 2 X 2 1X 2
V (x) = S 2 = ẋj − x̄ nj = ẋj − x̄ fj = ẋi nj − x̄2
n j=1 j=1
n i=1

para los datos agrupados.


Se puede comprobar que las varianzas de tos tres conjuntos de
datos ejemplarizantes, son respectivamente 0, 2, y 537.000, indicando
comparativamente, nula dispersión en el I, pequeña en el II y muy grande
en el III, lo que intuitivamente y por simple observación, era de esperar.
La varianza es en consecuencia, una medida de la dispersión entre los valores
de una variable y el promedio que representa su supuesta tendencia. Aunque no
puede interpretarse en términos más tangibles, especialmente relacionándola
directamente con los datos y su media, debido a su expresión en unidades
cuadráticas, se constituye en base primordial para el desarrollo y aplicación de
muchos de los principales procesos de análisis estadı́stico.
De manera similar a la media aritmética, posee propiedades de tipo
matemático, algunas de las cuales son:

1. V (x) ≥ 0

2. V (k) = 0
!
m
P m
P 
3. V xj = V xj si las variables son independientes.
j=1 j=1

4. V (x ± k) = V (x)

5. V (kx) = k 2 V (x)

6. V (k1 ± k2 x) = k22 V (x)

7. Sea x sobre un conjunto particionado en m subconjuntos y sean: nj ,


Mj (x) y Vj (x) la parte de datos y la media aritmética y la varianza de la
48 CAPÍTULO 5. ANÁLISIS DESCRIPTIVO DE UNA VARIABLE CUANTITATIVA

variable en cada parte de la partición, entonces:


m
X nj X  2 nj
VT (x) = Vj (x) + Mj (x) − MT (x)
j=1
n n

Esta última propiedad es conocida como descomposición elemental de


la varianza y es la base, entre otros, de los llamados estudios de diseño
experimental y muestra que en estos casos la medida resulta de promediar
las varianzas de los subconjuntos y adicionarle la varianza de las medias de los
mismos.
Al promedio de las varianzas se le denomina INTRAVARIANZA y a la
varianza de las medias INTERVARIANZA o sea que:
Varianza del total = Intravarianza + Intervarianza
Como cada varianza mide la dispersión dentro de cada subgrupo, la
intravarianza es una medida promedio de la variación DENTRO de los
mismos. La media de cada subgrupo, representa su tendencia, por lo que la
intervarianza mide la dispersión entre ellas y por tanto ENTRE aquellos, de
tal manera que la dispersión del total de datos se debe en parte a la dispersión
dentro de los subgrupos y en parte a la dispersión entre ellos.
Esta propiedad y su análisis, llamado por ello Análisis de Varianza,
corresponde a una visión muy reducida y simple de multitud de variantes y
aplicaciones que descomposiciones similares, pueden hacer de esta importante
medida.

5.1.3. La desviación estándar y el coeficiente de variación


Para obviar el problema de interpretación tangible de la varianza, se define
una medida adicional de dispersión, como la raı́z cuadrada positiva de la
varianza, denominada desviación estándar o tipo o tı́pica.
Es una medida que está expresada en las mismas unidades de la variable,
lo que permite darle una interpretación directamente relacionada con ella, que
la considera como la dispersión “promedio” entre los datos y la media que los
representa.
Aunque la desviación tipo tiene una interpretación más accesible que la
varianza, no dará una idea concreta de la magnitud, de la dispersión si no se
referencia simultáneamente el correspondiente promedio. Esta relación entre las
dos medidas se concreta en el llamado Coeficiente de Variación, que se obtiene
como el cociente entre la desviación tipo y la media aritmética.
Es el coeficiente de variación, una expresión de la proporción o porcentaje
de dispersión que tienen los datos con respecto a su promedio, o sea:
s
CV (x) =

5.1. MEDIDAS CARACTERÍSTICAS UNIDIMENSIONALES 49

y, por ser una medida relativa, permite comparaciones de diversas series de


datos, aún de aquellas que sean de diferente naturaleza.

5.1.4. Los Percentiles


Se definen como tales a valores del recorrido de la variable, que delimitan
superiormente, determinados porcentajes de casos, dividiéndolos en dos
subconjuntos, uno de ellos con una determinada proporción de menores valores
de la variable y el otro con la proporción restante de valores mayores.
El porcentaje relacionado con el subconjunto de menores, se utiliza para
hacer referencia al “orden” del correspondiente percentil.
En términos de porcentajes enteros, existen 99 percentiles y la utilización
simultánea de varios de elfos, crea subconjuntos de elementos que se
caracterizan por presentar para la variable, valores más o menos homogéneos.
Es costumbre denominar “Mediana” al percentil 50 y “Cuartiles inferior
y superior” a los percentiles 25 y 75 respectivamente.
La naturaleza de estas medidas, que implica un ordenamiento ascendente
previo de los datos, está relacionada con el concepto de “localización” o de
“posición”.
Para ubicar un percentil determinado, simplemente se determina la posición
que debe ocupar dentro de los datos y se observa el valor de la variable que se
encuentre en tal posición. Se les denomina también “estadı́sticas de orden”.
Para datos agrupados en una distribución de frecuencias, de forma continua,
el percentil t – ésimo se localiza mediante la siguiente expresión:

0.01tn − Nk−1
 
Pt = ẋk−1 + ck
nk

siendo k, la clase percentı́lica.


Estas medidas son de gran importancia en procesos de clasificación de casos,
en el recientemente desarrollado análisis exploratorio de datos, en los estudios
no paramétricos y, en su modalidad teórica, asociados con variables aleatorias
y sus distribuciones de probabilidad, son trascendentales en los procesos de
estimación y pruebas de hipótesis estadı́sticas, de la inferencia estadı́stica.

5.1.5. La Moda
Conocida también con los nombres de Modo, Promedio Tı́pico o Valor
Modal se define como el valor de la variable que más se repite o sea el que
aparece con mayor frecuencia En términos de probabilidad corresponde al valor
más probable.
50 CAPÍTULO 5. ANÁLISIS DESCRIPTIVO DE UNA VARIABLE CUANTITATIVA

La determinación de la moda corresponde a un proceso eminentemente


observacional asociado con su concepción: detectar cual es el valor de la variable
que más se repite o que tiene mayor frecuencia. Para datos agrupados en forma
continua este proceso se realiza mediante la forma:

nk − nk−1
 
Md = ẋk−1 + ck
2nk − nk−1 − nk+1

correspondiendo k, a la clase con mayor frecuencia.


El sentido de esta medida es el mismo que tiene el concepto en su utilización
vulgar y presenta la mismas caracterı́sticas de inestabilidad, no unicidad y
naturaleza de comportamiento frecuencial de tal concepción.
CAPÍTULO 6

Estudios de relación entre variables cuantitativas

6.1. La regresión
En múltiples estudios estadı́sticos, aparece como una gran necesidad
práctica, el considerar simultáneamente dos o más variables, con el fin de
analizar si entre ellas existe alguna relación, si la misma se puede formalizar
y que tan intensa es la misma. Se trata de establecer fundamentalmente, con
respecto a la relación:

la existencia

la forma

la intensidad

Los métodos estadı́sticos utilizados para éstos análisis son conocidos como
Métodos de Regresión y Correlación y el supuesto de partida para su desarrollo,
considera que algunas de las variables explican en parte, el comportamiento
de otras. Este supuesto establece una división general entre las variables
consideradas, clasificándolas en dos grupos constituidos por las variables
explicativas y las variables explicadas.
El objetivo de este tipo de procesos es tratar de estimar o predecir
o conjeturar valores de las variables explicadas, con base en valores
dados o supuestos de las explicativas. Por tal razón son llamadas también
éstas, variables explicativas o predictoras y las anteriores variables
estimadas o predictando. Otros nombres no muy adecuados, son los de

51
52 CAPÍTULO 6. ESTUDIOS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS

variables independientes para las explicativas y variables dependientes para


las explicadas.
Para poder alcanzar el objetivo citado, es necesario darle alguna forma
funcional a la relación, lo cual se logra mediante el ajuste de funciones de base
estadı́stico – matemática, que están compuestas por una parte determinı́stica
y una parte aleatoria o no determinı́stica. A tales funciones se les denomina
Modelos de Regresión.
La componente aleatoria solo se puede manejar por medio de la
probabilidad, por lo cuál en la práctica no se puede incluir en el modelo,
lo que imposibilita el poder determinar valores de las variables explicadas,
limitándose el proceso a la estimación de los mismos. La natural diferencia
entre los verdaderos valores de las variables explicadas y los que se estiman
por medio del modelo, constituye la llamada variable aleatoria de error y
el principio fundamental para construir un modelo, indica que este debe, ser
tal, que minimice la suma de los cuadrados de tal variable, principio que es
entonces denominado como de mı́nimos cuadrados.
Uno de los modelos básicos, es el que está asociado con la consideración
de una variable explicada y su relación lineal con un conjunto de p variables
explicativas y la variable de error, que formalmente se expresa como:

Y = β0 + β1 x1 + β2 x2 + · · · + +βp xp + u = E(Y ) + u

y que en la práctica es: E(Y ) = β0 + β1 x1 + β2 x2 + · · · + +βp xp


de tal manera que:
U = Y − E(Y )
y el principio de minimización implica que el modelo se ajuste de tal forma
que: X X 2
U2 = [Y − E(Y )] = mı́n

El anterior modelo es conocido como MODELO GENERAL DE


REGRESIÓN LINEAL, y en el mismo Y representa a la variable explicada,
xj alguna de las variables explicativas y U a la variable aleatoria de error.
Los coeficientes beta que acompañan a cada una de las variables
estimadoras, ası́ como el independiente son llamados los parámetros del modelo
y será necesario estimarlos mediante información muestral. Lo anterior se hace
con base en el proceso de minimización de cuadrados, ya que esta genera un
sistema de p+1 ecuaciones, cuya solución permite encontrar las p+1 incógnitas.
Los coeficientes asociados con cada variable explicadora reciben el nombre
de COEFICIENTES DE REGRESIÓN PARCIAL, e indica cada uno de
ellos la modificación que se opera en la estimación de Y , por cada modificación
que se haga en una unidad de la correspondiente X, cuando las demás se supone
que permanecen invariables.
6.2. LA EXPLICACIÓN DE LA VARIACIÓN DEL MODELO 53

Al coeficiente independiente se le denomina VALOR AUTÓNOMO, por


estar asociado con la estimación de Y , cuando todas las variables explicativas
presentan el valor cero.
Es innegable la importancia que en los estudios de relación entre variables,
tiene el análisis correcto de los coeficientes de regresión y al respecto es
conveniente advertir que la interpretación de los mismos, se debe hacer siempre
sin perder el punto de referencia del modelo que se esté trabajando, en cada
situación especı́fica.
Los métodos de regresión permiten analizar varios modelos, a partir de un
conjunto dado de variables explicativas, con el fin de determinar cuáles de estas
se deben incluir finalmente para que se logren los mejores resultados. De estos
procedimientos, los más comunes son los conocidos como Stepwise, Forward
y Backward.

6.2. La explicación de la variación del modelo


Siendo el punto de partida del ajuste de modelos de regresión, la aceptación
del error que contienen, son necesarios procedimientos que indiquen en cada
caso, que tan grande es este o equivalentemente, que tan bien explican
las variables explicativas, el comportamiento de la explicada y que además
permiten el desarrollo de los procesos de inferencia en regresión.
La base para tales fines, está determinada por el análisis de sumas de
cuadrados de la variable explicada o por el ANÁLISIS DE VARIANZA EN
REGRESIÓN, que fundamentalmente consiste en la siguiente descomposición
de la suma de cuadrados de valores “corregidos por la media” para la variable
explicada:
X 2 X  2 X  2
Yi − Ȳ = Ŷi − Ȳ + Yi − Ŷi

El término a la izquierda de la igualdad, se conoce como la SUMA DE


CUADRADOS TOTAL (SCT), el primer sumando de la derecha es la
SUMA DE CUADRADOS DE LA REGRESIÓN (SCR) y el segundo
es la SUMA DE CUADRADOS DEL ERROR (SCE).
Idealmente lo deseable es que la suma de cuadrados total, sea igual a la
suma de cuadrados de la regresión y que la suma de cuadrados del error sea
cero, ya que esto indicarı́a que el modelo es perfecto. Esto en la práctica es
imposible de lograr, pero sirve como punto de referencia para analizar, en una
situación determinada, la bondad del modelo.
Uno de tales análisis, consiste en comparar la cantidad de variación
explicada por el modelo, con la cantidad de variación total que ha debido
explicar, mediante el cociente entre ellas, indicador que recibe el nombre de
COEFICIENTE DE DETERMINACIÓN y cuyo sı́mbolo más usual es
54 CAPÍTULO 6. ESTUDIOS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS

R2 , o sea:
Variación explicada
R2 =
Variación total
Como se anotó anteriormente, esta descomposición es trascendental en el
análisis e interpretación del modelo, ası́ como en los procesos inferenciales
correspondientes y aunque no es la única, si es fundamental para otros análisis
similares más complejos.
CAPÍTULO 7

Algunos conceptos de Probabilidad

7.1. Teoremas básicos de Probabilidad

7.1.1. Definición clásica

 n
P Aj = j
n
nj =resultados favorables; n =resultados posibles

7.1.2. Teoremas básicos


7.1.2.1. Teorema aditivo. Probabilidad de la unión de eventos


P Aj ∪ Ak = P (Aj ) + P (Ak ) − P (Aj ∩ Ak ); si Aj ∩ Ak 6= ∅
Generalización
m
! m m
[ X X
P Ai = P (Ai ) − P (Ai ∩ Aj )
i=1 i=1 i<j
m m
!
X \
m−1
+ P (Ai ∩ Aj ∩ Ak ) − · · · + (−1) P Ai
i<j<k i=1

si Ai ∩ Aj 6= ∅ ∀i 6= j

55
56 CAPÍTULO 7. ALGUNOS CONCEPTOS DE PROBABILIDAD

7.1.2.2. Teorema multiplicativo. Probabilidad de la intersección de


eventos

 
 P (Ai ) P Aj ;
 si Ai y Aj son independientes
P Ai ∪ Aj =
 
P (Ai ) P Aj |Ai ; si Ai y Aj no son independientes

m
! m
\ Y
P Ai = P (Ai ); si los eventos son independientes dos a dos
i=1 i=1
m
!
\
P Ai = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) · · · P (Am |A1 A2 . . . Am−1 )
i=1

si los eventos no son independientes dos a dos.

7.1.2.3. Probabilidad condicional

P (Aj ∩ Ai )
P (Aj |Ai ) = ; con P (Ai ) > 0
P (Ai )

7.1.2.4. Teorema de probabilidad total

Sea A un evento cualquiera, definido sobre un espacio muestral particionado,


entonces:
Xm
P (A) = P (Ei )P (A|Ei )
i=1

7.1.2.5. Teorema de Bayes. Probabilidad a posteriori

P (Ek )P (A|Ek )
P (Ek |A) = P
m ; siendo 1 ≤ k ≤ m
P (Ei )P (A|Ei )
i=1

7.2. Función de probabilidades


Sea X una variable aleatoria y fX (x) una función tal que:

i. fX (x) ≥ 0 para todo x


7.3. FUNCIÓN DE DISTRIBUCIÓN 57

ii. P
 fX (x) = 1
 en el caso discreto
 ∀x

 R
 fX (x)dx = 1 en el caso continuo


∀x

entonces fX (x) es llamada la funciónn de probabilidades de X, si con ella


puede obtenerse:

P (X = xj ) = fX (xj )


si la variable es discreta

xj
 R


 P (x i
≤ X ≤ x j
) = fX (x)dx si la variable es continua
xi

7.3. Función de distribución


Sea X una variable aleatoria y fX (x) su función de probabilidades,
 x
P j
fX (x) para variable discreta




x=−∞

FX (xj ) =

 xj
 R
fX (x)dx para variable continua



−∞

es la función de distribución o función acumulativa de probabilidades de la


variable alatoria X, con ella se obtiene:

P (X ≤ xj )

7.4. Valor esperado

 P∞


 xfX (x) si la variable es discreta
x=−∞

E(X) = µ =

 R∞
xfX (x)dx si la variable es continua



−∞

PROPIEDADES

1. −∞ ≤ E(X) ≤ ∞
2. E(X − µ) = 0
58 CAPÍTULO 7. ALGUNOS CONCEPTOS DE PROBABILIDAD

3. E(X − µ)2 = mı́n


4. E(k) = k
!
m
P m
P 
5. E Xj = E Xj
j=1 j=1

6. E(X ± k) = E(X) ± k
7. E(kX) = kE(X)
8. E(k1 ± k2 X) = k1 ± k2 E(X)
!
m
Q m
Q 
9. E Xj = E Xj si las variables son independientes.
j=1 j=1

10. Sea X sobre un espacio muestral particionado y sean: fj (x) y Ej (X) la


parte de función y el valor esperado de la variable en cada parte de la
partición, entonces:
m
X
ET (X) = Ej (X)fj (x)
j=1

7.5. La varianza

 P∞ ∞
2
x2 fX (x) − µ2
P


 (x − µ) fX (x) = si la variable es discreta
x=−∞
 x=−∞
V (X) = σ 2 =

 R∞ 2 R∞ 2
(x − µ) fX (x)dx = x fX (x)dx − µ2 si la variable es continua



−∞ −∞

PROPIEDADES

1. V (X) ≥ 0
2. V (k) = 0
!
m
P m
P 
3. V Xj = V Xj si las variables son independientes.
j=1 j=1

4. V (X ± k) = V (X)
5. V (kX) = k 2 V (X)
6. V (k1 ± k2 X) = k22 V (X)
7.6. FUNCIONES ESPECIALES DE PROBABILIDAD 59

7. Sea X sobre un espacio muestral particionado y sean: fj (x), Ej (X) y


Vj (X) la parte de función de probabilidad, el valor esperado y la varianza
de la variable en cada parte de la partición, entonces:
m
X X 2
VT (X) = Vj (X)fj (x) + Ej (X) − ET (X) fj (x)
j=1

7.6. Funciones especiales de probabilidad

7.6.1. Bernoulli o bipuntual


a. Fenómeno o experimento que puede resultar en uno solo de dos posibles
resultados, llamados genéricamente ACIERTO (A) o FRACASO (F).
b. La probabilidad de acierto P es conocida y por ende la de fracaso que
será (1 − P ) = Q.
c. Se define la variable aleatoria X, tal que:

0 si el experimento resulta fracaso

x=

1 si el experimento resulta acierto

La función de probabilidad correspondiente es:


B(x; P ) = P x Q1−x
con:
E(X) = P ; V (X) = P Q

7.6.2. Binomial
a. Se realizan “n” repeticiones independientes de un proceso Bernoulli.
b. Interesa determinar la probabilidad de que se presenten “x” aciertos en las
n repeticiones,
c. Se define:
X = número de aciertos en las n repeticiones
x = 0, 1, 2, 3, . . . , n

La correspondiente función de probabilidad es:


 
n
B(x; n, P ) = P x Qn−x
x
con:
E(X) = nP ; V (X) = nP Q
60 CAPÍTULO 7. ALGUNOS CONCEPTOS DE PROBABILIDAD

7.6.3. Binomial negativa


a. Se realizan repeticiones independientes de un proceso Bernoulli, hasta
obtener “k” aciertos.
b. Interesa determinar la probabilidad de que se requieran “x” repeticiones
para obtener los k aciertos;
c. Se define:

X = número de repeticiones para los k aciertos

x = k, (k + l), (k + 2)v(k + 3), . . .

El modelo de probabilidad asociado tiene la forma:


 
x−1
BN (x; k, P ) = P x Qx−k
k−1

Las medidas básicas son:


k kQ
E(X) = ; V (X) =
P P2

7.6.4. Geométrica
En la binomial negativa se quiere que k = 1, por tanto:

X = repeticiones necesarias para lograr el primer acierto

x = l, 2, 3, 4, 5, . . .
La función adquiere entonces la forma:

BN (x; P ) = P Qx−1

Y además:
1 Q
E(X) = ; V (X) =
P P2

7.6.5. Hipergeométrica
a. De un conjunto o población de “N ” elementos, se seleccionan al azar y sin
Reemplazamiento “n” de ellos.
b. En los N elementos existen “M ” con cierta caracterı́stica de interés.
c. Se quiere determinar la probabilidad de encontrar “x” elementos con la
caracterı́stica de interés, en los n que se seleccionen.
7.6. FUNCIONES ESPECIALES DE PROBABILIDAD 61

d. La variable correspondiente es:

X = número de elementos con la caracterı́stica, en los n

x = depende de la relación entre N, n y M

La función es de la forma:
M N −M
 
x n−x
H(x; N, n, M ) = N

n

Con valor esperado y varianza:

nM nM (N − M ) N − n
E(X) = ; V (X) =
N N2 N −1

7.6.6. Poisson
a. Se asocia con fenómenos o sucesos definidos en determinados intervalos de
tiempo y/o regiones de espacio.
b. La probabilidad de que el fenómeno suceda por lo menos una vez, es
directamente proporcional al tamaño del intervalo de tiempo y/o región
espacial.
c. La probabilidad de que el fenómeno ocurra mas de una vez, en intervalo y/o
regiones relativamente pequeños es tan pequeña que se puede despreciar.
d. La ocurrencia del suceso en determinado intervalo y/o región es
independiente de su ocurrencia en otros.
e. Interesa la probabilidad de que el suceso se presente “x” veces en el intervalo
y/o región determinados.
f. Se tendrá entonces:

X = número de veces que ocurre o se presenta el suceso

x = 0, 1, 2, 3, . . .

El modelo Poisson es:


exp{−λ}λx
P oisson(x; λ) =
x!
con la particularidad de que:

E(X) = V (X) = λ
62 CAPÍTULO 7. ALGUNOS CONCEPTOS DE PROBABILIDAD

7.6.7. La multinomial
a. Se realizan “n” repeticiones independientes de un proceso que puede resultar
en alguna de “m” categorı́as.
b. La probabilidad de que el proceso resulte en cada una de las categorı́as es
conocida e igual a Pj , j = l, 2, 3, . . . , m).
c. Interesa determinar la probabilidad de que se presenten “xj ” casos de la
categorı́a j en las n repeticiones.
d. Se define
Xj = número de casos j en las n repeticiones
x = 0, 1, 2, 3, . . . , nj

La correspondiente función de probabilidad es:


n!
f (x1 , x2 , . . . , xm ) = P x1 P x2 · · · Pmxm
x1 !x2 ! · · · xm 1 2
m
P m
P
con xj = n y Pj = 1
j=1 j=1

7.6.8. Hipergeométrica generalizada


a. De un conjunto o población de “N ” elementos, se seleccionan al azar y sin
reemplazamienı́o “n” de ellos.
b. En los N elementos existen “M1 , M2 , . . . , Mm ” que pertenecen a
subpoblaciones con algunas caracterı́sticas de interés.
c. Se quiere determinar la probabilidad de encontrar “xj ” elementos de la
subpbblación con la caracterı́stica j, en los n que se seleccionen. j =
1, 2, 3, . . . , m
d. Las variables correspondiente son:

Xj = número de elementos de la subpoblación con la caracterı́stica j, en los n

xj = dependen de la relación entre N, n y Mj .

La función es de la forma: con


M1 M2 Mm
  
x1 x2 ··· xm
f (x1 , x2 , . . . , xm ) = N

n
m
P m
P
con Mj = N y xj = n
j=1 j=1
7.6. FUNCIONES ESPECIALES DE PROBABILIDAD 63

7.6.9. La normal
Función fundamental de múltiples procesos aplicados y teóricos de la
Estadı́stica, asociada con variables de muy diversa ı́ndole.
Se define:
−∞ < x < ∞
para la cual: (  2 )
2 1 1 x−µ
n(x; µ, σ ) = √ exp −
2πσ 2 σ
siendo:
E(X) = µ; V (X) = σ 2

7.6.10. La normal estandarizada o tipificada o reducida


Sea X una variable con distribución normal, se define:
x−µ
z=
σ
por consiguiente:

−∞ < z < ∞; E(Z) = 0; V (Z) = 1

con función de probabilidad:


 2
1 z
n(z; 0, 1) = √ exp −
2π 2
CAPÍTULO 8

Conceptos de inferencia estadı́stica

8.1. Generalidades acerca de inferencia

Como la verdad y el conocimiento se dan en el juicio, una ciencia no es


más que un conjunto sistemático de juicios. Pero todo juicio está sujeto a la
disyuntiva verdad – falsedad y como la ciencia se forma con juicios verdaderos
se hacen precisos criterios que permitan estar en posesión de la verdad. Esta
verdad se adquiere a través de diversas etapas y se posee con distintos grados
de certeza y por eso son necesarios criterios de verdad o de certeza.
La predicción y la toma de decisiones, ı́ntimamente relacionadas, han jugado
desde tiempos antiquı́simos, papel muy importante en la vida del hombre tanto
en aspectos de la vida común y corriente, como en la vida y el desarrollo técnico
y cientı́fico.
Lo anterior ha requerido del ser humano la elaboración de inferencias,
basadas en información relevante, que en algunos casos es abundante, a
veces inconsistente, en ocasiones abrumadora, pero generalmente parcial, lo
que consecuentemente hace de las predicciones y decisiones, poco menos que
adivinanzas.
Es deseable entonces, especialmente a nivel técnico y cientı́fico, un sistema
para hacer inferencias que tengan ciertos grados de validez.
Un juicio se puede evidenciar por intuición (tal como sucede con los juicios
que se elaboran sobre objetos concretos) y por inferencia. Esta última supone
el uso del razonamiento y puede ser:

64
8.1. GENERALIDADES ACERCA DE INFERENCIA 65

8.1.1. Inferencia Matemática

La cual se aplica a los juicios ideales que se elaboran sobre entes de la


razón y constituyen el saber de esencias, puro, teórico o metafı́sico, cuya raı́z
se encuentra en ese sentimiento intencional o de admiración hacia lo que cada
objeto tiene de tı́pico e independiente de su manera de darse en el marco espacio
– tiempo.
El campo de estos juicios también es de orden ideal, es decir ausente de
contradicción o sea su conformidad con las leyes del pensamiento. Es el concepto
inmanente de verdad, significa algo puramente formal, coincidiendo con la
corrección lógica.
En esta inferencia juega todo su papel el principio de contradicción, el cual
constituye el esqueleto de nuestro pensamiento y cuya ausencia implicarı́a la
del pensar.
Aunque esta inferencia deductiva juega un importante papel en la
ciencia, sin embargo hay que reconocer que por sı́ sola no es suficiente en las
aplicaciones biológicas, económicas, sociales, etc., en donde la mayor dificultad
no está en obtener conclusiones de un modelo sino en elaborar el mismo. Es
decir resulta insuficiente en la fase inductiva del método cientı́fico que cobra,
en estos campos, toda su importancia.

8.1.2. Inferencia fáctica

Que se utiliza para evidenciar los juicios mixtos, es decir, elaborados sobre
objetos ideales, pero con antecedente y referencial existencial.
Aquı́ la verdad de estos juicios, es la conformidad del pensamiento con la
realidad (concepto trascendente de verdad). La certeza con que se poseen estos
juicios es fáctica y se apoya en una necesidad de hecho entre el predicado y
el sujeto del juicio. No es que repugne a la mente pensar el juicio contrario, lo
que sucede es que haciendo esto se irı́a contra los hechos de la naturaleza.

8.1.3. Inferencia Estadı́stica

La cual es un caso particular de la anterior, en donde la certeza fı́sica se


sustituye por otra que admite grados medidos numéricamente. La causa en
virtud de la cual se adhiere a la verdad de un juicio con certeza estadı́stica ya no
radica en una necesidad absoluta (como sucede en la inferencia matemática),
ni en una necesidad de hecho (como en la fáctica) si no que a lo mas es una
necesidad probabilı́stica.
Esta inferencia inductiva es muy importante ya que el progreso cientı́fico
constituye un aprendizaje basado en la experiencia
66 CAPÍTULO 8. CONCEPTOS DE INFERENCIA ESTADÍSTICA

8.1.4. Inferencia Reductiva

Que es la más difı́cil de definir y discutir. No solamente consiste en observar


datos y hacer experimentos, sino también en descubrir mecanismos y relaciones,
ası́ como elaborar modelos y teorı́as que los expliquen. Constituye la fase más
importante de la invención o del descubrimiento que tiene lugar mediante la
combinación de ideas que con un esfuerzo constante y profundo transmite el
consciente al subconsciente, en donde estas ideas se multiplican dando lugar
a un gran número de combinaciones de las cuales es preciso extraer las más
útiles.
Por ello es difı́cil establecer reglas para esta clase de inferencia, ya que no
es fácil comprenderla completamente, de aquı́ que en los esquemas teóricos se
haga siempre énfasis en las inferencias deductiva e inductiva.

8.2. Inferencia estadı́stica

Lo que se llama inferencia estadı́stica es un razonamiento que consiste


en inducir propiedades de la población (formas distribucionales, valor de
parámetros, verdad o no de hipótesis) a partir de ciertas informaciones de
tal forma que la verdad de tales propiedades venga dada con un cierto grado
de confianza, basándose para ello en teoremas del cálculo de probabilidades.
Ası́, estadı́sticamente hablando, en muchas ocasiones se desconocen hechos
poblacionales, lo que implica realizar especulaciones, predicciones, conjeturas
o estimaciones respecto de tales hechos. La Estimación Estadı́stica provee
métodos para llevar a cabo estos procesos.
En otras circunstancias se hacen aseveraciones o supuestos sobre los mismos
hechos poblacionales, cuya veracidad es cuestionable, por estar basadas, como
ya se anotó, en información parcial. Se requiere entonces examinar la posible
certeza o falsedad de tales hipótesis, a lo cual contribuye la Estadı́stica con los
métodos de Pruebas de Hipótesis Estadı́sticas.
Aunque los procesos enunciados están ı́ntimamente ligados, es conveniente
conservar las dos categorı́as, sobretodo en referencia al objetivo de la toma de
decisiones que se pueda perseguir al utilizarlos en la práctica.
Es necesario insistir en que esta forma de proceder (método estadı́stico
inductivo) no proporciona certeza, sino grado de confianza expresado
numéricamente (certeza estadı́stica). No obstante dos personas que admitan
esta forma de razonar (lógica estadı́stica) y se basen en los mismos supuestos
obtendrán las mismas conclusiones.
Según la información que sea empleada (datos muestrales, información a
priori, consecuencias de las acciones alternativas), se tienen:
8.3. DISTRIBUCIONES EN EL MUESTREO 67

8.2.1. Inferencia Clásica

La cual se trata de una inferencia que utiliza, en principio, solamente como


fuente de información los datos muestrales. Fue originada por R. A. Fisher,
J. Neyman y E. S. Pearson. Está ligada a una concepción objetivista de la
probabilidad e incluye las técnicas de estimación (por punto y por intervalo)
y contrastes de hipótesis que se apoyan en criterios basados en las llamadas
distribuciones en el muestreo (teorı́a de muestras). También se le conoce
como aproximación frecuencialista, estándar, ortodoxa o muestral.
En esta concepción no se da entrada a la información a priori que se pueda
tener sobre los parámetros desconocidos. No obstante hay que reconocer que
el estadı́stico debe utilizar muchas veces información a priori (forma de la
distribución, hipótesis interesantes) aunque no lo haga de manera formal.

8.2.2. Inferencia bayesiana

Es la concepción en la cual se da entrada formal a la información a


priori. La inferencia se basa en esta información y en la que proporcionan los
datos de la muestra Esta concepción supone admitir que los parámetros que
figuran en las distribuciones poblacionales son susceptibles de aleatorización
con distribuciones subjetivas a priori, las cuales se van revisando a la luz de las
nuevas informaciones muestrales pasando a las distribuciones de probabilidad
a posteriori a través de las cuales se plantean los problemas de inferencia.
En estas notas, nos limitaremos a discutir algunos aspectos de la inferencia
clásica, para lo cual es conveniente recordar algunas ideas relativas a las
distribuciones muestrales.

8.3. Distribuciones en el muestreo


La referencia a estudios realizados y resultados obtenidos con base en UNA
muestra determinada de un tamaño dado, seleccionada de una cierta población,
deja la idea intuitiva de que existen varias muestras de tal tamaño, que se
pueden seleccionar de tal población.
En efecto y desde el punto de vista teórico, dados los valores de una variable
en una población, en los procesos de muestreo probabilı́stico cualquiera de ellos
tiene alguna probabilidad de ser seleccionado para hacer parte de la muestra
y en el caso del llamado muestreo aleatorio simple, al cual se limitaran estas
notas, tal probabilidad es igual para todos los valores y por tanto las posibles
muestras de un mismo tamaño tendrán entre sı́ igual probabilidad de selección.
Simbólicamente, expresemos los valores de alguna variable de interés (X)
68 CAPÍTULO 8. CONCEPTOS DE INFERENCIA ESTADÍSTICA

en los N elementos que forman la población como:


x1 , x2 , x3 , x4 , . . . , xN
Se supone que estos valores tienen algún comportamiento poblacional el que
estadı́sticamente hablando se refleja en la forma distribucional, valor de algunos
parámetros, relación con otras variables, pero tal comportamiento en general
no se conoce y no se puede llegar a conocer con certeza absoluta, a no ser que
se realicen estudios censales. Como estos son difı́ciles y en ocasiones imposibles
de realizar, será necesario recurrir al muestreo.
Sea n el tamaño de la muestra que se ha determinado seleccionar, (con base
en algún error máximo admisible, nivel de confianza, tamaño de la población,
recursos disponibles), para tratar de inferir hechos poblacionales de interés en
el estudio de la variable X.
Teóricamente imaginemos todas las posibles muestras de tal tamaño que se
podrı́an seleccionar, las que se pueden expresar como:
x1 , x2 , x3 , x4 , . . . , xn
x01 , x02 , x03 , x04 , . . . , x0n
x001 , x002 , x003 , x004 , . . . , x00n
.. .. .. .. .. ..
. . . . . .
Por ser el muestreo aleatorio, los primeros valores en cada una de las posibles
muestras son una variable aleatoria e igual sucede con los segundos, terceros,
hasta los n – ésimos, constituyéndose el manejo de las muestras al nivel de la
teorı́a, en el manejo de una variable aleatoria n – dimensional conformada por
cada variable asociada con cada uno de los valores muestrales.
Es trivial que cada variable que se refiere a un valor muestral, tiene la
misma distribución de la variable en la población, con sus mismos parámetros,
particularmente con la misma media o valor esperado y la misma varianza. Si
además el muestreo es aleatorio simple, los valores muestrales son variables
aleatorias independientes y su función de probabilidad conjunta será el
producto de las funciones de cada una de las variables valores muestrales. Tal
función de probabilidad conjunta de los valores muestrales es conocida como la
función de verosimilitud de una muestra.
O sea que al nivel poblacional, X es una v.a. con una distribución
poblacional, un valor esperado y una varianza expresados por
f (x; θ), E(X) = µ, V (X) = σ 2
Por consiguiente el j – ésimo valor muestral (Xj ) es una variable aleatoria con:
f (xj ; θ), E(Xj ) = µ, V (Xj ) = σ 2
Y la función de verosimilitud de una muestra será:
n
Y
f (x1 , x2 , x3 , . . . , xn ) = f (xj ; θ)
j=1
8.3. DISTRIBUCIONES EN EL MUESTREO 69

En las anteriores expresiones el sı́mbolo theta representa el (o los) parámetro(s)


que caracterizan la distribución poblacional.
De acuerdo con las anteriores consideraciones, cualquier función de los
valores muestrales es decir cualquier estadı́stica o estadı́grafo es, por
consecuencia lógica, una variable aleatoria de la cual en algunos casos es posible
obtener su distribución probabilı́stica, ası́ como sus medidas básicas tales como
valor esperado y varianza. Es esta precisamente la tarea de la teorı́a estadı́stica
y más especı́ficamente de la llamada teorı́a de muestras y de aquı́ el término
distribuciones muestrales o mejor distribuciones en el muestreo, ya que
este último se escucha como distribución de las medidas estadı́sticas calculadas
en el muestreo.
Se tiene entonces que si:
T = g(x1 , x2 , x3 , . . . , xn )
La estadı́stica T es una variable aleatoria y por tanto es factible pensar en:
f (T ; ζ), E(T ), V (T )
En particular para el caso de la media muestral es relativamente sencillo
demostrar que esta variable aleatoria tiene un valor esperado igual al de la
variable en la población y una varianza igual a la varianza de la variable en la
población dividida por el tamaño de la muestra (y en el caso de poblaciones
finitas, multiplicada por un factor de corrección conocido como el c.p.f) e
inicialmente la misma distribución poblacional con los cambios lógicos en la
forma de los parámetros, o sea que:
σ2 N − n
f (x̄; ζ), E(X̄) = µ, V (X̄) =
n N −1
Sin embargo, por las leyes de los grandes números y más concretamente por
el Teorema del Lı́mite Central (TLC), para grandes muestras, la media
muestral tiene una distribución asintóticamente normal con el valor esperado
y la varianza citados, independientemente de la distribución poblacional.
Algo similar sucede con la variable aleatoria proporción muestral, que en
el fondo es una media muestral para una variable Bernoulli cuyo valor esperado
es P y cuya varianza es PQ, siendo P la proporción de interés en la población.
Las anteriores nociones y conceptos, se pueden apreciar en el siguiente
ejemplo, totalmente didáctico.
Para una población de siete (7) empresas se analizan sus gastos mensuales
de publicidad en millones de pesos, obteniéndose:
A = 20; B = 25; C = 20; D = 35; E = 25; F = 20; G = 30

Evidentemente algunas medidas en la población, para la variable X =gastos


mensuales en publicidad son: N = 7; E(X) = 25; V (X) = 28, 57 y la proporción
70 CAPÍTULO 8. CONCEPTOS DE INFERENCIA ESTADÍSTICA

de empresas que gastaron más de 20 millones de pesos es P = 0, 571428 y que


son las medidas que en general no se conocen.
Supongamos que se ha determinado seleccionar una m.a.s de cuatro
empresas, que será alguna de las siguientes:

Muestra Valores muestrales Media Proporción


1 20 25 20 35 25,00 0,50
2 20 25 20 25 22,50 0,50
3 20 25 20 20 21,25 0,25
4 20 25 20 30 23,75 0,50
5 20 25 35 25 26,25 0,75
6 20 25 35 20 25,00 0,50
7 20 25 35 30 27,50 0,75
8 20 25 25 20 22,50 0,50
9 20 25 35 30 25,00 0,75
10 20 25 20 30 23,75 0,50
11 20 20 35 25 25,00 0,50
12 20 20 35 20 23,75 0,25
13 20 20 35 30 26,25 0,50
14 20 20 25 20 21,25 0,25
15 20 20 25 30 23,75 0,50
16 20 20 20 30 22,50 0,25
17 20 35 25 20 25,00 0,50
18 20 35 25 30 27,50 0,75
19 20 35 20 30 26,25 0,50
20 20 25 20 30 23,75 0,50
21 25 20 35 25 26,25 0,75
22 25 20 35 20 25,00 0,50
23 25 20 35 30 27,50 0,75
24 25 20 25 20 22,50 0,50
25 25 20 25 30 25,00 0,75
26 25 20 20 30 23,75 0,50
27 25 35 25 20 26,25 0,75
28 25 35 25 30 28,75 1,00
29 25 35 20 30 27,50 0,75
30 25 25 20 30 25,00 0,75
31 20 35 25 20 25,00 0,50
32 20 35 25 30 27,50 0,75
33 20 35 20 30 26,25 0,50
34 20 25 20 30 23,75 0,50
35 35 25 20 30 27,50 0,75
8.3. DISTRIBUCIONES EN EL MUESTREO 71

Se generan entonces las siguientes distribuciones:


DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Media 21,25 22,5 23,75 25 26,25 27,5 28,75


Probabilidad 0,057 0,114 0,2 0,257 0,171 0,171 0,028

DISTRIBUCIÓN DE LA PROPORCIÓN MUESTRAL

Proporción muestral 0,25 0,5 0,75 1


Probabilidad 0,114 0,514 0,343 0,029

Se comprueba fácilmente que:

σ2 N − n
E(X̄) = µ, V (X̄) =
n N −1
y además que:
PQ N − n
E(P̂ ) = P, V (P̂ ) =
n N −1
Como se anotó anteriormente, en la práctica estos procedimientos para deducir
la distribución de una estadı́stica y sus propiedades básicas, es objeto de estudio
de la Teorı́a Estadı́stica y aunque actualmente se cuenta con muchas de tales
distribuciones, es todavı́a muy extenso el camino por recorrer en este sentido, lo
que se convierte en una gran cantea aún por explotar en la ciencia, estadı́stica.
El modelo de probabilidad de las estadı́sticas, o sea su distribución muestral,
es la base teórica para medir la confianza y los errores de los procesos
inferenciales, determinar cuál debe ser el estimador de un parámetro, pero aún
mas cual es el mejor o mas bondadoso estimador del mismo y consecuentemente
la base de sustentación de las pruebas o contrastes de hipótesis estadı́sticas.
Preguntas como: ¿qué tan probable es que la información muestral
esté reflejando bastante bien la situación poblacional; ¿qué tanto se puede
confiar en tal información?, ¿cuál será la probabilidad de que ante una hipótesis
planteada, la información muestral permita llegar a una buena decisión en
el sentido de rechazar el supuesto si es falso o no rechazarlo si es cierto?;
¿qué tan grande será la probabilidad de llegar a conclusiones erradas? y otras
similares, solo pueden ser respondidas si se conoce la distribución muestral de
las estadı́sticas y sobre todo si se tiene claridad conceptual sobre la filosofı́a de
tales distribuciones.
CAPÍTULO 9

La estimación estadı́stica

9.1. Generalidades

En términos bastante descriptivos, se define la Estimación Estadı́stica,


como un proceso que permite decir algo de los hechos poblacionales
(parámetros), utilizando para ello la información proporcionada por una (o
unas) muestra (s), seleccionada(s) de la población de interés, generalmente por
métodos aleatorios.
A la función de los valores muestrales que permite ese decir algo del hecho
poblacional se le denomina EL ESTIMADOR, y corresponde entonces con
las medidas que se presentaron inicialmente con el nombre de estadı́sticas o
estadı́grafos. Por ser función de tales valores, que dependen del azar, todo
estimador se constituye en una variable aleatoria.
El problema de la estimación consiste en hacer inferencias acerca de la
distribución poblacional, valor de parámetros, existencia y forma de relación
entre caracterı́sticas de la población y según que la información utilizada, para
hacer estas inferencias, sea la contenida en los datos muestrales o también la
información a priori, se tendrá la estimación clásica, objeto de este curso, o la
estimación bayesiana.
Para que el proceso sea válido, los estimadores deben poseer una serie de
caracterı́sticas o propiedades relacionadas con tal validez, que son conocidas
como propiedades deseables de un buen estimador, tales como el insesgamienı́o,
la consistencia, la suficiencia, propiedades que le serán propias al estimador, no
ası́ a alguna estimación que con él se haga en alguna instancia particular.

72
9.2. ALGUNAS PROPIEDADES DE UN BUEN ESTIMADOR 73

Como se ha insistido en que de una población es factible seleccionar muchas


muestras de un tamaño determinado, aunque para un parámetro exista un solo
estimador, se podrán realizar muchas estimaciones de aquel. No obstante en
las aplicaciones prácticas, generalmente solo se hace una, pero es importante
tener muy presente este aspecto conceptual y referirse entonces a UNA
ESTIMACION, lo cuál deja implı́cito que existen muchas más.
Por consiguiente la teorı́a dice por ejemplo, que un estimador toma valores
que tienden a agruparse alrededor del parámetro que estima, pero, a no ser
que se conozca el valor de tal parámetro, no se sabrá por lo menos en primera
instancia, si una estimación esta cerca o lejos de dicho valor.
En forma similar no se podrá conocer cual fue exactamente el error que una
estimación tuvo con respecto al parámetro, pero la teorı́a proporciona formas
de establecer, por lo menos en promedio, que tan grandes pueden ser aquellos.
Es conveniente por tanto recalcar la diferencia conceptual entre la
estimación estadı́stica, el estimador de un parámetro y una estimación que
se haga de este.

9.2. Algunas propiedades de un buen estimador


De acuerdo con lo discutido en el literal anterior, ante la imposibilidad de
saber si una estimación en particular es buena o no, la teorı́a estadı́stica provee
al investigador de una serie de procedimientos para generar estimadores que
posean propiedades de bondad que garanticen de alguna forma, la posibilidad de
utilizar con fines prácticos tales estimaciones. La fundamentación del proceso
es eminentemente probabilı́stica, lo cuál implica utilizar procedimientos que
siempre están enmarcados por la incertidumbre. Se citan a continuación,
prescindiendo bastante de su presentación formal, algunas propiedades
deseables que debe poseer un buen estimador.

9.2.1. Insesgamiento

También conocida como imparcialidad, se refiere a que la variable estimador


para ser insesgada o imparcial, debe tomar valores que tiendan a agruparse
alrededor del valor del parámetro que se estima. En otras palabras, el
valor esperado del estimador debe ser igual al parámetro que se estima.
Simbólicamente:
E(T ) = θ

donde T es la estadı́stica estimador y theta el parámetro a estimar.


Es conveniente hacer hincapié, que el insesgamiento es del parámetro y que
no tiene ningún sentido hablar de que una estimación sea insesgada o no.
74 CAPÍTULO 9. LA ESTIMACIÓN ESTADÍSTICA

Ası́, en el ejemplo presentado en 8.3, se comprobó en forma empı́rica


el insesgamiento de la media y de la proporción muestral, pero algunas
“estimaciones” están muy alejadas del verdadero valor poblacional, como
sucede en los casos de las muestras 3, 23 y 28 por citar algunas.
Lo que produce el insesgamiento de un estimador, es cierta confianza en
el hecho de que si la variable estimador tiende a tomar valores cercanos al
estimado, en una estimación particular es de esperar que ella corresponda a
alguno de estos.

9.2.2. Consistencia

Llamada también conciliabilidad, es una propiedad que si se presenta para


un estimador, implica que este debe acercarse al parámetro que estima, a
medida que el tamaño de la muestra aumenta. La presentación formal de esta
propiedad, alude a que el estimador converge en probabilidad al parámetro que
estima; de una manera sencilla:

lı́m P {|T − θ| < } → 1


n→∞

Intuitivamente, es evidente que la media muestral es un estimador consistente


o conciliable de la media poblacional, ya que al ir aumentando el tamaño de
la muestra, llegará un momento en que esta sea igual al tamaño de toda la
población y en tal caso se estará calculando la media poblacional.

9.2.3. Eficiencia relativa

Es esta una propiedad asociada con el error del estimador o mejor con su
error cuadrático medio:
h i
2
ECM (T ) = E (T − θ)

Si existen dos posibles estimadores T1 y T2 de un mismo parámetro, la


eficiencia relativa se define como el cociente entre sus errores cuadráticos
medios. Con base en ella, se trata de seleccionar el mejor estimador, que
obviamente será el de menor error. Este concepto se extiende al caso de más
de dos posibles estimadores.
Si un estimador es insesgado, su error cuadrático medio equivale a su
varianza y si en el anterior proceso todos los estimadores son insesgados, el
seleccionado es conocido como un estimador minivar.
9.3. FORMAS DE HACER ESTIMACIONES 75

9.2.4. Suficiencia

Implica que el estimador solo requiere, para el proceso de estimación, de la


información proporcionada por la muestra Es decir esta última le es suficiente
para hacer la estimación, no requiere de algo más.
Esta propiedad de una evidencia intuitiva muy simple, no tiene una
formulación formal sencilla para presentar en estas notas. A grandes rasgos,
si es posible descomponer la función de verosimilitud de una muestra, en el
producto de una función del estimador condicionada al parámetro, por una
función de los solos valores muestrales, el estimador es suficiente.

9.3. Formas de hacer estimaciones


Existen en Estadı́stica dos formas básicas de hacer estimaciones, llamadas
ESTIMACIÓN PUNTUAL o POR PUNTO y ESTIMACION POR
INTERVALO DE CONFIANZA.
La primera de ellas consiste en calcular con base en una muestra
determinada, un único valor del estimador, que obviamente dependerá de
los valores que presente, en esa muestra particular, la variable estudiada.
La denominación de puntual o por punto, está asociada con el hecho de
corresponder a un punto del recorrido de la variable estimador y la confianza
en ella solo se sustenta en las propiedades de bondad de este.
Sin embargo, la anterior forma de estimación, presenta el inconveniente de
que la probabilidad de coincidencia con el hecho poblacional que estima es
prácticamente nula Por esta razón, casi siempre se establece un intervalo al
cuál de alguna forma, se le puede asociar un grado de confianza o probabilidad
de que el parámetro desconocido, se encuentre dentro de dicho intervalo.
Tal procedimiento constituye la estimación por intervalo e implica calcular
dos valores lı́mite, dentro de los cuales se estima que está el verdadero valor del
estimado. Los lı́mites se basan en información muestral, por lo que son variables
aleatorias.
Es necesario considerar más detenidamente este detalle, pues constituye la
base de la claridad conceptual respecto a lo que es un intervalo de estimación.
Si los lı́mites del intervalo se calculan con la información muestral variaran
de muestra a muestra y se podrán calcular tantos, como posibles muestras
diferentes de un tamaño determinado se puedan seleccionar de la población.
Por consiguiente, la anotación probabilı́stica asociada con un estimador por
intervalo, se refiere a los lı́mites y obviamente no al estimado, o sea que en un
estimador de la forma:
P (L ≤ θ ≤ U ) = 1 − α
76 CAPÍTULO 9. LA ESTIMACIÓN ESTADÍSTICA

la probabilidad se refiere a los lı́mites L y U , que son las variables aleatorias,


en el sentido de que tal es la probabilidad de que ellos contengan el verdadero
valor del parámetro.
A la probabilidad de que el intervalo contenga al parámetro se le denomina
NIVEL DE CONFIANZA de la estimación y está determinada por la
distribución muestral del estimador base de los lı́mites.
El sentido conceptual del nivel de confianza, corresponde a un porcentaje de
muestras de un tamaño determinado, que generan intervalos que contienen el
verdadero valor del parámetro. En primera instancia no se sabrá si un intervalo
dado cumple este requisito o no, pero se tendrá una gran confianza en que si,
ya que generalmente los niveles más usados son del 90 %, 95 % y 99 %.
La idea intuitiva es que, una vez determinados los errores máximo admisibles
de la estimación y el nivel de confianza, la teorı́a establece un tamaño de
muestra y “fabrica” una urna conceptual, en la cual un porcentaje de tales
muestras, igual al nivel de confianza, generan “buenos” intervalos, en el sentido
de que contienen el verdadero valor del parámetro y las restantes generan
“malos” intervalos en tal sentido.
Al seleccionar al azar de la urna conceptual, uno de los intervalos (o lo que
es lo mismo una muestra de ese tamaño), no se sabe si es de los correcto o no,
pero se tendrá tanta confianza de que sea correcto, como se haya establecido
al determinar su nivel.
Ahora bien, calculado un intervalo de estimación con base en una muestra
determinada, este contendrá o no el valor del parámetro, por lo que las únicas
asignaciones probabilı́sticas asociadas a tal intervalo serı́an 1 o 0, según que lo
contenga o no. Por esto es un error conceptual asociar a un intervalo calculado,
una probabilidad igual al nivel de confianza, ya que como se ha anotado este
significa otra cosa.
Los estimadores por intervalo se generan a partir de “estadı́sticas de
trabajo” o “cantidades pivotales”, que son funciones de vatores muestrales que
contienen el parámetro a estimar y cuya distribución probabilı́stica no depende
de otros parámetros desconocidos.
Ası́, en el caso de la media, a partir de la variable:

X̄ − µ
Z= √
σ/ n

que es la variable normal estandarizada asociada con la media muestral, se llega


a:  
zσ zσ
P X̄ − √ ≤ µ ≤ X̄ + √ =1−α
n n

Como se aprecia en el estimador por intervalo anterior, este varı́a según


varı́e la media muestral y la estructura presentada se puede mantener hasta
9.3. FORMAS DE HACER ESTIMACIONES 77

tanto se calculen los valores de los lı́mites con base en una muestra dada, caso
en el cual solo se puede decir que el obtenido es un intervalo de tal nivel
de confianza para estimar la media muestral.
La buena utilización de los procesos de estimación, tanto puntual, como más
usualmente por intervalo, solo se logra en la medida que se tenga la suficiente
claridad conceptual sobre la filosofı́a que sustenta tales procesos.
CAPÍTULO 10

Pruebas de hipótesis estadı́sticas

10.1. Hipótesis nula – Hipótesis alternativa

En este capı́tulo se abordará el importante problema de inferencia llamado


contraste o test de hipótesis estadı́sticas, el cual consiste en disponer de
criterios que permitan rechazar o no, hipótesis formuladas sobre la población
y ello con base en cierta información disponible.
Las hipótesis no solo sirven para mejorar nuestro conocimiento sino que
también su rechazo o no lleva consigo ciertas consecuencias, relacionadas con
la necesidad de tomar decisiones de diversa ı́ndole, según el campo donde se
esté utilizando este procedimiento.
Una Hipótesis Estadı́stica se define como cualquier supuesto que se haga
sobre alguno o algunos hechos poblacionales. Cuando tal supuesto se ha
formulado en forma exhaustiva y univoca, se dice que la hipótesis es simple,
en caso contrario se denomina hipótesis compuesta.
El procedimiento que se emplea en la prueba estadı́stica de una hipótesis,
es contrario a la forma usual de pensar. De hecho es semejante al método
matemático de prueba por contradicción. La hipótesis que el investigador quiere
probar o hipótesis de investigación, es llamada comúnmente la HIPÓTESIS
ALTERNATIVA. Para hacerlo, se prueba alguna hipótesis contraria, a la
que se denomina HIPÓTESIS NULA, generalmente tratando de rechazarla.
El investigador espera que los datos apoyen su rechazo, porque esto implica el
apoyo de la alternativa.
Por esta razón es de gran importancia tener muy en claro que el proceso

78
10.2. ERROR TIPO I – ERROR TIPO II 79

de pruebas de hipótesis estadı́sticas conduce a una de dos decisiones respecto a


la hipótesis planteada consistentes en rechazarla o no rechazarla, concepto
este último muy diferente al de “aceptarla”. Cuando la hipótesis nula no es
rechazada, el estadı́stico prefiere decir que “reserva su juicio” (en hogar de decir
que la acepta). Lo que quiere decir con “reserva su juicio” es que, con base en
la información muestral reunida, no tiene evidencia suficiente para rechazar
la hipótesis nula. Sin embargo, para todo efecto práctico, un estadı́stico que
reserva su juicio está en cierto modo aceptando la hipótesis nula sin decirlo y
sin comprometerse.
En términos más usuales se denomina hipótesis nula, representada por H0 ,
a aquella sobre la cual se centra el proceso de prueba conducente a rechazarla
o no, y se denomina hipótesis alterna, cuyo sı́mbolo más utilizado es H1 , a
cualquier forma de contradicción de la hipótesis nula. Por costumbre se suele
hablar de la hipótesis, para referirse a la nula y de la alternativa, para mencionar
a la alterna, utilización que se adoptara en esta presentación.
De acuerdo con la forma como se planteen la hipótesis y la alternativa, se
tendrán las siguientes situaciones generales:

a. una simple contra una simple (poco común)

b. una compuesta contra una simple (poco común)

c. una simple contra una compuesta (bastante usual)

d. una compuesta contra una compuesta (muy utilizada)

10.2. Error tipo I – Error tipo II


El proceso de pruebas de hipótesis estadı́sticas se basa, nuevamente, en
información muestral por lo cual, ası́ como se puede llegar a una buena decisión
en el sentido de rechazar la hipótesis nula cuando es falsa o no hacerlo cuando
es cierta, también se pueden cometer errores que consistirı́an en rechazar la
hipótesis nula cuando es cierta o en no rechazarla cuando es falsa. El
primero de ellos es conocido como el ERROR DE TIPO I y el segundo el
ERROR TIPO II.
En resumen las decisiones que podrı́a tomar el investigador con respecto a
la hipótesis y las consecuencias posibles son:

DECISIÓN
HIPÓTESIS No rechazarla Rechazarla
Verdadera Correcto Error tipo I
Falsa Error tipo II Correcto
80 CAPÍTULO 10. PRUEBAS DE HIPÓTESIS ESTADÍSTICAS

Lo deseable entonces es desarrollar el proceso de tal manera que la


probabilidad de error sea lo más pequeña posible, pero los dos tipos de errores
no son independientes probabilı́sticamente sino, que por el contrario, tienen
una relación inversa de tal manera que, el disminuir la probabilidad de uno
de ellos lleva involucrado un aumento de la probabilidad de cometer el otro,
problema que solo se resuelve mediante la utilización de muestras de tamaño
prácticamente inmanejable.
La forma, quizás un poco extraña, de desarrollar un proceso de prueba
de hipótesis estadı́stica, se basa en problemas para evaluar las probabilidades
de las decisiones incorrectas, siendo en general más fácil resolver el asociado
con la de cometer error tipo I, probabilidad llamada el NIVEL DE
SIGNIFICANCIA de la prueba y que generalmente se predetermina, que
el de la de tipo II, ya que esta corresponde a una función, conocida como
FUNCIÓN CARACTERÍSTICA OPERANTE.
Sin embargo, desde el punto de vista de sustentación teórica, esta última
función y mejor su complemento, correspondiente a la probabilidad de no
cometer error tipo II y denominada FUNCIÓN DE POTENCIA, es de
gran utilidad.
Ahora bien, supongamos una hipótesis simple que supone que un parámetro
es igual a un valor dado, contra una alternativa que asegura que el valor del
parámetro es diferente del propuesto. Con base en la información muestral y la
estadı́stica más conveniente para desarrollar el proceso de prueba (determinada
por las caracterı́sticas de las distribuciones muestrales), la hipótesis se rechaza,
no si tal información muestra diferencia con el valor propuesto, si no si muestra
mucha diferencia, por ser o mucho más pequeña o mucho mas grande.
Lo anterior implica que, con base en la teorı́a de las distribuciones
muestrales, se determinen puntos de referencia a partir de los cuales se
considerará que lo muestral es mucho más pequeño o mucho más grande que
lo hipotético, y si la información proporcionada por una muestra seleccionada
para realizar la prueba, queda ubicada a partir de tales puntos, se rechaza la
hipótesis. Es en estas zonas del recorrido de la estadı́stica de prueba, donde se
corre el riesgo de rechazar la hipótesis siendo cierta y por consiguiente el nivel
de significancia deberá repartirse, generalmente igualmente, en tales extremos
de la distribución muestral correspondiente. Se llama a este tipo de situación
prueba bilateral o de dos colas.
Si solo interesa al investigador el tratar de determinar si el valor del
parámetro es mayor que un valor supuesto, solo analizará si lo muestral
es mucho más grande que lo hipotético y solo requerirá de un punto de
referencia para determinar qué se considera mucho mas grande. A partir de
allı́ rechazará la hipótesis y el nivel de significancia quedará concentrado en la
zona superior de la distribución muestral correspondiente. Algo similar ocurre
cuando la alternativa se refiere a que el parámetro es menor que el valor
supuesto. En este tipo de casos se habla de pruebas unilaterales o de una
10.3. PROCESO GENERAL DE PRUEBA 81

cola.
Una prueba de hipótesis consiste entonces, en términos muy simples, en
observar si entre el supuesto que.la hipótesis nula contenga y la información
proporcionada por la muestra, existe diferencia significativa que lleve al rechazo
de aquella, o si tal diferencia es insignificante y se debe a las fluctuaciones
propias del azar, caso en el cuál se considera que no existe evidencia suficiente
para rechazarla. Por esta visión del proceso se habla también de PRUEBAS
DE SIGNIFICANCIA, y de allı́ el nombre de nivel de significancia asociado
con la probabilidad de cometer error tipo I.
El concepto del nivel de significancia implica establecer los puntos de
referencia, denominados puntos crı́ticos, hasta los cuáles se consideran
insignificantes las diferencias y los cuales a su vez, generan las llamadas zona
de rechazo y zona de no rechazo de la hipótesis.
La base teórica del nivel de significancia o probabilidad de cometer error
tipo L, hace corresponder a esta con la proporción de muestras de un tamaño
dado, que pueden llevar a rechazar la hipótesis siendo cierta y por ser su
valor en general muy pequeño (1 %, 5 %, 10 %), conlleva la confianza de que al
rechazar la hipótesis con base en la información de una muestra dada, no se
habrá cometido el error I.
Es necesario enfatizar que la preocupación por el error I, solo se presentará si
la decisión ha sido de rechazar la hipótesis, en tanto que al no rechazarla,
quedará la incertidumbre respecto a si era falsa o sea de haber cometido error
tipo II.

10.3. Proceso general de prueba


Para terminar estas breves, anotaciones sobre los procesos básicos de la
inferencia estadı́stica, se esquematizan a continuación las fases del proceso
clásico para realizar una prueba de hipótesis estadı́stica:

a. Plantear las hipótesis, tanto la nula como lo alternativa.

b. Ubicar estadı́sticamente el problema en referencia a la claridad sobre cuál


es el parámetro al que hace referencia la prueba, el tipo de prueba (si ésta
es bilateral o unilateral a izquierda o derecha), que información adicional a
la muestral se posee.

c. Con base en los resultados del literal b, se selecciona una estadı́stica de


prueba, que contenga al parámetro que se prueba y cuya distribución no
dependa de otros parámetros desconocidos. Es de notar la importancia que
para esta fase tiene el conocimiento de las distribuciones muestrales.
82 CAPÍTULO 10. PRUEBAS DE HIPÓTESIS ESTADÍSTICAS

d. Con base en el nivel de significancia (predeterminado), el tipo de prueba


y la distribución probabilı́stica de la estadı́stica de prueba, se determinan
los puntos crı́ticos y se establecen las zonas de rechazo y no rechazo de la
hipótesis.
e. A partir de la información proporcionada por una muestra determinada, se
calcula un valor de la estadı́stica de prueba, aceptando para este proceso el
valor del parámetro propuesto en la hipótesis.
f. Se compara el valor anterior con las zonas establecidas en la fase d y según
su ubicación se decide sobre si rechazar o no la hipótesis.
Bibliografı́a

Ander-Egg, Ezequiel. 1985. Metodologı́a del trabajo social. El Ateneo.


Azorı́n, Francisco. 1972. Curso de muestreo y aplicaciones. Aguilar.
Black, Max, A.G. Suárez, J.L. Mackie, P. Casañ, and R. Beneyto. 1979.
Inducción y probabilidad. Ediciones Cátedra.
Bunge, Mario. 1972. La ciencia: su método y su filosofı́a. Siglo veinte.
Cansado, Enrique. 1975. Curso de estadı́stica general. Centro Interamericano
de Enseñanza de Estadı́stica.
Cochran, William. 1977. Sampling techniques. John Wiley & Sons.
Cramer, Harald. 1970. Métodos Matemáticos en Estadı́stica. Aguilar.
Fienberg, S.E. 1982. Chapter Contingency Tables of Encyclopedia of Statistical
Science, edited by S. Kotz and N.L. Johnson, Volume Vol. 2, 161 – 171.
John Wiley & Sons.
Good, I. J. 1988. Chapter Scientific method and statistics of Encyclopedia of
Statistical Sciences, edited by S. Kotz and N.L. Johnson, Volume Vol. 8,
291–304. John Wiley & Sons.
Goode, W.J., P.K. Hatt, and R. Palazón. 1970. Metodos de investigación
social. Trillas.
Haber, A., R.P. Runyon, and R.L. Mozo. 1973. Estadı́stica general. Fondo
Educativo Interamericano.
Hartwig, F., and B.E. Dearing. 1979. Exploratory data analysis. Sage
Publications, Inc.
Hessen, Juan. 1976. Teorı́a del conocimiento. Espasa - Calpe.
Kish, Leslie. 1975. Muestreo de encuestas. Trillas.

83
84 Bibliografı́a

Lindgren, B. W. 1971. Statistical Theory. The Macmillan Company.


McNeil, D.R. 1977. Interactive data analysis: a practical primer. John Wiley
& Sons.
Mood, A.M.F., F.A. Graybill, and D.C. Boes. 1974. Introduction to the theory
of statistics. McGraw-Hill.
Nieto de Alba, Ubaldo. 1973. Introducción a la Estadı́stica. Aguilar.
Ostle, Bernard. 1965. Estadistica aplicada: tecnicas de la estadistica moderna,
cuando y donde aplicarias. Limusa-Wiley.
Pearson, E.S., and M.G. Kendall. 1970. Studies in the history of statistics
and probability: Pearson , M. G. Kendall. Griffin.
Popper, K.R., and V.S. de Zavala. 1967. La lógica de la investigación cientı́fica.
Tecnos.
Popping, Roel. 1988. Chapter Nominal scale agreement of Encyclopedia of
Statistical Sciences, edited by S. Kotz and N.L. Johnson, Volume Vol. 6,
261–264. John Wiley & Sons.
Prawda, Juan. 1981. Métodos y modelos de investigación de operaciones I.
Limusa.
Reynolds, H. T. 1982. Chapter Nominal data of Encyclopedia of Statistical
Sciences, edited by S. Kotz and N.L. Johnson. John Wiley & Sons.
Rı́os, Sixto. 1969. Métodos estadı́sticos. Edic. del Castillo.
Russell, B., A. Dorta, and J.G. Serna. 1984. Historia de la filosofı́a occidental.
Espasa - Calpe.
Siegel, S., and J.A. Villalobos. 1978. Estadı́stica no paramétrica: aplicada a
las ciencias de la conducta. Trillas.
Spurr, W.A., and C.P. Bonini. 1980. Toma de decisiones en administración
mediante métodos estadı́sticos. Limusa.
Takane, Yoshio. 1982. Chapter Nonmetric data analysis of Encyclopedia of
Statistical Sciences, edited by S. Kotz and N.L. Johnson. John Wiley &
Sons.
Upton, G. J. 1982. Chapter Categorical Data of Encyclopedia of Statistical
Sciences, edited by S. Kotz and N.L. Johnson. John Wiley & Sons.
Velleman, P.F., and D.C. Hoaglin. 1981. Applications, basics, and computing
of exploratory data analysis. Duxbury Press.
Yule, G.U., M.G. Kendall, and J.R. Jimeno. 1967. Introducción a la estadı́stica
matemática. Aguilar.

También podría gustarte