Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos de Estadistica
Fundamentos de Estadistica
net/publication/49303936
Fundamentos de estadística
Article
Source: OAI
CITATIONS READS
4 50,528
1 author:
Chris Leach
University of Huddersfield
49 PUBLICATIONS 1,134 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
sPaCE a psychometrically robust measure of distress and change in psychotherapy View project
All content following this page was uploaded by Chris Leach on 02 June 2014.
Referencias bibliográficas
Otras fuentes consultadas
Anexos
ANEXO 1: NOMENCLATURA UTILIZADA EN ESTA GUÍA
ANEXO 2: TABLA DE ÁREAS BAJO LA CURVA NORMAL ESTANDARIZADA
Tabla 1 – Áreas desde z hacia la izquierda
Tabla 2 – Áreas desde z = 0 hacia la izquierda o hacia la derecha
ANEXO 3: TABLA DE LA DISTRIBUCIÓN t
Fundamentos de estadística
Pablo Cazau
PREFACIO
El presente texto fue pensado como un manual de consulta para alumnos de diversas carreras
universitarias de grado y posgrado que cursan asignaturas donde se enseña la estadística como
herramienta de la metodología de la investigación científica.
Se brinda aquí un panorama general e introductorio de los principales temas de una disciplina que opera
en dos grandes etapas: la estadística descriptiva y la estadística inferencial. También se desarrollan los
conceptos de probabilidad y curva normal, básicos para la comprensión de la estadística inferencial, y los
conceptos de correlación y regresión vinculados, respectivamente, con las etapas descriptiva e
inferencial.
Pablo Cazau. Licenciado en Psicología y Profesor de Enseñanza Media y Superior en Psicología (UBA).
Buenos Aires, Enero 2006.
La Estadística es una disciplina que utiliza recursos matemáticos para organizar y resumir una gran
cantidad de datos obtenidos de la realidad, e inferir conclusiones respecto de ellos.
Por ejemplo, la estadística interviene cuando se quiere conocer el estado sanitario de un país, a través de
ciertos parámetros como la tasa de morbilidad o mortalidad de la población. En este caso la estadística
describe la muestra en términos de datos organizados y resumidos, y luego infiere conclusiones respecto
de la población. Por ejemplo, aplicada a la investigación científica, hace inferencias cuando emplea
medios matemáticos para establecer si una hipótesis debe o no ser rechazada.
La estadística puede aplicarse a cualquier ámbito de la realidad, y por ello es utilizada en física, química,
biología, medicina, astronomía, psicología, sociología, lingüística, demografía, etc.
Cuando en cualquiera de estas disciplinas se trata de establecer si una hipótesis debe o no ser rechazada,
no siempre es indispensable la estadística inferencial.
Por ejemplo, si sobre 60 veces que se mira un dado, sale un dos 10 veces, no se requiere la estadística
para rechazar la hipótesis “el dado está cargado”. Si sale un dos en 58 ocasiones sobre 60, tampoco se
necesita la estadística para aceptar la hipótesis “el dado está cargado”.
Pero, ¿qué ocurre si el número dos sale 20, 25 o 30 veces? En estos casos de duda, la estadística
interviene para determinar hasta qué cantidad de veces se considerará rechazada la hipótesis (o bien
desde qué cantidad de veces se la considerará aceptada). En otras palabras, la estadística interviene
cuando debe determinarse si los datos obtenidos son debidos al azar o son el resultado de un dado
cargado.
Otro ejemplo. Si una persona adivina el color (rojo o negro) de las cartas en un 50% de los casos, se
puede rechazar la hipótesis “la persona es adivina”. Si, en cambio, acierta en el 99% de los casos el color
de las cartas, se puede aceptar la mencionada hipótesis. Los casos de duda corresponden a porcentajes
de acierto intermedios, como el 60%, el 70%, etc., en cuyos casos debe intervenir la estadística para
despejarlos.
La importancia de la estadística en la investigación científica radica en que la gran mayoría de las
investigaciones son „casos de duda‟.
Parámetros POBLACION x y
Estadísticos x y
MUESTRA
x1 x2 xn x1 y1
Puesto que la estadística se ocupa de una gran cantidad de datos, debe primeramente definir de cuáles
datos se va a ocupar. El conjunto de datos de los cuales se ocupa un determinado estudio estadístico se
llama población.
No debe confundirse la población en sentido demográfico y la población en sentido estadístico.
La población en sentido demográfico es un conjunto de individuos (todos los habitantes de un país, todas
las ratas de una ciudad), mientras que una población en sentido estadístico es un conjunto de datos
referidos a determinada característica o atributo de los individuos (las edades de todos los individuos de
un país, el color de todas las ratas de una ciudad).
Incluso una población en sentido estadístico no tiene porqué referirse a muchos individuos. Una población
estadística puede ser también el conjunto de calificaciones obtenidas por un individuo a lo largo de sus
estudios universitarios.
En el siguiente esquema pueden apreciarse algunas formas de considerar los datos individuales, según
que correspondan a muchas personas o a una sola, y también según que hayan sido recolectados en un
instante de tiempo determinado, o bien a lo largo del tiempo.
Los datos de la totalidad de una población pueden obtenerse a través de un censo. Sin embargo, en la
mayoría de los casos no es posible hacerlo por razones de esfuerzo, tiempo y dinero, razón por la cual se
extrae, de la población, una muestra, mediante un procedimiento llamado muestreo. Se llama muestra a
un subconjunto de la población, y que puede o no ser representativa de la misma.
Por ejemplo, si la población es el conjunto de todas las edades de los estudiantes de la provincia de
Buenos Aires, una muestra podría ser el conjunto de edades de 2000 estudiantes de la provincia de
Buenos Aires tomados al azar.
Los datos son la materia prima con que trabaja la estadística, del mismo modo que la madera es la
materia prima con que trabaja el carpintero. Así como este procesa o transforma la madera para obtener
un producto útil, así también el estadístico procesa o transforma los datos para obtener información útil.
Tanto los datos como la madera no se inventan: se extraen de la realidad; en todo caso el secreto está
en recoger la madera o los datos más adecuados a los objetivos del trabajo a realizar.
De una manera general, puede definirse técnicamente dato como una categoría asignada a una variable
de una unidad de análisis. Por ejemplo, “Luis tiene 1.70 metros de estatura” es un dato, donde „Luis‟ es
la unidad de análisis, „estatura‟ es la variable, y „1.70 metros‟ es la categoría asignada.
Como puede apreciarse, todo dato tienen al menos tres componentes: una unidad de análisis, una
variable y una categoría.
La unidad de análisis es el elemento del cual se predica una propiedad y característica. Puede ser una
persona, una familia, un animal, una sustancia química, o un objeto como una dentadura o una mesa.
La variable es la característica, propiedad o atributo que se predica de la unidad de análisis. Por ejemplo
puede ser la edad para una persona, el grado de cohesión para una familia, el nivel de aprendizaje
alcanzado para un animal, el peso específico para una sustancia química, el nivel de „salud‟ para una
dentadura, y el tamaño para una mesa.
Pueden entonces también definirse población estadística (o simplemente población) como el conjunto de
datos acerca de unidades de análisis (individuos, objetos) en relación a una misma característica,
propiedad o atributo (variable).
Sobre una misma población demográfica pueden definirse varias poblaciones de datos, una para cada
variable. Por ejemplo, en el conjunto de habitantes de un país (población demográfica), puede definirse
una población referida a la variable edad (el conjunto de edades de los habitantes), a la variable
ocupación (el conjunto de ocupaciones de los habitantes), a la variable sexo (el conjunto de condiciones
de sexo de los habitantes).
La categoría es cada una de las posibles variaciones de una variable. Categorías de la variable sexo son
masculino y femenino, de la variable ocupación pueden ser arquitecto, médico, etc, y de la variable edad
pueden ser 10 años, 11 años, etc. Cuando la variable se mide cuantitativamente, es decir cuando se
expresa numéricamente, a la categoría suele llamársela valor. En estos casos, el dato incluye también
una unidad de medida, como por ejemplo años, cantidad de hijos, grados de temperatura, cantidad de
piezas dentarias, centímetros, etc. El valor es, entonces, cada una de las posibles variaciones de una
variable cuantitativa.
Datos individuales y datos estadísticos.- Un dato individual es un dato de un solo individuo, mientras
que un dato estadístico es un dato de una muestra o de una población en su conjunto. Por ejemplo, la
edad de Juan es un dato individual, mientras que el promedio de edades de una muestra o población de
personas es un dato estadístico. Desde ya, puede ocurrir que ambos no coincidan: la edad de Juan puede
ser 37 años, y el promedio de edades de la muestra donde está incluído Juan es 23 años. Por esta razón
un dato estadístico nada dice respecto de los individuos, porque solamente describe la muestra o
población.
Los datos estadísticos que describen una muestra suelen llamarse estadísticos (por ejemplo, el
promedio de ingresos mensuales de las personas de una muestra), mientras que los datos estadísticos
descriptores de una población suelen llamarse parámetros (por ejemplo, el promedio de ingresos
mensuales de las personas de una población) (Kohan N, 1994:143).
1.5 LA MEDICIÓN
Los datos se obtienen a través un proceso llamado medición. Desde este punto de vista, puede definirse
medición como el proceso por el cual asignamos una categoría (o un valor) a una variable, para
determinada unidad de análisis. Ejemplo: cuando decimos que Martín es varón, estamos haciendo una
medición, porque estamos asignando una categoría (varón) a una variable (sexo) para una unidad de
análisis (Martín).
A veces se ha definido medir como comparar, lo cual puede referirse a diversos tipos de comparación: 1)
comparar una cantidad con otra tomada como unidad Sentido clásico de comparación); 2) comparar dos
categorías de una misma variable en el mismo sujeto y distinto tiempo; 3) comparar dos categorías de una misma
variable en distintos sujetos al mismo tiempo; y 4) categorías de variables distintas (debe usarse puntaje
estandarizado), en el mismo sujeto o en sujetos distintos.
Se pueden hacer mediciones con mayor o menor grado de precisión. Cuanto más precisa sea la medición,
más información nos suministra sobre la variable y, por tanto, sobre la unidad de análisis. No es lo
mismo decir que una persona es alta, a decir que mide 1,83 metros.
Los diferentes grados de precisión o de contenido informativo de una medición se suelen caracterizar
como niveles de medición. Típicamente se definen cuatro niveles de medición, y en cada uno de ellos la
obtención del dato o resultado de la medición será diferente:
En el nivel nominal, medir significa simplemente asignar un atributo a una unidad de análisis (Martín es
electricista).
En el nivel ordinal, medir significa asignar un atributo a una unidad de análisis cuyas categorías pueden
ser ordenadas en una serie creciente o decreciente (la categoría „secundaria completa‟ puede ordenarse
en una serie, pues está entre „secundaria incompleta‟ y „universitaria incompleta‟).
En el nivel cuantitativo, medir significa además asignar un atributo a una unidad de análisis de modo tal
que la categoría asignada permita saber „cuánto‟ mayor o menor es respecto de otra categoría, es decir,
especifica la distancia o intervalo entre categorías (por ejemplo, la categoría 70 es el doble de la
categoría 35).
Las variables medibles en el nivel cuantitativo pueden ser discretas o continuas. Una variable discreta es
aquella en la cual, dados dos valores consecutivos, no puede adoptar ningún valor intermedio (por
ejemplo entre 32 y 33 dientes, no puede hablarse de 32.5 dientes). En cambio, una variable es continua
cuando, dados dos valores consecutivos, la variable puede adoptar muchos valores intermedios (por
ejemplo entre 1 y 2 metros, puede haber muchas longitudes posibles).
Algunas veces una misma variable puede ser considerada como discreta o continua. Por ejemplo, la
variable peso es discreta si solamente interesan los pesos sin valores intermedios (50 kg, 51 kg, etc),
mientras que será continua si interesan también los valores intermedios (50,3 kg, 50,35 kg, 50,357 kg,
etc). Obviamente, al considerar una variable como continua se obtendrá mayor precisión, es decir, mayor
información.
La precisión es una cualidad importante de la medición. Se pueden hacer mediciones más precisas y menos
precisas, o tan precisas como lo permita el instrumento de medición. El primer nivel de medición es el menos
preciso, y el último el más preciso. Por ejemplo, una mujer puede estar interesada en „medir‟ el amor de su
pareja, para lo cual podrá interrogarla solicitándole diferentes grados de precisión: ¿me querés? (nivel nominal),
¿me querés más que a la otra? (nivel ordinal), ¿Cuánto me querés, del 1 al 10? (nivel cuantitativo).
De la misma manera, diferentes grados de precisión para la variable temperatura pueden ser: A es un objeto
caliente (nivel nominal), A es más caliente que B (nivel ordinal), A tiene 25 grados Celsius (nivel cuantitativo). Los
ejemplos del amor y de la temperatura ilustran también el hecho de que una variable puede en principio medirse
en cualquiera de los niveles de medición.
Los niveles de medición pueden también ser clasificados de acuerdo a un criterio diferente, que afecta
específicamente a los dos últimos. Así, los niveles de medición pueden ser clasificados como nominal,
ordinal, de intervalos iguales y de cocientes o razones.
Más allá de sus diferentes propiedades matemáticas, el nivel de intervalos iguales incluye un cero relativo
o arbitrario, mientras que el nivel de cocientes o razones incluye un cero absoluto o real. Un cero
absoluto o real representa la ausencia „real‟ de la variable (cero metros implica ausencia de longitud),
mientras que un cero relativo o arbitrario no (cero grado centígrados no implica ausencia de
temperatura).
Existen ciertas variables a las cuales no puede asignársele un „cero real‟, por cuanto no se considera que
esa variable pueda estar ausente en la realidad. Tal es el caso de la ansiedad o la inteligencia: nadie, por
menos ansioso o por menos inteligente que sea, puede tener ansiedad o inteligencia nulas.
2.1 GENERALIDADES
A medida que se van utilizando estos procedimientos, los datos van quedando cada vez más resumidos y
organizados. El empleo de dichos procedimientos propios de la estadística descriptiva sigue un orden
determinado, como puede apreciarse en el siguiente esquema:
Una vez que los datos han sido recolectados, se procede a continuación a ordenarlos en una matriz de
datos y luego a agruparlos en una tabla de frecuencias.
La forma de ordenarlos y agruparlos dependerá del tipo de variable considerada. Por ejemplo, si son
datos relativos a variables cualitativas (niveles de medición nominal y ordinal), no podremos utilizar
tablas de frecuencias por intervalos. El siguiente cuadro indica de qué manera se pueden ordenar y
agrupar los datos según cada nivel de medición de la variable:
Una vez confeccionada la matriz de datos, se procede luego a resumir aún más esta información
mediante una tabla de frecuencias o, si cabe, en una tabla de frecuencias por intervalos. Una tabla de
este último tipo se justifica cuando la tabla de frecuencias original es demasiado grande y por tanto de
difícil manejo para procesar la información. Sea de la forma que fuere, los datos ordenados según sus
frecuencias suelen denominarse distribución de frecuencias (13).
Las tablas de frecuencias contienen tres elementos importantes: las frecuencias, el tamaño de la muestra
y los intervalos (en este último caso sólo para variables cuantitativas).
a) Frecuencia.- La frecuencia (f) se define como la cantidad de datos iguales o que se repiten. Por
ejemplo: la frecuencia 2 indica que el dato „católico‟ se repite dos veces, la frecuencia 3 que el dato
“clase media” se repite tres veces, y la frecuencia 8 que el dato “17 años” se repite ocho veces.
A veces resulta necesario expresar las frecuencias de otra manera, como puede apreciarse en la siguiente
tabla ilustrativa:
x (edad) f f% F F% fr Fr
15 3 15% 3 15% 0.15 0.15
16 7 35% 10 50% 0.35 0.50
17 8 40% 18 90% 0.40 0.90
18 2 10% 20 100% 0.10 1
n = 20 n = 100% ------ ------ n=1 ------
Frecuencia absoluta (f).- Es la cantidad de datos que se repiten. Por ejemplo, la frecuencia 3 indica que
hay tres personas de 15 años. La suma de todas las frecuencias absolutas equivale al tamaño de la
muestra.
Frecuencia porcentual (f%).- Es el porcentaje de datos que se repiten. Por ejemplo, la frecuencia
porcentual 15% indica que el 15% de la muestra tiene la edad de 15 años. La suma de todas las
frecuencias porcentuales es 100%.
Frecuencia acumulada (F).- Es el resultado de haber sumado las frecuencias anteriores. Por ejemplo, la
frecuencia acumulada 10 resulta de sumar 7+3, e indica la cantidad de veces que se repiten las edades
16 y 15. La última de todas las frecuencias acumuladas, que en el ejemplo es 20, debe coincidir con el
tamaño de la muestra.
Frecuencia acumulada porcentual (F%).- Es el porcentaje de las frecuencias acumuladas.
Frecuencia relativa (fr).- A veces también llamada proporción, es el cociente entre la frecuencia de un
dato x y la frecuencia total o tamaño de la muestra. En la práctica, el tamaño de la muestra se considera
como 1, a diferencia del tamaño de la muestra en la frecuencia porcentual, que se considera 100%.
Frecuencia relativa acumulada (Fr).- Es el resultado de haber sumado las frecuencias relativas
anteriores. Por ejemplo: la frecuencia relativa 0.90 indica que en 0.90 casos sobre 1 las edades están
comprendidas entre 15 y 17 años.
Frecuencias parciales y frecuencia total.- Tanto las frecuencias absolutas como las porcentuales o las
relativas pueden ser frecuencias parciales o una frecuencia total, siendo ésta última la suma de todas
frecuencias parciales.
Las frecuencias porcentuales y las frecuencias relativas comparan la frecuencia parcial con la frecuencia
total, y sirven para establecer comparaciones entre muestras distintas. Por ejemplo, si en una muestra
de 1000 hombres, solo votaron 200, y en una muestra de 600 mujeres solo votaron 200 mujeres, en
términos de frecuencias absolutas existe la misma cantidad de votantes masculinos y femeninos, es decir
200, pero en „proporción‟, las mujeres votaron más (la tercera parte del total) que los hombres (la quinta
parte del total). Esta información se obtiene al convertir las frecuencias absolutas en frecuencias
porcentuales o en frecuencias relativas (o proporciones).
2) Tamaño de la muestra.- Otro concepto importante es el tamaño de la muestra (n), que designa la
cantidad total de datos. Obviamente, la suma de todas las frecuencias f debe dar como resultado el
tamaño n de la muestra, por lo que el tamaño de la muestra coincide con la frecuencia total.
3) Intervalos.- Un intervalo, también llamado intervalo de clase, es cada uno de los grupos de valores
ubicados en una fila en una tabla de frecuencias. Por ejemplo el intervalo 15-16 significa que en esa fila
se están considerando las edades de 15 a 16 años. La frecuencia correspondiente a un intervalo es igual
a la suma de frecuencias de los valores en él incluídos (2). Los intervalos presentan algunas
características, que son las siguientes:
Tamaño del intervalo (a).- También llamado amplitud o anchura del intervalo, es la cantidad de valores
de la variable que se consideran conjuntamente en ese intervalo. Por ejemplo, el intervalo 15-16 años
tiene una amplitud de 2, puesto que se consideran dos valores: 15 y 16. En otro ejemplo, el intervalo 20-
25 años tiene una amplitud de 6, puesto que se consideran seis valores.
En general, puede calcularse el tamaño de un intervalo restando el límite superior y el inferior y sumando
al resultado el número 1. Por ejemplo, 25 menos 20 da 5, y sumándole 1 da 6.
Los ejemplos indicados corresponden a variables discretas, lo que significa que no podrán encontrarse
valores intermedios entre dos intervalos. Por ejemplo, entre los intervalos 15-16 y 17-18 no se
encontrarán valores intermedios entre 16 y 17 años.
Téngase presente que: a) preferiblemente los intervalos deben tener un tamaño constante, de manera tal
que no se pueden considerar como intervalos 15-16 y 17-20, porque tienen diferentes tamaños; y b) los
intervalos han de ser mutuamente excluyentes, de manera tal que cuando se trata de variables discretas,
no pueden definirse los intervalos 15-16 y 16-17, porque el valor 16 años está en ambos intervalos y no
se podrá saber con seguridad en qué intervalo ubicar dicho valor.
El problema se puede presentar con las variables continuas, donde, por definición, podría aparecer algún
valor intermedio entre dos intervalos. Por ejemplo, si se considera la variable continua „ingresos
mensuales‟ y se consideran en ella los intervalos 1000-2000 dólares y 3000-4000 dólares, puede ocurrir
que un dato obtenido de la realidad sea 2500 dólares, con lo cual no podrá ser registrado en ningún
intervalo. En tal caso se deberían reorganizar los intervalos como 1000-2999 dólares y 3000-4999
dólares, con lo cual el problema estaría resuelto.
Desde ya, puede ocurrir que aparezca un ingreso mensual de 2999,50 dólares, en cuyo caso en principio
deberían reorganizarse nuevamente los intervalos como 1000-2999,50 dólares y 2999,51-4999 dólares.
La forma de reorganizar los intervalos dependerá entonces del grado de precisión que pretenda el
investigador o del grado de precisión del instrumento de medición disponible.
Límites del intervalo.- Todo intervalo debe quedar definido por dos límites: un límite inferior y un límite
superior. Estos límites, a su vez, pueden ser aparentes o reales (Pagano, 1998:38-39). Considérese el
siguiente ejemplo:
Si la variable considerada es discreta, carecerá de sentido la distinción entre límites reales o aparentes.
Si se conviene que los valores que la variable puede adoptar son números enteros, se considerarán
solamente los intervalos 95-99, 90-94, etc. Estos intervalos son en rigor reales, porque expresan los
valores „reales‟ que puedan haber, que no son fraccionarios.
Sólo en el caso de las variables continuas adquiere sentido la distinción entre límites reales y aparentes.
Si la variable es continua, deberían tenerse en cuenta los límites reales. Por ejemplo, si un valor resulta
ser 94.52, entonces será ubicado en el intervalo 94.5-99.5. Sin embargo, aún en estos casos, lo usual es
omitir los límites reales y presentar sólo los límites aparentes (Pagano, 1998:39). En todo caso, los
límites reales se utilizan a veces cuando se intenta transformar la tabla de frecuencias por intervalos en
un gráfico.
En principio, en ningún caso deberá haber una superposición de valores, como en el caso de los
intervalos 20-21 y 21-22, donde el valor 21 está incluído en ambos intervalos, violándose así la regla de
la mutua exclusión. Si acaso se presentara esta situación, o bien podrá ser adjudicada a un error del
autor de la tabla, o bien deberá traducírsela como 20-20.99 y 21-22.99.
Punto medio del intervalo (xm).- Es el valor que resulta de la semisuma de los límites superior e inferior,
es decir, el punto medio del intervalo se calcula sumando ambos límites y dividiendo el resultado por dos.
Por ejemplo, el punto medio del intervalo 15-20 es 17.5. El punto medio del intervalo sirve para calcular
la media aritmética.
Intervalos abiertos y cerrados.- Idealmente, todos los intervalos deberían ser cerrados, es decir, deberían
estar especificados un límite superior y uno inferior de manera definida. Sin embargo, en algunos casos
se establecen también intervalos abiertos, donde uno de los límites queda sin definir. En el siguiente
ejemplo, ‟18 o menos‟ y ‟29 o más‟ son intervalos abiertos. Obviamente, en este tipo de distribución los
intervalos dejan de ser de tamaño constante.
Intervalos
18 o menos
19-23
24-28
29 o más
Una vez que los datos han sido organizados en tablas de frecuencias, es posible seguir avanzando
organizándolos, desde allí, de otras maneras diferentes y con distintos propósitos. Una de estas maneras
es la utilización de representaciones gráficas, algunas de las cuales son aptas para representar variables
cualitativas (niveles nominal y ordinal) y otras para variables cuantitativas. Al tratarse de esquemas
visuales, los gráficos permiten apreciar de un „golpe de vista‟ la información obtenida.
Esta técnica de visualización de datos es aquí mencionada en primer lugar porque puede ser considerada
un procedimiento intermedio entre la tabla de frecuencias y el gráfico. Fue creada por Tukey en 1977
(citado por Botella, 1993:59) y presenta, entre otras, las siguientes ventajas: a) permite conocer cada
puntuación individual (a diferencia de la tabla de frecuencias por intervalos, donde desaparecen en ellos);
y b) puede ser considerada un „gráfico‟ si hacemos girar 90° el listado de puntuaciones o datos.
A continuación se describe la forma de construir un diagrama de tallo y hojas, tomando como ejemplo la
siguiente distribución de datos ordenados:
32-33-37-42-46-49-51-54-55-57-58-61-63-63-65-68-71-72-73-73-73-75-77-77-78-83-85-85-91-93
Girando la tabla obtenida 90° hacia la izquierda, se obtendrá algo similar a un gráfico de barras, que
muestra por ejemplo que la mayor concentración de valores es la que comienza con 7.
Una utilidad adicional del diagrama de tallo y hojas es que permite comparar visualmente dos variables,
es decir, dos conjuntos de datos en los análisis de correlación, como puede apreciarse en el siguiente
ejemplo:
Visualmente es posible darse una idea de los resultados del experimento: los datos del grupo
experimental tienden a concentrarse en los valores altos, y los del grupo de control en los valores bajos.
Pictograma
Es una representación gráfica en la cual se utilizan dibujos. Por ejemplo, en el siguiente pictograma cada
cara puede representar 100 personas:
Varones
Mujeres
100 personas
Sector circular
Representación gráfica de forma circular donde cada porción de la „torta‟ representa una frecuencia. Para
confeccionarlo se parte de una tabla de frecuencias donde están especificadas las frecuencias en grados
(f°), las cuales se calculan mediante una sencilla regla de tres simple a partir de las frecuencias absolutas
(f).
Por ejemplo, si 825 es a 360°, entonces 310 es igual a 360° x 310 dividido por 825, lo cual da un
resultado de 135°. Por lo tanto, para representar la frecuencia 310 deberá trazarse un ángulo de 135°.
Estos valores pueden verse en el ejemplo siguiente, donde se han representado dos sectores circulares
distintos, uno para varones y otro para mujeres:
x Sexo Total f° f°
(patología) Varones Mujeres (varones) (mujeres)
Angina 310 287 597 135° 113°
Bronquitis 297 429 726 130° 169°
Sarampión 123 120 243 54° 47°
Otras 95 80 175 41° 31°
Total 825 916 1691 360° 360°
Bronquitis Bronquitis
Angina
Saram Angina Saram
pión
pión
Otras Otras
Varones
Mujeres
Para realizar estos sectores se traza un ángulo de por ejemplo 130° y dentro de coloca la palabra
“bronquitis”, y así sucesivamente.
El círculo para mujeres es algo mayor que el círculo para hombres, porque en la muestra hay más
mujeres que hombres. Para lograr estos tamaños debe calcularse el radio. Por ejemplo, si se ha elegido
un radio masculino de 4 cm, el radio femenino puede calcularse mediante la fórmula siguiente:
El radio femenino es igual al radio masculino multiplicado por la raíz cuadrada del n femenino, resultado
que se dividirá por la raíz cuadrada del n masculino, donde n = tamaño de la muestra de cada sexo. Si el
radio masculino es 4 cm, con esta fórmula se obtendrá un radio femenino de 4,22 cm.
Diagrama de barras
Representación gráfica donde cada barra representa una frecuencia parcial. En el eje de las ordenadas se
indican las frecuencias absolutas, y en el eje de absisas se representan los valores de la variable x. De
esta manera, las barras „más altas‟ tienen mayor frecuencia.
Existen diferentes tipos de diagramas de barras, de los cuales se ilustran tres: las barras simples, las
barras superpuestas y las barras adyacentes. Los dos últimos tipos dan información sobre dos variables
al mismo tiempo, que son sexo y estado civil en los ejemplos que siguen:
f f
25 25
20 20
15 15
10 10
5 5
Barras adyacentes
25
20
15
Adolescentes
10
5
Adultos
Histograma de Pearson
Utilizado para representar variables cuantitativas continuas agrupadas en intervalos, este gráfico se
compone de barras adyacentes cuya altura es proporcional a las respectivas frecuencias parciales. En el
ejemplo siguiente, se presenta la tabla de frecuencias por intervalos y su histograma correspondiente:
x (longitud) f
1-1.99 3
2-2.99 5
3-3.99 2
Total 10
f
1 2 3 4
x
Como pude apreciarse, en las absisas se indican los límites inferiores de los intervalos.
Cuando los intervalos no son iguales, en lugar de indicar las frecuencias absolutas pueden indicarse las
alturas (h). Esta última se obtiene dividiendo la frecuencia parcial por el tamaño del intervalo
correspondiente.
Polígono de frecuencias
Es un gráfico de líneas rectas que unen puntos, siendo cada punto la intersección del punto medio del
intervalo (indicado en las absisas) y la frecuencia correspondiente. Tomando el ejemplo anterior, el
polígono de frecuencias sería el siguiente:
Un polígono de frecuencias puede obtenerse también a partir del histograma correspondiente. Para ello
basta con indicar los puntos medios de cada línea horizontal superior de cada barra del histograma, y
luego unirlos con líneas rectas.
Otra alternativa para este tipo de diagrama es el polígono de frecuencias acumuladas, donde se indican
las frecuencias acumuladas en lugar de las frecuencias habituales.
Ojiva de Galton
Gráfico en el cual se consignan en las ordenadas las frecuencias acumuladas y en las absisas los límites
superiores de cada intervalo (aunque también pueden indicarse los puntos medios de cada intervalo). Por
ejemplo:
x (longitud) f F
1-1.99 3 3
2-2.99 5 8
3-3.99 2 10
Total 10
F
10
Los datos individuales pueden ser sintetizados mediante medidas de posición, medidas de dispersión
(ambas se llaman medidas estadísticas), medidas de asimetría y medidas de curtosis. En este ítem se
describen las medidas de posición.
Definición
Las medidas de posición pueden ser definidas de diversas formas (4). En esta nota proponemos la
siguiente definición: Las medidas de posición son datos estadísticos que intentan representar un conjunto
de datos individuales respecto de una variable.
Esta definición se refiere a tres cuestiones:
1) Son medidas estadísticas, es decir, no son medidas individuales. Una medida de posición representa a
todo un conjunto de datos, y no son los datos individuales. Por ejemplo, un promedio de edades
representa a todas las edades del grupo, y no es la edad individual de uno de sus miembros, aunque
pueda coincidir numéricamente con ella. Así, si el promedio de edades es 20 años y una de las personas
del grupo tiene 20 años, el primer dato es una medida estadística y el segundo una medida individual.
En otros términos, las medidas estadísticas no describen individuos, sino poblaciones o muestras. Por
ejemplo, no tiene sentido explicar que una persona es anciana porque vive en una población cuyo
promedio de edad es 70 años.
2) Son medidas representativas, es decir, intentan representar y sintetizar a todas las medidas
individuales. El conjunto de todas las medidas individuales puede recibir diversos nombres, tales como
muestra y población, con lo cual tiene sentido afirmar proposiciones tales como „una medida de posición
representa una muestra o una población‟.
Por ejemplo, es posible representar las notas obtenidas por un grupo de alumnos de diversas maneras:
a) El promedio de las notas es de 7.35 puntos (en este caso usamos una medida de posición llamada
media aritmética).
b) La mitad de los alumnos ha obtenido una nota superior a 6,5 puntos (en este caso utilizamos otra
medida de posición llamada mediana).
c) La nota que más se ha repetido fue 7 puntos (en este caso usamos la medida de posición llamada
modo).
La pregunta acerca de cuál de las tres medidas de posición representa „mejor‟ al conjunto de datos
individuales es el problema de la representatividad de la medida de posición, y la estadística suministra,
como se verá, diversos criterios para evaluar la mejor forma de representar un cierto número de datos
individuales.
3) Son medidas que miden una variable, es decir, algún atributo o propiedad de los objetos. En el
ejemplo anterior la variable medida es el rendimiento académico, pero también pueden obtenerse
medidas de posición representativas de un conjunto de edades, de profesiones, de clases sociales, de
puntuaciones de un test, de cantidad de dientes, etc.
De otra manera: no tiene sentido decir que una medida de posición represente un conjunto de personas,
pero sí tiene sentido decir que representan las edades de un conjunto de personas.
Las medidas de posición pueden ser de tendencia central y de tendencia no central. Las primeras “se
refieren a los valores de la variable que suelen estar en el centro de la distribución” (Kohan, 1994:69).
Por ejemplo: la media aritmética, la mediana y el modo son las más conocidas, pero también está la
media aritmética ponderada (útil cuando hay valores que se repiten y que requieren atención diferencial),
la media geométrica (Kohan, 1994:71-72), la media armónica, la media antiarmónica, la media
cuadrática, la media cúbica, etc.
Las medidas de posición no centrales son los cuartiles, deciles y percentiles (Kohan, 1994:79), que
reciben genéricamente el nombre de cuantiles o fractiles (5).
De acuerdo a Botella (1993:99), las medidas de posición no centrales son datos o valores que ocupan
una posición especial en la serie de datos. Cuando una medida de posición es un dato que ocupa un lugar
central, la llamamos medida de tendencia central.
Relación entre modo, mediana y media aritmética.- a) La experiencia indica que la relación entre estas
tres medidas es:
Modo = (3 . Mediana) – (2 . Media aritmética). Esta relación es conocida como la fórmula de Pearson. b)
Cuanto más simétrica es una distribución (por ejemplo en una curva normal), más tienden a coincidir los
valores de las tres medidas.
Para calcular una determinada medida de posición puede haber diversas fórmulas. La elección de la
fórmula adecuada dependerá de la forma en que estén organizados los datos individuales.
En principio, los datos pueden estar organizados de cuatro maneras:
1) Datos desordenados. Por ejemplo, las edades de un grupo de cuatro personas son 17, 29, 17 y 14.
Cuando se recolecta información, generalmente se obtienen datos desordenados, frente a lo cual
convendrá ordenarlos.
2) Datos ordenados. Por ejemplo, las edades del mismo grupo de personas son 14, 17, 17 y 29, si hemos
decidido ordenarlas en forma creciente, aunque también podemos ordenarlas decrecientemente.
3) Datos agrupados por frecuencia. Por ejemplo, hay dos edades de 17 años, una edad de 14 años y una
edad de 29 años. O, lo que es lo mismo, la frecuencia de la edad 17 es 2, y la frecuencia de las restantes
edades es 1.
4) Datos agrupados por intervalos. Por ejemplo, hay 3 edades comprendidas en el intervalo 14-17 años,
y una edad comprendida en el intervalo 18-29 años.
La estadística va agrupando los datos siguiendo el orden anterior. Cuanto más avance en este proceso,
más habrá logrado sintetizar y organizar los datos individuales.
En el siguiente cuadro se sintetizan las diversas reglas o fórmulas para calcular las medidas de posición,
según como estén organizados los datos individuales y según los niveles de medición que admiten.
Nótese que en algunos casos no es posible especificar ninguna fórmula, y entonces el cálculo se hará
siguiendo la regla indicada para los mismos. Por ejemplo: “para calcular el modo de un conjunto de datos
ordenados, debe buscarse el dato o valor que más se repite” (6).
Cálculo de medidas de posición según los niveles de medición que admiten y según la forma de organización de los datos individuales.
Preparado por: Pablo Cazau
Medida de Nivel de Datos ordenados Datos agrupados por frecuencia Datos agrupados por intervalos
posición medición
Modo Nominal Valor que más se repite Valor con la mayor frecuencia ------------
Ordinal Valor que más se repite Valor con la mayor frecuencia ------------
Cuantitativo Valor que más se repite Valor con la mayor frecuencia f - fant
Mo = Li + ---------------------- . a
(f - fant) + (f- fpos)
Mediana Ordinal Valor central de la serie Valor que corresponde a la frecuencia acumulada n/2 ------------
ordenada de valores
Cuantitativo Valor central de la serie Valor que corresponde a la frecuencia acumulada n/2 n/2 - Fant
ordenada de valores Mn = Li + ---------------------- . a
f
Media Cuantitativo x x.f) xm.f)
aritmética
X = ----- X = --------- X = ---------
n n n
Cuartil Cuantitativo Valores que dividen la serie Valor que corresponde a la frecuencia acumulada t.n/4, expresión t.n/4 - Fant
0
en cuatro partes iguales. llamada cuartil de orden o Q (1) Qt = Li + ---------------- . a
Por tanto, hay 3 cuartiles: Q1, Donde t puede valer 1, 2 o 3.
Q2 y Q3 Por tanto, hay 3 cuartiles: Q1, Q2 y Q3 f
Decil Cuantitativo Valores que dividen la serie Valor que corresponde a la frecuencia acumulada t.n/10, expresión t.n/10 - Fant
0
en diez partes iguales. llamada decil de orden o D (1) Dt = Li + ---------------- . a
Por tanto, hay 9 deciles: Donde t puede valer entre 1 y 9.
desde el D1 hasta el D9 Por tanto, hay 9 deciles: desde el D1 hasta el D9 f
Percentil Cuantitativo Valores que dividen la serie Valor que corresponde a la frecuencia acumulada t.n/100, expresión t.n/100 - Fant
0
en cien parte iguales. llamada percentil de orden o P (1) Pt = Li + ---------------- . a
Por tanto, hay 99 percentiles: Donde t puede valer entre 1 y 99.
desde el P1 hasta el P99 Por tanto, hay 99 percentiles: desde el P1 hasta el P99 f
(1) Si no puede identificarse unívocamente una frecuencia acumulada, y por tanto un valor determinado de x, puede ser calculada por interpolación. En realidad, los cuantiles se
utilizan preferentemente cuando los datos están agrupados por intervalos.
A continuación, se suministran ejemplos de cómo calcular cada medida de posición teniendo
en cuenta las reglas y fórmulas del esquema anterior.
a) Cálculo del modo para datos ordenados (niveles nominal, ordinal y cuantitativo)
Nivel nominal: perro, perro, gato, gato, gato, gato (por tanto, el modo es gato)
Nivel ordinal: grande, grande, mediano, mediano, mediano, chico, chico, chico, chico (por
tanto, el modo es chico)
Nivel cuantitativo: 6, 6, 7, 7, 7, 7, 8, 9, 10, 10, 11 (por tanto, el modo es 7)
b) Cálculo del modo para datos agrupados en frecuencia (niveles nominal, ordinal y
cuantitativo)
Como puede verse, el modo es el valor de la variable x que está más repetido.
c) Cálculo del modo para datos agrupados por intervalos (nivel cuantitativo)
Una vez confeccionada la tabla de frecuencias por intervalos, se procede en dos pasos:
f - fant
Mo = Li + ---------------------- . a
(f - fant) + (f- fpos)
24 - 8
Mo = 28 + ---------------------- . 8 = 31.37 piezas dentarias
(24 - 8) + (24 - 2)
Para hallar la mediana de un conjunto de datos, primero hay que organizarlos en orden
descendente o ascendente. Si el conjunto de datos contiene un número impar de elementos,
el central es la mediana. Si hay un número par, la mediana es el promedio de los dos datos
centrales.
Número impar de datos: alto, alto, alto, alto, medio, medio, medio, medio, medio, medio,
bajo (por tanto, la mediana es = medio).
Número par de datos: En el nivel ordinal no puede calcularse un promedio si los dos valores
centrales son distintos. Si los dos valores centrales son iguales, ese es el valor de la
mediana.
x (días) f F
1 7 7
2 9 16
3 14 30
4 10 40
5 2 42
n = 42
x f F
0-3 8 8
3-6 10 18
6-9 11 29
9-12 12 41
12-15 9 50
15-18 7 57
18-21 6 63
21-24 5 68
n = 68
Nótese que para calcular la mediana se precisa información sobre frecuencias acumuladas,
razón por la cual se ha agregado la columna respectiva.
Se procede en dos pasos:
a) Se identifica cuál es el intervalo que debe ser considerado, para lo cual se calcula la
mediana de orden:
n/2 - Fant
Mn = Li + ---------------------- . a
f
34 - 29
Mn = 9 + ---------------------- . 3 = 10.25
12
Téngase presente que si la variable fuera discreta y medible sólo en números enteros, sería
Mn = 10.
Si la variable fuese cantidad de materias aprobadas, el alumno con 10 materias aprobadas
está en el lugar central de la serie, es decir, habría un 50% de compañeros con menos
materias aprobadas y un 50% con más materias aprobadas.
g) Cálculo de la media aritmética para datos ordenados (nivel cuantitativo)
x
X = -----
n
X = ---------------------------------------- = --------- = 5
12 12
x (edad) f f.x
18 3 54
19 1 19
20 2 40
23 4 42
25 2 50
26 2 52
28 2 56
n = 16 363
Nótese que para el cálculo de la media aritmética se ha agregado una columna con los
productos de x . f.
Se aplica la fórmula de media aritmética:
x f xm xm.f
0-3 8 1.5 12
3-6 10 4.5 45
6-9 11 7.5 82.5
9-12 12 10.5 126
12-15 9 13.5 121.5
15-18 7 16.5 115.5
18-21 6 19.5 117.6
21-24 5 22.5 112.5
n = 68 732.5
Nótese que para el cálculo de la media aritmética se ha agregado una columna con los
puntos medios de los intervalos y otra con los productos de las frecuencias por los puntos
medios.
Se aplica la fórmula de media aritmética:
xm.f) 732.5
X = ------------- = ---------- = 10.77
n 68
El método corto y el método clave son dos métodos alternativos para calcular la media
aritmética, siendo el último sólo aplicable cuando el tamaño de los intervalos es constante.
De acuerdo al método corto, la media aritmética se calcula sumando al punto medio del
intervalo de mayor frecuencia, el cociente entre la sumatoria de los productos entre cada
frecuencia y la diferencia entre el punto medio de cada intervalo menos el punto medio del
intervalo de mayor frecuencia, y la sumatoria de frecuencias (n).
De acuerdo al método clave, la media aritmética se calcula sumando al punto medio del
intervalo de mayor frecuencia, el producto entre el tamaño del intervalo y un cociente, donde
el numerador es la sumatoria de los productos entre las frecuencias y el llamado intervalo
unitario (que resulta de dividir la diferencia entre cada punto medio y el punto medio del
intervalo de mayor frecuencia, por el tamaño del intervalo), y donde el denominador es la
sumatoria de frecuencias (n).
1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9
Si en la serie anterior resaltamos los tres valores que la dividen en cuatro partes iguales,
esos valores serán los cuartiles Q1, Q2 y Q3:
1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9
Q1 = 2
Q2 = 3
Q3 = 6
Sin embargo, es más práctico agrupar los datos por frecuencias o por intervalos, a los
efectos del cálculo de los cuantiles (cuartiles, deciles o percentiles).
k) Cálculo del cuantil para datos agrupados por frecuencia (nivel cuantitativo)
x (edad) f F
18 3 3
19 1 4
20 2 6
23 4 10
25 2 12
26 2 14
28 2 16
n = 16
Q1 = 4
Q2 = Está entre 20 y 23
Q3 = 25
l) Cálculo del cuantil para datos agrupados por intervalos (nivel cuantitativo)
x (puntaje) f F
0-10 1 1
10-20 3 4
20-30 5 9
30-40 6 15
40-50 10 25
50-60 12 37
60-70 13 50
70-80 9 59
80-90 4 63
90-100 3 66
n = 66
t.n/10 - Fant
Dt = Li + ------------------- . a
f
46.2 - 37
D7 = 60 + ---------------- . 11 = 67.78
13
Es posible utilizar un procedimiento gráfico para calcular ciertas medidas de posición, tales
como el modo y la mediana. Por ejemplo, el modo se puede calcular a partir de un
histograma. La mediana también puede calcularse con un histograma, aunque lo más
habitual es hacerlo mediante una ojiva.
Una vez construido el histograma a partir de una tabla de datos agrupados por intervalos:
1) Se considera el rectángulo de mayor frecuencia (mayor altura).
2) Dentro del mismo se trazan dos rectas como está indicado en el gráfico siguiente.
3) Por la intersección de ambas rectas se traza una recta perpendicular al eje de absisas.
4) El punto del eje de las absisas por donde pasa la recta perpendicular corresponde al modo
(en el ejemplo, el modo es 4.80).
f
1 4 7 10
x
la ojiva; c) por este punto de intersección se traza una recta paralela al eje y hasta que
intersecte el eje x. En este punto estará ubicada la mediana.
2) Se trazan en el mismo eje de coordenadas las ojivas creciente y decreciente de la misma
distribución de datos. Luego, a) se traza una recta paralela al eje y que pase por la
intersección de ambas ojivas y por algún punto del eje x; b) el punto del eje x por donde
pasa dicha recta corresponde a la mediana.
(*) Hay al menos tres situaciones donde se preferirá la mediana a la media (Botella, 1993:115): a)
cuando la variable es ordinal, b) cuando haya valores extremos que distorsionen la interpretación de la
media, y c) cuando haya intervalos abiertos, como en el caso de variables como ingresos mensuales.
2) La elección de una medida de posición debe tener en cuenta la forma en que están
organizados los datos. Por ejemplo: “en ocasiones, el azar hace que un solo elemento no
representativo se repita lo suficiente para ser el valor más frecuente del conjunto de datos.
Es por esta razón que rara vez utilizamos el modo de un conjunto de datos no agrupados
como medida de tendencia central. Por esta razón, debemos calcular el modo en datos
agrupados en una distribución de frecuencias” (Levin y Rubin, 1996).
3) La elección de una medida de posición de una muestra debe tener en cuenta el grado de
fidelidad con que representa a la medida de posición poblacional.
Botella (1993:114) afirma, en este sentido, que si no hay ningún argumento en contra,
siempre se preferirá la media, no sólo porque permite la utilización de otras medidas
estadísticas (por ejemplo el desvío estándar), sino porque es más representativa de la media
poblacional que el modo o la mediana con respecto al modo o la mediana poblacional.
Definición
Algunos autores (Botella, 1993:325) han relacionado la dispersión de los datos -para los
niveles de medición nominal y ordinal- con los conceptos de entropía y de incertidumbre e
incluso han propuesto a la primera como una medida que permite cuantificar la dispersión: a
mayor dispersión de los datos, hay mayor entropía y mayor incertidumbre.
Por ejemplo, las siguientes dos muestras tienen cada una 40 sujetos que han elegido
determinados colores para representar la idea de paz:
Si habría que adivinar qué color eligió determinado sujeto de la muestra A, cabría proponer
el color blanco porque fue el más elegido. En cambio, la incertidumbre aumenta si habría que
elegir lo mismo en la muestra B. En esta muestra hay más entropía, es decir, más desorden,
mientras que en la muestra A los datos están más ordenados alrededor de un valor muy
repetido, como el blanco.
La muestra B es más dispersa, es decir, más heterogénea, mientras que la muestra A es
menos dispersa, es decir, más homogénea. La homogeneidad no debe relacionarse con la
repetición de frecuencias (3-3-3-3) sino con la repetición de valores iguales o muy cercanos
entre sí (28 sujetos eligieron blanco).
Una medida de posición no alcanza para describir adecuadamente una muestra. Se obtiene
una información más precisa y completa de ella cuando además se utiliza una medida de
dispersión.
Por ejemplo, la muestra 1 de datos 3-4-5 y la muestra 2 de datos 1-4-7 tienen la misma
medida de posición: la media aritmética en ambos casos es 4. Sin embargo, se trata
evidentemente de dos muestras diferentes, por cuanto la segunda es más dispersa que la
primera, es decir, sus datos están más alejados de la media aritmética.
En la primera muestra el promedio de las desviaciones respecto de la media es 1 (de 3 a 4
hay 1, y de 5 a 4 hay 1), mientras que el promedio de las desviaciones en la segunda
muestra es 3 (de 1 a 4 hay 3, y de 7 a 4 hay 3). Por lo tanto, ambas muestras pueden
representarse de la siguiente manera:
Las medidas de dispersión tienen una importancia adicional porque (Levin y Rubin: 1996): a)
Proporcionan información adicional que permite juzgar la confiabilidad de la medida de
tendencia central. Si los datos se encuentran ampliamente dispersos, la posición central es
menos representativa de los datos. b) A veces resulta indispensable conocer la dispersión de
una muestra porque muestras demasiado dispersas pueden no ser útiles para poder sacar
conclusiones útiles sobre la muestra. Levin y Rubin indican que, “ya que existen problemas
característicos para datos ampliamente dispersos, debemos ser capaces de distinguir los que
presentan esa dispersión antes de abordar esos problemas”.
En este ítem se indican las fórmulas para calcular medidas de dispersión, y se suministran
ejemplos de cada caso.
Cálculo de las medidas de dispersión según la forma de organización de los datos
individuales
Preparado por: Pablo Cazau
Cuando hay que calcular varianza o desvío estándar poblacionales, se utiliza „n‟ en el
denominador, pero cuando se calculan las correspondientes medidas muestrales (o cuando la
muestra es muy pequeña), se utilizará „n–1‟ (12).
a) Cálculo del rango para datos ordenados y para datos agrupados por frecuencia
Muestra 1: 80, 100, 100, 110, 120. Aquí el rango R es = 120 – 80 = 40.
Muestra 2: 30, 50, 70, 120, 180. Aquí el rango R es = 180 – 30 = 150
No se puede calcular el rango para datos agrupados por intervalos porque se desconocen
cuáles son los valores máximo y mínimo.
2+3+5+6+7+9+10
X = --------------------------- = 6
7
A la siguiente tabla de frecuencias (f) deberá agregarse una columna (f.x) para calcular la
media aritmética, y luego otras dos columnas (x-X) y (| x-X | . f) para calcular la desviación
media:
x.f) 62800
X = --------- = ------------ = 104.66 = 105
n 600
|x–X|.f 8810
Dm = ------------------ = ------------ = 14.68
n 600
Se procede de la misma manera que en el caso anterior, con la diferencia que en lugar de
considerar los valores x, se consideran los puntos medios de los intervalos (xm).
Para la serie de valores 5, 6, 10, su media aritmética es 7. Una vez conocido este valor,
puede obtenerse el desvío estándar de la siguiente forma:
2 2 2 2
(x–X) (5-7) + (6-7) + (10-7)
S = ------------------- = ------------------------------------ = 4.66 = 2.2
n 3
Puede también utilizarse una fórmula más sencilla a los efectos del cálculo (Bancroft,
1960:80):
2
x .f
2
S = ----------- - (X)
n
Se procede del mismo modo que en el caso anterior, con la diferencia que se calcula el punto
medio xm de los intervalos en lugar del valor x.
h) Cálculo de la varianza
El procedimiento es el mismo que en el caso del desvío estándar. Sólo debe tenerse presente
que la varianza es el cuadrado del desvío estándar.
x f
0-20 2
20-40 4
40-60 5
60-80 8
80-100 1
n = 20
DQ = Q3 – Q1 = 70 – 35 = 35
Si una muestra tiene una media aritmética 111 y el desvío estándar 18, entonces su
coeficiente de variación es:
S 111
CV = ----- = ---------- = 0.16
X 18
Xmín Q1 Q3 Xmáx
B
Xmín Xmáx
Q1 Q3
Puede apreciarse a simple vista que la distribución de valores B es más dispersa que A no
sólo porque la diferencia entre los valores máximo y mínimo (rango) es mayor, sino también
porque lo es la diferencia entre los cuartiles primero y tercero.
Nivel de
ansiedad
4° 5° 6° 7° 8°
Curso
Asimetría
La asimetría hace referencia al grado en que los datos se reparten equilibradamente por
encima y por debajo de la tendencia central (Botella, 1993:169). Por ejemplo, en la siguiente
tabla se puede apreciar que en el curso A muchos alumnos obtuvieron buenas notas, en el
curso C muchos alumnos obtuvieron bajas notas, y en el curso B están equilibrados.
Representando las tres distribuciones de datos con curvas en un gráfico con las frecuencias
en las ordenadas y los valores de x en las absisas, se obtiene lo siguiente:
Han sido propuestos diversos índices de asimetría para cuantificar el grado de asimetría de
una distribución de datos. De entre ellos pueden citarse los siguientes (Botella, 1993:170):
Los tres índices se interpretan de manera similar: si resultan ser números negativos, la curva
será asimétrica hacia la derecha, y si dan resultados positivos, la curva será asimétrica a la
izquierda. El resultado 0 (cero) indicará asimetría nula (simetría perfecta).
Existen otros muchos tipos de curvas: parabólicas, hiperbólicas, bimodales, etc, pero una
forma usual es la curva simétrica, llamada también curva normal o campana de Gauss.
Curtosis
La curtosis hace referencia a la forma de la curva de la distribución de datos en tanto muy
aguda (mayor apuntamiento o mayor curtosis: leptocúrtica) o muy aplanada (menor
apuntamiento o menor curtosis: platicúrtica).
Del mismo modo que sucede con la asimetría, también se han propuesto diversos índices de
curtosis. Si el índice es positivo, su apuntamiento es mayor que el de una distribución normal
y la curva será leptocúrtica, y si es negativo, su apuntamiento es menor y la curva será
platicúrtica (Botella, 1993).
NOTAS
(1) Según Botella (1993:49) la “distribución de frecuencias es un instrumento diseñado para cumplir
tres funciones: a) proporcionar una reorganización y ordenación racional de los datos recogidos; b)
ofrecer la información necesaria para hacer representaciones gráficas; y c) facilitar los cálculos
necesarios para obtener los estadísticos muestrales”.
(2) Cuando se confecciona una tabla de frecuencias por intervalos con la intención de elaborar gráficos o
medidas estadísticas a partir de ella, deben asumirse ciertos supuestos que implican un margen de
error, pero que son imprescindibles. Estos supuestos, llamados supuestos de concentración
intraintervalo, son dos. a) El supuesto de concentración en el punto medio del intervalo, según el cual
todos los valores de la variable son el mismo, a saber, el punto medio del intervalo. b) El supuesto de
distribución homogénea, según el cual “los valores incluidos en un intervalo se reparten con absoluta
uniformidad en su interior. Es decir, que si en un intervalo hay cinco observaciones [valores observados
en la variable] aceptaremos que sus valores son los que tendríamos si partiéramos al intervalo en cinco
subintervalos de igual amplitud y asignáramos a cada individuo el punto medio de un subintervalo”
(Botella, 1993:56).
(3) Hay quienes recurren a la fórmula de Sturges para calcular la cantidad de intervalos que resulta
deseable tomar en función del tamaño de la muestra. Esta fórmula es: Número de intervalos = 1 + (log
n / log 2), donde n designa el tamaño de la muestra. Por ejemplo, aplicando la fórmula para n = 40, la
cantidad deseable de intervalos es 6.3, con lo cual podrán elegirse entre 6 o 7 intervalos. Una vez
determinada la cantidad de intervalos, sólo resta dividir el tamaño de la muestra por 6 o 7, de lo que
resultará el tamaño de cada intervalo.
(4) Por ejemplo, las medidas de posición son aquellas que “caracterizan la posición de un grupo respecto
de una variable” (Kohan, 1994:69). Otras definiciones se refieren a la utilidad de estas medidas, y
entonces por ejemplo se definen como “índices diseñados especialmente para revelar la situación de una
puntuación con respecto a un grupo, utilizando a éste como marco de referencia” (Botella, 1993:83).
(5) Estrictamente hablando, ciertos cuantiles como el cuartil 2, el decil 5 y el percentil 50 resultan ser
medidas de tendencia central, ya que coinciden con la mediana.
(6) Estrictamente, dato y valor no son sinónimos, aunque aquí se emplearán indistintamente ambas
expresiones. El valor es uno de los componentes del dato: los otros dos son la unidad de análisis y la
variable.
(7) Botella (1993:105-111) describe seis propiedades de la media aritmética: 1) La suma de las
diferencias de n puntuaciones de la media aritmética, o puntuaciones diferenciales, es igual a cero. 2) La
suma de los cuadrados de las desviaciones de unas puntuaciones con respecto a su media es menor que
con respecto a cualquier otro valor. 3) Si sumamos una constante a un conjunto de puntuaciones, la
media aritmética quedará aumentada en esa misma constante. 4) Si multiplicamos una constante a un
conjunto de puntuaciones, la media aritmética quedará multiplicada por esa misma constante. 5) La
media total de un grupo de puntuaciones, cuando se conocen los tamaños y medias de varios subgrupos
hechos a partir del grupo total, mutuamente exclusivos y exhaustivos, puede obtenerse ponderando las
medias parciales a partir de los tamaños de los subgrupos en que han sido calculadas. 6) Una variable
definida como la combinación lineal de otras variables tiene como media la misma combinación lineal de
las medias de las variables intervinientes en su definición.
(8) Equivalencias entre cuantiles (Botella, 1993:89):
(9) “Para la varianza, las unidades son el cuadrado de las unidades de los datos. Estas unidades no son
intuitivamente claras o fáciles de interpretar. Por esta razón, tenemos que hacer un cambio significativo
en la varianza para calcular una medida útil de la desviación, que sea menos confusa. Esta medida se
conoce como la desviación estándar, y es la raíz cuadrada de la varianza. La desviación estándar,
entonces, está en las mismas unidades que los datos originales” (Levin y Rubin, 1996). La varianza
como tal se utiliza más frecuentemente en estadística inferencial (Pagano, 1998:77).
(10) “La raíz cuadrada de un número positivo puede ser tanto positiva como negativa. Cuando tomamos
la raíz cuadrada de la varianza para calcular la desviación estándar, los estadísticos solamente
consideran la raíz cuadrada positiva” (Levin y Rubin, 1996).
(11) La desviación estándar nos permite determinar, con un buen grado de precisión, dónde están
localizados los valores de una distribución de frecuencias con relación a la media. El teorema de
Chebyshev dice que no importa qué forma tenga la distribución, al menos 75% de los valores caen
dentro de + 2 desviaciones estándar a partir de la media de la distribución, y al menos 89% de los
valores caen dentro de + 3 desviaciones estándar a partir de la media.
Con más precisión:
Aproximadamente 68% de los valores de la población cae dentro de + 1 desviación estándar a partir de
la media.
Aproximadamente 95% de los valores estará dentro de + 2 desviaciones estándar a partir de la media.
Aproximadamente 99% de los valores estará en el intervalo que va desde tres desviaciones estándar por
debajo de la media hasta tres desviaciones estándar por arriba de la media (Levin y Rubin, 1996).
(12) Esto se debe a que “los especialistas en estadística pueden demostrar que si tomamos muchas
muestras de una población dada, si encontramos la varianza de la muestra para cada muestra y
promediamos los resultados, entonces este promedio no tiende a tomar el valor de la varianza de la
población, a menos que tomemos n–1 como denominador de los cálculos” (Levin y Rubin, 1996).
(13) El concepto de distribución de frecuencias es uno de los más básicos de la estadística descriptiva, y
hace referencia a un conjunto de valores de una variable ordenados de acuerdo con sus frecuencias. Las
distribuciones de frecuencias pueden expresarse en forma de tablas, gráficos, medidas de posición,
medidas de dispersión, de asimetría y de curtosis. Estas últimas cuatro medidas pueden considerarse
propiedades o características básicas de una distribución frecuencial.
Casos favorables 1
p= ----------------------------------------------------- = 0.1666
Casos equiprobables posibles 6
Para poder calcular esta probabilidad necesitamos, obviamente, conocer todos los casos
posibles (requisito de exhaustividad), pero además debemos saber que todos esos casos
posibles tienen la misma probabilidad de salir (requisito de equiprobabilidad), vale decir,
debemos tener la suficiente seguridad de que ninguna cara tendrá mayor o menor
probabilidad de salir que otra cara cualquiera, como puede ocurrir, por ejemplo, con los
dados 'cargados'.
Una aclaración respecto de la expresión 'casos favorables'. Debemos evitar aqui la
connotación subjetiva del término. Un caso favorable es simplemente un caso del cual
queremos conocer la probabilidad de su ocurrencia. Puede incluso tratarse de un terremoto o
una enfermedad, aunque estos eventos no sean 'favorables' desde otro punto de vista más
subjetivo.
Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado
de que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos
de exhaustividad y equiprobabilidad.
Puede suceder, en efecto, que alguno de estos requisitos no se cumpla. 1) Exhaustividad:
Este requisito puede no cumplirse en dos casos. Primero, puede ocurrir que al arrojar un
dado, este quede parado en equilibrio sobre alguno de sus vértices o aristas. Como
posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy baja, a los
efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de
probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente
seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación
anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando
sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el
número de casos posibles, la definición clásica de probabilidad resulta inaplicable,
quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este
requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el
tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la
probabilidad mediante la probabilidad frecuencial.
En síntesis hasta aquí: cuando ninguno de estos requisitos, o ambos, no pueden cumplirse,
nos queda aún la opción de calcular la probabilidad en forma empírica, lo que nos lleva al
tema de la llamada probabilidad frecuencial.
b) Probabilidad frecuencial.- Suele también denominarse probabilidad empírica o a posteriori,
y es definible como el cociente entre el números de casos favorables y el número de casos
observados. En un ejemplo, supongamos que no conocemos cuántas caras tiene un dado (es
decir desconocemos la cantidad de casos posibles), y queremos averiguar qué probabilidad
tiene de salir el uno. Obviamente no podemos decir 'un sexto' o 'uno sobre seis' porque no
sabemos cuántas caras tiene el dado. Para hacer este cálculo decidimos hacer un
experimento, y arrojamos un dado común de seis caras (aunque nosotros ignoramos este
detalle) por ejemplo diez veces, constatando que el uno salió cinco veces, cosa
perfectamente posible. Concluímos entonces que la probabilidad de obtener un uno es de
cinco sobre diez, es decir, de 0.5. Si tomamos al pie de la letra este valor, podríamos
concluír que el dado tiene... ¡2 caras!, cada una con la misma probabilidad de 0.5. Aplicando
la definición de probabilidad frecuencial, resulta:
Casos favorables 5
p= -------------------------------- = 0.5
Casos observados 10
Otro ejemplo: supongamos que conocemos perfectamente que el dado tiene seis caras, pero
no sabemos si las probabilidades de salir son iguales o no para todas ellas, ya que
sospechamos que el dado puede estar 'cargado'. Para determinar la probabilidad de salir del
número uno hacemos el mismo experimento, dándonos un valor de 0.7. Este valor, si lo
tomamos al pie de la letra, nos haría pensar que el dado está preparado para que tenga
tendencia a salir el número uno, ya que su probabilidad de ocurrencia es bastante alta.
La probabilidad frecuencial se llama también 'a posteriori' debido a que 'sólo después' de
hacer nuestra observación o nuestro experimento podemos saber el valor de la probabilidad,
y no 'antes', como en el caso de la probabilidad clásica, donde 'antes' de arrojar el dado ya
sabemos que la probabilidad de cada cara es de 0.1666.
La denominación 'frecuencial' alude al hecho de el cálculo de probabilidades se realiza en
base a la frecuencia con que sale una determinada cara o posibilidad, frecuencia que es
relativa porque la comparamos con la cantidad de casos observados. Por ejemplo, en nuestro
último ejemplo la frecuencia absoluta es 7, porque de 10 veces que arrojamos el dado, 7
veces salió el número deseado. En cambio la frecuencia relativa es 0.7, y resulta de dividir la
frecuencia absoluta por el número de casos observados.
c) La ley de los grandes números.- También llamada principio de la estabilidad de la
frecuencia relativa, nos permite unificar conceptualmente los dos tipos de probabilidad recién
examinados, y puede expresarse de la siguiente manera: a medida que aumenta la cantidad
de ensayos, el valor de la probabilidad empírica obtenido se va aproximando cada vez más al
valor de la probabilidad teórica.
Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la
probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa
experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la
probabilidad empírica es 0, pues no salió ninguna cara.
Al arrojar la moneda por segunda vez, la probabilidad teórica sigue siendo 0.5, ya que el
dado no tiene 'memoria': por más que haya salido cien veces cara, la 101° vez sigue
teniendo la misma probabilidad de salir cara. La probabilidad empírica, en cambio, nos da
por ejemplo también 0.5, porque la primera vez no salió cara pero la segunda sí, con lo cual
habrá salido cara la mitad de las veces, o sea hay una probabilidad de 0.5. Al tercer tiro
vuelve a aparecer ceca, con lo cual sobre tres tiros habrá salido sólo una cara (la segunda
vez), y entonces la probabilidad empírica es de un tercio (0.333).
Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad de
tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad
teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en
dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la
frecuencia relativa.
La probabilidad (p) varía entre 0 y 1
Si se tomaran nueve personas al azar para medir la variable frecuencia cardíaca, podrían
obtenerse, por ejemplo, los siguientes resultados: tres personas con 62, cinco personas con
70 y una persona con 84 pulsaciones por minuto. Representando visualmente esta situación
mediante un polígono de frecuencias, se obtiene el gráfico 1.
Si se registrara la frecuencia cardíaca de 80 personas más, probablemente se obtendría
resultados similares al polígono de frecuencias del gráfico 2. Finalmente, si se consideraran
infinito número de personas, la representación visual se asemejaría al gráfico 3, denominado
curva normal, curva de Gauss o campana de Gauss (por su forma acampanada).
Como puede apreciarse, ciertas variables continuas como la frecuencia cardíaca, la glucemia,
la estatura, el peso, la agudeza visual, el cociente intelectual, y otras, tiende a adoptar la
forma de una curva normal a medida que aumenta la cantidad de casos observados (3).
Aunque esta curva es una idealización, porque no pueden medirse infinitos casos, tiene,
como se verá, su utilidad, aún cuando las variables que se estudian desde este modelo no
siguen estrictamente la distribución de la curva normal. Pruebas como por ejemplo el chi
cuadrado permiten determinar si una distribución es lo suficientemente parecida a una
distribución normal como para poder aceptar el modelo de la curva normal para estudiarla.
De hecho, muchas variables tienen distribuciones lo suficientemente similares a una
distribución normal como para tratarlas como tales sin cometer grandes errores.
En relación con estas cuestiones, conviene recordar aquí el teorema del límite central, que
dice que cualquiera sea la población de donde se tome una muestra, la distribución de los
valores de la muestra se aproximan o asemejan cada vez más a una distribución normal a
medida que el tamaño n de la muestra aumenta. En la práctica se consideran normales a las
muestras cuyo tamaño es igual o superior a 30.
f
Gráfico 1 Gráfico 2 Gráfico 3
62 70 84 70 x
La curva normal tiene entonces algunas características que son las siguientes:
a) Es la idealización de un polígono de frecuencias con tendencia central para una gran
cantidad de casos. Por esta razón tiene la apariencia de una curva y no de una línea
quebrada, ya que el polígono de frecuencias tiene infinito número de lados.
b) Tiene forma de campana: no tiene otras formas similares como puede ser la forma de
herradura o la forma de una campana invertida.
c) Es simétrica respecto de un eje vertical, lo que las diferencia de otras curvas como por
ejemplo la hipérbole equilátera. La simetría de la curva normal implica que la media
aritmética, la mediana y el modo coinciden en el punto central. Consecuentemente, la curva
normal es unimodal (en cambio, una campana invertida podría ser bimodal). También
implica que la distancia del cuartil 1 al cuartil 2 es igual a la distancia entre el cuartil 2 y el
cuartil 3.
d) Es asintótica respecto del eje x. Esto significa que la curva y el eje de las absisas se
cortan en el infinito, lo cual implica que cualquier valor de x tiene potencialmente alguna
frecuencia, y ninguna frecuencia igual a 0.
e) La curva normal puede adoptar diferentes formas: mesocúrtica, platicúrtica o leptocúrtica.
f) Los puntos de inflexión (donde la curva cambia de cóncava a convexa y viceversa) se
encuentran en los puntos correspondientes a la media aritmética más/menos un desvío
estándar.
g) Hay muchas posibilidades de curvas normales, dependiendo de cuáles sean los valores de
las medias aritméticas y los desvíos estándar. La más importante es aquella que tiene como
media aritmética 0 (cero) y como desvío estándar 1 (la unidad). En este caso, la curva
normal se designa como distribución o curva normal estándar o estandarizada.
h) Está comprobado que en una curva normal, y siempre idealmente, alrededor de un 68%
de los casos posibles están comprendidos entre menos un desvío estándar y más un desvío
estándar alrededor de un 95% están comprendidos entre menos 2 y más dos desvíos
estándar y alrededor de un 99% están comprendidos entre menos tres y más tres
desvíos estándar según lo ilustra el siguiente esquema:
Esto significa por ejemplo que una persona tiene una probabilidad del 68% de tener una
frecuencia cardíaca comprendida entre menos un desvío estándar y más un desvío estándar.
Si la media aritmética de esta distribución fuera 80 pulsaciones por minuto y el desvío
estándar fuera de 10 pulsaciones por minuto, entonces la frecuencia cardíaca de una persona
cualquiera tendría un 68% de probabilidades de valer entre 70 y 90 pulsaciones por minuto.
Siguiendo el mismo criterio, también puede calcularse la probabilidad de aparición de un
valor comprendido entre menos tres desvíos estándar y la media aritmética (99% dividido
2), la probabilidad de aparición de un valor comprendido entre menos dos desvíos estándar y
la media aritmética (95% dividido 2), la probabilidad de aparición de un valor comprendido
entre menos un desvío estándar y más dos desvíos estándar (68% dividido 2, más 95%
dividido 2), y la probabilidad de obtener cualquier otro valor intermedio (como el
comprendido entre -1.27 desvíos y +2.56 desvíos), para lo cual se habrá de consultar una
tabla especialmente confeccionada para tal efecto.
Antes de hacer referencia a las utilidades prácticas de la curva normal, convendrá aclarar
algunos conceptos tales como los de puntaje bruto y puntaje estandarizado.
Para designar los diferentes valores que asume una variable para una determinada unidad de
análisis, en estadística descriptiva suele emplearse la expresión „dato‟. Por ejemplo, un dato
puede ser “Juan mide 1.70 metros”. Muchos datos, sin embargo, se distribuyen de acuerdo a
una curva normal, y esta clase de datos suelen ser típicamente puntuaciones o puntajes de
tests o pruebas de evaluación. Por ejemplo, “Juan obtuvo 90 puntos en el test de inteligencia
de Weschler”, o “Pedro obtuvo 7 puntos en el examen de geografía”. Esta es la razón por la
cual, en lo que sigue se utilizará la expresión puntaje en lugar de „dato‟, pero debe tenerse
presente que todo puntaje es, siempre, un dato.
Se llama puntaje bruto, directo u original al puntaje obtenido por un sujeto en una prueba.
Por ejemplo, podría resultar de la suma de respuestas correctas, valiendo cada una de ellas
un punto (Kohan, 1994:138).
Los puntajes brutos presentan sin embargo algunos inconvenientes. Por ejemplo: a) Si una
persona obtuvo 4 puntos en una prueba académica, podemos suponer que obtuvo un bajo
puntaje porque lo comparamos con el puntaje máximo, que es 10. Sin embargo, no nos sirve
para comparar a esa persona con el resto de la población, ya que si los demás alumnos
obtuvieron en promedio 2 puntos, la calificación 4 será, entonces, alta. b) Si una persona
obtuvo 8 puntos en geografía y 5 puntos en matemáticas, podemos suponer que obtuvo más
puntaje en geografía. Sin embargo, esta suposición es errónea si resulta ser que el puntaje
máximo en geografía es 20 y el puntaje máximo en matemáticas es 6, en cuyo caso habrá
obtenido mayor puntaje en matemáticas.
Estas y otras dificultades pueden resolverse transformando los puntajes brutos en otros
llamados puntajes estandarizados (o también puntajes transformados, porque resultan de
haber transformado los puntajes brutos). Estos puntajes estandarizados permitirán, por
ejemplo, comparar el puntaje de un sujeto con toda la población, o bien comparar dos
puntajes de pruebas con diferentes sistemas de evaluación (1).
Los puntajes estandarizados pueden ser lineales o no lineales, según que resulten de
transformaciones lineales o no lineales (Kohan, 1994:138). En el primer caso existe una
proporcionalidad entre los puntajes brutos y sus correspondientes puntajes estandarizados,
ya que la transformación opera según una ecuación lineal o ecuación de primer grado y, por
tanto, no „deforma‟ la distribución de los puntajes brutos.
En lo que sigue se describen sucintamente tres ejemplos de puntajes estandarizados de uso
frecuente: los puntajes estandarizados z (puntaje reducido), Z (puntaje derivado) y P
(puntaje percentil).
El puntaje reducido z es “un dato transformado que designa a cuántas unidades de desvíos
estándar por arriba o por debajo de la media se encuentra un dato en bruto” (Pagano,
1998:84). Para transformar un dato en bruto x en un puntaje z se utiliza la fórmula: z = (x -
X) / s.
Pueden destacarse tres características de los puntajes z (Pagano, 1998:86-87): a) tienen la
misma forma que el conjunto de datos en bruto; b) la media de los puntajes z es siempre
igual a cero; y c) el desvío estándar de los puntajes z es siempre igual a 1.
El puntaje derivado Z (también llamado a veces puntaje derivado T) tiene la ventaja sobre
el puntaje reducido z que no tiene valores negativos y que pueden despreciarse los
decimales por ser una cantidad pequeña (Kohan, 1994:141). Para transformar un puntaje
reducido z en un puntaje derivado Z se utiliza la fórmula: Z = (z.10) + 50, ya que este
puntaje derivado considera la media aritmética como 50 y el desvío estándar como 10.
Existen otras modalidades de puntajes derivados (Botella: 1993:161). Uno muy conocido en
psicología es el llamado cociente intelectual o CI, que considera como media aritmética a 100
y como desvío estándar a 15.
El puntaje percentil P es un puntaje no lineal y es también de uso frecuente por su
facilidad de comprensión, aunque tenga el inconveniente de que su distribución toma una
forma que no responde a la realidad de las funciones psicológicas. Para transformar un
puntaje z en un puntaje percentil hay que recurrir a una tabla especial, que se describe más
adelante.
Como se puede apreciar en el esquema siguiente, el puntaje percentil P no es proporcional al
resto de los puntajes, pero si lo es respecto de las áreas cubiertas bajo la curva normal,
áreas que a su vez indican la probabilidad de ocurrencia de un puntaje cualquiera. En efecto,
puede verse que los puntajes percentiles P están concentrados en aquellos lugares donde el
área bajo la curva es mayor y, además, cuanto mayor es esta área mayor será el percentil
correspondiente.
Las correspondencias entre los diferentes puntajes pueden visualizarse mediante el siguiente
esquema (2):
x
-3s -2s -1s X +1s +2s +3s
z
-5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5
Z
0 10 20 30 40 50 60 70 80 90 100
P
P0 P2 P16 P50 P84 P98 P100
Así por ejemplo, puede apreciarse que un puntaje bruto correspondiente a más un desvío
estándar corresponde a un puntaje reducido z de +1, a un puntaje derivado Z de 60, y a un
percentil de 84.
Especialmente cuando se trata de averiguar valores intermedios (por ejemplo el puntaje
bruto correspondiente a más 1.62 desvíos estándar) debe recurrirse al empleo de fórmulas y
tablas. El siguiente esquema indica la forma de hacerlo:
Multiplicar Dividir
Z = (z.10) + 50 z = (Z-50) / 10 por 100 por 100
AREA EXPRESADA
PUNTAJE COMO PORCENTAJE (%)
DERIVADO (Z)
m% Pm Pm m%
En este esquema, las flechas más gruesas indican los procedimientos habituales en las
aplicaciones prácticas de la curva normal, mientras que aquellas y las flechas más finas
indican mas bien los procedimientos que se piden en ejercitaciones en cursos de estadística.
El modelo matemático de la curva normal tiene varias aplicaciones prácticas, como por
ejemplo en psicología y ciencias de la educación. Pagano (1998:81) invoca tres razones
principales que explican su importancia en estas disciplinas: 1) Muchas variables psicológicas
tienen distribuciones muy semejantes a la curva normal, tales como altura, peso e
inteligencia. 2) Muchas pruebas de inferencia empleadas para analizar experimentos tienen
distribuciones muestrales que poseen una distribución muestral al aumentar el tamaño de la
muestra. 3) Muchas pruebas de inferencia requieren distribuciones muestrales que se
asemejen a la curva normal, como la prueba z, la prueba „t‟ de Student o la prueba F.
Consiguientemente, gran parte de la importancia de la curva normal aparece conjuntamente
con la estadística inferencial.
Problema típico.- La variable „peso‟ en una población de mujeres adultas tiene una
distribución aproximadamente normal, con una media aritmética (X) de 60 kg y un desvío
estándar (s) de 6 kg. Calcular la probabilidad de que una mujer adulta de esa población
tomada al azar tenga un peso mayor a 68 kg.
Resolución del problema típico.- Cuando el enunciado del problema afirma que la variable
tiene una distribución aproximadamente normal, ello significa que puede ser resuelto
recurriendo al modelo de la curva normal. A partir de aquí, los pasos para resolverlo son los
siguientes:
a) Lo primero que debe especificarse son los datos y las incógnitas. Los datos son tres: la
media aritmética (60 kg), el desvío estándar (6 kg), y finalmente un valor de la variable a
partir del cual debe estimarse su probabilidad (68 kg). En símbolos:
X = 60 kg s = 6 kg x = 68 kg
En este caso el problema solicita resolver una sola incógnita: la probabilidad de que una
persona tomada al azar tenga más de 68 kg (también podría haber solicitado averiguar la
probabilidad de que tenga menos de 50 kg, o la probabilidad de que tenga entre 40 y 60 kg).
En símbolos:
p 68 kg > x
z = (x - X) / s
z = (68 – 60) / 6 = 1.33
e) Sin embargo, esta tabla indica la probabilidad de z o menos, es decir, la zona rayada
hacia la izquierda de z.
Por lo tanto, como lo que interesa es la probabilidad de un valor de z o mayor, se restará al
valor p = 1 (el total del área bajo la curva) el valor p = 0.9082. En símbolos:
Area total 1.0000
Menos área hacia la izquierda 0.9082
Area hacia la derecha 0.0918
Por lo tanto, la probabilidad de que una mujer adulta pese más de 68 kg es de p = 0.0918.
Traduciendo la probabilidad a porcentajes, puede decirse que existe un 9.18% de
probabilidades de que la mujer pese 68 kg o más. De idéntica manera, puede decirse que el
percentil P que ocupa una mujer adulta de 68 kg es, siguiendo las pautas del esquema de
reglas de transformación de puntajes: P91 (calculado y redondeado a partir de p = 0.9082),
lo cual significa que una mujer que pese 68 kg tiene „por debajo‟ aproximadamente un 91%
de personas que pesan menos que ella.
Algunas variantes posibles.- Los siguientes ocho casos ilustran algunos ejemplos de
problemas que pueden resolverse mediante la curva normal y los puntajes estandarizados. El
problema típico examinado precedentemente encuadra en el caso 4.
En todos estos casos se trata de calcular la probabilidad de ocurrencia de un valor
comprendido bajo el área rayada de la curva ya que la probabilidad de ocurrencia del valor
es proporcional al área respectiva. Como se verá, en algunos casos conviene más utilizar la
Tabla 1 y en otros las Tabla 2 (ver Anexo).
CASO 1 CASO 2
CASO 3 CASO 4
CASO 5 CASO 6
CASO 7 CASO 8
Caso 2.- En este caso se procede de manera similar que en el caso anterior.
Caso 3.- Aquí se trata de averiguar la probabilidad de que un valor z valga -2 o más. Esta
situación exige dos pasos. El primer paso es idéntico al caso 1. Sin embargo, este primer
paso calcula la probabilidad de z hacia la izquierda, y lo que se necesita saber es la
probabilidad de z hacia la derecha (zona rayada). Como se sabe que la totalidad del área
bajo la curva vale 1, para averiguar la zona hacia la derecha bastará con restar 1 de la
probabilidad de la zona hacia la izquierda. En esto consiste el segundo y último paso.
Caso 4.- Aquí debe averiguarse la probabilidad de que un valor z valga 1.5 o más. La opción
más sencilla es aquí emplear la Tabla1, con la cual se calcula la probabilidad correspondiente
a z = +1.5, que es p = 0.9332. Esta probabilidad corresponde a la zona rayada desde z
hacia la izquierda, pero como debe averiguarse la probabilidad de z hacia la derecha, deberá
restarse 1 menos 0.9332.
Caso 5.- Aquí debe averiguarse la probabilidad de que un valor z esté comprendido entre -
2.5 y +1.5. Una forma sencilla de resolver este problema es dividiendo el área rayada en
dos: una desde la mitad hacia la izquierda (0 a -2.5) y otra desde la mitad hacia la derecha
(0 a +1.5). Se calcula luego la probabilidad de cada área recurriendo a la Tabla 2, y
finalmente se suman ambas probabilidades. Nota: para el cálculo de la zona rayada de la
mitad hacia la izquierda se buscará en la Tabla 2 el valor z = +2.5, porque es igual al valor z
= -2.5 (por ser la curva normal simétrica).
Caso 6.- Este caso es tan sencillo que no requiere el uso de tablas. La probabilidad de la
zona rayada es p = 0.5 porque corresponde exactamente a la mitad de toda el área bajo la
curva, cuya p es igual a 1 (p = 1 equivale a la certeza).
Caso 7.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre -2 y
-1. En este caso, en lugar de sumar áreas como en el caso 5, deberán restarse áreas.
Recurriendo a la Tabla 1, se calcula primero la probabilidad correspondiente a z = -1 (que es
p = 0.1587) y luego la probabilidad de z = -2 (que es p = 0.0228). La probabilidad
resultante será p = 0.1587 – 0.0228 = 0.1359.
Caso 8.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre +1 y
+2. Se puede proceder de la misma forma que en el caso 7, es decir, restando las
probabilidades correspondientes a z = +2 y z = +1.
NOTAS
(1) Botella (1993:153) refiere que los puntajes estandarizados son útiles en los siguientes casos: a) al
hacer comparaciones entre unidades de distintos grupos: se pueden comparar, mediante puntuaciones
estandarizadas, distintas observaciones de un mismo sujeto o de sujetos diferentes; b) al hacer
comparaciones entre variables medidas de distinta forma, debido a que los puntajes estandarizados son
adimensionales. Por ejemplo, comparar una altura expresada en centímetros con otra expresada en
metros; y c) al comparar observaciones de distintas variables: por ejemplo, comparar la altura y el peso
de un sujeto.
(2) En el esquema puede apreciarse que z contempla valores que se extienden a -5 o +5.desvíos
estándar. En la práctica, sin embargo, se consideran solamente valores entre -3 y +3 por razones
prácticas. En efecto, los valores superiores a +3 o menores a -3 cubren áreas muy pequeñas bajo la
curva, es decir, la probabilidad de ocurrencia de puntajes mayores que +3 o menores que -3 son muy
improbables, estando muy alejados de la media aritmética.
(3) Hay muchas formas en que los datos pueden distribuirse, y en todos esos casos existe cierta
regularidad en los mismos. Por ejemplo, hay una tendencia a que la mitad de las veces salga cara
arrojando una moneda, y también hay una tendencia a que la mitad de las veces se opte por un
producto A y no uno B (suponiendo que lo hay ninguna razón para elegir uno u otro). Estos hechos
sugieren que los datos de una manera regular, y los estadísticos propusieron diversos modelos de
distribución, uno para cada forma regular de distribución de datos, como por ejemplo el modelo
Bernouilli o el modelo binomial.
La noción de permanencia estadística (Vessereau A, 1962:15) hace referencia a ciertas uniformidades en
los datos de la realidad. Por ejemplo: a) la cantidad de varones y la de mujeres tiende a ser
aproximadamente igual; b) el tamaño de las galletitas que fabrica una máquina tiende a ser
aproximadamente igual; c) la proporción entre granos esféricos de arvejas y granos arrugados de
arvejas tiende a ser del 75% y del 25% aproximadamente, o sea, siempre tiende a encontrarse
aproximadamente 75 granos esféricos cada 100, y 25 granos arrugados cada 100; d) la estatura de las
personas tienden siempre a estar alrededor de un valor medio, siendo frecuente encontrar estaturas de
1.70 metros pero raro encontrar estaturas de 2 metros.
Estas uniformidades sugieren la presencia de leyes que rigen la forma en que se distribuyen los datos.
Como hay muchas formas en que los datos pueden distribuirse, también habrá muchas leyes que
describen dichas distribuciones. Entre las más conocidas (Vessereau A, 1962:16-24) se cuentan la ley
binomial, la ley de Laplace-Gauss y la ley de Poisson. Por ejemplo, la ley de Laplace-Gauss describe las
distribuciones que siguen una curva normal: “cuando una magnitud recibe la influencia de una gran
cantidad de causas de variación, y estas son todas muy pequeñas e independientes unas de otras, se
demuestra que los valores individuales de las mediciones se distribuyen respondiendo a la ley de
Laplace-Gauss” (Vessereau A, 1962:20).
Otros autores consideran fundamentales a las distribuciones normal, binomial y de Student, y hacen
referencia a otras, como la distribución „chi cuadrado‟ (x2) que, a diferencia de la primeras, no es
paramétrica, es decir, no requiere supuestos tan rigurosos acerca de la población, como por ejemplo de
que esta se distribuya normalmente (Kohan N, 1994:191).
Hay otras leyes que tienen alcance más general, como por ejemplo la ley de distribución de las medias
(Vessereau A, 1962:24) que establece que, cualquiera que sea la distribución (binomial, gaussiana, etc),
el desvío estándar de las medias aritméticas de todas las muestras posibles de n elementos disminuye
inversamente a la raíz cuadrada de n. Esto significa que cuanto más grandes sean las muestras, menos
desviación o dispersión habrá entre sus medias aritméticas.
4.1 INTRODUCCIÓN
Correlación lineal.- Las relaciones entre variables pueden ser de muchos tipos. a) Hay
relaciones deterministas que responden a modelos matemáticos teóricos, como por ejemplo
la relación entre la intensidad de una corriente y la resistencia del conductor, o bien, la
relación entre la factura de consumo de agua y el número de metros cúbicos consumidos.
Estas relaciones son habituales en ciencias exactas. b) Otras relaciones no son tan
deterministas, pero pueden eventualmente parecerse –sólo parecerse- a algún modelo
matemático teórico determinista, en cuyo caso se concluye que ese modelo explica bien la
relación, aunque no lo haga perfectamente. Estas relaciones son habituales en las ciencias
sociales (Botella, 1993:181).
Dentro de los muchos modelos teóricos a los cuales podría ajustarse una relación no
determinista se cuentan los modelos lineales, los modelos cuadráticos, los modelos cúbicos,
etc. El primero se representa mediante una recta, y los restantes mediante diversos tipos de
curva como parábolas e hipérbolas. El presente artículo hará referencia, por razones de
simplicidad, a las relaciones lineales y, por tanto, a la correlación lineal.
El siguiente esquema permite visualizar algunos pasos posibles para llevar a cabo un análisis
de correlación seguido de un análisis de regresión. El esquema sintetiza, al mismo tiempo,
los temas a tratar en el presente artículo.
“Juan se sacó una buena nota en el primer parcial, y por lo tanto es bastante probable que
también saque buena nota en el segundo parcial”. “Esta persona tiene más edad y por lo
tanto es más probable que le falte alguna pieza dentaria”. Abundan esta clase de
razonamientos en la vida cotidiana, que suelen aceptarse sin demasiada crítica.
Sin embargo, en un estudio científico es habitual que estas hipótesis deban ser comprobadas
más allá de las certidumbres subjetivas. Para constatar si hay realmente asociación entre
dos o más variables cualesquiera, se emplea una herramienta denominada „análisis de
correlación‟, que también evalúa el grado o intensidad en que dichas variables están
asociadas. Se examina aquí el caso más sencillo (dos variables), que se estudia dentro de la
estadística bivariada.
En el siguiente ejemplo se exponen tres posibles distribuciones de frecuencias bivariadas (1)
referidas a las primeras y segundas notas de exámenes parciales.
Tipos de correlación
Un gráfico es mucho mejor que una tabla para apreciar rápidamente si hay o no correlación
entre variables. Existen varias maneras de graficar la correlación (3), pero aquí se describirá
el procedimiento clásico: el diagrama de dispersión. El diagrama de dispersión es
básicamente una „nube‟ de puntos, donde cada punto corresponde al entrecruzamiento de
cada par de valores de X e Y. Este diagrama puede realizarse independientemente del cálculo
analítico de la correlación.
Por ejemplo, el diagrama de dispersión correspondiente a la Tabla 1 se asemeja al diagrama
A del esquema de diagramas de dispersión.
A este diagrama se ha agregado „a ojo‟ una línea imaginaria, que viene a representar más o
menos el ordenamiento lineal de los puntos (que van desde abajo a la izquierda hacia arriba
a la derecha). El diagrama se llama 'de dispersión' porque muestra cuán dispersos (próximos
o alejados) están los puntos alrededor de dicha recta. Fácil es advertir que cuanto más
alineados estén, más correlación habrá. En el ejemplo A del esquema sobre diferentes
diagramas de dispersión, los puntos tienden a ubicarse en las proximidades de la recta
imaginaria, lo que indica que están poco dispersos. Si los puntos figurasen más alejados
habría más dispersión, y por lo tanto menor correlación entre X e Y.
El caso B muestra correlación inversa, pues el ordenamiento de los puntos indican que, a
medida que aumenta X, va disminuyendo Y. Así entonces, cuando la línea imaginaria va de
abajo a la izquierda hacia arriba a la derecha, hay correlación directa, y cuando va desde
arriba a la izquierda hacia abajo a la derecha hay correlación inversa. Dicho más
técnicamente, en el primer caso la recta tiene una inclinación o pendiente positiva, y en
segundo su pendiente es negativa.
El caso C revela, por su parte, que a medida que aumenta Y, los valores de X ni aumentan ni
disminuyen, permaneciendo fijos en el valor 5. Por lo tanto no hay correlación. En general no
la hay cuando una de las variables no varía (en este caso X permanece constante en el valor
5).
El caso D es similar al anterior: allí los valores de Y permanecen constantes en el número 4,
mientras va variando X. Tampoco hay correlación.
El caso E muestra un ejemplo donde varían ambas variables, pero sin embargo no hay
correlación. En esa nube es imposible trazar una línea imaginaria representativa de la
orientación de los puntos, simplemente porque no hay tal orientación lineal. Los valores que
van asumiendo las variables son en principio aleatorios (varían al azar). Tampoco hay
correlación.
El caso F nos muestra un caso de correlación perfecta o máxima (en este caso directa), pues
no hay dispersión de puntos alrededor de la línea imaginaria: todos están sobre ella. Estas
regularidades „perfectas‟ no suelen encontrarse fácilmente, ni menos aún en ciencias
sociales, porque los fenómenos obedecen siempre a muchas causas que estarán actuando
para romper la „armonía natural‟ entre X e Y.
También hay casos de correlación no lineal, donde en lugar de una recta imaginaria se traza
una curva. En este artículo se presentan solamente los casos más sencillos, es decir, los
casos de correlación lineal, representables mediante rectas.
10 10 10
9 9 9
8 8 8
7 7 7
6 6 6
5 5 5
4 4 4
3 3 3
2 2 2
1 1 1
0 0 0
0 1 2 3 4 5 6 7 8 9 10 X 0 1 2 3 4 5 6 7 8 9 10 X 0 1 2 3 4 5 6 7 8 9 10 X
Y Y Y
10 10 10
9 9 9
8 8 8
7 7 7
6 6 6
5 5 5
4 4 4
3 3 3
2 2 2
1 1 1
0 0 0
0 1 2 3 4 5 6 7 8 9 10 X 0 1 2 3 4 5 6 7 8 9 10 X 0 1 2 3 4 5 6 7 8 9 10 X
Si bien una „nube de puntos‟ puede dar una idea de si hay o no correlación, o de si es directa
o inversa, todavía no proporciona información sobre „cuanta‟ correlación hay. Esta
información se obtiene mediante un cálculo analítico.
Este coeficiente (que se designa con “r”), fue creado por Karl Pearson (1857-1936) para
relacionar variables cuantitativas (es decir, variables que, como “nota de examen”, se miden
mediante números).
El coeficiente de Pearson es un número comprendido entre -1 y +1, y que posee un
determinado signo (positivo o negativo). El valor numérico indica „cuanta‟ correlación hay,
mientras que el signo indica qué „tipo‟ de correlación es (directa si el signo es positivo,
inversa si es negativo). En el siguiente esquema se muestran algunos posibles valores de “r”.
Cuanto más cerca de cero esté el coeficiente de correlación obtenido, tanto menor
correlación habrá. Cabría preguntarse: ¿hasta qué valor se considera que hay correlación?
¿desde qué valor no la hay? Esto es una cuestión que depende de varias cosas, y hace a la
cuestión de la relatividad del coeficiente de Pearson.
En efecto, su interpretación depende de varios factores, como por ejemplo: a) la naturaleza
de las variables que se correlacionan; b) la significación del coeficiente; c) la variabilidad del
grupo; d) los coeficientes de confiabilidad de los tests; e) el propósito para el cual se calcula
r.
El valor r = 0,70 puede indicar alta correlación para cierto par de variables, pero baja
correlación para otras variables distintas. Otro ejemplo: un r de 0,30 entre estatura e
inteligencia o entre tamaño craneal y habilidad mecánica indicaría una correlación mas bien
alta, puesto que las correlaciones entre variables físicas y mentales suelen ser mucho más
bajas, a menudo iguales a cero. Otro ejemplo: un r de 0,30 entre inteligencia y nota de
examen, o entre puntaje en inglés y puntaje en historia es considerada bajísima, ya que los r
en estos campos suelen extenderse entre 0,40 y 0,60. Otro ejemplo: semejanzas entre
padres e hijos, en cuanto a rasgos físicos y mentales, se expresan por valores entre 0,35 y
0,55, y por lo tanto un r de 0,60 sería alto.
Respecto de la fórmula para calcular el coeficiente de correlación de Pearson ("r"), no hay
una única manera de presentarla, y la elección de una u otra dependerá de la forma de
presentación de los datos. Por ejemplo, si los datos están agrupados en una tabla de
frecuencias, se utiliza cierta fórmula (Bancroft, 1960:190), mientras que si los datos no
están agrupados en frecuencias, podrán utilizarse cualquiera de las fórmulas indicadas en el
siguiente esquema (5):
Fórmula 1 Fórmula 2
{ ( x – X) (y – Y) } { ( x – X) (y – Y) }
r = ± ------------------------------- r = ± -------------------------------
2 2
n x. y ( x – X) . (y – Y)
Se usa esta fórmula cuando dan como (El denominador debe elevarse a la raíz cuadrada).
datos las medias de X e Y y sus Se usa esta fórmula cuando dan como datos las medias
respectivos desvíos estándar. aritméticas de X e Y.
Fórmula 3 Fórmula 4
(Z x . Zy)
n (x.y) – x . y
r = ± ---------------------
n r = ------------------------------------------------
n x2 – ( x)2 . n y2 – ( y)2
Se usa esta fórmula cuando dan como
datos los puntajes estandarizados Z. (Ambos factores del denominador se elevan a la raíz cuadrada)
Se utiliza esta fórmula (llamada fórmula del producto momento)
cuando no se conocen ni medias aritméticas ni desvíos
estándar.
A continuación se suministra un ejemplo de cómo calcular el coeficiente "r" utilizando la
fórmula 2. Se trata de determinar el coeficiente de Pearson para dos variables X e Y (que
podrían ser por ejemplo las notas del primero y segundo parcial). También se pide
interpretar el resultado.
La tabla 1 son los datos dados, mientras que la tabla 2 es una ampliación que debe hacerse
para poder obtener más información y poder así aplicar la fórmula:
Tabla 1
Alumno X Y
A 4 6
B 5 7
C 7 8
D 9 9
E 10 10
N=5 alumnos 35 40
Tabla 2
2 2
x–X y–Y ( x – X) (y – Y) ( x – X) (y – Y)
-3 -2 6 9 1
-2 -1 2 4 1
0 0 0 0 0
2 1 2 4 1
3 2 6 9 1
0 0 16 26 10
X=7
Y=8
{ ( x – X) (y – Y) } 16
r = ± ---------------------------------------- = ----------------------- = +0.99
2 2
raíz de ( x – X) . (y – Y) raíz de 26,10
Coeficientes derivados.- A partir del coeficiente "r" de Pearson (en cualquiera de sus formas)
se pueden derivar otros, según la información que se quiera obtener:
1) Coeficiente de determinación (r2): es el coeficiente "r" elevado al cuadrado. El coeficiente
de determinación indica qué porcentaje de la variación de Y está determinada por las
variaciones de X. Por ejemplo, para un "r" de 0,70, hay un coeficiente de determinación de
0,49, lo que significa que el 49% de la variación de Y está determinada por la variación de X.
2) Coeficiente de alienación (k): llamado también de no correlación, no indica la correlación
sino la falta de correlación entre dos variables (o grado de independencia). Para calcularlo se
aplica la fórmula siguiente:
r2 + k2 = 1 [1]
Por ejemplo, si sabemos que "r" es de 0,50, aplicando la fórmula indicada tenemos que "k"
vale 0,86, con lo cual el grado en que falta la correlación resulta ser mayor que el grado en
que sí hay correlación.
Idénticamente, si "r" vale 1 entonces "k" vale 0, y viceversa. Cuanto mayor es el coeficiente
de alienación tanto menor es la correlación, y por tanto menos confiables serán las
predicciones que -análisis de regresión mediante- se hagan sobre esa base.
3) Coeficiente de indeterminación (k2): es el coeficiente "k" pero elevado al cuadrado. Mide
el grado en que la variación de Y no está determinada por la variación de X. La fórmula del
coeficiente de indeterminación es deducible de la anterior [1].
4) Coeficiente de eficiencia predictiva (E): suele utilizarse para, sabiendo "r", estimar
rápidamente el poder predictivo de la correlación "r". Su fórmula es:
E = 100 . (1 - 1-r2) donde 1-r2 debe elevarse a la raíz cuadrada.
Por ejemplo si la correlación "r" es de 0,50, la eficiencia predictiva será del 13%. Pero
cuando "r" sube a 0,98, la eficiencia predictiva será del 80%. La correlación debe ser
entonces de 0.87 o más para que la eficiencia predictiva sea mayor al 50%.
La matriz permite visualizar inmediatamente, entre otras cosas, cuáles son los coeficientes
de correlación más altos (en este caso, entre Y y W).
Nótese que no han sido llenados los casilleros donde se cruzan las mismas variables (por
ejemplo X con X), porque carece de sentido hacerlo y su correlación es siempre perfecta y
positiva (r = +1).
Fórmula 1 Fórmula 2
2 2 2 2
6 d x + y + d
= 1 - --------------------------- = --------------------------------
2 2
n (n + 1) (n – 1) 2. x. y
casos, y es x = y = (n3 – n) / 12
2 2
En ciertos casos conviene utilizar la primera fórmula, y en otros casos la segunda. Por
ejemplo (Kohan, 1994:256), si no hay empates en los rangos o son muy pocos, se utilizará
la fórmula 1, y si hay empates en los rangos, se utilizará la fórmula 2. Para comprender esto,
se suministran a continuación dos ejemplos diferentes: uno sin empates y otro con empates.
Esta tabla indica, por ejemplo, que el sujeto A se situó en un segundo lugar en autoritarismo
y en un tercer lugar en búsqueda de estatus.
Aplicando la fórmula 1, se obtiene un coeficiente de Spearman de 0.82, lo cual sugiere una
alta correlación entre autoritarismo y búsqueda de status.
Ejemplo 2.- Aquí se trata de obtener el coeficiente de Spearman cuando hay empates en los
rangos. Los empates ocurren cuando dos o más sujetos tienen el mismo rango en la misma
variable. Por ejemplo (ver tabla siguiente), los sujetos A y B obtuvieron el mismo puntaje en
la variable X (o sea, obtuvieron ambos cero). Otro tanto ocurrió con los sujetos C y D y con
los sujetos J y K, siempre en relación a la misma variable X. En el caso de la variable Y todos
los puntajes fueron diferentes, y por lo tanto no hubo empates.
Cuanto mayor es la cantidad de empates, más conveniente resultará utilizar la fórmula 2.
Para hallar el coeficiente de Spearman en estos casos, puede procederse se acuerdo a tres
pasos:
b) Corrección de la suma de los cuadrados.- Para poder aplicar la fórmula 2, y puesto que
hay empates, deben modificarse los valores de x y de y es decir, las sumatorias de los
2 2
141.5
12 12 12 12 12
El valor 2 significa que hay sido dos los valores empatados. En este caso, los empates se han
dado en tres oportunidades (sujetos A-B, C-D y J-K), y por ello se suman los tres cocientes.
Como en la variable Y no se han verificado empates, el cálculo no incluirá el factor de
corrección:
3 3
n –n 12 – 12
y = --------- = ------------ = 143
2
12 12
c) Aplicación de la fórmula 2.- Se aplica la fórmula con los valores corregidos del siguiente
modo:
2 2 2
x + y + d 141.5 + 143 – 109.5
= -------------------------------- = ------------------------------ = 0.616
2 2
2. x. y 2 141.5 . 143
Esquema 6 Esquema 7
Acto seguido, se eligen mil sujetos con diagnósticos diversos de personalidad y se les
pregunta qué dibujo les gusta más. Aquí es donde interviene el análisis de correlación, que
permitirá ver el grado de asociación entre el diagnóstico y el dibujo elegido. Una muy alta
correlación aparecería, por ejemplo, si gran cantidad de sujetos con trastorno narcisista
eligen el esquema 6, con lo cual, en lo sucesivo se podrá tomar este test sin necesidad de
explorar sus conductas y ver si cumplen los criterios del DSM-IV, un trámite que suele ser
arduo.
Desde ya, construir un test exige una gran cantidad de controles y precauciones que no
vienen al caso exponer aquí. Por ejemplo, debe determinarse su validez y su confiabilidad. El
análisis de correlación permite, precisamente, determinar por ejemplo un tipo especial de
validez: la validez predictiva, que pueden verse claramente en las pruebas de orientación
vocacional.
Así, por ejemplo, una forma de establecer si un test de este tipo evalúa la vocación de un
sujeto, es esperar varios años y ver si ese sujeto tuvo éxito en la profesión sugerida por el
test. Como puede apreciarse, aquí se recurre nuevamente al análisis de correlación, al
compararse la profesión diagnosticada con la profesión elegida exitosamente. Una alta
correlación entre ambas variables es indicador de la validez predictiva del test en cuestión.
El análisis de correlación permite también determinar otros tipos de validez como la validez
inter-test, que compara los resultados de un test vocacional con otro test vocacional. Si
ambos arrojan aproximadamente los mismos resultados en un conjunto de sujetos, entonces
tienen validez inter-test, comparación que fue posible por un análisis de correlación.
El objetivo del análisis de regresión es establecer una predicción acerca del comportamiento
de una variable Y conociendo el correspondiente valor de X (o viceversa) y el grado de
correlación existente entre ambas variables.
Para ello es preciso conocer la llamada recta de regresión (7), que es la recta imaginaria que
mejor representa el conjunto de pares de valores de las variables X e Y. En el siguiente eje
de coordenadas, están representados por ejemplo cinco de esos pares de valores, mediante
cinco puntos. La recta de regresión dibujada sería la que mejor representa esos puntos, por
cuanto la distancia de los puntos a la recta (representada con una línea punteada) es la
mínima. Esta distancia recibe el nombre de regresión, de manera tal que cuanto menor es la
regresión de los puntos, mayor será la correlación entre ellos.
y Recta de regresión
La recta de regresión es, de muchas rectas posibles, la que mejor representa la correlación
o, más técnicamente, es la única que hace mínima la suma de los cuadrados de las
desviaciones o distancias de cada punto a la recta. Es, además, la mejor manera de poder
hacer predicciones.
Las desviaciones de los puntos respecto de la recta se adjudican a factores no controlados
(que suelen ser particularmente importantes en las ciencias sociales), y se parte del
supuesto de que si no hubiera factores extraños que afecten la relación entre X e Y, entonces
no habría desviaciones y la correlación sería perfecta.
La recta de regresión puede trazarse „a ojo‟, pero este procedimiento no tiene precisión. El
análisis de regresión propone un método mucho más preciso, consistente en hallar la recta
de regresión por una vía analítica.
Este cálculo de la recta de regresión consiste en hallar la ecuación de la recta de regresión, y
eventualmente luego dibujándola en un diagrama de coordenadas cartesianas. Una vez en
posesión de esta ecuación, podrán hacerse predicciones a partir de la ecuación misma o bien
a partir de la recta trazada en el diagrama de coordenadas.
Ambos procedimientos serán examinados a continuación con los nombres de cálculo analítico
de la regresión y cálculo gráfico de la regresión, respectivamente.
n (x.y) – x. y
b = ------------------------------
n x2 - ( x)2
Como puede apreciarse, primero debe calcularse b, ya que para calcular a se requiere
conocer b.
y = r . (Sy / Sx) . (x - X) + Y
A los efectos de poder obtener información sobre las medias aritméticas, los desvíos
estándar y el coeficiente de correlación (necesarios para calcular la ecuación de la recta), se
amplía la tabla anterior de la siguiente manera:
y = r . (Sy / Sx) . (x - X) + Y
y = 0.81 (10.8 / 2) . (x – 5) + 70
Esta expresión se transforma de manera tal que adopte la forma típica de la ecuación de la
recta, con lo cual se obtiene:
y = 47.85 – 4.43 . x
Una vez que se cuenta con la ecuación de la recta, ahora sí pueden hacerse predicciones. Por
ejemplo, si a un niño que 10 años se le toma el test, ¿cuál será el puntaje más probable que
obtendrá?
y = 47.85 – 4.43 . x
y = 47.85 – 4.43 . 10 = 92.15
y = 92.15
90
80
70
60
50
40
30
20
10
0
0 1 2 3 4 5 6 7 8 9 10 X
90
80
70
60
50
40
30
20
10
0
0 1 2 3 4 5 6 7 8 9 10 X
Esto es, el error estándar es igual al desvío estándar poblacional multiplicado por la raíz
cuadrada de la diferencia entre 1 y el cuadrado del coeficiente de correlación.
En el ejemplo anterior, el desvío estándar valía 10.8 y el coeficiente de correlación valía
0.82. Reemplazando, se obtiene:
2
est y = . 1 – 0.82 = 6.2
Esto significa que el valor de y predicho y = 82, estará en un 68% de los casos entre 82
6.2, es decir entre 88.2 y 75.8. O si se quiere, hay un 68% de probabilidades que el valor de
y se encuentre entre 88.2 y 75.8. Desde ya, también puede calcularse este intervalo de
confianza en base a un 95% o un 99% de probabilidades, en cuyo caso el intervalo de
confianza deberá ser mayor.
NOTAS
(1) Una distribución de frecuencias bivariada es un conjunto de pares de valores, correspondientes a dos
variables observadas conjuntamente, con sus respectivas frecuencias. Cuando la distribución se registra
en una tabla de doble entrada se obtiene una tabla de contingencia. En cada celda de esta tabla se
indica la frecuencia con que se observó cada par de valores.
(2) Algunos autores (por ejemplo Botella, 1993:183), clasifican en tres los casos posibles de relación
lineal entre variables. a) Relación lineal directa: se dice que dos variables X e Y mantienen una relación
lineal directa cuando los valores altos en Y tienden a emparejarse con valores altos en X, los valores
intermedios en Y tienden a emparejarse con valores intermedios en X, y los valores bajos en Y tienden a
emparejarse con valores bajos en X. Por ejemplo: la relación entre inteligencia y rendimiento. b)
Relación lineal inversa: se dice que dos variables X e Y mantienen una relación lineal inversa cuando los
valores altos en Y tienden a emparejarse con valores bajos en X, los valores intermedios en Y tienden a
emparejarse con valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores
altos en X. Por ejemplo: la relación entre tiempo y errores. c) Relación lineal nula: se dice que hay
relación lineal nula entre dos variables cuando no hay un emparejamiento sistemático entre ellas en
función de sus valores. Por ejemplo: la relación entre estatura e inteligencia.
(3) Otra forma de apreciar gráficamente la correlación es mediante el ángulo de correlación: dadas las
dos rectas y1 = a + b . x1 y x1 = a + b . y1 , el punto donde se intersectan se llama centroide. El
ángulo entre ambas rectas se llama ángulo de correlación. Cuanto menor es este ángulo, más
correlación hay (Kohan, 1994:224).
(4) Además del clásico coeficiente "r" de Pearson, existen otros también destinados a medir el grado de
asociación entre variables. En el esquema siguiente se resumen algunos ejemplos. No deben confundirse
los coeficientes derivados del coeficiente de Pearson, con estos otros coeficientes de correlación, que en
general fueron diseñados de manera diferente o para otros propósitos.
Otros coeficientes son: el Coeficiente (Tau) de Kendall (Kohan, 1994:260), el Coeficiente de Wilcoxon, el
Coeficiente de Flanagan, el Coeficiente de correlación multiserial de Jaspe, el Coeficiente T de
Tschuprow, el Coeficiente de correlación tetracórica (Kohan, 1994:281), etc.
Todos los coeficientes de correlación pueden aplicarse en psicología, por ejemplo, en experimentos sobre
el aprendizaje, en la teoría factorialista de Spearman, y en psicometría cuando por ejemplo debemos
establecer el grado de correlación entre dos tests, o el grado de correlación de un mismo test tomado en
dos momentos diferentes.
(5) “En algunos textos de estadística se describen fórmulas abreviadas para facilitar los cálculos cuando
se dispone de un número grande de pares de valores. La disponibilidad actual de calculadoras de mesa y
ordenadores personales hacen innecesarias estas fórmulas” (Botella, 1993:193).
(6) La construcción de tests puede llevarse a cabo para realizar una investigación ad hoc para la cual no
hay instrumentos de medición conocidos, o bien para crear una prueba que pueda ser utilizada por otros
en diferentes circunstancias, aunque esto último es más raro en un mercado sobresaturado de pruebas
psicométricas y proyectivas donde es realmente muy difícil posicionar un test que pueda representar una
mejora respecto de los anteriores.
(7) También puede ser una curva, pero en este artículo se describe solamente la regresión lineal, que se
representa mediante una recta.
(8) El valor „a‟ es la ordenada al origen, y el valor „b‟ es el coeficiente angular o pendiente de la recta,
que equivale a la tangente del ángulo alfa (formado por la recta y otra recta paralela a la absisa). La
ecuación de la recta también puede representarse como x = a + b.y, en cuyo caso el parámetro „a‟
significará la absisa al origen. En este artículo no se considerará esta segunda expresión por razones de
simplicidad, y por cuanto la idea es poder predecir un valor y en función de un valor x, y no un valor x
en función de un valor y. Así, la ecuación y = a + b.x permite predecir cuánto valdrá y en función de x,
mientras que la ecuación x = a + b.y permite predecir cuánto valdrá x en función de y.
Ambas rectas de regresión se cortan en un punto llamado centroide, y “la correlación entre las dos
variables está dada por el ángulo entre las dos rectas: si este ángulo vale 0, la correlación es 1” (Kohan
N, 1994:224).
5.1 INTRODUCCIÓN
Esta tarea consiste en, partiendo de ciertos valores de la muestra llamados estadísticos o
estadígrafos (por ejemplo la media aritmética muestral), inferir ciertos otros valores de la
población llamados parámetros (por ejemplo la media aritmética poblacional o esperanza).
Ello es así porque en general lo que interesa es la población, no la muestra. Cuando un
investigador observa que en una muestra el 80% de las personas lee el diario, le interesará
averiguar a partir de allí qué porcentaje o proporción de la población lee el diario, ya que por
ejemplo su interés es editar un nuevo periódico. De la misma forma, cuando un investigador
observa que la media aritmética muestral de la frecuencia cardíaca es 80 pulsaciones por
minuto, le interesará averiguar si ello se cumple también en la población, ya que por ejemplo
su interés puede ser comparar la frecuencia cardíaca de sus pacientes con toda la población
para decidir sobre su salud en base a un criterio estadístico.
Como puede verse, lo más habitual es inferir medias aritméticas (promedios) y proporciones
(porcentajes). Así, a partir de la media aritmética muestral se infiere la media aritmética
poblacional, y a partir de la proporción observada en la muestra se infiere la proporción en la
población.
Existen dos tipos de estimación de parámetros: la estimación puntual y la estimación
intercalar (Pagano R, 1998:304).
La estimación puntual consiste en inferir un determinado valor para el parámetro. Por
ejemplo, inferir que la población debe tener puntualmente una media aritmética de 80.
La estimación intervalar consiste en inferir dentro de qué intervalo de valores estará el
parámetro con un determinado nivel de confianza. Por ejemplo, inferir que la población debe
tener una media aritmética entre 75 y 83, con un nivel de confianza de 0.95 (esto es, hay un
95% de probabilidades de que el parámetro poblacional se encuentre entre 75 y 93) o, si se
quiere, con un nivel de riesgo (4) de 0.05 (esto es, hay un 5% de probabilidades de que el
parámetro no se encuentre entre esos valores).
En general, resulta mucho más riesgoso afirmar que el parámetro vale 80 que afirmar que
vale entre 75 y 83. Por esta razón, se prefiere bajar este riesgo y establecer un intervalo de
confianza, que podrá ser de 0.90, 0.95, 0.99, etc, según elija el investigador.
Hay diferentes procedimientos de estimación de parámetros, según se trate de estimar
medias o proporciones, o según se trate de estimar parámetros de variables cualitativas (con
dos categorías o con más de dos categorías) o cuantitativas. En lo que sigue se dan algunos
ejemplos combinados.
Ls = X + z . (S / Donde:
n)
Ls = Límite superior del intervalo de confianza.
Li = X - z . (S/ Li = Límite inferior del intervalo de confianza.
n) X = Media aritmética muestral.
S = Desvío estándar muestral.
n = Tamaño de la muestra. Si se trata de una muestra chica (menor a
30) se considera n-1.
(S / n) = Desvío estándar poblacional. Cuando no tenemos el desvío
estándar de la población (hecho muy frecuente) se utiliza el desvío
muestral (Rodríguez Feijóo N, 2003).
z . (S/ n) = Error muestral o estándar (error que puede cometerse al
inferir la media poblacional) (3).
z = Puntaje estandarizado que define el nivel de confianza. Si se desea
un nivel de confianza de 0.90, debe consignarse z = 1.64. Si se desea
un nivel de confianza de 0.95, debe consignarse z = 1.96. Si se desea
un nivel de confianza de 0.99, debe consignarse z = 2.58. Para valores
intermedios de nivel de confianza, pueden consultarse las tablas de
áreas de z (ver capítulo sobre probabilidad y curva normal).
Ejemplo (Rodríguez Feijóo N, 2003).- En una muestra probabilística de 600 niños de 10 años
de Capital Federal el cociente intelectual promedio obtenido fue de 105 con una desviación
estándar de 16. Con un intervalo de confianza del 95%, ¿entre qué límites oscilará el CI
promedio de los niños de 10 años de Capital Federal?
Ls = X + z . (S / n) = 105 + 1.96 (16 / 600) = 106.27
Li = X - z . (S/ n) = 105 - 1.96 (16 / 600) = 103.73
Respuesta: con un riesgo de 5% de equivocarse en la estimación, el CI promedio de los
niños de 10 años de Capital Federal oscila entre 103.73 y 106.27 puntos.
Ls = p + z . ( p . q / Donde:
n)
Ls = Límite superior del intervalo de confianza.
Li = p - z . ( p . q / Li = Límite inferior del intervalo de confianza.
n) p = Proporción muestral
z = Puntaje estandarizado que define el nivel de confianza. Si se
Nota: La raíz cuadrada desea un nivel de confianza de 0.90, debe consignarse z = 1.64. Si
afecta a p, q y n. se desea un nivel de confianza de 0.95, debe consignarse z = 1.96.
Si se desea un nivel de confianza de 0.99, debe consignarse z =
2.58. Para valores intermedios de nivel de confianza, pueden
consultarse las tablas de áreas de z (ver capítulo sobre probabilidad
y curva normal).
q = Proporción que falta para llegar al 100%. Por ejemplo: si p es
65%, entonces q = 35%).
n = Tamaño de la muestra. Si se trata de una muestra chica (menor
a 30) se considera n-1.
Ejemplo.- En una muestra probabilística de 100 personas, el 20% son masculinos. Con un
intervalo de confianza del 99%, ¿entre qué proporciones oscilará el porcentaje de masculinos
en la población?
Ls = 20% + 2.58 . ( 20 . 80 / 100) = 30.3%
Li = 20% – 2.58 . ( 20 . 80 / 100) = 9.7%
Respuesta: con un riesgo de 1% de equivocarse en la estimación, la proporción de
masculinos en la población oscila entre el 9.7% y el 30.3%.
Las pruebas de hipótesis se utilizan para probar alguna hipótesis en investigación científica
(10). Cuando el investigador propone una hipótesis, su deseo será poder confirmarla (porque
él mismo la propuso o porque cree intuitivamente en ella). Si decide hacer una prueba
estadística para salir de dudas, entonces realizará una prueba de hipótesis y establecerá dos
hipótesis estadísticas: su propia hipótesis, a la que convertirá en hipótesis alternativa, y la
opuesta, que llamará hipótesis nula, y la tarea consistirá en intentar probar esta última. Si la
rechaza, aceptará la alternativa, y si la acepta, rechazará la alternativa (7).
Existe una gran variedad de pruebas de hipótesis, pero todas ellas tienen en común una
determinada secuencia de operaciones, que son las siguientes:
z
-3 -2 -1 0 +1 +2 +3
t
-3 -2 -1 0 +1 +2 +3
Las zonas de rechazo se definirán según se trate de pruebas de hipótesis de una cola
(hipótesis direccionales) o de dos colas (hipótesis no direccionales), según el siguiente
esquema:
Para determinar una zona de rechazo (o también zona crítica) es preciso indicar un
determinado valor de z (o de t) que sirva para delimitar la zona de rechazo ( ) de la zona de
aceptación (1 - ). Ese valor recibe el nombre de „z teórico’, „z crítico‟ o „punto crítico‟, que se
calcula en base a una tabla de z (o de t) y en base al nivel de significación elegido.
Existe una relación básica entre , y el tamaño de muestra n. Puesto que es la
probabilidad de que la estadística de prueba (por ejemplo el z empírico) caiga en la región de
rechazo, un incremento en el tamaño de esta región aumenta , y simultáneamente
disminuye , para un tamaño de muestra fijo. El reducir el tamaño de la región de rechazo
disminuye y aumenta . Si se aumenta el tamaño de muestra entonces, se tiene más
información en la cual basar la decisión y ambas y decrecerán.
8) Decisión final (6).- Si el dato empírico (llamado „z empírico’) obtenido „cae‟ dentro de la
zona de rechazo, se rechaza la Ho y por tanto se acepta la Ha. En cambio, si el dato „cae‟
fuera de esta zona de rechazo, no se rechaza (se acepta) la Ho, siempre para un nivel de
significación elegido (Kohan N, 1994:189). Por ejemplo:
z z teórico = -1.65
-1.80 -1.65 z empírico = -1.80
En este ejemplo, se puede apreciar que el z teórico delimita las zonas de rechazo y
aceptación de la Ho. Como de los datos del experimento resultó un z empírico ubicado dentro
de la zona de rechazo, se decide rechazar la Ho y, por lo tanto, se acepta la Ha.
1) Prueba de la media.- Aquí no hay que estimar un intervalo para la media poblacional
(como en la estimación de parámetros), sino probar la hipótesis según la cual no hay
diferencia estadísticamente significativa entre la media poblacional y la muestral. Esta
prueba, llamada también prueba de la media, se entiende cabalmente a partir de un
conocimiento mínimo sobre distribución muestral y teorema central del límite (12).
Existe una gran diversidad de pruebas de la media, según que se conozca o no se conozca el
desvío estándar poblacional (en cuyo caso se utiliza una prueba z o una prueba t,
respectivamente), según que la hipótesis sea direccional (prueba de una cola) o no
direccional (prueba de dos colas), y según se aplique a una sola muestra (Pagano R,
1998:293) o a dos muestras (Pagano R, 1998:317).
Resolución.- a) En primer lugar convendrá ordenar los datos que suministra el problema:
X - 1.65 – 1.68
ze = -------------- = ------------------ = - 1.8
/ n 0.10 / 36
3) Se calcula el z teórico mediante la tabla de z para un nivel de significación del 5%. Como
se trata de una hipótesis alternativa direccional que especifica una dirección de „menor que‟,
se emplea la tabla de áreas de z hacia la izquierda (ver apéndice).
Puesto que se pide un nivel de significación del 5%, traduciendo este valor a probabilidades
obtenemos 0.05. A continuación, se busca el valor de z que corresponde aproximadamente a
esa probabilidad. Hay dos valores que se aproximan idénticamente: 0.0505 y 0.0495.
Eligiendo arbitrariamente el primero, se obtiene:
zt = -1.64
z z teórico = -1.64
-1.8 -1.64 z empírico = -1.8
5) Como ze cae dentro de la región de rechazo o región crítica, entonces se rechaza la Ho, y
por lo tanto, se acepta la Ha según la cual la estatura media poblacional es menor que 1.68
m. En este caso se puede estar cometiendo un error tipo I, es decir, rechazar la Ho cuando
es verdadera, con una probabilidad de = 0.05 (o si se quiere, existe una probabilidad del
5% de estar rechazando la Ho cuando es verdadera).
Ejemplo.- Sean, a efectos didácticos, las siguientes seis observaciones obtenidas en dos
variables X e Y:
X Y
10 13
10 16
12 12
12 17
14 15
16 15
a) Antes de aplicar “x” lo que se exige es que no haya diferencias significativas entre los
grupos experimental y de control, tanto en lo referente a “x” como en las variables de
control (es decir a las variables extrañas relevantes que requieren ser controladas).
b) Después de aplicar “x”, lo que se espera como deseable (para aceptar la hipótesis de
investigación) es que haya diferencias significativas en cuanto a “x” entre ambos grupos.
La teoría de las muestras (2) “es útil para poder determinar si las diferencias observadas
entre dos muestras son realmente debidas al azar o si son significativas, lo que puede
llevar a un proceso de toma de decisiones gracias a las pruebas de „hipótesis‟ y de
„significación‟ que se pueden hacer” (Kohan N, 1994:144).
2) Diferencia entre muestra y población.- Queda, no obstante, otra tarea adicional para la
estadística inferencial: establecer si las conclusiones obtenidas para la muestra experimental,
luego de la exposición a “x”, pueden extenderse lícitamente a toda la población, habida cuenta
de que la ciencia busca un conocimiento válido y universal. Esta tarea es lo que Kohan
describe como “probar hipótesis válidas para la población correspondiente, conociendo la
información de las muestras” (Kohan N, 1994:144). La misma autora indica que para que las
conclusiones que se obtienen a partir de las muestras sean válidas, éstas deben ser
representativas de la población.
El objetivo de este ítem es explicar con un ejemplo de qué manera se puede alcanzar el
objetivo 1b, es decir, como se puede probar si hay o no diferencias significativas entre un
grupo experimental y un grupo de control.
Los resultados de un experimento requieren un tratamiento estadístico que permita orientar
al investigador acerca de si la hipótesis de investigación debe ser rechazada o no rechazada,
para lo cual deberá establecer convencionalmente un determinado nivel de significación que
permita diferenciar resultados estadísticamente significativos de resultados estadísticamente
no significativos. Seguidamente se explica en detalle esta aseveración.
En los informes de investigación suelen aparecer expresiones del tipo "los resultados del
experimento son estadísticamente significativos". Seguidamente se aclarará en forma
intuitiva qué quiere decir esto, siguiendo los lineamientos didácticos de León y Montero
(1995:105-130).
Supóngase un sencillo experimento, donde se trata de probar si un choque emocional altera
o no el recuerdo de los sucesos inmediatamente anteriores al mismo.
Para ello, se tomaron dos grupos de estudiantes: el grupo experimental presenció una
película donde había una escena violenta, y el grupo de control presenció la misma película
pero sin la escena violenta.
Los resultados fueron los siguientes: el grupo sometido al choque emocional lograba luego
recordar un promedio de 10, mientras que el grupo sin choque emocional lograba recordar
más sobre las escenas del film: por ejemplo, un promedio de 15. Esquemáticamente:
Tabla 1
Los resultados de la tabla 1 permiten ver, en efecto, que hay muy pocos experimentos donde
la diferencia entre grupos es muy grande (en apenas 5 experimentos la diferencia fue 7),
mientras que hay muchos experimentos donde la diferencia entre grupos es nula (hay 2000
experimentos donde la diferencia fue 0).
La tabla también informa sobre lo siguiente:
a) La cantidad de casos que obtuvieron como diferencia entre +1 y -1 fue de 5.390 casos
(que resulta de sumar 1690 + 2000 + 1700). Ello representa el 53,9% más próximo a cero
del total de casos.
b) La cantidad de casos que obtuvieron como diferencia entre +3 y -3 fue de 9180 casos.
Esto representa el 91,8% más próximo a cero del total de casos, y se puede graficar
mediante una curva normal tal como aparece en el gráfico 1. En este gráfico se puede
visualizar fácilmente que el 91,8% de los experimentos obtuvo una diferencia de -3 hasta
+3.
Gráfico 1
2000
Frecuencias
91,8%
-7 -6 -5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5 +6
+7
Diferencias
Una vez hechos estos cálculos, ahora cabe hacerse una pregunta fundamental: ¿dentro de
qué intervalo de diferencias cabría admitir que las diferencias responden al simple azar?
¿Dentro del intervalo -1 y +1? ¿Dentro del intervalos -3 y +3? Por las dudas, se considerará
convencionalmente este último intervalo. Esto quiere decir, por ejemplo, que si en un
experimento se obtuvo una diferencia de 2, entonces se considerará que dicha diferencia se
debe al azar (pues 2 está entre -3 y +3), mientras que si en otro experimento se obtuvo una
diferencia de 6, entonces se considerará que dicha diferencia no se debe al azar (pues 6 está
fuera del intervalo entre -3 y +3), es decir, se considerará que la diferencia es
'estadísticamente significativa'.
Supóngase ahora el experimento original, donde un grupo era sometido al estímulo violento
y el otro no, es decir, donde los grupos son sometidos a diferentes condiciones
experimentales.
En uno de dichos experimentos se ha obtenido, por ejemplo, una diferencia de 2.5; por lo
tanto, deberá concluirse que esta diferencia no es 'estadísticamente significativa' porque está
comprendida dentro del 91,8% de los casos más próximos a cero (o sea, entre -3 y +3),
según la convención propuesta.
En cambio, si la diferencia encontrada en otro experimento de este tipo hubiese sido de 5,
este valor cae fuera del intervalo entre -3 y +3, y por lo tanto es 'estadísticamente
significativo' (ver gráfico 2). Desde ya, para decidir esto se ha considerado que el porcentaje
que permite discriminar lo que es significativo de lo que no lo es era 91,8%. Si se hubiese
elegido el 99%, una diferencia de 5 como resultado hubiese resultado estadísticamente no
significativa.
Señalan León y Montero: "el investigador [es quien] determina el porcentaje que sirve para
discriminar la significación de la no significación. Este tanto por ciento se denomina 'nivel de
confianza', y tiene sus valores más frecuentes entre 95% y 99%". Cuanto mayor es el
porcentaje elegido, más exigente deberá ser en cuanto a la tipificación de un resultado como
estadísticamente significativo.
En los informes de investigación, en vez de citarse el nivel de confianza, se suele citar su
complementario, que es el 'nivel de significación' o 'nivel de riesgo'. En el caso del ejemplo,
si el nivel de confianza era del 91,8%, el nivel de significación o de riesgo será lo que falta
para completar 100%, es decir, el 8,2% (ver gráfico 2). Más aún, inclusive, es frecuente
expresar este nivel de significación no en términos de porcentajes sino en términos de
probabilidad, con lo cual, en vez de afirmarse 8,2%, se afirmará 0.082.
Gráfico 2
Nivel de Nivel de Nivel de
significación confianza significación
(o de riesgo) 91,8% (o de riesgo)
4,1% 4,1%
z
-7 -6 -5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5 +6
+7
Resultados estadísticamente Resultados estadísticamente Resultados estadísticamente
significativos NO significativos significativos
Las expresiones 'confianza' y 'riesgo' resultan esclarecedoras para entender estos conceptos:
si un experimento cae dentro del nivel de confianza se puede decir con tranquilidad, con
'confianza', que los resultados no son estadísticamente significativos, pero si cae dentro del
nivel de riesgo, el investigador se estaría 'arriesgando' a sostener que los resultados son
estadísticamente significativos, es decir, a aceptar la hipótesis según la cual un choque
emocional efectivamente influye sobre los recuerdos.
León y Montero indican que encontrar diferencias estadísticamente significativas no es el
propósito final del investigador, ni lo más importante. Lo que el investigador persigue es en
realidad determinar la significación teórica, más que la significación estadística que le sirve
como medio, es decir, si resulta o no relevante para alguna finalidad. Así por ejemplo, si se
ha constatado que un tratamiento para adelgazar produce una pérdida de 2 Kg, esto puede
ser estadísticamente significativo, pero mientras que para un investigador nutricionista será
además también importante desde el punto de vista teórico, para un vendedor de esa dieta
no, porque 2 Kg. no le proporciona un buen argumento de venta.
Una última acotación. Podría ocurrir que algunos investigadores que hicieran el experimento
del choque emocional hubiesen obtenido diferencias extremas, como por ejemplo -7 o +7,
mientras que otros hubiesen obtenido diferencias más próximas a cero, con lo cual los
primeros hubiesen aceptado la hipótesis del choque emocional, mientras que los segundos la
hubiesen rechazado. Este desacuerdo entre investigaciones puede ocurrir, con lo cual deberá
emprenderse lo que se llama un 'meta-análisis', es decir, un procedimiento que permita
integrar los resultados acumulados de una serie de investigaciones.
NOTAS
(1) Las muestras no probabilísticas “solo suelen usarse como primera aproximación en trabajos piloto,
pero no puede saberse cuán confiables son sus resultados” (Kohan N, 1994:146).
(2) “Toda teoría de las muestras es una estadística „inferencial‟, pues se „infieren‟ a partir de los valores
estadísticos hallados en las muestras los valores paramétricos más probables para las poblaciones de las
cuales hemos extraído las muestras” (Kohan N, 1994:145).
(3) Cuanto mayor es el error estándar, mayor es el intervalo de confianza. El error estándar es mayor
cuando z es mayor, o sea, cuanto menor es el riesgo que se quiere correr; cuando n es menor (si se
quiere más precisión se necesitará una muestra más grande), y cuando S es mayor. En síntesis: cuanto
menor es el riesgo que se quiere correr, cuanto menor es el tamaño de la muestra y cuanto mayor es el
S (desvío estándar muestral), mayor será el intervalo de confianza.
(4) Este nivel de riesgo es también llamado nivel de significación (Rodríguez Feijóo N, 2003).
(5) "La teoría sobre las muestras... es útil [entre otras cosas] para poder determinar si las diferencias
observadas entre dos muestras son realmente debidas al azar o si son significativas, lo que puede llevar
a un proceso de toma de decisiones gracias a las pruebas de hipótesis y de significación que se pueden
hacer" (Kohan N, 1994:144).
(6) La prueba de hipótesis tiende a ser denominada en la actualidad teoría de la decisión (Kohan N,
1994:173). Con ello se quiere significar que la prueba de hipótesis se lleva a cabo sobre la base de una
teoría llamada teoría de la decisión.
(7) Un experimento clásico para probar la hipótesis del investigador es comparar dos muestras: el grupo
experimental y el grupo de control. Si hay diferencia significativa entre la muestra experimental y la
muestra de control, entonces NO hay diferencia significativa entre la muestra experimental y la
población.
(8) Puede llamar la atención que el investigador no pruebe directamente su hipótesis alternativa sino
que lo haga indirectamente, probando la hipótesis nula. ¿Por qué proceder para apoyar una teoría
mostrando que hay poca evidencia para apoyar la teoría contraria? ¿Por qué no apoyar directamente la
hipótesis alternativa o de investigación? La respuesta está en los problemas para evaluar las
posibilidades de decisiones incorrectas.
El argumento que en general puede encontrarse en los textos de estadística es el siguiente: Si la
hipótesis de investigación es verdadera (por ejemplo una vacuna cura el resfriado), la prueba de la
hipótesis nula (la contraria a la hipótesis de investigación) deberá conducir a su rechazo. En este caso, la
probabilidad de tomar una decisión incorrecta corresponde a cuyo valor fue especificado al determinar
la región de rechazo. Por lo tanto, si se rechaza la hipótesis nula (que es lo deseable) se conoce
inmediatamente la probabilidad de tomar una decisión incorrecta. Esto proporciona una medida de
confianza de la conclusión.
Supóngase que se utiliza el razonamiento opuesto, probando la hipótesis alternativa (de investigación)
de que la vacuna es efectiva. Si la hipótesis de investigación es verdadera, la estadística de prueba
probablemente caerá en la región de aceptación (en lugar de la de rechazo). Ahora, para encontrar la
probabilidad de una decisión incorrecta de debe evaluar , la probabilidad de aceptar la hipótesis nula
cuando esta es falsa. A pesar de que esto no representa un gran esfuerzo para el problema de la vacuna
contra el resfriado, es un trabajo adicional que se debe hacer y en algunos casos es muy difícil calcular
.
Así que, para resumir, es mucho más fácil seguir el camino de la “prueba por contradicción”. Por lo
tanto, el estadístico elegirá la hipótesis contraria a la de la investigación como hipótesis nula y su deseo
es que la prueba conduzca a su rechazo. Si es así, el estadístico conoce el valor de y tiene una medida
inmediata de la confianza que se puede depositar en esta conclusión.
(9) Autores como Hernández Sampieri et al (1996:91) nos ofrecen una interesante tipología de hipótesis
nulas que contemplan varias posibilidades. Concretamente, hacen referencia a: 1) hipótesis nulas
descriptivas de una variable que se va a observar en un contexto (por ejemplo “la expectativa de ingreso
mensual de los trabajadores de la corporación T no oscila entre 50.000 y 60.000 pesos colombianos”);
2) hipótesis que niegan o contradicen la correlación entre dos o más variables (por ejemplo “no hay
relación entre la autoestima y el temor de logro”); 3) hipótesis que niegan que haya diferencia entre
grupos (por ejemplo “no existen diferencias en el contenido de sexo en las telenovelas S, L y M”); y 4)
hipótesis que niegan la relación de causalidad entre dos o más variables (por ejemplo “la percepción de
la similitud en religión, valores y creencias no provoca mayor atracción física”).
A nuestro entender, una visión más completa de las hipótesis nulas debería considerar al menos cuatro
sentidos, que podemos designar respectivamente en términos de hipótesis nula de estimación, hipótesis
nula de correlación, de causalidad y de validez externa:
a) La hipótesis nula de estimación vendría a afirmar que los estadísticos muestrales no son
representativos de los parámetros poblacionales.
b) La hipótesis nula de correlación vendría a afirmar que no existe una correlación significativa entre dos
o más variables. El nivel de significación es en estos casos el que establece a priori el investigador
cuando califica ciertos intervalos del coeficiente de correlación como „alto‟, „medio‟, „bajo‟, etc.
c) La hipótesis nula de causalidad vendría a afirmar que los cambios en la variable dependiente Y no son
adjudicables a los cambios de la variable independiente X. Pagano, por ejemplo, refiere que la hipótesis
nula indica que la variable independiente no influye sobre la variable dependiente (Pagano, 1998:212).
Este segundo sentido de hipótesis nula es el más frecuentemente mencionado en los tratados sobre el
tema.
d) La hipótesis nula de validez externa vendría a indicar que las conclusiones obtenidas en la muestra no
son extensibles -con el nivel confianza requerido- a toda la población. Este tipo de hipótesis vendría
entonces a negar la validez externa de un experimento, entendiendo aquí validez externa como
requisitos de los diseños experimentales tal como por aparecen en gran parte de la bibliografía sobre el
tema (por ejemplo Campbell D y Stanley J, 1995:16). Autores como Tamayo parecerían considerar este
sentido de hipótesis nula cuando la incluyen dentro de las hipótesis estadísticas, definiendo éstas últimas
como suposiciones sobre una población que se realizan a partir de los datos observados, es decir, de una
muestra (Tamayo M, 1999:120).
La hipótesis nula de estimación corresponde a la primera tarea de la estadística inferencial: la estimación
de parámetros. Las hipótesis nulas de correlación y de causalidad corresponderían a la prueba de
hipótesis donde se busca establecer si „y‟ se debe a „x‟ y no al azar, y la hipótesis nula de validez externa
corresponderían a la prueba de hipótesis donde se busca generalizar los resultados a toda la población.
(10) Debe diferenciarse la hipótesis de investigación (H), la hipótesis alternativa (Ha) y la hipótesis nula
(Ho). La hipótesis de investigación resulta, según Vessereau (1962:28), de consideraciones teóricas o
bien está sugerida por los datos mismos. A los efectos de probar la hipótesis de investigación, deberá
dársele una „forma‟ estadística, con lo cual se convierte en la hipótesis alternativa (esta „forma‟
estadística significa que incluye por ejemplo alguna afirmación acerca de „si hay o no diferencias
significativas‟). A su vez para probar esta hipótesis alternativa deberá probarse la hipótesis nula, que no
es otra cosa que la negación de la hipótesis alternativa.
Más concretamente, “por lo general, la hipótesis de investigación predice una relación entre dos o más
variables (por ejemplo, que los niños que tienen mayor dominio del ojo izquierdo obtendrán puntajes de
rendimiento en lectura bastante inferiores a los de los otros alumnos). Para probar esta hipótesis de
manera estadística, el investigador debe transformarla en hipótesis alternativa y luego negarla mediante
la hipótesis nula. La hipótesis nula no siempre refleja las expectativas del investigador en relación con el
resultado del experimento. Por lo general, se opone a la hipótesis de investigación, pero se la utiliza
porque resulta más apropiada para la aplicación de los procedimientos estadísticos. La hipótesis nula
determina que no existe relación entre las variables consideradas (por ejemplo, en lo que respecta al
rendimiento en la lectura, no hay ninguna diferencia entre los niños que poseen mayor dominio del ojo
izquierdo y los demás). Por lo general, cuando se formula una hipótesis nula, se espera que sea
rechazada. Si esto último ocurre, se acepta la hipótesis de investigación” (Van Dalen: 189-190).
(11) Las pruebas de una cola y dos colas también se llaman pruebas de un extremo y dos extremos, o
también unilaterales y bilaterales, o también one tailed test o two tailed test.
(12) Dada una población de la cual se conoce su media aritmética, por ejemplo 70, su varianza, y su
tamaño N, por ejemplo 4, puede llevarse a cabo el siguiente procedimiento: a) primero se sacan todas
las muestras posibles del mismo tamaño. La cantidad de muestras posibles se puede calcular mediante
un número combinatorio, y así, por ejemplo, de una población de N = 4, se pueden obtener un total de
6 muestras de n = 2. b) A continuación se calculan las medias aritméticas de cada una de las muestras
posibles, con lo cual se obtiene una distribución muestral de medias aritméticas. Por ejemplo, las medias
aritméticas de las 6 muestras pueden ser: 50, 60, 70, 80 y 90. c) Seguidamente se calcula la media
aritmética de todas estas medias aritméticas, y se obtiene un valor de 70. Como puede apreciarse, esta
media de todas la medias muestrales coincide con la media poblacional.
La estadística ha demostrado que esta distribución de medias de todas las medias muestrales sigue el
modelo de la curva normal, y se ha establecido así el teorema central de límite, que dice que si se sacan
repetidamente muestras de tamaño n de una población normal de cierta media y cierta varianza, la
distribución de las medias muestrales será normal con una media igual a la media poblacional y con una
varianza igual a la varianza poblacional dividido n. Desde ya, la precisión de la aproximación mejora al
aumentar n.
De todo ello se desprende que si se selecciona una muestra cualquiera y ésta tiene una determinada
varianza (o sea, un determinado desvío estándar respecto de la media de las medias), se habrá
cometido un determinado error, llamado en este caso error estándar, por haber trabajado con una
muestra en lugar de haberlo hecho con la población. La fórmula del error estándar no es otra cosa que el
desvío estándar de la muestra en cuestión, lo que es igual al desvío estándar poblacional dividido por la
raíz cuadrada del tamaño n de la muestra (Rodríguez Feijóo, 2003) (Kohan N, 1994:150-153).
(13) Extraído de http://www.bibliopsiquis.com/psicologiacom/vol5num1/2815/. Otro ejemplo de prueba
de hipótesis de correlación puede encontrarse en Kohan (1994:234).
REFERENCIAS BIBLIOGRÁFICAS
ANEXOS
Símbolo Concepto
h Altura
CV Coeficiente de variación
CV% Coeficiente de variación porcentual
0
Q Cuartil de orden
Qt Cuartil t (ejemplo: Q3 = Cuartil 3)
0
D Decil de orden
Dt Decil t (ejemplo: D9 = Decil 9)
Dm Desviación media
S Desvío estándar muestral
Desvío estándar poblacional
f Frecuencia absoluta
F Frecuencia acumulada
Fant Frecuencia acumulada anterior
F% Frecuencia acumulada porcentual
Fpos Frecuencia acumulada posterior
Fr Frecuencia acumulada relativa
fant Frecuencia del intervalo anterior
fpos Frecuencia del intervalo posterior
f° Frecuencia expresada en grados
f% Frecuencia porcentual
fr Frecuencia relativa
As Indice de asimetría
Li Límite inferior del intervalo
Ls Límite superior del intervalo
xmay Mayor valor de la variable
X Media aritmética muestral de x
Y Media aritmética muestral de y
Media aritmética poblacional (esperanza)
Mn Mediana
0
Mn Mediana de orden
xmen Menor valor de la variable
Mo Modo
t Número de decil o del percentil
0
P Percentil de orden
Pt Percentil t (ejemplo P99 = Percentil 99)
p Probabilidad
Z Puntaje estandarizada derivado
z Puntaje estandarizado reducido
xm Punto medio del intervalo
R Rango o amplitud
DQ Rango o desvío intercuartílico
Sumatoria
n Tamaño de la muestra
N Tamaño de la población
a Tamaño o amplitud del intervalo
| Valor absoluto
xn Variable (cualquier valor de una…)
x1 Variable (determinado valor de una…)
x, y Variables (letras que designan…)
2
S Variancia muestral
Variancia poblacional
Ls Límite superior del intervalo de confianza
Li Límite inferior del intervalo de confianza
H Hipótesis de investigación
Ho Hipótesis nula
Ha Hipótesis alternativa
Probabilidad de cometer un error Tipo I
Probabilidad de cometer un error Tipo II
1- Probabilidad de NO cometer el error tipo I
1- Probabilidad de NO cometer el error tipo II
ze z empírico
zt z teórico o crítico
Alfabeto griego
Nombre Mayúscula Minúscula Nombre Mayúscula Minúscula Nombre Mayúscula Minúscula
alfa iota ro
beta kappa sigma
gamma lambda tau
delta mi ípsilon
épsilon ni fi
dseta xi ji
eta ómicron psi
zeta pi omega
Las siguientes tablas representan dos maneras diferentes de proporcionar una misma
información, a saber, la relación entre el puntaje reducido z con la probabilidad p de
ocurrencia del valor z. El valor de esta probabilidad es proporcional al área correspondiente
bajo la curva.
Por ejemplo, dado un valor z, las tablas permite conocer qué probabilidad tiene que darse
ese valor o más o ese valor o menos, en un individuo elegido al azar. Desde ya, a la inversa,
también permite conocer qué valor z corresponde a una determinada probabilidad. Los
valores z figuran en la primera columna, mientras que los diferentes valores de probabilidad
figuran en las columnas restantes.
Por ejemplo:
a) Siguiendo la Tabla 1, un puntaje reducido z = +1.26 o menor tiene una probabilidad de
ocurrencia de p = 0.8962 (el área bajo la curva normal corresponde al 89.62% de total del
área).
b) Siguiendo la Tabla 2, un puntaje reducido z situado entre z = 0 y z = +1.26 tiene una
probabilidad de ocurrencia de p = 0.3962 (el área bajo la curva normal corresponde al
39.62% del total del área).
Arriba de cada tabla puede observarse un esquema de la curva normal. Las áreas rayadas
indican las áreas que cada tabla permite calcular. Por ejemplo, la Tabla 1 permite calcular
áreas desde z hacia la izquierda, y la Tabla 2 calcula áreas entre z y el centro de la
distribución (z = 0).
Nótese que el título asignado a la Tabla 2 es “Áreas desde z = 0 hacia la izquierda o hacia la
derecha”. Esto significa que, debido a la perfecta simetría de la curva normal, una distancia
entre z = +1.26 y 0 da la misma probabilidad que la distancia z = -1.26 y 0.
z Probabilidad (p)
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0754
0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879
0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224
0.6 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.7 .2580 .2612 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852
0.8 .2881 .2910 .2939 .2967 .2996 .3023 .3051 .3078 .3106 .3133
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621
1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830
1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015
1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177
1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319
1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441
1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545
1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633
1.8 .4641 .4649 .4656 .4664 .4671 .4599 .4608 .4616 .4625 .4633
1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767
2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817
2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857
2.2 .4961 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890
2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916
2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936
2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952
2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964
2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974
2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981
2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.1 .4990 .4991 .4991 .4991 .4992 .4992 .4992 .4992 .4993 .4993
3.2 .4993 .4993 .4994 .4994 .4994 .4994 .4994 .4995 .4995 .4995
3.3 .4995 .4995 .4995 .4996 .4996 .4996 .4996 .4996 4996. .4997
3.4 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4998
ANEXO 3