Está en la página 1de 24

ESTADÍSTICA DESCRIPTIVA

BOTELLA
CAPÍTULO 1: Conceptos Generales
La estadística actual no sólo es un conjunto de técnicas para resumir y transmitir información cuantitativa, sino
que sirve también, y fundamentalmente para hacer inferencias, generalizaciones y extrapolaciones de un conjunto
relativamente pequeño de datos a un conjunto mayor. Clásicamente la estadística se ha dividido en dos partes, la
estadística descriptiva y la estadística inferencial. Para hacer un estudio inferencial primero hay que hacer un
estudio descriptivo de los datos. Es decir, un estudio descriptivo se agota en la descripción, mientras que uno
inferencial comienza por la descripción y luego aborda la inferencia. Mientras que la estadística descriptiva puede
abordarse sin conocimientos técnicos previos, aparte del álgebra elemental, para el estudio de la estadística
inferencial es imprescindible adquirir nociones básicas de probabilidad.
Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes de muestras, y de
la realización de inferencias acerca de las poblaciones de las que éstas proceden.

Otro conjunto de técnicas más sofisticadas y desconocidas de la estadística, y que se utilizan para extraer
conclusiones de poblaciones a partir de la observación de unos pocos casos, son las que integran la estadística
inferencial.
Distinción entre estadística teórica y estadística aplicada: la primera se dedica al estudio de los métodos
formalmente válidos para la realización de inferencias. La segunda se dedica a la aplicación de esos métodos y
modelos de actuación a campos reales.
Cualquier trabajo en el que se aplica la estadística se refiere a un conjunto de entidades, conocido con el nombre
de población.
Se llama población estadística al conjunto de todos los elementos que cumplen una o varias
características o propiedades
A los elementos que componen una población se les denomina entidades estadísticas o individuos. Dependiendo
del número de elementos que la compongan, la población puede ser finita o infinita. La mayor parte de las
poblaciones con las que solemos trabajar son finitas, pero tan numerosas que a la hora de hacer inferencias acerca
de ellas se pueden considerar infinitas a efectos prácticos. Cuando un investigador aborda un trabajo empírico debe
definir claramente la población sobre la cual se interesa.
La población ha de ser el marco o conjunto de referencia sobre el cual van a recaer las conclusiones e
interpretaciones, y éstas no pueden exceder ese marco. El hecho de que las poblaciones sean, por lo general, muy
numerosas, suele hacer inaccesible la descripción de sus propiedades. De ahí que se trabaje fundamentalmente con
muestras.
Una muestra es un subconjunto de los elementos de una población
La muestra nos va a ofrecer una serie de datos que podemos ordenar, simplificar y describir. Pero el objetivo
fundamental es el poder describir la población de partida mediante lo que podamos encontrar en la muestra. Y para
poder extraer esas conclusiones lo más importante es que las muestras de observaciones sean representativas.
Existe todo un campo de la estadística, llamado muestreo, dedicado a estudiar los procedimientos de extracción
de muestras encaminados a maximizar la representatividad de las mismas. Por ello un primer objetivo de la
estadística descriptiva consiste en conseguir resúmenes de los datos en índices compactos y de gran calidad
informativa.
Las poblaciones pueden caracterizarse a partir de unas constantes denominadas parámetros. Como normalmente
los parámetros son desconocidos, una de las tareas de la estadística es la de hacer conjeturas lo más acertada
posibles acerca de esas cantidades. Para ello se utilizan cantidades análogas obtenidas en las muestras, que se
denominan estadísticos.
Un parámetro es una propiedad descriptiva de una población
Un estadístico es una propiedad descriptiva de una muestra
Los parámetros y estadísticos no sólo son medias, sino que pueden ser otros tipos de cantidades, como
porcentajes. Desde un punto de vista simbólico, conviene indicar, para distinguirlos, que los parámetros se suelen
representar por letras griegas mientras que los estadísticos se suelen simbolizar por letras latinas. En la primera fase
de una investigación se obtienen los estadísticos, y en la segunda se utilizan los valores obtenidos para hacer
inferencias acerca de los parámetros.
Cuando estudiamos las entidades que conforman una población nos interesamos por algunas de las propiedades
de sus elementos, y esas propiedades adoptan distintas variedades.
Una característica es una propiedad o cualidad de un individuo.
Una modalidad es cada una de las maneras como se presenta una característica

 MEDICIÓN
La estadística no realiza sus funciones directamente sobre las modalidades observadas, sino que éstas se
representan por números, y la estadística realiza sus funciones sobre esos números.
Se llama medición al proceso de atribuir números a las características
La asignación de números a las características se hace siguiendo unas reglas; del estudio de los modelos mediante
los cuales conocemos las reglas para una correcta atribución de los números se ocupa la Teoría de la Medida.
El sistema numérico está formado por un conjunto de entidades (números) y unas relaciones entre ellos. Es decir,
que se trata de un sistema relacional numérico. El objetivo de la medición de una característica es conectar un
sistema relacional empírico y un sistema relacional numérico, de tal forma que las relaciones entre las entidades se
reflejen en las relaciones entre los números que los simbolizan. Sólo si se consigue este objetivo ocurrirá que de las
relaciones entre los números podrán hacerse inferencias válidas acerca de las relaciones entre las entidades. Por
ejemplo: las modalidades que adopta la variable estatura son tales que se podría decir que una determinada
modalidad es una estatura superior a otra determinada modalidad. Pues bien, los números que se atribuyan a esas
modalidades en el proceso de medición deben reflejar esa superioridad. Por el contrario, lo único que podemos decir
al comprar las modalidades de dos individuos en la variable sexo es si esas modalidades son la misma o no; no tiene
sentido decir que una de las modalidades supone tener más sexo que la otra.
La medición estudia las condiciones de construcción de representaciones numéricas, y los modelos desarrollados
para la medición se llaman escalas: nominales, ordinales, cuantitativas de intervalo y cuantitativas de razón.
Se utiliza una clase por cada una de las modalidades que adopta la característica que se está estudiando. Las
clases son mutuamente exclusivas y exhaustivas, es decir, cada observación es incluida en una y sólo una clase.
Transformación admisible: es un concepto ligado al concepto de escala y que de hecho las se caracteriza, que
hace referencia al problema de la unicidad de la medida. La cuestión de la unicidad puede plantearse de la siguiente
manera: ¿es la representación numérica que hemos construido la única posible? En general la respuesta será
negativa. Serán muchas las representaciones alternativas que serían correctas. De un conjunto de valores
correctamente atribuidos se puede pasar a otro también correctamente atribuido mediante una transformación
admisible. Se dice que una transformación de los números asignados en una escala es una transformación admisible
si preserva las características que definen a esa escala, es decir, si los números transformados también representan al
sistema empírico.
- ESCALA NOMINAL: supongamos que se tiene un conjunto de objetos cuya característica nos interesa para su
estudio. Ésta adopta un número k de modalidades distintas; representamos por m a la modalidad del objeto.
Asignamos números a los objetos en función de la modalidad que presentan en esa característica; representamos por
n al número asignado al objeto. Al tipo de medición que cumple estas condiciones se le llama escalamiento
cualitativo o nominal. Podrían también utilizarse otros símbolos, como letras, palabras, etc., puesto que los números
asignados no se van a utilizar como tales, sino como simples códigos de identificación. Por ejemplo: el sexo, los
diagnósticos psicopatológicos (neurosis, psicosis, psicopatías, etc.). La clave de estas escalas de medidas es que solo
informan de la igualdad o desigualdad de los individuos en una característica, pero no de posibles ordenaciones,
puesto que la característica a la que se refieren no se tiene en mayor o menor medida, sino que simplemente adopta
formas cualitativamente distintas.
En una escala nominal son admisibles todas las transformaciones que supongan aplicaciones inyectivas. El
conjunto de transformaciones admisibles determina el tipo de escala o grado de unicidad de la medida.
- ESCALAS ORDINALES: supongamos que contamos de nuevo con un conjunto de objetos que difieren en una
característica que cada uno posee en una cierta cantidad. De nuevo el proceso de medición debe consistir en la
aplicación de una regla de asignación de números a las diferentes cantidades, pero ahora de tal forma que los
números asignados a los objetos reflejen esos distintos grados en los que se presenta la característica. Los números
asignados nos permitirán extraer conclusiones acerca de las magnitudes. Sin embargo, a veces lo único que esos
números nos permiten inferir son relaciones del tipo "mayor que" o "menor que". Los objetos pueden ordenarse,
puede decirse cuál de esos objetos presenta una mayor o menor magnitud de esa característica. Ejemplo: un
individuo es más extravertido que otro, que un niño es más hiperactivo que otro, o que el aprendizaje es más rápido
con el método A que con el método B.
Al igual que en las escalas nominales, las ordinales tienen transformaciones admisibles, que lógicamente serán
todas aquellas que preserven las características de la escala ordinal. Se puede demostrar que esto ocurre con todas
aquellas transformaciones que cumplan con la condición de ser transformaciones crecientes.
La limitación de estas escalas es que aunque nos informa de que un objeto presenta la característica en cuestión
en una mayor magnitud que otro objeto, no nos dice en cuanto mas.
- ESCALA DE INTERVALO: supone una mejora sustancial con respecto a las escalas ordinales, es que se cuenta
con una unidad de medida, sin importar que tanto esta unidad de medida como el origen de la escala sean
arbitrarios.
La diferencia entre los números asignados a dos objetos es igual a la diferencia entre los números asignados a
otros dos, entonces también son iguales las diferencias en magnitudes entre estos dos pares. Y, por el contrario, una
mayor diferencia entre los números asignados implica una mayor diferencia entre las magnitudes representadas.
Ejemplo: la temperatura. Para construir la escala centígrada se enfría el agua hasta la temperatura de congelación,
y se pone un cero en la altura que alcanza la columna de mercurio. Después se calienta el agua hasta el punto de
ebullición, y donde se encuentre la altura de la columna de mercurio se marca cien., Posteriormente se divide el
espacio entre esas dos marcas en cien partes iguales, a las que se llama grados centígrados.
La condición para que una transformación de los números asignados en una escala de intervalos sea una
transformación admisible es que los números asignados deben ser transformaciones lineales de las magnitudes
reales, entonces son admisibles las transformaciones que sean también son lineales. Las transformaciones admisibles
para las escalas de intervalo no significan más que un cambio en la unidad de medida y en el origen asignado a la
escala, valores ambos arbitrarios en ese tipo de escalas.
La principal limitación de este tipo de escalas es que, aunque cuenta con una unidad de medida, no tiene un cero
absoluto. Es decir, el número cero no representa realmente la ausencia de esa característica. Un ejemplo de
transformación admisible es su traducción a grados Fahrenheit.
- ESCALA DE RAZÓN: cumple la función de preservar el significado del valor cero, de forma que siempre
represente la ausencia de esa característica. La consecuencia fundamental de la presencia de un origen absoluto, y
no arbitrario, es que a demás de poder extraer conclusiones acerca de la igualdad o desigualdad de diferencias,
también puede hablarse de desigualdad o igualdad de razones.
La única transformación admisible es la multiplicación por una constante positiva, puesto que solo estas
transformaciones preservan el cero, mientras que permiten un cambio en la unidad de medida.

Tipo Información Transformación Ejemplos


deducible Admisible
Nominal Relaciones “igual Aplicaciones Sexo, estado civil,
que” o “distinto que” inyectivas diagnóstico clínico
Ordinal Relaciones “mayor Funciones crecientes Dureza, nivel
que” o “igual que” socioeconómico, grado
de asertividad
Intervalo Igualdad o A + b · x (b > 0) Temperatura,
desigualdad de calendario, inteligencia
diferencias
Razón Igualdad o B · x (b > 0) Longitud, peso
desigualdad de razones

 VARIABLES
En el proceso de medición se asignan números a los objetos según unas reglas, y el conjunto de valores numéricos
atribuidos a las modalidades de una característica constituyen lo que llamamos variable estadística.
Una variable es una representación numérica de una característica
Los valores atribuidos a las correspondientes modalidades de una característica permiten diferenciar a los
objetos, que varían entre sí en esa característica. Por el contrario, hay veces que una característica tiene una única
modalidad, en ese caso todas las entidades estudiadas adoptarían el mismo valor numérico, y decimos que se trata
de una constante.
Las variables pueden clasificarse de varias formas: las variables cuantitativas (sean de intervalo o razón) pueden a
su vez clasificarse en variables discretas y variables continuas, en función del número de valores asumibles por ellas.
Una variable discreta es aquella que adopta valores aislados. Por tanto, fijados dos consecutivos, no puede tomar
ninguno intermedio. Ejemplo: hijos de las familias españolas, el número de piezas dentales que conservan los
internos de una residencia de ancianos, el numero de libros leídos pasado el verano, etc. En las variables continuas
entre dos valores cualesquiera, por próximos que sean, siempre pueden encontrarse valores intermedios. Ejemplo: la
longitud, la duración de los sucesos o el peso. Las variables estadísticas se simbolizan por letras mayúsculas latinas, y
generalmente con un subíndice, para distinguirlas de las constantes.
En la práctica las variables continuas no pueden representarse numéricamente como tales. Los instrumentos de
medida son imprecisos y solo permiten atribuir números discretos. Cuando decimos que un suceso ha durado 20
segundos lo que queremos decir es que el numero de segundos mas cercano a su duración es 20; es decir, que su
duración esta en el intervalo 20 +/- 0,5. El 20 se llama valor informado, mientras que los valores 19,5 y 20,5 se llaman
límites exactos de la medida, y se obtienen sumando y restando el valor informado la mitad de la unidad de medida
utilizada, que pueden ser unidades, decimas, centésimas, etc.

CAPÍTULO 2: organización y representación de datos


Luego de obtener un conjunto de valores tomados en una o varias variables hay que empezar por inspeccionar los
datos. Cuando la cantidad de números recolectados es demasiado grande, se hace difícil hacer una inspección directa
que sea realmente comprensiva. Por eso el primer paso suele consistir en reorganizar los datos. Un instrumento para
conseguir esa ordenación es la denominada distribución de frecuencias, y a partir de ella es frecuente también
construir representaciones gráficas.
 DISTRIBUCIÓN DE FRECUENCIAS
La distribución de frecuencias es un instrumento diseñado para cumplir tres funciones: a) proporcionar una
reorganización y ordenación racional de los datos recogidos, b) ofrecer la información necesaria para hacer
representaciones gráficas y c) facilitar los cálculos necesarios para obtener los estadísticos muestrales.
Representaremos por X a la variable con la que trabajamos, y que puede adoptar distintos valores (X1, X2, X3…) pero
cada uno de esos valores puede aparecer repetido más de una vez en los n elementos que componen la muestra.
Se llama frecuencia absoluta de un valor Xp y se simboliza por np al número de veces que se repite el
valor Xi en la muestra.
Se llama frecuencia relativa de un valor xp y se simboliza por pp al cociente entre la frecuencia absoluta
de ese valor y el tamaño de la muestra.
Se llama frecuencia absoluta acumulada de un valor xp y se simboliza por px al cociente entre su
frecuencia absoluta acumulada y el tamaño de la muestra.
A veces las frecuencias relativas, ya sean simples o acumuladas, se expresan en términos porcentuales. En esos
casos suelen representarse con mayúsculas; par obtenerlas basta con multiplicar por 100 las frecuencias relativas.
Construimos la distribución de frecuencias siguiendo los pasos descritos:
a) Se ponen los valores que toma la variable en la primera columna de abajo hacia arriba.
b) Para la columna de f. absolutas contamos el número de veces que se repite cada valor. La suma de ellos es
igual al tamaño de la muestra.
c) Para la columna de f. relativas dividimos cada f. absoluta por n. La suma de ellas debe dar 1.
d) Para obtener las f. absolutas acumuladas sumamos para cada valor su f. absoluta más la absoluta acumulada
del valor anterior. Su suma debe dar también n.
e) Para las f. relativas acumuladas dividimos cada f. absoluta acumulada por n. La frecuencia relativa de valor
mayor debe ser igual a 1.
En muestras en donde se tienen muchísimos valores que toma la variable, suele aplicarse lo que se denomina una
agrupación en intervalos, y que consiste en formar grupos de valores consecutivos, llamados intervalos, y poner uno
de estos grupos en cada fila, en lugar de poner cada valor individual por separado. A continuación se calculan las f.
absolutas conjuntas de los valores incluidos en el intervalo haciendo lo mismo después con las f. relativas, las
absolutas acumuladas y las relativas acumuladas. En las distribuciones de frecuencias con valores agrupados en
intervalos aparecen algunos elementos nuevos:

Se llama intervalo a cada uno de los grupos de valores que ocupan una fila en una distribución de
frecuencias.
Se llaman límites aparentes o informados de un intervalo a los valores mayor y menor que puede
adoptar la variable dentro de ese intervalo.
Se llaman límites exactos de un intervalo a los valores máximo y mínimo incluidos en el intervalo.
Se llama punto medio de un intervalo a la suma de sus límites exactos partido por dos.
Se llama amplitud de un intervalo a la diferencia entre su límite exacto superior y su límite exacto
inferior. Se representa por la letra I.
Hay tres reglas y algunas directrices para hacer una distribución: a) el intervalo superior debe incluir al mayor
valor observado, b) el intervalo inferior debe incluir al menor valor observado, c) cada intervalo debe incluir el mismo
número de valores. Pero al ser muchas las agrupaciones diferentes que se pueden realizar, para decidir entre ellas
hay que tener presentes algunas directrices basadas en dos guías principales: a) dado que el objetivo de una
distribución es conseguir una ordenación manejable que ayude a comprender el significado de los datos, no es
conveniente que el número de intervalos sea demasiado grande, b) el número apropiado de intervalos debe ser tal
que, simultáneamente, con ella se consiga una agrupación operativa y que cumpla los objetivos para los que ha sido
diseñada la distribución, pero sin distorsionar los valores con el error de agrupamiento.
 REPRESENTACIONES GRÁFICAS
A partir de las distribuciones de frecuencias se pueden construir representaciones gráficas. La función de éstas es
dar informaciones globales mediante un solo golpe de vista.
- Diagrama de rectángulos: para hacer un diagrama de rectángulos se colocan en el eje de abscisas las
modalidades (o los números que las representan), y en el eje de ordenadas las frecuencias (puede ser absolutas o
relativas simples o acumuladas). Sobre cada modalidad se levanta un rectángulo cuya altura es la frecuencia
correspondiente. La base de los rectángulos será arbitraria. Para variables nominales u ordinales.
- Perfil octogonal: se utiliza mucho en informes psicopedagógicos o de rendimiento.
- Pictograma: son representaciones en forma de círculos en los que éstos son divididos en secciones cuya
superficie es proporcional a la frecuencia de la modalidad correspondiente.
- Diagrama de barras: se utiliza en variables cuantitativas discretas. En el eje de abscisas se colocan los
distintos valores de la variable y en el eje de ordenadas las frecuencias. Sobre cada valor de la variable se traza una
línea o barra perpendicular cuya altura debe ser igual a la frecuencia.
- Histograma: se utiliza para variables cuantitativas continuas con datos agrupados en intervalos. En el eje de
abscisas se colocan los límites exactos de los intervalos, y en el eje de ordenadas las frecuencias. Sobre cada intervalo
se levanta un rectángulo cuya altura sea igual a la frecuencia correspondiente.
- Polígono de frecuencias: para variables discretas, el polígono es la figura que resulta de unir los extremos
superiores de las que hubieran sido las barras. Si se trata de una variable continua, podemos decir lo mismo pero
referido a los puntos medios de las bases superiores de los rectángulos correspondientes a un hipotético histograma
construido con esos mismos datos.
- Diagrama de barras acumuladas: se utiliza en variables discretas. En el eje de abscisas se colocan los valores
de la variable y en el de ordenadas las frecuencias acumuladas, ya sean absolutas o relativas. Sobre cada valor se
traza una perpendicular cuya longitud sea igual a la f. acumulada. Desde el extremo superior de cada una de estas
barras se traza una línea horizontal que se une con la barra situada a su derecha.
- Polígono de frecuencias acumuladas: se utiliza en variables continuas. El eje de abscisas se construye igual
que en los histogramas, pero en el de ordenadas se incluyen las f. acumuladas, ya sean absolutas o relativas. Sobre
cada límite se levanta una perpendicular cuya longitud sea idéntica a la f. acumulada y se une con los extremos
superiores de dichas perpendiculares.
- Otros dibujos: muchas veces se utilizan otras representaciones figuritas, en las que se incluyen los objetos
de los que se están haciendo recuentos de frecuencias, a algún símbolo que los identifique de forma muy expresiva.

VARIABLES Nominales diagrama de rectángulos

Cuantitativas discretas Diagrama de barras


Polígono de frecuencias
Diagrama de barras acumuladas

Cuantitativas continuas Histograma


Polígono de frecuencias
Perfil octogonal

 PROPIEDADES DE LAS DISTRIBUCIONES DE FRECUENCIAS


Los conjuntos de datos de variables cuantitativas obtenidos en muestras, tienen algunas características. Son
cuatro:
- Tendencia central: se refiere a la magnitud general de las observaciones hechas. Esta magnitud general
puede cuantificarse mediante unos índices conocidos como índices de tendencia central o promedios y que reciben
ese nombre porque pretenden ser síntesis de los valores de la variable.
- Variabilidad: esta propiedad se refiere al grado de concentración de las observaciones en torno al promedio.
Una distribución será homogénea o poco variable si los datos difieren poco entre si, y por tanto, se agolpan en trono
a su promedio. Será heterogénea o muy variable si los datos se dispersan mucho con respecto al promedio. Esta
propiedad es independiente de la anterior, es decir, dos grupos que tengan distinta variabilidad pueden tener
tendencias centrales muy distintas o similares.
- Asimetría o sesgo: esta propiedad se refiere, por tanto, al grado en que los datos tienden a concentrarse en
los valores centrales, en los valores inferiores al promedio, o en los valores superiores a éste. Existe simetría perfecta
cuando en caso de doblar la representación gráfica por una vertical trazada sobre la media, las dos mitades se
superponen perfectamente.
- Curtosis: se refiere al grado de apuntamiento de la distribución de frecuencias. Si es muy apuntada, se llama
leptocúrtica, y si es muy aplastada, se llama platicúrtica. Generalmente el grado de curtosis de una distribución se
compara con un modelo de distribución llamado distribución normal, y que respecto a la curtosis se llama
distribución mesocúrtica.
 DIAGRAMA DE TALLOS Y HOJAS
Las distribuciones de frecuencias no son el único medio para resumir y exponer conjuntos de datos; una
alternativa a ellas son los llamados diagramas de tallo y hojas. Su obtención requiere separar cada puntuación en dos
partes: el primer o primeros dígitos, que reciben el nombre de tallo y el dígito o dígitos restantes, que reciben el
nombre de hojas. (x=56, 5 (tallo) y 6 (hoja). Pasos:
a) Se identifican los valores máximo y mínimo observados.
b) Se toma una decisión acerca del número más apropiado de tallos distintos.
c) Se listan todos los tallos distintos en una columna, ordenados de forma creciente de arriba hacia abajo.
d) Se escribe cada hoja, junto al tallo que le corresponda, preferiblemente ordenados según su valor.
El diagrama de tallo y hojas tiene varias ventajas sobre la distribución e inconvenientes: una primera ventaja es
que permite identificar cada puntuación individual. En las distribuciones tradicionales sólo conocemos las frecuencias
del intervalo, y eso nos obliga a tratar los datos de ciertas maneras distorsionadas; no facilita, como la distribución
clásica, el cálculo de estadísticos; ofrece tanto un listado de las puntuaciones como un dibujo de la distribución; al
contener los valores de cada observación es más fácil de modificar para obtener un dibujo con un nivel de detalle
distinto; pueden representarse dos conjuntos de datos en el mismo diagrama, con lo que facilita la comparación.

CAPÍTULO 3: Medidas de posición


Para hacer estas valoraciones relativas se pueden utilizar las llamadas medidas de posición que son índices
diseñados especialmente para revelar la situación de una puntuación con respecto a un grupo, utilizando a éste
como marco de referencia. Un tipo concreto de medida de posición son las llamadas medidas de tendencia central y
también hay medidas de posición mas generales, que reciben el nombre de cuantiles
- Centiles o percentiles: son 99 valores de la variable que dividen a la distribución en 100 secciones, cada una
conteniendo a la centésima parte de las observaciones. “Se simboliza por C 28 a aquella puntuación que deja por
debajo de si al 28 por 100 de las observaciones y que es superada por el 72 por 100”.
Dado que los valores correspondientes a los centiles se determinan en función de los porcentajes de
observaciones, normalmente las distancias entre ellos, en términos de puntuación, no serán constantes.
Generalmente las distancias entre los centiles intermedios serán menores que las distancias entre centiles extremos.
Los centiles no suelen calcularse con cantidades de pequeños datos, y cuando es necesario hacerlo se obtienen
sencillamente ordenando las puntuaciones y calculando la proporción de éstas que superan al valor que se quiere
comparar. Normalmente los centiles se obtienen sobre datos agrupados en intervalos, y en su cálculo se asume el
supuesto de distribución homogénea intraintervalo.
El centil setenta es, por definición, aquella puntuación que deja por debajo de si al 70 por 100 de las
observaciones y es superada por el 30 por 100 de ellas. Como se trata de un grupo de 200 observaciones, el 70 por
100 son 140; por lo tanto, buscamos aquella puntuación que deja por debajo a 140 observaciones, y por encima a las
otras 60.
Las puntuaciones que dejan por debajo a esas cantidades de observaciones, son los límites exactos superiores de
los intervalos.
- Deciles: son nueve puntuaciones que dividen a la distribución en 10 partes, cada una conteniendo al 10 por
100 de las observaciones. Se representa por D k, donde k indica el número del decil al que se refiere. Así, el decil
cuarto, es la puntuación que deja por debajo de si al 40 por 100 de las observaciones y por encima de si al 60 por
100.
- Cuartiles: son tres puntuaciones que dividen a la distribución en cuatro partes, cada una conteniendo al 25
por 100 de las observaciones. Se representan por Q k donde k indica el número del cuartil al que se refiere
Existe una equivalencia directa entre los distintos cuantiles. Gracias a esta equivalencia, las fórmulas de cálculo de
los cuantiles se resumen en la de los centiles correspondientes al cuantil que se quiera.

CAPÍTULO 4: medidas de tendencia central


Las medidas de posición permiten comparar una puntuación con aquellos valores que ocupan ciertas posiciones
especiales en un grupo de referencia. De todas esas posiciones hay una, la que representa la posición central, que
suele suscitar un mayor interés que las demás, las medidas de tendencia central. Son índices que actúan como
resúmenes numéricos de las observaciones hechas. Representan la magnitud general observada en los valores.
También sirven para comparar conjuntos de valores. Dado que no se pueden comparar distribuciones completas, lo
que se comparan son ciertas características resumen de éstas.
MEDIA ARITMÉTICA El índice de tendencia central más utilizado. Se define como la suma de los valores
observados, dividida por el número de ellas. Por tanto, si recogemos n observaciones de la variable X, entonces la
media de los valores observados es: X=
El procedimiento para hacer los cálculos de la media con datos agrupados en una distribución de frecuencias:
Propiedades de la media aritmética:
A las puntuaciones que hemos venido tratando hasta aquí, y que no son más que los valores brutos, las
denominaremos a partir de ahora puntuaciones directas y las representaremos por la letra de la variable en
mayúscula. Por el contrario, a las diferencias de cada sujeto con respecto a la media grupal las denominaremos
puntuaciones diferenciales y las representaremos por la letra minúscula:
Con las puntuaciones diferenciales podemos dar una información más precisa que con las directas.
1. La suma de las diferencias de n puntuaciones con respecto a su media o puntuaciones diferenciales es igual
a cero. La razón por la que la suma de las diferenciales es igual a cero es que unas son positivas y otras negativas (las
que superan la media y las que quedan por debajo de ella) y se compensan con otras.
2. La suma de los cuadrados de las desviaciones de unas puntuaciones con respecto a su media es menor que
con respecto a cualquier otro valor. A veces nos interesará sumar a las puntuaciones observadas una cantidad
constante, y en esos casos también nos interesará conocer la media de las nuevas puntuaciones.
3. Si sumamos una constante a un conjunto de puntuaciones, la media aritmética quedará aumentada en esa
misma constante. Pero las puntuaciones no sólo pueden transformarse sumando constantes, también lo pueden
hacer multiplicando constantes.
4. Si multiplicamos por una constante a un conjunto de puntuaciones, la media aritmética quedará
multiplicada por esa misma constante. En algunos casos contamos con la media de varios grupos en una variable y
nos interesa conocer la media de todas las observaciones juntas. Su fórmula suele denominarse media ponderada.
5. La media total de un grupo de puntuaciones, cuando se conocen los tamaños y medias de varios subgrupos
hechos a partir de un grupo total, mutuamente exclusivo y exhaustivo, puede obtenerse ponderando las medias
parciales a partir de los tamaños de los subgrupos en que han sido calculadas. Otra situación relativamente
frecuente es aquella en la que se forma una variable a partir de una combinación lineal de dos o más variables, e
interesa conocer la media de la variable resultante.
6. Una variable definida como la combinación lineal de otras variables tiene como media la misma
combinación lineal de las medias de las variables intervinientes en su definición.
MEDIANA Es el índice, la puntuación que es superada por la mitad de las observaciones pero no por la otra
mitad. Para su cálculo podemos encontrarnos en dos casos generales, aquel en el que contamos con un número
impar de observaciones y aquel en que nos encontramos con un número par de ellas. En el primero se toma como
mediana el valor central, en el segundo se da la circunstancia de que cualquier valor comprendido entre los dos
centrales cumple con la definición de la mediana.
MODA Una tercera vía para representar la tendencia central de un conjunto de valores consiste en
informar del valor más frecuentemente observado. En esta idea se basa nuestro tercer índice de tendencia central, la
moda, que se representa por Mo, y se define sencillamente como el valor de la variable con mayor frecuencia
absoluta.
COMPARACIÓN: ¿Con qué criterios elegimos uno sobre los demás para representar la magnitud general
observada en unos valores o para comparar la de dos o más grupos de valores? Si no hay ningún argumento de peso
en contra, se preferirá siempre la media. Hay dos razones para apoyar esta norma general. La primera es que en ella
se basan otros estadísticos y la segunda es que es mejor estimador de su parámetro que la mediana y la moda. Este
segundo argumento significa que, en términos generales, las medias halladas sobre muestras representativas se
parecen más a la media poblacional que lo que se parecen las medianas y modas muéstrales a la mediana y la moda
poblacional. Hay al menos tres situaciones en las que se preferirá la mediana a la media: a) cuando la variable esté
medida en una escala ordinal; b) cuando haya valores extremos que distorsionen la interpretación de la media y c)
cuando haya intervalos abiertos. Este tercer y último caso se refiere a situaciones en las que el intervalo superior
carece de límite superior, el intervalo inferior carece de límite inferior, o ambas cosas a la vez.
La mediana será la segunda candidata para representar la tendencia central y por tanto, si no hay argumentos de
peso en contra, se preferirá la mediana a la moda. Pero hay al menos dos situaciones en las que se dará esa
preferencia: a) cuando se trate de una variable medida en una escala nominal, b) cuando haya intervalos abiertos y la
mediana pertenezca a uno de ellos.
En algunos casos los tres índices de tendencia central dan valores parecidos, o incluso pueden coincidir
exactamente.

CAPÍTULO 5: Medidas de variación


Para conseguir una visión completa y comprensiva de los datos hay que complementar las medidas de tendencia
central con las de otras propiedades de los mismos. Una de las propiedades más importantes de los conjuntos de
datos es el grado en que éstos se parecen o se diferencian entre sí. Esta propiedad se denomina variabilidad,
dispersión u homogeneidad, y es diferente de la tendencia central.
 VARIANZA Y DESVIACIÓN TÍPICA
Una idea que se ha demostrado útil a las hora de cuantificar la variabilidad es la de trabajar con las distancias
desde los valores hasta algún poste central, que podría ser la media aritmética. Sin embargo también vimos en el
tema anterior que la suma de las diferenciales es necesariamente igual a cero. Una solución al problema de que las
distancias con respecto a la media sumen cero consiste en elevar al cuadrado esas distancias antes de hallar su
promedio, dado que los cuadrados son siempre positivos. El índice basado en esta idea se llama varianza, y se
representa por la expresión S2x. Cuando se quiere describir el grado de variabilidad de un grupo de valores basta
con obtener este índice. La cuestión que puede surgir es la de cómo valorar el grado de dispersión cuantificando
mediante este índice. Dado que valores de varianzas que pueden ser normales en ciertas variables y poblaciones
podrían parecer exagerados en otros casos, no tiene sentido comparar varianzas halladas sobre variables distintas. La
varianza sirve sobre todo para comparar el grado de dispersión de dos o más conjuntos de valores en una misma
variable, llegando a conclusiones como la siguiente: “la población de hombres presenta una mayor variabilidad en su
estatura que la población de mujeres, que son más homogéneas en esa característica”. La razón de esta discrepancia
es que las distancias no se han tratado como tales, sino que para evitar el problema de que las diferenciales sumen
cero se han elevado éstas al cuadrado. Por ello es frecuente, con objeto de retomar las unidades originales de esas
distancias, se calcule la raíz cuadrada de la cantidad obtenida. Al índice así hallado se le llama desviación típica, se
representa por Sx y se define sencillamente como la raíz cuadrada de la varianza. Las variaciones entre los datos
están reflejando variaciones en las características que están estudiando, y que en psicología suelen ser indicadores
de variables psicológicas o mediciones del comportamiento. La variabilidad de los datos reflejando el hecho
incuestionable de las diferencias individuales. Uno de los objetivos de la psicología es precisamente la explicación
sistemática de esas diferencias, en tanto en cuanto presentan regularidades asociadas a segundas o terceras
variables.
No siempre son la varianza y la desviación típica los índices más apropiados para representar la variabilidad de un
grupo de datos. Hay veces en que algún dato extremo distorsionaría su interpretación, en otras ocasiones la variable
está medida en una escala ordinal y en otras no se puede calcular.
CÁLCULO: puede siempre hacerse por medio de la fórmula que la define, pero en muchas ocasiones resulta más
práctico utilizar otras fórmulas derivadas de aquélla, y en cualquier caso es necesario adaptar la fórmula a aquellas
situaciones en las que los valores están agrupados en intervalos.
- La varianza es también igual a la media de las puntuaciones directas elevadas al cuadrado menos el cuadrado
de la media. Esta fórmula resultará útil en ciertos casos.
PROPIEDADES: en primer lugar, hay que destacar que un conjunto de valores puede mostrar un mayor o menor
grado de homogeneidad, pero el grado más pequeño posible de homogeneidad se produce cuando todos los valores
son idénticos. En ese caso las desviaciones de los valores con respecto a su media son todas cero y en consecuencia
también es igual a cero la media de sus cuadrados, por tanto, ése es el mismo valor que puede adoptar la varianza.
Igualmente, como desviación típica se toma la raíz positiva de la varianza.
1. La varianza y la desviación típica, como medidas de la dispersión, son valores esencialmente positivos.
A veces interesa transformar las puntuaciones observadas sumando una constante y/o multiplicando por otra
constante, tal y como vimos al exponer las propiedades de la media. En esos casos no hará falta calcular la varianza
de las puntuaciones transformadas, sino que podrá deducirse conociendo la varianza de las puntuaciones originales.
2. Si sumamos una constante a un conjunto de puntuaciones, su varianza no se altera. Si la transformación
consiste en multiplicar por una constante, la varianza si se ve alterada. Conociendo la varianza de las puntuaciones
originales y la constante multiplicada se puede obtener fácilmente la varianza de las puntuaciones obtenidas
mediante la multiplicación de la constante.
3. Si multiplicamos por una constante a un conjunto de puntuaciones, la varianza quedará multiplicada por el
cuadrado de la constante, y la desviación típica por el valor absoluto de esa constante. En ciertas ocasiones
conocemos las varianzas de varios subgrupos y se quiere obtener la varianza del grupo total. Esto se puede conseguir
aplicando una propiedad que relaciona la varianza de todas las puntuaciones juntas con las varianzas, medias, y
tamaños de los subgrupos.
4. La varianza total de un grupo de puntuaciones, cuando se conocen los tamaños, las medias, las varianzas
de varios subgrupos hechos a partir del grupo total, mutuamente exclusivos y exhaustivos, puede obtenerse
sumando la media (ponderada) de las varianzas y la varianza (ponderada) de las medias.
OTRAS: Una forma muy sencilla el grado de dispersión consiste en calcular la distancia entre el mayor y el menor
de los valores observados. Este índice se llama amplitud total, rango o recorrido y se obtiene sencillamente hallando
la diferencia entre los valores extremos. Distinción entre ambos tipos de amplitud, que se denominan rango
excluyente y rango incluyente, usadas en variables discretas y continuas. Esto es muy sensible a los valores extremos
y nada sensibles a los intermedios, pudiendo carecer de toda representatividad. Otro inconveniente de este índice es
que está ligado al tamaño de la muestra utilizada. Si se quiere comprara la variabilidad de las dispersión de dos
conjuntos de datos de tamaño marcadamente distinto, es probable que la muestra de mayor tamaño presente una
mayor amplitud aunque las poblaciones de referencia tengan la misma variabilidad.
• Desviación media: tomar las desviaciones con respecto a la media, o puntuaciones diferenciales, en valores
absolutos.
• Amplitud semi-intercuartil: basad en las puntuaciones correspondientes a los cuartiles primero y tercero.
• Coeficiente de variación: a veces se desea comparar la variabilidad de grupos cuya media es distinta. Este
índice es expresado como un porcentaje. Este índice puede construirse como un índice de la representatividad de la
media. Cuanto mayor es el coeficiente de variación, menos representativa es la media.

CAPÍTULO 6: Puntuaciones típicas y escalas derivadas.


Comparar las magnitudes mediante la comparación de los valores asociales a ellas. Otras soluciones, que se basan
en la transformación de las puntuaciones observadas en otras que, sin perder o distorsionar la información contenida
en las puntuaciones originales, permitan una comparación directa de las mismas.
 PUNTUACIÓN TÍPICA
Un sujeto obtuvo una puntuación 43 al medir sobre él la variable X, y queremos hacer una valoración de este
dato, hay una dificultad de carecer de referencias apropiadas para hacer esa valoración. Una forma es calcular lo
que definimos como puntuación diferencial, que es la distancia o diferencia entre esa puntuación y la media del
grupo de puntuaciones. Las puntuaciones diferenciales nos indican si la puntuación es superior o inferior a la
media o si coincide con ella. Sin embargo estas son informaciones insuficientes para comparar puntuaciones de
sujetos pertenecientes a distintos grupos o a distintas variables. Una solución consiste en no medir las distancias a
la media en términos absolutos, sino con relación a la variabilidad del grupo de referencia. Se trataría de indicar
como de grande es una distancia en términos de las distancias observadas en general en esas puntuaciones. Se la
denominan como puntuaciones típicas, se representa por letra z. Al proceso de obtención de las puntuaciones
típicas se llama tipificación. La formula de z es: zi =Xi - X/ Sx
La puntuación típica de una observación indica el número de desviaciones típicas que esa observación se
separa de la media del grupo de observaciones
Las puntuaciones típicas permiten, por tanto, hacer comparaciones entre unidades de distintos grupos, entre
variables medidas de distintas formas, o incluso entre variables diferentes. En cualquier caso, las puntuaciones típicas
siempre nos indicarán el número de desviaciones típicas (de las de ese grupo y variable) que se separan de la media
(de ese grupo y variable) y si esa desviación es por encima o por debajo de la media (según el signo de la puntuación
típica).
Las características de las puntuaciones típicas son universales, no dependen del tipo de puntuaciones ni de su
dispersión, ni de su número.
La media de las puntuaciones típicas es cero, mientras que su varianza y desviación típica son iguales a
uno
Las puntuaciones típicas reflejan las relaciones esenciales entre las puntuaciones, con independencia de la unidad
de medida que se haya utilizado en la medición. Cuando en dos conjuntos de puntuaciones, emparejadas con algún
criterio, a los elementos de cada para les corresponde la misma puntuación típica dentro de su conjunto, puede
decirse que mantienen la misma estructura interna, y se dice entonces que son puntuaciones equivalentes.
 ESCALAS DERIVADAS
Inconvenientes que surgen de las desviaciones típicas. En concreto y dado que la media de las típicas es cero y su
desviación típica uno, buena parte de las puntuaciones suelen ser negativas, y casi todas decimales. Esto hace que
resulte incómodo su tratamiento y que muchas veces se busquen procedimientos que permitan superar esta
dificultad. Un procedimiento consiste en transformar las puntuaciones típicas en otras que retengan todas las
relaciones que manifiestan las puntuaciones originales, por tanto que sean puntuaciones equivalentes, pero evitando
la dificultad operativa, y que constituyen lo que se denomina una escala derivada. Estas transformaciones se basan
en una propiedad de las puntuaciones típicas.

Si transformamos linealmente las puntaciones típicas, multiplicándolas por una constante a, y sumando
una constante b, entonces las puntuaciones transformadas tendrán como media la constante sumada b,
como desviación típica el valor de la constante multiplicada, |a| y como varianza el cuadrado de esta
constante, a2.

En resumen la construcción de una escala derivada parte de unas puntuaciones directas, éstas se tipifican, y
después se transforman linealmente en otras puntuaciones.
La cuestión fundamental de las escalas derivadas consiste en transformar las puntuaciones originales, X i, en otras
puntuaciones transformadas, Ti, tales que sean más cómodas de tratar e interpretar, pero que a la vez retengan las
relaciones comerciales entre los valores, es decir, que sean puntuaciones equivalentes.

CAPÍTULO 7: Medidas de asimetría y Curtosis


Hay otras dos características con las que se pueden describir y comparar las distribuciones de frecuencias.
 ÍNDICES DE ASIMETRÍA
El grado de asimetría de una distribución hace referencia al grado en que los datos se reparten equilibradamente
por encima y por debajo de la tendencia central. Se han propuesto diferentes índices con los que cuantificar esta
propiedad.
- Relación entre la media y la moda: se define como la distancia entre la media y la moda, medida en
desviaciones típicas, es decir: la media es inferior a la moda, y por tanto este índice dará un valor negativo; la media
es superior y el índice dará positivo; coinciden los dos índices de tendencia central y por tanto el índice de asimetría
dará cero. Las distribuciones como las primeras tienen asimetría negativa y el índice da valores menores que cero;
las del segundo tipo asimetría positiva, y este índice da valores mayores que cero. En las últimas se dice que son
distribuciones simétricas, puesto que no están inclinadas hacia ningún lado; este índice da en ellas valores en torno a
cero y si la simetría es perfecta entonces da exactamente cero. Sólo se puede calcular en distribuciones unimodales.
- Índice de asimetría de Pearson: es igual al promedio de las puntuaciones típicas elevadas al cubo. Los
valores menores que cero indican asimetría negativa, los mayores que cero asimetría positiva y los valores en torno a
cero indican distribuciones aproximadamente simétricas. Es el índice más utilizado.
- Índice de asimetría intercuartílico: se basa, en los cuartiles. La interpretación es similar a la de los índices
anteriores. Los valores mayores de cero indican asimetría positiva, los menores indican asimetría negativa y los
valores en torno a cero reflejan distribuciones simétricas. Tienen una ventaja sobre los índices anteriores, y es que
tiene un valor máximo y mínimo con lo que se facilita su interpretación en términos relativos.
 ÍNDICES DE CURTOSIS
Se basa en el promedio de las típicas elevadas a la cuarta potencia.
Una distribución en la que el índice sea igual a cero tienen un grado de Curtosis similar al de la distribución
normal, y se dice que es mesocúrtica, mientras que si es positivo su grado de apuntamiento es mayor que el de la
distribución normal, y se dice que es una distribución leptocúrtica y si es negativo su apuntamiento es menor que el
de la distribución normal y se dice que es platicúrtica.
La Curtosis se calcula obteniendo primero la media y la desviación típica, después tipificando, luego elevando las
típicas a la cuarta potencia, y después sustituyendo en la formula. Si los datos están agrupados en intervalos la única
diferencia es que lo que se tipifica son los puntos medios de intervalos, y cada típica elevada a la cuarta potencia se
multiplica por el numero de observaciones que comparten ese valor (n)

CAPÍTULO 8: Correlación lineal


Uno de los objetivos principales de la ciencia consiste en descubrir las relaciones entre variables, y la estadística
ha desarrollado instrumentos apropiados para esta tarea. Así, por ejemplo, en el campo de la Psicología podemos
preguntarnos si el rendimiento laboral de un tipo de puesto de trabajo guarda relación con la personalidad del
trabajador, si el fracaso escolar es más probable en niños con determinadas circunstancias personales y familiares,
etc. La observación de relaciones claras y estables entre las variables ayuda a comprender los fenómenos y a
encontrar explicaciones de los mismos, e indica las vías probablemente más eficaces para intervenir sobre las
situaciones.
El estudio e las ciencias sociales, incluida la psicología, nunca se encuentran relaciones deterministas, sino más
bien conjuntos de observaciones que manifiestan una configuración concreta.
 REPRESENTACIÓN GRAFICA DE UNA RELACIÓN
Supongamos que registramos dos variables en un grupo de estudiantes: al comienzo del curso medimos su nivel
de inteligencia mediante un test apropiado, y al final del curso evaluamos su rendimiento mediante la nota obtenida.
Es habitual que el resultado de la inspección de estos dos conjuntos de puntuaciones sea la constatación de que, en
general, los estudiantes con inteligencia alta tienden mejores calificaciones que los estudiantes con inteligencia baja.
Esta relación no es mecánica. Existen factores externos que pueden ejercer su influencia sobre estudiantes con
cualquier nivel de exigencia pero estos casos especiales suelen ser minoría. En la mayoría de los casos si podrá
apreciarse esa tendencia general en la relación entre las variables: valores altos en inteligencia tienen a emparejarse
con valores altos en rendimiento, y valores bajos en la primera tienden a emparejarse con valores bajos en la
segunda.
Se dice que dos variables X e Y mantienen una relación lineal directa cuando los valores altos en Y
tienden a emparejarse con valores altos en X, los valores intermedios en Y tienden a emparejarse con
valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores bajos de X.

Supongamos que ahora hay otra prueba que consiste en tachar las letras R. Al inspeccionar los resultados es
posible que aparezca un fenómeno llamado balance entre velocidad y precisión, y que se manifiesta en que los
sujetos que acaban antes suelen cometer más errores. En este caso también hay una cierta relación entre las
variables. En concreto, los valores bajos en la variable "tiempo invertido" tienden a estar emparejados con valores
altos en la variable "números de errores", y viceversa.
Se dice que dos variables X e Y mantienen una relación lineal inversa cuando los valores altos en Y
tienden a emparejarse con valores bajos en X, los valores intermedios en Y tienden a emparejarse con
valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores altos en X.
Supongamos que en un grupo de estudiantes medimos también la estatura, y escribimos los valores obtenidos
por cada sujeto emparejado con sus puntuaciones en inteligencia. Salvo coincidencias inesperadas, la inspección de
esos pares de valores probablemente nos indicada que no existe relación entre las variables. No podríamos decir que
haya relación directa o inversa entre las variables.
Se dice que hay relación lineal nula entre dos variables cuando no hay un emparejamiento sistemático
entre ellas en función de sus valores.

Al hacer una representación gráfica conjunta de dos variables pueden apreciarse visualmente estos tres tipos de
relación. Para ello se identifican los pares de valores y se señalan los correspondientes puntos en unos ejes de
coordenadas. Estas nubes de puntos reciben el nombre de diagramas de dispersión.
Un caso en que la relación lineal fuera determinista seria aquel en el que la representación grafica los puntos
formaran una línea recta perfecta.
 CUANTIFICACIÓN
Un primer procedimiento consistiría en hallar el promedio de los productos cruzados de las puntuaciones
diferenciales. Al hablar de productos cruzados nos referimos al producto, para cada sujeto o caso, de sus valores en
las dos variables, es decir Xi · Y. Estos productos pueden obtenerse con puntuaciones directas, diferenciales o típicas.
Cada figura está separa en cuatro cuadrantes, y los puntos estarán en uno u otro dependiendo de que la observación
supere o no la media de X y/o la media de Y. En concreto, si supera ambas medias, el punto aparecerá en el
cuadrante superior derecho (NE), si supera la media de X pero no la de Y, como el par aparecerá en el cuadrante
inferior derecho (SE); si supera la de Y pero no la de X, aparecerá el cuadrante superior izquierdo (NO); sino supera
ninguna de las medias, aparecerá en el cuadrante inferior izquierdo (SO). Al tratar con puntuaciones diferenciales,
éstas serán positivas si superan la media y negativas en caso contrario. Por tanto, aquellas observaciones que
aparezcan en los cuadrantes NE o SO tendrán productos cruzados positivos, mientras que las que aparezcan en los
cuadrantes NO o SE tendrán productos cruzados negativos. El promedio de productos cruzados de diferenciales
tenderá a dar positivo si la relación es directa, negativo si es inversa, y en torno a cero si es nula, y a demás su valor
absoluto será mayor cuanto más acusada sea la tendencia a la linealidad en el diagrama de dispersión.
 PROPIEDADES DEL COEFICIENTE DE CORRELACION DE PEARSON
La razón principal por la que la covarianza no llegaba a satisfacer completamente la necesidad de un índice de la
asociación lineal era la dificultad de su valoración, dado que carecía de un máximo y un mínimo estables. Puesto que
hemos destacado su alternativa principal, el coeficiente de correlación de Pearson, precisamente porque no tiene esa
dificultad…

El coeficiente de correlación de Pearson no puede valer más de +1 ni menos de -1

Si hacemos transformaciones lineales de una o las dos variables, en las que las constantes
multiplicadoras son positivas, la correlación de Pearson no se altera.

 VALORACIÓN E INTERPRETACIÓN
En la interpretación de una correlación de Pearson hay que separar dos aspectos distintos: su cuantía y su sentido.
La cuantía se refiere al grado en el que la relación entre dos variables queda bien descrita con un índice de asociación
lineal como r, mientras que el sentido se refiere al tipo de relación. Una correlación en torno a cero indica una
relación lineal baja o nula; una correlación positiva indica una relación lineal directa, mientras que una correlación
negativa indica una relación lineal inversa. Cuanto más cercano quede un coeficiente del valor cero, menos apto es el
modelo lineal como descripción de la relación entre las variables. Por el contrario, cuanto más se acerque a los
extremos, mejor describe esa relación.

-1 -0,5 0 0,5 1

Relaciones inversas relaciones directas

Sin embargo, la valoración de r no debe hacerse con base en su valor simple. De hacerlo así se cae en la tentación
de establecer conclusiones del tipo de que una correlación de 0,60 indica que hay un 60 por 100 de asociación lineal,
o que una correlación de 0,80 indica el doble de asociación lineal que una correlación que una correlación de 0,40. La
valoración de un coeficiente de correlación debe hacerse con base en el cuadrado de su valor r2. Como
consecuencia, el grado de asociación lineal rxy = 0,80 y ruv = 0,40 no es el doble en la primera que en la segunda, sino
del cuádruple (r2xy/r2uv =0,64/0,16= 4)
Hay, además, otros factores que alteran las expectativas sobre el valor de r, como son la variabilidad, la mediación
de terceras variables, etc. También hay una especificidad en los campos de estudios concretos. Por ejemplo, para
estudiar la estabilidad de la puntuaciones que ofrece un test se suele aplicar el test dos veces en un breve intervalo
de tiempo (es típico hacerlo en el plazo de una semana), y se halla la correlación entre las puntuaciones obtenidas en
las dos administraciones de la prueba. Así se obtiene la fiabilidad del test. En cada área de estudio se va a desarrollar
un conocimiento que permite valorar los coeficientes de correlación en términos relativos. Los coeficientes de
correlación deben valorarse comparando unos con otros o comparándolos con los valores que típicamente se suelen
encontrar en el campo de estudio especifico del que se trate.
La obtención de una correlación igual (o cercana) a cero puede llevar a pensar que no hay relación entre las
variables sin ser cierto. La correlación de Pearson mide el grado de adecuación de unos datos a un modelo lineal,
pero entre las variables puede existir otro tipo de relación. Un ejemplo prototípico de esto es la relación entre
activación y rendimiento, por ejemplo: con estados altos de ansiedad se reduce el rendimiento en los exámenes. Es
decir el rendimiento máximo se obtiene con niveles medios de activación, mientras que con niveles demasiados
bajos o demasiados altos el rendimiento disminuye.
Lo que se desprende de todo esto es que no conviene analizar la relación entre dos variables exclusivamente
mediante el cálculo coeficiente de correlación, sino que conviene representar gráficamente el diagrama de dispersión
para observar esa relación. Una representación grafica puede ser mucho más informativa que un simple valor de r.
Tampoco hay que interpretar los coeficientes de correlación en términos de relaciones causales entre las
variables.

REUCHLIN

CAPÍTULO 1: carácter variable de las conductas


 LAS FUENTES DE VARIACION Y ANALSIS ESTADISTICO
Las variaciones que son imprevisibles porque no están asociadas a ninguna fuente de variación sistemática. No se
ha introducido ninguna diferencia sistemática entre dos presencias de la misma bombilla roja o entre el examen de
un niño de 9 años y el examen de otro niño de 9 años. Las variaciones imprevisibles se atribuyen así a un conjunto de
fuentes fortuitas de variación para el experimentador o encuestador.
Las variaciones que son previsibles porque están asociadas a fuentes sistemáticas de variación. Si el
experimentador compara 20 tiempos de reacción frente a un estimulo único (bombilla roja) con 20 tiempos de
reacción frente a un estimulo que debe escogerse entre tres estímulos posibles (bombillas roja, verde, amarilla), es
porque prevé que el proceso mental, más complejo en la segunda experiencia, agrandara de manera significativa los
tiempos de reacción. Si el encuestador compara 100 niños de 9 años con otros 100 niños de 10 años es porque prevé
que este cambio sistemático en la edad constituirá la fuente de una variación significativa de los resultados en el test.
Si las variaciones así previstas no son mayores que las variaciones imprevisibles, el psicólogo comprobará que no
se verifica su hipótesis sobre el efecto de las fuentes sistemáticas de variación que había creído introducir en la
experiencia o en la encuesta. La comparación entre la amplitud de las variaciones previsibles y la amplitud de las
variaciones imprevisibles permite interpretar los resultados de la experiencia o de la encuesta e identificar, a la vez,
algunas fuentes sistemáticas de variación.
Las variaciones de las conductas son previsibles cuando se conoce la situación, el momento o la persona. Por otra
parte, estas variaciones de las conductas son imprevisibles a partir de las informaciones de las que dispone el
observador. El psicólogo utiliza a menudo el método estadístico precisamente porque este método permite tratar con
más eficacia las observaciones que presentan a la vez variaciones previsibles y variaciones imprevisibles.
 PONDERACIÓN DE UNA FUENTE SISTEMÁTICA DE VARIACIÓN
Cuando el experimentador o el encuestador hace la hipótesis de que varias fuentes sistemáticas de variación
producen efectos sobre sus observaciones, comienza en general por verificar si cada una de ellas tiene efectivamente
un efecto no nulo y significativo. Por ejemplo: verificara en primer lugar si la dispersión de las notas en el test es
efectivamente mayor (teniendo en cuenta las variaciones fortuitas) en un grupo de niños de edades diferentes que
en un grupo de niños de la misma edad; en un grupo de niños de medios diferentes que en un grupo de niños del
mismo medio.
El experimentador podrá intentar averiguar cuáles son las fuentes de variación más importantes, es decir, las que
contribuyen más a las variaciones de las observaciones.
 PONDERACIÓN DE LAS FUENTES FORTUITAS DE VARIACIÓN
Debe evaluar el peso que toman en sus observaciones las fuentes fortuitas de variación. Si este peso es grande,
con relación al de las fuentes sistemáticas de variación, será difícil poner en evidencia estas últimas, reconocer su
significado. Por ejemplo: en la encuesta sobre desarrollo intelectual, si la variación observada entre niños de 9 años o
entre niños de 10 años fue muy grande con respecto a la variación observada entre 9 años y 10 años. Una de las
razones de peso que tomarían aquí las variaciones fortuitas podría buscarse en una escasez de "fidelidad" del test.
Puede deducirse que un test es fiel, si, aplicado dos veces al mismo niño, proporcionaría dos resultados poco
diferentes. Pero podría haber otras razones (efectos del medio, etc.), para las cuales un análisis apropiado podría
distinguirse e identificar los efectos, pero que si no se hace este análisis suelen interpretarse como fuentes fortuitas.

CAPÍTULO 2: Resúmenes estadísticos en el nivel de las escalas nominales


- El empleo de la estadística en psicología: distinguir dentro de las observaciones las variaciones fortuitas de
las variaciones sistemáticas. Para asumir esta función del método estadístico procede a hacer resúmenes de series de
observaciones. ¿Por qué tiene necesidad el psicólogo de efectuar resúmenes estadísticos de este tipo? Para poder
razonar sobre conjuntos de observaciones: pueden compararse dos medias o dos gráficos. El resumen de una serie
de observaciones puede hacerse de manera que se ponga en evidencia un aspecto particular de la información
contenida en estas observaciones y llegar así a poseer un instrumento de análisis de esta información. Hay que
examinar algunos métodos que permiten describir una serie de observaciones en forma resumida y que pueden
tener significaciones diferentes. La elección de uno u otro de estos métodos dependerá del problema que se plantee
el psicólogo.
- Niveles de medida: se distinguen tres niveles de medida, estando definido cada nivel por las propiedades del
conjunto de los valores que pueden obtener mediante las operaciones de medida. Hay una jerarquía entre estos tres
niveles: en cada uno de ellos los números gozan de todas las propiedades del nivel inferior y de otras propiedades. El
nivel mas bajo (el mas débil) se llama escalas nominales
- Construcción de la escala nominal: para construir una escala nominal basta que el psicólogo sea capaz de
repartir sus observaciones en un cierto número de clases, el conjunto de las cuales constituye la escala, y que deben
poseer las dos propiedades siguientes: cada observación debe entrar en una clase y solamente en una. El que dos
observaciones entren o no en la misma clase de equivalencia no se sigue de un criterio estadístico, sino de un criterio
empírico, es decir, relativo a los propios hechos.
Se producen dificultades, ya que hay que definir el conjunto de clases de manera tal que toda observación entre
dentro de una clase, luego hay que conseguir que cada observación no pueda entrar más que en una única clase. Se
necesitará adoptar una definición precisa de cada clase y verificar que los criterios así propuestos los comprenden de
la misma manera utilizadores diferentes. También deberá decidir en función de sus posibilidades y de sus problemas
propios el número de clases de la escala, es decir, la finura de la partición. Una partición mas fina exigirá una cantidad
de información mayor, criterios más precisos y las posibilidades del observador no son ilimitadas en este aspecto.
- Propiedades de los números en una escala nominal: una vez realizada esta partición de una serie de
observaciones se van a poder utilizar números para describir y resumir esta serie. Pero cada uno de estos números
designará aquí una clase de observaciones. Estas operaciones sólo permiten decir que una observación que
pertenece a una clase es diferente de una observación que pertenece a otra clase; no permiten decir que la primera
es mayor o menor que la segunda. El número de observaciones que pertenecen a una clase es el efectivo de esta
clase. Después de aplicar una escala nominal a una serie de observaciones se puede hacer una tabla numérica que
proporcione, para cada clase, su afectivo. Esta tabla presenta la distribución de los afectivos. Se les puede comparara
y, en particular, averiguar la clase para la cual el efectivo es el mayor (es la clase modal o también la moda) Para
conocer la importancia relativa de una clase en la serie de observaciones se puede dividir el efectivo de esta clase por
el número total de observaciones. Se obtendrá así una frecuencia. El interés de las frecuencias o porcentajes es
permitir comparaciones entre distribuciones correspondientes a series de observaci0nes desigualmente numerosas.
- Resúmenes estadísticos: la distribución es una tabla menos voluminosa en general que la serie de
observaciones. El resumen que proporciona pone en evidencia un aspecto de la información contenida en las
observaciones: la equivalencia de algunas observaciones y el número de observaciones equivalentes de cada
categoría. En lugar de estar representada por una tabla de números, la distribución puede representarse
gráficamente por un histograma.
La moda es la clase que tiene mayor efectivo, se puede considerar que resume o representa "de la mejor manera"
la distribución. Si, en una encuesta, se manifiestan varias opiniones, se podrá resumir el resultado diciendo "la
opinión de la mayoría es...". Pero se ve que este resumen implica la pérdida de una parte de la información aportada
por la distribución y esa perdida será muy importante si se expresan varias opiniones con frecuencias poco
diferentes.
- Entropía: la moda no resumen más que un aspecto de la información en la distribución: indica a qué clase
hay más posibilidad de que pertenezca la observación sacada al azar del conjunto de las observaciones. Pero no
permite saber si las posibilidades de pertenecer a otra clase son muy diferentes o solamente poco diferentes, dicho
de otro modo, si las observaciones son muy diferentes o poco diferentes, si su distribución está muy dispersada o
poco dispersada. Se admitirá que la dispersión podrá ser tanto mayor cuanto mayor sea el número de clases. Para un
número fijo de clases, será mayor si las observaciones se reparten igualmente sobre todas las clases en vez de
concentrarse solamente sobre algunas clases. Se puede explicitar y cuantificar esta noción definiendo y calculando la
entropía de la distribución.
Es una medida de variación para variables cualitativas. Mide el "grado de desorden de un sistema". Por tanto a
entropía se puede pensar como la cantidad media de información, pues es la esperanza de la cantidad de
información.

GLOSARIO DE CONCEPTOS

ELEMENTOS O UNIDADES: son las entidades acerca de las que se reúnen datos. Por ejemplo: 1) si se evalúa la
memoria de los aspirantes a un puesto de mozo en el restaurante X, las unidades son cada uno de los aspirantes. 2) si
a un comerciante le interesa el volumen de ventas semanal de su comercio durante el último año, las unidades son
cada una de las semanas de ese año.
POBLACIÓN DE INDIVIDUOS: es el conjunto de todos los elementos sobre los cuales se observa una o más
características de interés. Se alude a ella como población objetivo, en razón de que sobre ella recae el objetivo o el
interés del estudio. Ejemplos: 1) el conjunto de aspirantes al empleo del restaurante X. 2) el conjunto de semanas a lo
largo del ultimo año.
MUESTRA DE INDIVIDUOS: es un subconjunto o parte de una población de individuos. Ejemplos: 1) los cinco
primeros aspirantes entrevistados. 3) las semanas 1, 6, 12, 19,27, etc. del último año.
Notas: cuando hablamos de unidades como de la población objetivo o de individuos o de la muestra de
individuos, estas entidades deben ser situadas en el espacio (situación geográfica) y en el tiempo (año o fecha).
Como generalmente las muestras se extraen con fines inferenciales; esto es, para tener conocimiento de lo que
acontece a nivel poblacional, es de desear que sean representativas de las respectivas poblaciones. Para favorecer la
representatividad de las muestras, la llamada Teoría de Muestreo ha desarrollado diversidad de métodos. Uno de
ellos es la elección al azar de las unidades muestrales.
VARIABLES O CARACTERÍSTICA: es una característica de un fenómeno observable en los individuos de una
población. Es una variable propiamente dicha cuando presenta diferentes modalidades (dos o más) entre los
individuos. Si se presenta bajo una única modalidad se dice que es una característica constante. Ejemplos: 1)
memoria de los aspirantes al empleo. 2) volumen de ventas respectivamente.
VARIABLE ESTADÍSTICA: es una representación, a través de números u otros símbolos, de una variable. Esta
representación se obtiene mediante algún procedimiento de medición. Ejemplos: 1) cantidad de palabras recordadas
de una lista de 12. 2) total de $ de los productos vendidos en una semana.
Las variables estadísticas se clasifican de acuerdo con el tipo de valores que pueden tomar en:
- Variable cualitativa: es aquella cuyos valores expresan atributos. Ejemplo: tipo de trastorno que presentan
los pacientes de un servicio de salud mental (de ansiedad, de atención, de sueño, etc.)
- Variable cuasi-cuantitativa: es aquella cuyos valores indican un orden de jerarquía. Ejemplo. Nivel de
deserción escolar (bajo, medio, alto)
- Variable cuantitativa: es aquella cuyos valores expresan cantidades numéricas. Dentro de las variables
cuantitativas se diferencian las llamadas discretas de las continuas. Se consideran discretas aquellas cuyos valores
son puntos aislados, esto es, cuando todo valor tiene un consecutivo. Se dice que dos valores son consecutivos
cuando no puede existir un valor de la variable entre ellos. Ejemplo: cantidad de palabras recordadas. Se consideran
continuas a las variables que, al menos teóricamente pueden tomar cualquier valor dentro de un intervalo numérico.
Ejemplo: tiempo de reacción ante un estimulo.
CONSTRUCTO Y OPERACIONALIZACIÓN: la mayoría de las características psicológicas son de naturaleza compleja,
resultado de varias variables que interactúan. Cuando se alude a estas variables es necesario explicitar que se
entiende por ellas, o que aspectos se están considerando y qué relaciones se verifican entre ellas. De allí surge una
construcción teórica, hipotética que toma el nombre de constructo. Ejemplos: inteligencia, la memoria, la ansiedad,
la actitud solidaria, etc. Estos constructos o variables complejas no son directamente observables como son; por
ejemplo, la estatura o el estado civil de una persona, y esto es lo que dificulta el proceso de medición, para poder
obtener valores de estas variables a través de la medición es necesario hacer un “recorte adecuado” del constructo;
es decir, considerar un solo aspecto del mismo y explicitar cuáles son las manifestaciones observables que dan
cuenta de él. Por ejemplo, una manifestación observable de la memoria es la cantidad de palabras recordadas,
aunque la sola recordación de palabras no agota la riqueza del constructo memoria. En estos casos se recurre a una
definición operacional (operacionalización) del constructo permite asignar sin ambigüedad un valor a la variable a
través del proceso de medición. En el ejemplo, la definición operacional del constructo memoria es la cantidad de
palabras recordadas. A las variables que no son directamente observables también se las denomina rasgos latentes.
Así, por ejemplo, la obsesividad de un estudiante es un rasgo latente que se puede manifestarse a través de la
cantidad de veces que pregunta lo mismo hasta sentirse satisfecho.
¿CONTINUO O DISCRETO?: el hecho de que una variable estadística sea discreta o continua determina el tipo de
tratamiento estadístico que se le dará. Sin embargo muchas veces es decisión del investigador si la tratará de un
modo y otro dependiendo de la naturaleza de la variable estadística y de su correspondiente variable latente . Por
ejemplo: la cantidad de palabras recordadas de una lista es claramente una variable discreta. Pero esta variable
representa a la variable latente memoria, la cual tiene sentido que sea concebida en una continuo; esto es, entre dos
niveles de memoria es razonable pensar que podrían existir infinitos valores posibles. De modo que se puede
considerar que en realidad está ante una discretización de un continuo debida al instrumento de medición; del
mismo modo que la hora registrada con un reloj digital es una discretización del tiempo que se desea medir. Bajo
esta perspectiva el investigador puede dar a la cantidad de palabras recordadas un tratamiento de variable continua y
considerar, por ejemplo, que el valor 10 (diez palabras recordadas) bien puede representar todo un continuo de
niveles de memoria entre 9,5 y 10,5 que podría observar si dispusiera de un instrumento de medición más sensible
que la sola cantidad de palabras recordadas. Es importante considerar que para que una variable discreta pueda ser
tratada adecuadamente como continua, es conveniente que tome una gran cantidad de valores diferentes.
POBLACIÓN DE OBSERVACIONES: es el conjunto de todos los valores que pueden tomar una variable estadística
sobre la población de individuos. Nótese que sobre una misma población de individuos se pueden definir muchas
poblaciones de observaciones, tantas como variables de interés.
MUESTRA DE OBSERVACIONES: es el conjunto de de valores que toma una variable estadística sobre una muestra
de individuos; es decir, es un subconjunto de la población de observaciones.
ESTADÍSTICA DESCRIPTIVA: es la parte de la Estadística que proporciona métodos para organizar, representar,
resumir y analizar la información contenida en un conjunto de datos muestrales o poblaciones.
ESTADÍSTICA INFERENCIAL: es la parte de la Estadística que proporciona métodos para extraer conclusiones sobre
las poblaciones a partir de sus muestras controlando el margen de error que se pueden cometer en esa extrapolación
de lo muestral a lo poblacional. Los métodos de inferencia estadística se agrupan fundamentalmente en dos clases:
estimación de parámetros y contraste de hipótesis.
POBLACIONES REALES O HIPOTÉTICAS, FINITAS O INFINITAS: una muestra de observaciones siempre es real
porque consiste de datos efectivamente recolectados; pero la correspondiente población de observaciones puede ser
real o hipotética. Por otra parte, una población de observaciones puede ser finita, esto es con una cantidad grande o
pequeña pero limitada de elementos. Pero una población puede ser infinita. La importancia de reconocer con que
tipo de población se está trabajando radica en la pertinencia de los métodos estadísticos que se utilizan para recoger
los datos, analizarlos y sacar conclusiones.
PARÁMETRO: es una característica fija, generalmente numérica, de la población de valores de una variable . Por
ejemplo: si la variable es el tiempo de reacción de sujetos entrenados ante un estimulo, un parámetro es el tiempo
promedio de reacción de todos los individuos de la población de interés si estos fueran entrenados. Otro parámetro
podría ser el tiempo mínimo de reacción que surgiría de comparar los tiempos de todos los sujetos de la población y
que, por tanto, también es único; lo mismo puede decirse del tiempo máximo. Si la variable es actitud de los
consumidores hacia un nuevo producto, un parámetro puede ser el porcentaje de consumidores de toda la población
objetivo que tiene actitud positiva.
ESTADÍSTICO: es una característica muestral y como tal, es una variable porque sus valores dependen de la
muestra que salga seleccionada. Cada valor del estadístico se obtiene como función de las observaciones de una
muestra. Por ejemplo, tiempo promedio de reacción de 10 individuos que fueron entrenados. Porcentaje de
consumidores entre 100 encuestados que manifestaron tener una actitud positiva frente al producto.
ESTIMADOR: es un estadístico cuyos valores se consideran próximos a un parámetro que, por ser generalmente
desconocido, se desea estimar.
FRECUENCIA ABSOLUTA: es la cantidad de veces que cada valor de la variable aparece en un conjunto de datos.
La suma de todas las frecuencias absolutas coincide con la totalidad de los datos.

ESTADÍSTICA INFERENCIAL

BOTELLA
CAPÍTULO 11
El azar tiene que ver con aquellos eventos cuyo resultado no podemos predecir con certeza, y a los que nosotros
llamaremos experimentos aleatorios. Lo que depende del azar, y por tanto, da sentido al término aleatorio en este
contexto, es el procedimiento de extracción de un individuo y sólo uno, de los que componen la población. Todo
experimento aleatorio tiene dos o más resultados posibles, que nosotros llamaremos sucesos elementales. En un
experimento que tuviera solo un resultado posible no habría incertidumbre y por tanto, no podríamos hablar de
experimento aleatorio. La realización de un experimento aleatorio da lugar a un suceso elemental, y sólo uno, de
entre los posibles. Al conjunto de los resultados posibles de un experimento aleatorio, o sucesos elementales, se le
llama espacio muestral y se representa por E. Se llama verificación de un suceso elemental al hecho de que la
realización del experimento aleatorio produzca ese suceso elemental. Sobre los espacios muestrales, como conjuntos
que son, se pueden definir subconjuntos, que denominaremos sucesos y los representaremos por letras mayúsculas.
Aunque para definir un suceso basta con definir un subconjunto cualquiera de E, normalmente los sucesos con los
que trabajaremos se constituirían con los sucesos elementales que cumplen alguna condición, y no de forma
arbitraria. Un suceso se verificará cuando el experimento aleatorio de lugar a uno de los sucesos elementales que
integran el subconjunto que lo define. En algunas ocasiones se definen sucesos a partir de subconjuntos vacíos. Este
tipo de sucesos reciben el nombre de suceso imposible. En otras ocasiones definen sucesos cuyo subconjunto
constituyente está formado por todos los elementos del espacio muestral. Este tipo de sucesos reciben el nombre de
suceso seguro. Vamos a definir operaciones sobre sucesos que utilizaremos a partir de aquí:
a) Llamaremos unión de dos sucesos al subconjunto E formado por sucesos elementales que integran los
subconjuntos de al menos uno de esos sucesos.
b) Llamaremos intersección de dos sucesos al subconjunto de E formado por los sucesos elementales que
pertenecen simultáneamente a ambos sucesos. Cuando la intersección de dos sucesos es un subconjunto vacío se
dice que son sucesos incompatibles o exclusivos.
c) Llamaremos diferencia de dos sucesos al subconjunto E integrado por los sucesos elementales que
pertenecen al primero, pero no al segundo.
d) Llamaremos complementario de un suceso al subconjunto de E integrado por los sucesos elementales no
incluidos en ese suceso.
En términos generales representaremos por n al número de sucesos elementales que integran el espacio
muestral, y por na al número de sucesos elementales que constituyen el suceso A.

Un experimento aleatorio es toda acción cuyo resultado no se puede predecir con certeza.
Cada uno de los resultados posibles de un experimento aleatorio se llama suceso elemental y su
conjunto constituye el espacio muestral del experimento aleatorio.
La verificación de un suceso elemental es la observación de ese suceso elemental al realizar el
experimento aleatorio.
Un suceso es cualquier subconjunto de los elementos de un espacio muestral.
Dos sucesos son incompatibles o exclusivos si no tienen elementos comunes y por tanto, no pueden
verificarse simultáneamente.
El complementario de un suceso es el subconjunto de sucesos elementales del espacio muestral que no
participan en ese suceso.
La intersección de dos sucesos es el subconjunto de elementos del espacio muestral que,
simultáneamente están incluidos en los subconjuntos de ambos sucesos.
La unión de dos sucesos es el subconjunto de elementos del espacio muestran que están incluidos, al
menos, en uno de esos sucesos.

Tipos de espacio muestral: los espacios muestrales se clasifican en espacios muestrales finitos e infinitos y a su
vez estos últimos se subdividen en numerables y no numerables.
a) Espacios muestrales finitos: un espacio muestral es finito si tiene un número de sucesos elementales finito.
b) Espacios muestrales infinitos numerables. Tiene infinitos sucesos elementales pero estos pueden ponerse
en correspondencia biunívoca con los números naturales.
c) Espacios muestrales infinitos no numerables. Tiene infinitos sucesos elementales pero éstos no pueden
ponerse en correspondencia biunívoca con los números naturales.
 PROBABILIDAD
El concepto de probabilidad hace referencia a como los eventos puntuales que tienen resultados inciertos, al
estudiar su repetición un número grande veces, comienzan a tener resultados globalmente previsibles, y a mostrarse
sujetos a ciertas leyes. La probabilidad es un concepto ideal, pues se refiere a las frecuencias con las que ocurrirían
las cosas en el caso hipotético de que los eventos se repitiesen un número infinitamente grande de veces y en las
mismas condiciones. La confianza puesta en cada uno de los elementos posibles en la próxima realización del evento
debe ser proporcional al número de repeticiones que cada una de esas alternativas se darían en el futuro. La
asignación de números a esos grados de confianza depositados en la obtención de cada resultado es la clave del
concepto de probabilidad:
La probabilidad de un suceso es un número que cuantifica en términos relativos las opciones
de verificación de ese suceso.
Un suceso sin opción alguna tendría una probabilidad igual a 0, y un suceso con todas las opciones tendrían una
probabilidad igual a 1. Cualquier suceso con un número de opciones intermedio entre esos dos tendrá como
probabilidad asociada un número intermedio cuya magnitud represente cuantitativamente esas opciones. No
obstante a veces se utilizan porcentajes para indicar probabilidad, que es lo mismo, pero estrictamente hablando
esos valores no son probabilidades, sino porcentajes de posibilidades que expresan cuantas de cada cien veces se
espera que ocurra el suceso.
 ENFOQUE CLÁSICO
La aplicación del enfoque clásico o a priori exige la aceptación del llamado principio de indiferencia, según el cual
todos los elementos del espacio muestral tienen las mismas opciones de ser verificados al realizar un experimento
aleatorio. Desde el enfoque clásico que exige asumir el principio de indiferencia se define la probabilidad de un
suceso como la frecuencia relativa de ese suceso en el espacio muestral. Desde este enfoque la probabilidad de un
suceso es igual al cociente entre el número de casos favorables y posibles. Los procedimientos habitualmente
utilizados para determinar estas cantidades reciben los nombres de técnicas de contar o combinatoria. De la forma
de definir la probabilidad de este enfoque se deducen:
a) La probabilidad de un suceso es un valor que oscila entre 0 y 1.
b) Un suceso que no contiene ningún suceso elemental tiene una probabilidad igual a 0, y por ello recibe el
nombre de suceso imposible.
c) Un suceso que contiene todos los sucesos elementales del espacio muestral tiene una probabilidad igual a 1
y por ello recibe el nombre de suceso seguro.
d) La suma de las probabilidades de un suceso y su complementario es igual a 1.
 ENFOQUE FRECUENCIALISTA
La probabilidad se determinaría mediante una operación ideal de repetición sistemática del experimento
aleatorio y de cómo del número de veces que se verifican los sucesos. Las opciones de verificación de un suceso se
manifestarían en el número de veces que se repite este al realizar una y otra vez el experimento aleatorio.
Representa proporcionalmente a su probabilidad, el número de veces que se realiza el experimento debe ser
infinitamente grande. Por tanto, desde el enfoque frecuencialista la probabilidad de un suceso A se define como el
límite de la frecuencia relativa de apariciones de ese suceso cuando el número de repeticiones del experimento
aleatorio tiende a infinito.
La diferencia fundamental entre este enfoque y el anterior es que mientras en el primero n era el tamaño del
espacio muestral, en este representa el número de repeticiones del experimento aleatorio. De esta definición se
deducen las mismas consecuencias y propiedades que exponíamos en conexión con el enfoque clásico.

CAPÍTULO 13: Modelos de distribución de probabilidad


 DISTRIBUCIÓN BINOMIAL
Para que la distribución de probabilidad de una variable se ajuste al modelo binomial deben cumplirse una serie
de requisitos. El primero es que se base en una variable dicotómica. Esta variable dicotómica no es todavía la variable
nominal, pero su presencia es imprescindible para la generación de ésta. Una variable dicotómica es una variable que
solo admite dos valores, y que habitualmente son los valores 1 y 0. Estas variables de base pueden ser autenticas
variables dicotómicas o variables dicotomizadas artificialmente. Las variables que están en la base de una variable
binomial pueden definirse como aquellas que adoptan la regla de asignar un 1 si se cumple una cierta condición y un
0 si no se cumple.
El segundo requisito es que haya una repetición de n ensayos de la variable dicotómica en los que la probabilidad
de que cada repetición se verifique la condición, y por tanto se asigne un 1, sea constante. A la probabilidad de
verificación de la condición en cada ensayo independiente la representaremos por µ. El tercer y último requisito es
que se defina una variable X, como el “número de casos que en la secuencia de n ensayos dicotómicos verifican la
condición especificada, o lo que es lo mismo, el número de unos observados.
Si:
A. definimos una variable dicotómica a partir del cumplimiento o incumplimiento de una condición.
B. realizamos una secuencia de n observaciones de esos ensayos dicotómicos en los que la
probabilidad de verificación de la condición en cada repetición, es constante.
C. definimos una variable aleatoria X, como el número de casos de esa secuencia en los que se cumple
la condición.
Entonces la variable X se ajusta a un modelo binomial con parámetros n y µ y se representa por:
B(X; n,µ)
De la forma de generar una variable aleatoria binomial se deducen algunas de sus características:
a) Los valores de una variable binomial oscilan entre 0 y n, donde n es el número de ensayos dicotómicos
realizados. Es decir, el numero más pequeño posible de casos en los que se verifica la condición es ninguno y el
máximo de todos.
b) Si representamos el resultado de cada ensayo dicotómico con ceros y unos, el valor que adopta la variable X
no es más que la suma de esa secuencia de unos y ceros.
c) El valor esperado de una variable binomial se obtiene a partir de las propiedades de la suma de variables
aleatorias y de la definición del valor esperado. Dado que una binomial es la suma de una secuencia de n valores, y
cada uno de ellos puede considerarse una variable aleatoria dicotómica, su valor esperado será igual a la suma de los
valores esperados de cada una de ellas.
 MODELOS PARA VARIABLES CONTINUAS
La mayor parte de las técnicas inferenciales que se utilizan para la investigación en psicología tienen distribuciones
de probabilidad que se ajustan a las de los modelos teóricos para variables continuas. La curva normal, a demás de
ser un instrumento para la inferencia estadística, es el modelo al que se ajustan muchas variables de interés en
psicología.
 DISTRIBUCIÓN NORMAL
La importancia de la curva normal estriba no sólo en su utilidad para el análisis estadístico, sino que en muchas
variables de interés para los psicólogos. La estatura, el peso, la agudeza visual, la fuerza son variables que se ajustan a
este modelo. Ya dentro de la psicología, variables como el cociente intelectual, la extraversión son variables con
distribución normal. En la mayor parte de las variables existe un valor central (la media) en torno a la cual se
concentran la mayor parte de los individuos, y a medida que nos vamos fijando en valores más alejados de la media
observamos que éstos son menos frecuentes. Esta reducción gradual en la frecuencia no es lineal, sino que es mayor
al principio y menor después (pasa de convexa a cóncava al alejarse de la media).
Una variable aleatoria se distribuye según el modelo normal, con parámetros µ y o. Las variables cuya
distribución se ajusta al modelo normal adoptan una representación gráfica en la que se pueden apreciar algunas de
las propiedades que vamos a enumerar:
a) Es simétrica con respecto a un valor central (µ) y en ese valor central coinciden la media, la mediana o la
moda.
b) Es asintótica con respecto al eje de abscisas, es decir, por mucho que se extienda, nunca llega a tocar los ejes,
y sólo en ±∞ la altura de la curva llegaría a ser igual a 0, se propuso el nombre de distribución normal unitaria.
c) Hay toda una familia de curvas normales, dependiendo de los valores de µ y o. De entre ellas, la más
importante es aquella que tienen media 0 y de desviación típica 1.
d) Los puntos de inflexión se encuentran en los puntos correspondientes a la media más/menos una desviación
típica (µ ± o)
e) Cualquier combinación lineal de variables aleatorias normales se ajusta también al modelo normal.
La mayor parte del trabajo práctico con variables aleatorias normales consiste en hallar probabilidades asociadas
a valores. Esto significaría integrar la función de densidad entre los valores de interés. Para evitar tener que resolver
este tipo de operaciones se han construido tablas apropiadas con las áreas ya halladas y cuyo eso se basa en el
teorema de tipificación. Según este teorema, la función de distribución asociada a un valor de una variable aleatoria,
X, con distribución normal, es la misma que la función de distribución de la tipificada de ese valor en la normal
unitaria. Para obtener las áreas asociadas a un valor de cualquier otra distribución normal basta con tipificar ese valor
y acudir con la z obtenida en la tabla correspondiente.
Según el teorema de tipificación para variables normales, la función de distribución asociada a un valor
de la variable normal, X, es igual a la de la tipificada de ese valor en la distribución normal unitaria. Es
decir:
Si a) X N (µ, o)
b) formamos la variable Zi = (Xi - µ)/o

Entonces F(Xi) = F(Zi)


donde Z N (0,1)
Para referirnos a un valor concreto de la distribución normal unitaria utilizaremos la letra Z y a su derecha el
subíndice correspondiente a la probabilidad acumulada para ese valor. Así: Z0,67= 0,44
El trabajo con variables aleatorias normales, al igual que con otras variables continuas, se reduce a la obtención
de las probabilidades de obtener un valor menor o igual que uno concreto, la de obtener un valor mayor o igual que
uno concreto, o la de obtener un valor comprendido entre dos valores concretos.

PARDO Y SAN MARTIN

ANÁLISIS DE DATOS EN PSICOLOGÍA –CONTRASTE DE HIPÓTESIS


El objetivo último del análisis de datos es el de extraer conclusiones de tipo general a partir de unos pocos datos
particulares. Es decir, el de extraer conclusiones sobre las propiedades de una población a partir de la información
contenida en una muestra procedente de esa población. Este salto de lo concreto (la muestra) a lo general (la
población) se conoce con el nombre de inferencia estadística. Dos formas básicas de inferencia estadística: la
estimación de parámetros y el contraste de hipótesis. La estimación de parámetros es el proceso consistente en
asignar a las propiedades desconocidas de una población las propiedades conocidas de una muestra extraída de esa
población. El contraste de hipótesis es un proceso mediante el cual se trata de comprobar si una afirmación sobre
alguna propiedad poblacional puede ser sostenida a la luz de la información muestral disponible. Puede ser
entendido como un método de toma de decisiones, es un procedimiento que nos permite decidir si una proposición
acerca de una población puede ser mantenida o debe ser rechazada.
Surgido el problema, el paso siguiente en aventurar algún tipo de solución al mismo. Esta solución provisional
suele tomar forma de afirmación directamente verificable (es decir, empíricamente contrastable) en la que se
establece de forma operativa el comportamiento de la variable o las variables involucradas en el problema. Esa
afirmación verificable recibe el nombre de hipótesis científica.
 LÓGICA DEL CONTRASTE DE HIPOTESIS
El primer paso del proceso de verificación de una hipótesis consiste en formular estadísticamente la hipótesis
científica que se desea contrastar, es decir, en transformar la hipótesis científica en hipótesis estadística. Esto supone
que una hipótesis científica puede ser formulada en términos de la forma de una o varias distribuciones
poblacionales, o en términos del valor de uno o más parámetros de esa o esas distribuciones. Formulada la hipótesis
estadística, el segundo paso del proceso de verificación consiste en buscar evidencia empírica relevante capaz de
informar sobre si la hipótesis establecida es o no sostenible. Una hipótesis será compatible con los datos empíricos
cuando a partir de ella sea posible deducir o predecir un resultado muestral con cierta precisión.
Supongamos que nuestra hipótesis consiste en afirmar que los varones y las mujeres no difieren en inteligencia.
En términos estadísticos µy =µm. Si nuestra hipótesis es correcta, debemos esperar que, al extraer una muestra
aleatoria de la población de varones y otra de las mujeres, las medias observadas X y y Xm sean similares. Una
discrepancia importante entre la afirmación propuesta en nuestra hipótesis y el resultado muestral encontrado
puede estar indicando dos cosas diferentes: buen nuestra hipótesis es correcta y la discrepancia observada es
producto de fluctuaciones esperables por azar; bien nuestra hipótesis es incorrecta, y por lo tanto, incapaz de
proporcionarnos predicciones acertadas. La cuestión clave que se nos plantea ese momento es la de determinar
cuando la discrepancia encontrada es lo bastante grande como para poder considerar que el resultado muestral
observado es incompatible con la hipótesis formulada y, en consecuencia, para hacernos pensar que esa discrepancia
encontrada no es explicable por fluctuaciones debidas al azar sino por el hecho de que la hipótesis planteada es
incorrecta.
Necesitamos, y este es el tercer paso, una regla de decisión que debe establecerse en términos de probabilidad.
Si en el ejemplo anterior planteado pudiéramos trabajar con las poblaciones completas de varones y mujeres no
tendríamos que recurrir a la teoría de la probabilidad porque tampoco sería necesario efectuar ningún tipo de
contraste de hipótesis: conoceríamos los valores de µ y y µm y sabríamos si son iguales o no. Pero la necesidad de
trabajar con muestras en lugar de con poblaciones nos obliga a establecer una regla de decisión en términos de
probabilidad. En general, la regla de decisión que utilizaremos será una afirmación de este tipo: si el resultado
muestral observado es, suponiendo correcta nuestra hipótesis, muy poco probable, consideraremos que nuestra
hipótesis es incompatible con los datos; por el contrario, si el resultado muestral observado es, suponiendo correcta
nuestra hipótesis, probable, consideraremos que nuestra hipótesis es compatible con los datos.
Un contraste de hipótesis es un proceso de decisión en el que una hipótesis formulada en términos
estadísticos es puesta en relación con los datos empíricos para determinar si es o no compatible con ellos.
 HIPÓTESIS ESTADÍSTICA
Una hipótesis estadística es una afirmación sobre una o más distribuciones de probabilidad; más concretamente,
sobre la forma de una o más distribuciones de probabilidad, o sobre el valor de uno o más parámetros de esas
distribuciones. La hipótesis estadística se suele representar por la letra H seguida de una información que le da
contenido. Surge a partir de una hipótesis científica. La primera proporciona la base para la formulación de la
segunda, pero no son la misma cosa. Mientras una hipótesis científica se refiere a algún aspecto de la realidad, una
hipótesis estadística se refiere a algún aspecto de una distribución de probabilidad. Por ejemplo, en lugar del
promedio podríamos utilizar la Mdn.
Existen varias formas de expresar estadísticamente una hipótesis científica correcta. El primer paso en el proceso
de verificación de una hipótesis consiste en formular en términos estadísticos la afirmación contenida en la hipótesis
científica que se desea verificar. Todo contraste se basa en la formulación de dos hipótesis:
La hipótesis nula, representada por H0 / La hipótesis alternativa, representada por Hi

La hipótesis nula es la hipótesis que se somete a contraste. Consiste generalmente en una afirmación concreta
sobre la forma de una distribución de probabilidad o sobre el valor de alguno de los parámetros de esa distribución.
La hipótesis alternativa es la negación de la nula, incluye todo lo que la nula excluye. Mientras la nula suele ser una
hipótesis exacta (tal cosa es igual a tal otra), la alternativa suele ser inexacta (tal cosa es distinta, mayor o menor que
otra). Cuando en Hi aparece el signo “distinto” decimos que el contraste es bilateral o bidireccional. Cuando en Hi
aparece los signos mayor o menor, decimos que el contraste es unilateral o unidireccional. La hipótesis nula y
alternativa suelen plantearse como hipótesis rivales. Son exhaustivas y mutuamente exclusivas, lo cual implica que si
una es verdadera, la otra es necesariamente falsa.
El signo de igualdad siempre va en la hipótesis nula.
 SUPUESTOS
Para que una hipótesis estadística pueda predecir un resultado muestral con cierta exactitud es necesario, en
primer lugar, que la distribución poblacional con la que se va a trabajar esté completamente especificada. Son
hipótesis que especifican por completo las distribuciones poblacionales a las que hacen referencia. Se las llama
simples. Las hipótesis en las que la distribución poblacional no queda completamente especificada reciben el nombre
de compuestas. Lo ideal es plantear hipótesis nulas simples, pero ocurre que ni los intereses del investigador se
corresponden siempre con el contenido de una hipótesis simple.
Los supuestos de un contraste de hipótesis hacen referencia al conjunto de condiciones que deben cumplirse para
poder tomar una decisión sobre la hipótesis nula Ho basada en una distribución de probabilidad conocida.

Los supuestos de un contraste de hipótesis son un conjunto de afirmaciones que necesitamos establecer
(sobre la población de partida y sobre la muestra utilizada) para conseguir determinar la distribución de
probabilidad en la que se basará nuestra decisión sobre Ho.
Algunos de estos supuestos son más restrictivos o exigentes que otros. Es importante tener presente que el
incumplimiento de uno o varios supuestos podrían invalidad el contraste y llevarnos a una decisión errónea.
Conviene, por tanto, que los supuestos sean pocos y poco exigentes.
 ESTADÍSTICO DE CONTRASTE
Un estadístico de contraste es un resultado muestral que cumple la doble condición de proporcionar
información empírica relevante sobre la afirmación propuesta en la hipótesis nula y, poseer una
distribución muestral conocida.
La primera condición que debo cumplir es que debemos recurrir a un estadístico que sea capaz de detectar
cualquier desviación de la afirmación establecida en Ho. Para contrastar la hipótesis, lo razonable será utilizar la
información muestral proporcionada por el estadístico X
La segunda condición que debe cumplir un resultado muestral para poder ser utilizado como estadístico de
contraste es la de poseer una distribución muestral conocida. Un estadístico es una variable aleatoria y como tal,
tiene su propia función de probabilidad a la que denominamos distribución muestral. Es en la distribución muestral
del estadístico de contraste en la que nos vamos apoyar para tomar una decisión respecto Ho en términos de
probabilidad.
Una vez planteada la hipótesis, es necesario seleccionar el estadístico de contraste capaz de proporcionarnos
información relevante sobre ellas y establecer los supuestos necesarios para conseguir determinar la distribución
normal del estadístico.
 REGLA DE DECISIÓN
La regla de decisión es el criterio que vamos a utilizar para decidir si la hipótesis nula planteada debe o no ser
rechazada. Este criterio se basa en la partición de la distribución muestral del estadístico de contraste en dos zonas
mutuamente exclusivas: la zona de rechazo y la zona de aceptación.
La zona de rechazo también llamada zona crítica, es el área de la distribución muestral que corresponde a los
valores del estadístico de contraste que se encuentran tan alejados de la afirmación establecida en Ho, que es muy
poco probable que ocurran si Ho, como se supone, es verdadera. Su probabilidad es alfa (nivel de significación).
La zona de aceptación es el área de la distribución muestral que corresponde a los valores del estadístico de
contraste próximos a la afirmación establecida en Ho. Es, por tanto, el área correspondiente a los valores del
estadístico de contraste que es probable que ocurran si Ho como se supone, es verdadera. Su probabilidad es 1 – alfa,
valor llamado nivel de confianza.
La regla de decisión consiste en rechazar Ho si el estadístico de contraste toma un valor perteneciente a
la zona de rechazo o crítica; mantener Ho si el estadístico de contraste toma un valor perteneciente a la
zona de aceptación
Se rechaza una hipótesis sometida a contraste cuando el valor del estadístico de contraste cae en la zona crítica; y
se rechaza porque eso significa que el valor tomado por el estadístico de contraste se aleja demasiado de la
predicción establecida por esa hipótesis, es decir, porque, si la hipótesis planteada fuera verdadera, el estadístico de
contraste no debería haber tomado ese valor; como de hecho el estadístico ha tomado es el valor, la conclusión más
razonable será que la hipótesis planteada no es verdadera.
El tamaño de las zonas de rechazo y aceptación se determina fijando el valor de alfa, es decir, fijando el valor de
significación con el que se desea trabajar. Alfa será, necesariamente, un valor pequeño.
La forma dividir la distribución muestral en zonas depende de si el contraste es bilateral o unilateral. La zona
crítica debe estar situada allí donde puedan aparecer los valores muestrales incompatibles con Ho, es decir, allí donde
puedan aparecer los valores muestrales que apunten en la dirección propuesta en H. En los contrastes bilaterales, la
zona crítica se encuentra, generalmente repartida a partes iguales entre las dos colas de la distribución muestral. En
los contrastes unilaterales la zona crítica se encuentra en una de las dos colas de la distribución muestral.
 DECISIÓN
El paso consiste en obtener una muestra aleatoria de tamaño n, calcular el estadístico de contraste y tomar una
decisión. Tal decisión se toma siempre, respecto a Ho, y consiste en rechazarla o mantenerla de acuerdo con el valor
tomado por el estadístico de contraste y las condiciones establecidas en la regla de decisión: si el estadístico de
contraste cae en la zona critica, se rechaza H o; si el estadístico de contraste cae en la zona de aceptación, se mantiene
Ho.
Una decisión, en el contexto del contraste, siempre consiste en rechazar o mantener una Ho particular. Si la
rechazamos estamos afirmando que esa hipótesis es falsa, es decir, estamos afirmando con una probabilidad alga de
equivocarnos, que hemos conseguido probar que esa hipótesis es falsa. Por el contrario, si la mantenemos, no
estamos afirmando que hemos probado que esa hipótesis es verdadera, simplemente estamos afirmando que no
disponemos de evidencia empírica suficiente para rechazarla y que por lo tanto, podemos considerarla compatible
con los datos
Cuando decidimos mantener una hipótesis nula, queremos significar con ello que consideraos que esa
hipótesis es compatible con los datos. Cuando decidimos rechazar una hipótesis nula, queremos significar
con ello que consideramos probado que esa hipótesis es falsa

La razón de que esto sea así es doble. Por un lado, dada la naturaleza inespecífica de Hi, raramente es posible
afirmar que Hi no es verdadera; las desviaciones pequeñas de Ho forman parte de Hi, por lo que al mantener una Ho
particular, también se están manteniendo algunos valores de Hi; debe concluirse que se mantiene o se rechaza Ho,
pero nunca que se acepta como verdadera. Por otro lado, en el razonamiento estadístico que lleva a la toma de una
decisión respecto a Ho puede reconocerse el argumento deductivo modus tollens.
 ERRORES DE TIPO I Y II
Ho puede ser verdadera o puede ser falsa. Si Ho es verdadera y la mantenemos estaremos tomando una decisión
correcta; si es falsa y la rechazamos, también estaremos tomando una decisión correcta. Pero si Ho es verdadera y la
rechazamos, estaremos cometiendo un error e igualmente estaremos cometiendo un error si Ho es falsa y la
mantenemos.
Llamamos error de tipo I al que se comete cuando se decide rechazar una Ho que en realidad es
verdadera. La probabilidad de cometer ese error es alfa.
Llamamos error de tipo II al que se comete cuando se decide mantener una Ho que en realidad es falsa.
La probabilidad de cometer ese error es beta.
Por tanto I –α será la probabilidad de tomar una decisión correcta cuando Ho es verdadera. Y 1-beta será la
probabilidad de tomar una decisión correcta cuando Ho es falsa. La probabilidad de cometer un error I con nuestra
decisión es una probabilidad conocida, pues el valor de alfa lo fija el propio investigador. Sin embargo, la probabilidad
de cometer un error de tipo II, es un valor desconocido que en un contraste depende de tres factores: la verdadera
Hi, el valor de alfa y el tamaño del error típico de la distribución muestral utilizada para efectuar el contraste.
 POTENCIA
La potencia (1-B) de un contraste es la probabilidad de rechazar una hipótesis nula que en realidad es
falsa.
Cuando hablamos de la potencia de un contraste, por tanto, nos estamos refiriendo a la capacidad de ese
contraste para detectar que una hipótesis concreta es falsa. Para poder calcular la potencia de un contraste
necesitamos referirnos a una afirmación de las muchas definidas en Hi.
 NIVEL CRÍTICO Y TAMAÑO DEL EFECTO.
La probabilidad de cometer un error de tipo I se establece antes de efectuar el contraste para evitar que influya en
la decisión final. En ese sentido, podemos entender el nivel de significación como el riesgo máximo que estamos
dispuestos a asumir al tomar la decisión de rechazar la hipótesis concreta.
Efectuar un contraste estableciendo previamente un nivel de significación es lo que se hace, aunque trae
inconvenientes:
1. La decisión sobre Ho puede depender decisivamente del nivel de significación establecido. Podemos decidir
mantener la hipótesis con α = 0.01 y rechazarla con α = 0.05.
2. Decidir si Ho es o no falsa no proporciona ningún tipo de información sobre el grado en el que la evidencia
muestral se muestra incompatible con esta hipótesis.
Si consideramos que cometer un error de tipo I es muy grave, adoptaremos para alfa un valor más pequeño que si
consideramos que cometer ese error no tiene consecuencias graves. Pero recordemos que al hacer más pequeño el
valor de alfa, la potencia del contraste disminuye automáticamente (que es igual que decir que la potencia de que se
produzca un error II se incrementa). Eso puede llevar a cometer un error II por querer evitar el I.
Llamamos nivel crítico y lo representamos por p, al nivel de significación más pequeño al que una
hipótesis nula puede ser rechazada con el estadístico de contraste obtenido
Podemos definir el nivel crítico, más brevemente, como la probabilidad asociada al estadístico de contraste. En
términos generales, en un contraste unilateral, el nivel crítico es la probabilidad asociada a los valores mayores
(contraste unilateral derecho) o menores (contraste unilateral izquierdo) que el estadístico de contraste obtenido; en
un contraste bilateral, el nivel crítico es la probabilidad asociada a los valores que se encentran tan alejados de Ho
como, al menos, el estadístico de contraste. Según esto, el nivel crítico se obtiene, a diferencia de lo que ocurre con
el nivel de significación, después de efectuar el contraste, es decir, una vez obtenido el estadístico de contraste.
Decidir si una hipótesis es o no falsa no constituye, en la mayor parte de las situaciones experimentales, un criterio
suficiente para determinar si el experimento realizado contribuye o no de la forma significativa al desarrollo de una
teoría o de una línea de investigación. Esto es así porque la decisión a la que se llega en un contraste de hipótesis
sobre la base del grado de discrepancia existente entre la Ho planteada y la evidencia muestral observada depende
directamente, según hemos señalado ya, del tamaño de la muestra utilizada. Tamaños muestrales grandes pueden
llevarnos a considerar estadísticamente significativas discrepancias muy pequeñas y tamaños muestrales muy
pequeños pueden llevarnos a considerar estadísticamente insignificantes discrepancias teóricamente relevantes.
El nivel crítico, no solo nos ayuda a tomar una decisión sobre Ho, sino que su tamaño nos informa sobre el grado
de compatibilidad o discrepancia existente entre la evidencia muestral observada y esa Ho. Podemos decir que el
tamaño del nivel crítico nos está informando sobre el grado en el que la evidencia empírica obtenida se muestra
incompatible con la Ho planteada.
La utilización del nivel crítico como una medida del grado de discrepancia entre la Ho planteada y la evidencia
muestral observada tiene el inconveniente de que el valor del nivel crítico está condicionado por el tamaño de la
muestra concreta utilizada. Necesitamos, por tanto, otra medida de ese grado de discrepancia que no dependa del
tamaño de la muestra tamaño del efecto
Decidir si una hipótesis es o no falsa no constituye un criterio suficiente para determinar si el experimento
realizado contribuye o no de forma significativa al desarrollo de una teoría o de una línea de investigación. Esto es así
porque la decisión a la que se llega en un contraste de hipótesis sobre la base del grado de discrepancia existente
entre Ho planteada y la evidencia muestral observada depende directamente del tamaño de la muestra utilizada.
Tamaños muéstrales grandes pueden llevar a considerar como estadísticamente significativas discrepancias muy
pequeñas; y tamaños muéstrales muy pequeños pueden llevarnos a considerar estadísticamente insignificante
discrepancias teóricamente relevantes.
 CONTRASTE BILATERALES Y UNILATERALES
Cuando un investigador desea comprobar si un parámetro toma o no un determinado valor, si dos grupos
difieren entre si en alguna variable, si dos variables son independientes, etc., puede someter a contraste de hipótesis
como estas: Ho: µ= 0,5; Hi: µ ≠ 0,5
Las hipótesis formuladas no contienen ninguna predicción sobre la dirección en la que se puede producir un
resultado muestral incompatible con la afirmación establecida en Ho. Lo cual está reflejado en Hi, con el signo de" ="
Así, por ejemplo, si se quiere estudiar si los varones y las mujeres difieren en inteligencia, y no existen una
expectativa justificada sobre cuál de los dos grupos es más inteligente, lo razonable será plantear un contraste
bilateral: Ho: µv = µm; Hi: µv ≠ µm
Cuando se utiliza la distribución normal o la distribución t de Student en un contraste bilateral, la zona critica está
repartida en partes iguales, entre las dos colas de la distribución muestral. De ahí el nombre bilateral.
Cuando un investigador desea comprobar si el valor de un parámetro ha aumentado, si un grupo supera o es
mejor que otro en alguna variable, si dos variables se encuentran negativamente relacionadas, etc. puede someter a
contraste hipótesis como estas: Ho: µ ≤ 0,65; Hi: ≠ 0,65
A este tipo de contraste se les llama unilaterales. Las hipótesis contienen una predicción concreta sobre la
dirección en la que se puede producir un resultado muestral incompatible con la afirmación establecida en Ho. Lo
cual esta reflejado en Hi, con los signos "< y >"
Cuando se utiliza la distribución normal o la distribución t de Student en un contraste bilateral, la zona critica está
en una de las dos colas de la distribución.

WELKOWITZ

 RANGO PERCENTILAR
Una forma de suministrar la información adicional consiste en transformar la puntuación original (puntuación
directa) en una nueva puntuación que mostrar de forma inmediata la situación de un individuo en comparación con
los demás estudiantes de la clase: los percentiles.
El rango percentil de un valor dado es un número que expresa el tanto por ciento de casos en el grupo específico
de referencia, cuyo valor es igual o inferior al dado. Por ejemplo: a una puntuación de 41 le corresponde un rango 85,
significa que el 85% de la clase obtuvo una puntuación igual o inferior a 41 puntos, mientras que sólo un 15% de la
clase recibió puntuaciones más elevadas. Un percentil es un valor no superado por un tanto por ciento dado de los
casos registrados. Una puntuación que nos colocase en el percentil 5° debería inquietarnos, pues significaría que el
95% de la clase lo hizo mejor que nosotros y solo un 5% se comporto peor o igual. Así, el percentil muestra
directamente como un valor concreto se compara con los demás en un grupo específico.
No se puede interpretarse correctamente un percentil si no se conoce perfectamente un grupo de referencia en
cuestión.
Un percentil compara un valor con un grupo específico de valores.
- PROCEDIMIENTO DE CALCULO: para encontrar el rango del percentil correspondiente a la calificación de 41,
solo hay que hacer lo siguiente:
1. Localizar el intervalo de clase al que pertenece dicha calificación (intervalo critico)
2. Clasificar las frecuencias (f) en tres categorías: las correspondientes a todas las calificaciones superiores al
intervalo crítico, las correspondientes a todas las calificaciones del intervalo crítico y las correspondientes a todas las
calificaciones inferiores a dicho intervalo.
En orden a determinar exactamente nuestra situación en el intervalo crítico debemos cerciorarnos de cuál es el
límite inferior real del mismo. Una regla conveniente consiste en situar el límite inferior real de un intervalo
exactamente en el punto medio entre la calificación más baja de este intervalo y la más alta inmediatamente
inferior.

 TEOREMA CENTRAL DEL LÍMITE


Cuando el tamaño muestral es suficientemente grande la distribución de X es aproximadamente normal (tanto
más normal cuanto mayor el tamaño de la muestra) con media µ y varianza o 2/n. Estandarizando X obtenemos el
estadístico: X - µ/ o √n que sigue aproximadamente la distribución normal estándar y se usa en inferencia estadística
para probar hipótesis acerca de la media poblacional.
Si X es una variable, u la media de todos sus valores y s su varianza o 2, la media X de muestras de n observaciones
tiene distribución aproximadamente normal con la misma media u y la n-ésima? Parte de la varianza. La distribución
de X será tanto más normal cuanto mayor sea el tamaño de la muestra.

También podría gustarte