Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen de Toda La Materia Estadistica Attorresi
Resumen de Toda La Materia Estadistica Attorresi
BOTELLA
CAPÍTULO 1: Conceptos Generales
La estadística actual no sólo es un conjunto de técnicas para resumir y transmitir información cuantitativa, sino
que sirve también, y fundamentalmente para hacer inferencias, generalizaciones y extrapolaciones de un conjunto
relativamente pequeño de datos a un conjunto mayor. Clásicamente la estadística se ha dividido en dos partes, la
estadística descriptiva y la estadística inferencial. Para hacer un estudio inferencial primero hay que hacer un
estudio descriptivo de los datos. Es decir, un estudio descriptivo se agota en la descripción, mientras que uno
inferencial comienza por la descripción y luego aborda la inferencia. Mientras que la estadística descriptiva puede
abordarse sin conocimientos técnicos previos, aparte del álgebra elemental, para el estudio de la estadística
inferencial es imprescindible adquirir nociones básicas de probabilidad.
Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes de muestras, y de
la realización de inferencias acerca de las poblaciones de las que éstas proceden.
Otro conjunto de técnicas más sofisticadas y desconocidas de la estadística, y que se utilizan para extraer
conclusiones de poblaciones a partir de la observación de unos pocos casos, son las que integran la estadística
inferencial.
Distinción entre estadística teórica y estadística aplicada: la primera se dedica al estudio de los métodos
formalmente válidos para la realización de inferencias. La segunda se dedica a la aplicación de esos métodos y
modelos de actuación a campos reales.
Cualquier trabajo en el que se aplica la estadística se refiere a un conjunto de entidades, conocido con el nombre
de población.
Se llama población estadística al conjunto de todos los elementos que cumplen una o varias
características o propiedades
A los elementos que componen una población se les denomina entidades estadísticas o individuos. Dependiendo
del número de elementos que la compongan, la población puede ser finita o infinita. La mayor parte de las
poblaciones con las que solemos trabajar son finitas, pero tan numerosas que a la hora de hacer inferencias acerca
de ellas se pueden considerar infinitas a efectos prácticos. Cuando un investigador aborda un trabajo empírico debe
definir claramente la población sobre la cual se interesa.
La población ha de ser el marco o conjunto de referencia sobre el cual van a recaer las conclusiones e
interpretaciones, y éstas no pueden exceder ese marco. El hecho de que las poblaciones sean, por lo general, muy
numerosas, suele hacer inaccesible la descripción de sus propiedades. De ahí que se trabaje fundamentalmente con
muestras.
Una muestra es un subconjunto de los elementos de una población
La muestra nos va a ofrecer una serie de datos que podemos ordenar, simplificar y describir. Pero el objetivo
fundamental es el poder describir la población de partida mediante lo que podamos encontrar en la muestra. Y para
poder extraer esas conclusiones lo más importante es que las muestras de observaciones sean representativas.
Existe todo un campo de la estadística, llamado muestreo, dedicado a estudiar los procedimientos de extracción
de muestras encaminados a maximizar la representatividad de las mismas. Por ello un primer objetivo de la
estadística descriptiva consiste en conseguir resúmenes de los datos en índices compactos y de gran calidad
informativa.
Las poblaciones pueden caracterizarse a partir de unas constantes denominadas parámetros. Como normalmente
los parámetros son desconocidos, una de las tareas de la estadística es la de hacer conjeturas lo más acertada
posibles acerca de esas cantidades. Para ello se utilizan cantidades análogas obtenidas en las muestras, que se
denominan estadísticos.
Un parámetro es una propiedad descriptiva de una población
Un estadístico es una propiedad descriptiva de una muestra
Los parámetros y estadísticos no sólo son medias, sino que pueden ser otros tipos de cantidades, como
porcentajes. Desde un punto de vista simbólico, conviene indicar, para distinguirlos, que los parámetros se suelen
representar por letras griegas mientras que los estadísticos se suelen simbolizar por letras latinas. En la primera fase
de una investigación se obtienen los estadísticos, y en la segunda se utilizan los valores obtenidos para hacer
inferencias acerca de los parámetros.
Cuando estudiamos las entidades que conforman una población nos interesamos por algunas de las propiedades
de sus elementos, y esas propiedades adoptan distintas variedades.
Una característica es una propiedad o cualidad de un individuo.
Una modalidad es cada una de las maneras como se presenta una característica
MEDICIÓN
La estadística no realiza sus funciones directamente sobre las modalidades observadas, sino que éstas se
representan por números, y la estadística realiza sus funciones sobre esos números.
Se llama medición al proceso de atribuir números a las características
La asignación de números a las características se hace siguiendo unas reglas; del estudio de los modelos mediante
los cuales conocemos las reglas para una correcta atribución de los números se ocupa la Teoría de la Medida.
El sistema numérico está formado por un conjunto de entidades (números) y unas relaciones entre ellos. Es decir,
que se trata de un sistema relacional numérico. El objetivo de la medición de una característica es conectar un
sistema relacional empírico y un sistema relacional numérico, de tal forma que las relaciones entre las entidades se
reflejen en las relaciones entre los números que los simbolizan. Sólo si se consigue este objetivo ocurrirá que de las
relaciones entre los números podrán hacerse inferencias válidas acerca de las relaciones entre las entidades. Por
ejemplo: las modalidades que adopta la variable estatura son tales que se podría decir que una determinada
modalidad es una estatura superior a otra determinada modalidad. Pues bien, los números que se atribuyan a esas
modalidades en el proceso de medición deben reflejar esa superioridad. Por el contrario, lo único que podemos decir
al comprar las modalidades de dos individuos en la variable sexo es si esas modalidades son la misma o no; no tiene
sentido decir que una de las modalidades supone tener más sexo que la otra.
La medición estudia las condiciones de construcción de representaciones numéricas, y los modelos desarrollados
para la medición se llaman escalas: nominales, ordinales, cuantitativas de intervalo y cuantitativas de razón.
Se utiliza una clase por cada una de las modalidades que adopta la característica que se está estudiando. Las
clases son mutuamente exclusivas y exhaustivas, es decir, cada observación es incluida en una y sólo una clase.
Transformación admisible: es un concepto ligado al concepto de escala y que de hecho las se caracteriza, que
hace referencia al problema de la unicidad de la medida. La cuestión de la unicidad puede plantearse de la siguiente
manera: ¿es la representación numérica que hemos construido la única posible? En general la respuesta será
negativa. Serán muchas las representaciones alternativas que serían correctas. De un conjunto de valores
correctamente atribuidos se puede pasar a otro también correctamente atribuido mediante una transformación
admisible. Se dice que una transformación de los números asignados en una escala es una transformación admisible
si preserva las características que definen a esa escala, es decir, si los números transformados también representan al
sistema empírico.
- ESCALA NOMINAL: supongamos que se tiene un conjunto de objetos cuya característica nos interesa para su
estudio. Ésta adopta un número k de modalidades distintas; representamos por m a la modalidad del objeto.
Asignamos números a los objetos en función de la modalidad que presentan en esa característica; representamos por
n al número asignado al objeto. Al tipo de medición que cumple estas condiciones se le llama escalamiento
cualitativo o nominal. Podrían también utilizarse otros símbolos, como letras, palabras, etc., puesto que los números
asignados no se van a utilizar como tales, sino como simples códigos de identificación. Por ejemplo: el sexo, los
diagnósticos psicopatológicos (neurosis, psicosis, psicopatías, etc.). La clave de estas escalas de medidas es que solo
informan de la igualdad o desigualdad de los individuos en una característica, pero no de posibles ordenaciones,
puesto que la característica a la que se refieren no se tiene en mayor o menor medida, sino que simplemente adopta
formas cualitativamente distintas.
En una escala nominal son admisibles todas las transformaciones que supongan aplicaciones inyectivas. El
conjunto de transformaciones admisibles determina el tipo de escala o grado de unicidad de la medida.
- ESCALAS ORDINALES: supongamos que contamos de nuevo con un conjunto de objetos que difieren en una
característica que cada uno posee en una cierta cantidad. De nuevo el proceso de medición debe consistir en la
aplicación de una regla de asignación de números a las diferentes cantidades, pero ahora de tal forma que los
números asignados a los objetos reflejen esos distintos grados en los que se presenta la característica. Los números
asignados nos permitirán extraer conclusiones acerca de las magnitudes. Sin embargo, a veces lo único que esos
números nos permiten inferir son relaciones del tipo "mayor que" o "menor que". Los objetos pueden ordenarse,
puede decirse cuál de esos objetos presenta una mayor o menor magnitud de esa característica. Ejemplo: un
individuo es más extravertido que otro, que un niño es más hiperactivo que otro, o que el aprendizaje es más rápido
con el método A que con el método B.
Al igual que en las escalas nominales, las ordinales tienen transformaciones admisibles, que lógicamente serán
todas aquellas que preserven las características de la escala ordinal. Se puede demostrar que esto ocurre con todas
aquellas transformaciones que cumplan con la condición de ser transformaciones crecientes.
La limitación de estas escalas es que aunque nos informa de que un objeto presenta la característica en cuestión
en una mayor magnitud que otro objeto, no nos dice en cuanto mas.
- ESCALA DE INTERVALO: supone una mejora sustancial con respecto a las escalas ordinales, es que se cuenta
con una unidad de medida, sin importar que tanto esta unidad de medida como el origen de la escala sean
arbitrarios.
La diferencia entre los números asignados a dos objetos es igual a la diferencia entre los números asignados a
otros dos, entonces también son iguales las diferencias en magnitudes entre estos dos pares. Y, por el contrario, una
mayor diferencia entre los números asignados implica una mayor diferencia entre las magnitudes representadas.
Ejemplo: la temperatura. Para construir la escala centígrada se enfría el agua hasta la temperatura de congelación,
y se pone un cero en la altura que alcanza la columna de mercurio. Después se calienta el agua hasta el punto de
ebullición, y donde se encuentre la altura de la columna de mercurio se marca cien., Posteriormente se divide el
espacio entre esas dos marcas en cien partes iguales, a las que se llama grados centígrados.
La condición para que una transformación de los números asignados en una escala de intervalos sea una
transformación admisible es que los números asignados deben ser transformaciones lineales de las magnitudes
reales, entonces son admisibles las transformaciones que sean también son lineales. Las transformaciones admisibles
para las escalas de intervalo no significan más que un cambio en la unidad de medida y en el origen asignado a la
escala, valores ambos arbitrarios en ese tipo de escalas.
La principal limitación de este tipo de escalas es que, aunque cuenta con una unidad de medida, no tiene un cero
absoluto. Es decir, el número cero no representa realmente la ausencia de esa característica. Un ejemplo de
transformación admisible es su traducción a grados Fahrenheit.
- ESCALA DE RAZÓN: cumple la función de preservar el significado del valor cero, de forma que siempre
represente la ausencia de esa característica. La consecuencia fundamental de la presencia de un origen absoluto, y
no arbitrario, es que a demás de poder extraer conclusiones acerca de la igualdad o desigualdad de diferencias,
también puede hablarse de desigualdad o igualdad de razones.
La única transformación admisible es la multiplicación por una constante positiva, puesto que solo estas
transformaciones preservan el cero, mientras que permiten un cambio en la unidad de medida.
VARIABLES
En el proceso de medición se asignan números a los objetos según unas reglas, y el conjunto de valores numéricos
atribuidos a las modalidades de una característica constituyen lo que llamamos variable estadística.
Una variable es una representación numérica de una característica
Los valores atribuidos a las correspondientes modalidades de una característica permiten diferenciar a los
objetos, que varían entre sí en esa característica. Por el contrario, hay veces que una característica tiene una única
modalidad, en ese caso todas las entidades estudiadas adoptarían el mismo valor numérico, y decimos que se trata
de una constante.
Las variables pueden clasificarse de varias formas: las variables cuantitativas (sean de intervalo o razón) pueden a
su vez clasificarse en variables discretas y variables continuas, en función del número de valores asumibles por ellas.
Una variable discreta es aquella que adopta valores aislados. Por tanto, fijados dos consecutivos, no puede tomar
ninguno intermedio. Ejemplo: hijos de las familias españolas, el número de piezas dentales que conservan los
internos de una residencia de ancianos, el numero de libros leídos pasado el verano, etc. En las variables continuas
entre dos valores cualesquiera, por próximos que sean, siempre pueden encontrarse valores intermedios. Ejemplo: la
longitud, la duración de los sucesos o el peso. Las variables estadísticas se simbolizan por letras mayúsculas latinas, y
generalmente con un subíndice, para distinguirlas de las constantes.
En la práctica las variables continuas no pueden representarse numéricamente como tales. Los instrumentos de
medida son imprecisos y solo permiten atribuir números discretos. Cuando decimos que un suceso ha durado 20
segundos lo que queremos decir es que el numero de segundos mas cercano a su duración es 20; es decir, que su
duración esta en el intervalo 20 +/- 0,5. El 20 se llama valor informado, mientras que los valores 19,5 y 20,5 se llaman
límites exactos de la medida, y se obtienen sumando y restando el valor informado la mitad de la unidad de medida
utilizada, que pueden ser unidades, decimas, centésimas, etc.
Se llama intervalo a cada uno de los grupos de valores que ocupan una fila en una distribución de
frecuencias.
Se llaman límites aparentes o informados de un intervalo a los valores mayor y menor que puede
adoptar la variable dentro de ese intervalo.
Se llaman límites exactos de un intervalo a los valores máximo y mínimo incluidos en el intervalo.
Se llama punto medio de un intervalo a la suma de sus límites exactos partido por dos.
Se llama amplitud de un intervalo a la diferencia entre su límite exacto superior y su límite exacto
inferior. Se representa por la letra I.
Hay tres reglas y algunas directrices para hacer una distribución: a) el intervalo superior debe incluir al mayor
valor observado, b) el intervalo inferior debe incluir al menor valor observado, c) cada intervalo debe incluir el mismo
número de valores. Pero al ser muchas las agrupaciones diferentes que se pueden realizar, para decidir entre ellas
hay que tener presentes algunas directrices basadas en dos guías principales: a) dado que el objetivo de una
distribución es conseguir una ordenación manejable que ayude a comprender el significado de los datos, no es
conveniente que el número de intervalos sea demasiado grande, b) el número apropiado de intervalos debe ser tal
que, simultáneamente, con ella se consiga una agrupación operativa y que cumpla los objetivos para los que ha sido
diseñada la distribución, pero sin distorsionar los valores con el error de agrupamiento.
REPRESENTACIONES GRÁFICAS
A partir de las distribuciones de frecuencias se pueden construir representaciones gráficas. La función de éstas es
dar informaciones globales mediante un solo golpe de vista.
- Diagrama de rectángulos: para hacer un diagrama de rectángulos se colocan en el eje de abscisas las
modalidades (o los números que las representan), y en el eje de ordenadas las frecuencias (puede ser absolutas o
relativas simples o acumuladas). Sobre cada modalidad se levanta un rectángulo cuya altura es la frecuencia
correspondiente. La base de los rectángulos será arbitraria. Para variables nominales u ordinales.
- Perfil octogonal: se utiliza mucho en informes psicopedagógicos o de rendimiento.
- Pictograma: son representaciones en forma de círculos en los que éstos son divididos en secciones cuya
superficie es proporcional a la frecuencia de la modalidad correspondiente.
- Diagrama de barras: se utiliza en variables cuantitativas discretas. En el eje de abscisas se colocan los
distintos valores de la variable y en el eje de ordenadas las frecuencias. Sobre cada valor de la variable se traza una
línea o barra perpendicular cuya altura debe ser igual a la frecuencia.
- Histograma: se utiliza para variables cuantitativas continuas con datos agrupados en intervalos. En el eje de
abscisas se colocan los límites exactos de los intervalos, y en el eje de ordenadas las frecuencias. Sobre cada intervalo
se levanta un rectángulo cuya altura sea igual a la frecuencia correspondiente.
- Polígono de frecuencias: para variables discretas, el polígono es la figura que resulta de unir los extremos
superiores de las que hubieran sido las barras. Si se trata de una variable continua, podemos decir lo mismo pero
referido a los puntos medios de las bases superiores de los rectángulos correspondientes a un hipotético histograma
construido con esos mismos datos.
- Diagrama de barras acumuladas: se utiliza en variables discretas. En el eje de abscisas se colocan los valores
de la variable y en el de ordenadas las frecuencias acumuladas, ya sean absolutas o relativas. Sobre cada valor se
traza una perpendicular cuya longitud sea igual a la f. acumulada. Desde el extremo superior de cada una de estas
barras se traza una línea horizontal que se une con la barra situada a su derecha.
- Polígono de frecuencias acumuladas: se utiliza en variables continuas. El eje de abscisas se construye igual
que en los histogramas, pero en el de ordenadas se incluyen las f. acumuladas, ya sean absolutas o relativas. Sobre
cada límite se levanta una perpendicular cuya longitud sea idéntica a la f. acumulada y se une con los extremos
superiores de dichas perpendiculares.
- Otros dibujos: muchas veces se utilizan otras representaciones figuritas, en las que se incluyen los objetos
de los que se están haciendo recuentos de frecuencias, a algún símbolo que los identifique de forma muy expresiva.
Si transformamos linealmente las puntaciones típicas, multiplicándolas por una constante a, y sumando
una constante b, entonces las puntuaciones transformadas tendrán como media la constante sumada b,
como desviación típica el valor de la constante multiplicada, |a| y como varianza el cuadrado de esta
constante, a2.
En resumen la construcción de una escala derivada parte de unas puntuaciones directas, éstas se tipifican, y
después se transforman linealmente en otras puntuaciones.
La cuestión fundamental de las escalas derivadas consiste en transformar las puntuaciones originales, X i, en otras
puntuaciones transformadas, Ti, tales que sean más cómodas de tratar e interpretar, pero que a la vez retengan las
relaciones comerciales entre los valores, es decir, que sean puntuaciones equivalentes.
Supongamos que ahora hay otra prueba que consiste en tachar las letras R. Al inspeccionar los resultados es
posible que aparezca un fenómeno llamado balance entre velocidad y precisión, y que se manifiesta en que los
sujetos que acaban antes suelen cometer más errores. En este caso también hay una cierta relación entre las
variables. En concreto, los valores bajos en la variable "tiempo invertido" tienden a estar emparejados con valores
altos en la variable "números de errores", y viceversa.
Se dice que dos variables X e Y mantienen una relación lineal inversa cuando los valores altos en Y
tienden a emparejarse con valores bajos en X, los valores intermedios en Y tienden a emparejarse con
valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores altos en X.
Supongamos que en un grupo de estudiantes medimos también la estatura, y escribimos los valores obtenidos
por cada sujeto emparejado con sus puntuaciones en inteligencia. Salvo coincidencias inesperadas, la inspección de
esos pares de valores probablemente nos indicada que no existe relación entre las variables. No podríamos decir que
haya relación directa o inversa entre las variables.
Se dice que hay relación lineal nula entre dos variables cuando no hay un emparejamiento sistemático
entre ellas en función de sus valores.
Al hacer una representación gráfica conjunta de dos variables pueden apreciarse visualmente estos tres tipos de
relación. Para ello se identifican los pares de valores y se señalan los correspondientes puntos en unos ejes de
coordenadas. Estas nubes de puntos reciben el nombre de diagramas de dispersión.
Un caso en que la relación lineal fuera determinista seria aquel en el que la representación grafica los puntos
formaran una línea recta perfecta.
CUANTIFICACIÓN
Un primer procedimiento consistiría en hallar el promedio de los productos cruzados de las puntuaciones
diferenciales. Al hablar de productos cruzados nos referimos al producto, para cada sujeto o caso, de sus valores en
las dos variables, es decir Xi · Y. Estos productos pueden obtenerse con puntuaciones directas, diferenciales o típicas.
Cada figura está separa en cuatro cuadrantes, y los puntos estarán en uno u otro dependiendo de que la observación
supere o no la media de X y/o la media de Y. En concreto, si supera ambas medias, el punto aparecerá en el
cuadrante superior derecho (NE), si supera la media de X pero no la de Y, como el par aparecerá en el cuadrante
inferior derecho (SE); si supera la de Y pero no la de X, aparecerá el cuadrante superior izquierdo (NO); sino supera
ninguna de las medias, aparecerá en el cuadrante inferior izquierdo (SO). Al tratar con puntuaciones diferenciales,
éstas serán positivas si superan la media y negativas en caso contrario. Por tanto, aquellas observaciones que
aparezcan en los cuadrantes NE o SO tendrán productos cruzados positivos, mientras que las que aparezcan en los
cuadrantes NO o SE tendrán productos cruzados negativos. El promedio de productos cruzados de diferenciales
tenderá a dar positivo si la relación es directa, negativo si es inversa, y en torno a cero si es nula, y a demás su valor
absoluto será mayor cuanto más acusada sea la tendencia a la linealidad en el diagrama de dispersión.
PROPIEDADES DEL COEFICIENTE DE CORRELACION DE PEARSON
La razón principal por la que la covarianza no llegaba a satisfacer completamente la necesidad de un índice de la
asociación lineal era la dificultad de su valoración, dado que carecía de un máximo y un mínimo estables. Puesto que
hemos destacado su alternativa principal, el coeficiente de correlación de Pearson, precisamente porque no tiene esa
dificultad…
Si hacemos transformaciones lineales de una o las dos variables, en las que las constantes
multiplicadoras son positivas, la correlación de Pearson no se altera.
VALORACIÓN E INTERPRETACIÓN
En la interpretación de una correlación de Pearson hay que separar dos aspectos distintos: su cuantía y su sentido.
La cuantía se refiere al grado en el que la relación entre dos variables queda bien descrita con un índice de asociación
lineal como r, mientras que el sentido se refiere al tipo de relación. Una correlación en torno a cero indica una
relación lineal baja o nula; una correlación positiva indica una relación lineal directa, mientras que una correlación
negativa indica una relación lineal inversa. Cuanto más cercano quede un coeficiente del valor cero, menos apto es el
modelo lineal como descripción de la relación entre las variables. Por el contrario, cuanto más se acerque a los
extremos, mejor describe esa relación.
-1 -0,5 0 0,5 1
Sin embargo, la valoración de r no debe hacerse con base en su valor simple. De hacerlo así se cae en la tentación
de establecer conclusiones del tipo de que una correlación de 0,60 indica que hay un 60 por 100 de asociación lineal,
o que una correlación de 0,80 indica el doble de asociación lineal que una correlación que una correlación de 0,40. La
valoración de un coeficiente de correlación debe hacerse con base en el cuadrado de su valor r2. Como
consecuencia, el grado de asociación lineal rxy = 0,80 y ruv = 0,40 no es el doble en la primera que en la segunda, sino
del cuádruple (r2xy/r2uv =0,64/0,16= 4)
Hay, además, otros factores que alteran las expectativas sobre el valor de r, como son la variabilidad, la mediación
de terceras variables, etc. También hay una especificidad en los campos de estudios concretos. Por ejemplo, para
estudiar la estabilidad de la puntuaciones que ofrece un test se suele aplicar el test dos veces en un breve intervalo
de tiempo (es típico hacerlo en el plazo de una semana), y se halla la correlación entre las puntuaciones obtenidas en
las dos administraciones de la prueba. Así se obtiene la fiabilidad del test. En cada área de estudio se va a desarrollar
un conocimiento que permite valorar los coeficientes de correlación en términos relativos. Los coeficientes de
correlación deben valorarse comparando unos con otros o comparándolos con los valores que típicamente se suelen
encontrar en el campo de estudio especifico del que se trate.
La obtención de una correlación igual (o cercana) a cero puede llevar a pensar que no hay relación entre las
variables sin ser cierto. La correlación de Pearson mide el grado de adecuación de unos datos a un modelo lineal,
pero entre las variables puede existir otro tipo de relación. Un ejemplo prototípico de esto es la relación entre
activación y rendimiento, por ejemplo: con estados altos de ansiedad se reduce el rendimiento en los exámenes. Es
decir el rendimiento máximo se obtiene con niveles medios de activación, mientras que con niveles demasiados
bajos o demasiados altos el rendimiento disminuye.
Lo que se desprende de todo esto es que no conviene analizar la relación entre dos variables exclusivamente
mediante el cálculo coeficiente de correlación, sino que conviene representar gráficamente el diagrama de dispersión
para observar esa relación. Una representación grafica puede ser mucho más informativa que un simple valor de r.
Tampoco hay que interpretar los coeficientes de correlación en términos de relaciones causales entre las
variables.
REUCHLIN
GLOSARIO DE CONCEPTOS
ELEMENTOS O UNIDADES: son las entidades acerca de las que se reúnen datos. Por ejemplo: 1) si se evalúa la
memoria de los aspirantes a un puesto de mozo en el restaurante X, las unidades son cada uno de los aspirantes. 2) si
a un comerciante le interesa el volumen de ventas semanal de su comercio durante el último año, las unidades son
cada una de las semanas de ese año.
POBLACIÓN DE INDIVIDUOS: es el conjunto de todos los elementos sobre los cuales se observa una o más
características de interés. Se alude a ella como población objetivo, en razón de que sobre ella recae el objetivo o el
interés del estudio. Ejemplos: 1) el conjunto de aspirantes al empleo del restaurante X. 2) el conjunto de semanas a lo
largo del ultimo año.
MUESTRA DE INDIVIDUOS: es un subconjunto o parte de una población de individuos. Ejemplos: 1) los cinco
primeros aspirantes entrevistados. 3) las semanas 1, 6, 12, 19,27, etc. del último año.
Notas: cuando hablamos de unidades como de la población objetivo o de individuos o de la muestra de
individuos, estas entidades deben ser situadas en el espacio (situación geográfica) y en el tiempo (año o fecha).
Como generalmente las muestras se extraen con fines inferenciales; esto es, para tener conocimiento de lo que
acontece a nivel poblacional, es de desear que sean representativas de las respectivas poblaciones. Para favorecer la
representatividad de las muestras, la llamada Teoría de Muestreo ha desarrollado diversidad de métodos. Uno de
ellos es la elección al azar de las unidades muestrales.
VARIABLES O CARACTERÍSTICA: es una característica de un fenómeno observable en los individuos de una
población. Es una variable propiamente dicha cuando presenta diferentes modalidades (dos o más) entre los
individuos. Si se presenta bajo una única modalidad se dice que es una característica constante. Ejemplos: 1)
memoria de los aspirantes al empleo. 2) volumen de ventas respectivamente.
VARIABLE ESTADÍSTICA: es una representación, a través de números u otros símbolos, de una variable. Esta
representación se obtiene mediante algún procedimiento de medición. Ejemplos: 1) cantidad de palabras recordadas
de una lista de 12. 2) total de $ de los productos vendidos en una semana.
Las variables estadísticas se clasifican de acuerdo con el tipo de valores que pueden tomar en:
- Variable cualitativa: es aquella cuyos valores expresan atributos. Ejemplo: tipo de trastorno que presentan
los pacientes de un servicio de salud mental (de ansiedad, de atención, de sueño, etc.)
- Variable cuasi-cuantitativa: es aquella cuyos valores indican un orden de jerarquía. Ejemplo. Nivel de
deserción escolar (bajo, medio, alto)
- Variable cuantitativa: es aquella cuyos valores expresan cantidades numéricas. Dentro de las variables
cuantitativas se diferencian las llamadas discretas de las continuas. Se consideran discretas aquellas cuyos valores
son puntos aislados, esto es, cuando todo valor tiene un consecutivo. Se dice que dos valores son consecutivos
cuando no puede existir un valor de la variable entre ellos. Ejemplo: cantidad de palabras recordadas. Se consideran
continuas a las variables que, al menos teóricamente pueden tomar cualquier valor dentro de un intervalo numérico.
Ejemplo: tiempo de reacción ante un estimulo.
CONSTRUCTO Y OPERACIONALIZACIÓN: la mayoría de las características psicológicas son de naturaleza compleja,
resultado de varias variables que interactúan. Cuando se alude a estas variables es necesario explicitar que se
entiende por ellas, o que aspectos se están considerando y qué relaciones se verifican entre ellas. De allí surge una
construcción teórica, hipotética que toma el nombre de constructo. Ejemplos: inteligencia, la memoria, la ansiedad,
la actitud solidaria, etc. Estos constructos o variables complejas no son directamente observables como son; por
ejemplo, la estatura o el estado civil de una persona, y esto es lo que dificulta el proceso de medición, para poder
obtener valores de estas variables a través de la medición es necesario hacer un “recorte adecuado” del constructo;
es decir, considerar un solo aspecto del mismo y explicitar cuáles son las manifestaciones observables que dan
cuenta de él. Por ejemplo, una manifestación observable de la memoria es la cantidad de palabras recordadas,
aunque la sola recordación de palabras no agota la riqueza del constructo memoria. En estos casos se recurre a una
definición operacional (operacionalización) del constructo permite asignar sin ambigüedad un valor a la variable a
través del proceso de medición. En el ejemplo, la definición operacional del constructo memoria es la cantidad de
palabras recordadas. A las variables que no son directamente observables también se las denomina rasgos latentes.
Así, por ejemplo, la obsesividad de un estudiante es un rasgo latente que se puede manifestarse a través de la
cantidad de veces que pregunta lo mismo hasta sentirse satisfecho.
¿CONTINUO O DISCRETO?: el hecho de que una variable estadística sea discreta o continua determina el tipo de
tratamiento estadístico que se le dará. Sin embargo muchas veces es decisión del investigador si la tratará de un
modo y otro dependiendo de la naturaleza de la variable estadística y de su correspondiente variable latente . Por
ejemplo: la cantidad de palabras recordadas de una lista es claramente una variable discreta. Pero esta variable
representa a la variable latente memoria, la cual tiene sentido que sea concebida en una continuo; esto es, entre dos
niveles de memoria es razonable pensar que podrían existir infinitos valores posibles. De modo que se puede
considerar que en realidad está ante una discretización de un continuo debida al instrumento de medición; del
mismo modo que la hora registrada con un reloj digital es una discretización del tiempo que se desea medir. Bajo
esta perspectiva el investigador puede dar a la cantidad de palabras recordadas un tratamiento de variable continua y
considerar, por ejemplo, que el valor 10 (diez palabras recordadas) bien puede representar todo un continuo de
niveles de memoria entre 9,5 y 10,5 que podría observar si dispusiera de un instrumento de medición más sensible
que la sola cantidad de palabras recordadas. Es importante considerar que para que una variable discreta pueda ser
tratada adecuadamente como continua, es conveniente que tome una gran cantidad de valores diferentes.
POBLACIÓN DE OBSERVACIONES: es el conjunto de todos los valores que pueden tomar una variable estadística
sobre la población de individuos. Nótese que sobre una misma población de individuos se pueden definir muchas
poblaciones de observaciones, tantas como variables de interés.
MUESTRA DE OBSERVACIONES: es el conjunto de de valores que toma una variable estadística sobre una muestra
de individuos; es decir, es un subconjunto de la población de observaciones.
ESTADÍSTICA DESCRIPTIVA: es la parte de la Estadística que proporciona métodos para organizar, representar,
resumir y analizar la información contenida en un conjunto de datos muestrales o poblaciones.
ESTADÍSTICA INFERENCIAL: es la parte de la Estadística que proporciona métodos para extraer conclusiones sobre
las poblaciones a partir de sus muestras controlando el margen de error que se pueden cometer en esa extrapolación
de lo muestral a lo poblacional. Los métodos de inferencia estadística se agrupan fundamentalmente en dos clases:
estimación de parámetros y contraste de hipótesis.
POBLACIONES REALES O HIPOTÉTICAS, FINITAS O INFINITAS: una muestra de observaciones siempre es real
porque consiste de datos efectivamente recolectados; pero la correspondiente población de observaciones puede ser
real o hipotética. Por otra parte, una población de observaciones puede ser finita, esto es con una cantidad grande o
pequeña pero limitada de elementos. Pero una población puede ser infinita. La importancia de reconocer con que
tipo de población se está trabajando radica en la pertinencia de los métodos estadísticos que se utilizan para recoger
los datos, analizarlos y sacar conclusiones.
PARÁMETRO: es una característica fija, generalmente numérica, de la población de valores de una variable . Por
ejemplo: si la variable es el tiempo de reacción de sujetos entrenados ante un estimulo, un parámetro es el tiempo
promedio de reacción de todos los individuos de la población de interés si estos fueran entrenados. Otro parámetro
podría ser el tiempo mínimo de reacción que surgiría de comparar los tiempos de todos los sujetos de la población y
que, por tanto, también es único; lo mismo puede decirse del tiempo máximo. Si la variable es actitud de los
consumidores hacia un nuevo producto, un parámetro puede ser el porcentaje de consumidores de toda la población
objetivo que tiene actitud positiva.
ESTADÍSTICO: es una característica muestral y como tal, es una variable porque sus valores dependen de la
muestra que salga seleccionada. Cada valor del estadístico se obtiene como función de las observaciones de una
muestra. Por ejemplo, tiempo promedio de reacción de 10 individuos que fueron entrenados. Porcentaje de
consumidores entre 100 encuestados que manifestaron tener una actitud positiva frente al producto.
ESTIMADOR: es un estadístico cuyos valores se consideran próximos a un parámetro que, por ser generalmente
desconocido, se desea estimar.
FRECUENCIA ABSOLUTA: es la cantidad de veces que cada valor de la variable aparece en un conjunto de datos.
La suma de todas las frecuencias absolutas coincide con la totalidad de los datos.
ESTADÍSTICA INFERENCIAL
BOTELLA
CAPÍTULO 11
El azar tiene que ver con aquellos eventos cuyo resultado no podemos predecir con certeza, y a los que nosotros
llamaremos experimentos aleatorios. Lo que depende del azar, y por tanto, da sentido al término aleatorio en este
contexto, es el procedimiento de extracción de un individuo y sólo uno, de los que componen la población. Todo
experimento aleatorio tiene dos o más resultados posibles, que nosotros llamaremos sucesos elementales. En un
experimento que tuviera solo un resultado posible no habría incertidumbre y por tanto, no podríamos hablar de
experimento aleatorio. La realización de un experimento aleatorio da lugar a un suceso elemental, y sólo uno, de
entre los posibles. Al conjunto de los resultados posibles de un experimento aleatorio, o sucesos elementales, se le
llama espacio muestral y se representa por E. Se llama verificación de un suceso elemental al hecho de que la
realización del experimento aleatorio produzca ese suceso elemental. Sobre los espacios muestrales, como conjuntos
que son, se pueden definir subconjuntos, que denominaremos sucesos y los representaremos por letras mayúsculas.
Aunque para definir un suceso basta con definir un subconjunto cualquiera de E, normalmente los sucesos con los
que trabajaremos se constituirían con los sucesos elementales que cumplen alguna condición, y no de forma
arbitraria. Un suceso se verificará cuando el experimento aleatorio de lugar a uno de los sucesos elementales que
integran el subconjunto que lo define. En algunas ocasiones se definen sucesos a partir de subconjuntos vacíos. Este
tipo de sucesos reciben el nombre de suceso imposible. En otras ocasiones definen sucesos cuyo subconjunto
constituyente está formado por todos los elementos del espacio muestral. Este tipo de sucesos reciben el nombre de
suceso seguro. Vamos a definir operaciones sobre sucesos que utilizaremos a partir de aquí:
a) Llamaremos unión de dos sucesos al subconjunto E formado por sucesos elementales que integran los
subconjuntos de al menos uno de esos sucesos.
b) Llamaremos intersección de dos sucesos al subconjunto de E formado por los sucesos elementales que
pertenecen simultáneamente a ambos sucesos. Cuando la intersección de dos sucesos es un subconjunto vacío se
dice que son sucesos incompatibles o exclusivos.
c) Llamaremos diferencia de dos sucesos al subconjunto E integrado por los sucesos elementales que
pertenecen al primero, pero no al segundo.
d) Llamaremos complementario de un suceso al subconjunto de E integrado por los sucesos elementales no
incluidos en ese suceso.
En términos generales representaremos por n al número de sucesos elementales que integran el espacio
muestral, y por na al número de sucesos elementales que constituyen el suceso A.
Un experimento aleatorio es toda acción cuyo resultado no se puede predecir con certeza.
Cada uno de los resultados posibles de un experimento aleatorio se llama suceso elemental y su
conjunto constituye el espacio muestral del experimento aleatorio.
La verificación de un suceso elemental es la observación de ese suceso elemental al realizar el
experimento aleatorio.
Un suceso es cualquier subconjunto de los elementos de un espacio muestral.
Dos sucesos son incompatibles o exclusivos si no tienen elementos comunes y por tanto, no pueden
verificarse simultáneamente.
El complementario de un suceso es el subconjunto de sucesos elementales del espacio muestral que no
participan en ese suceso.
La intersección de dos sucesos es el subconjunto de elementos del espacio muestral que,
simultáneamente están incluidos en los subconjuntos de ambos sucesos.
La unión de dos sucesos es el subconjunto de elementos del espacio muestran que están incluidos, al
menos, en uno de esos sucesos.
Tipos de espacio muestral: los espacios muestrales se clasifican en espacios muestrales finitos e infinitos y a su
vez estos últimos se subdividen en numerables y no numerables.
a) Espacios muestrales finitos: un espacio muestral es finito si tiene un número de sucesos elementales finito.
b) Espacios muestrales infinitos numerables. Tiene infinitos sucesos elementales pero estos pueden ponerse
en correspondencia biunívoca con los números naturales.
c) Espacios muestrales infinitos no numerables. Tiene infinitos sucesos elementales pero éstos no pueden
ponerse en correspondencia biunívoca con los números naturales.
PROBABILIDAD
El concepto de probabilidad hace referencia a como los eventos puntuales que tienen resultados inciertos, al
estudiar su repetición un número grande veces, comienzan a tener resultados globalmente previsibles, y a mostrarse
sujetos a ciertas leyes. La probabilidad es un concepto ideal, pues se refiere a las frecuencias con las que ocurrirían
las cosas en el caso hipotético de que los eventos se repitiesen un número infinitamente grande de veces y en las
mismas condiciones. La confianza puesta en cada uno de los elementos posibles en la próxima realización del evento
debe ser proporcional al número de repeticiones que cada una de esas alternativas se darían en el futuro. La
asignación de números a esos grados de confianza depositados en la obtención de cada resultado es la clave del
concepto de probabilidad:
La probabilidad de un suceso es un número que cuantifica en términos relativos las opciones
de verificación de ese suceso.
Un suceso sin opción alguna tendría una probabilidad igual a 0, y un suceso con todas las opciones tendrían una
probabilidad igual a 1. Cualquier suceso con un número de opciones intermedio entre esos dos tendrá como
probabilidad asociada un número intermedio cuya magnitud represente cuantitativamente esas opciones. No
obstante a veces se utilizan porcentajes para indicar probabilidad, que es lo mismo, pero estrictamente hablando
esos valores no son probabilidades, sino porcentajes de posibilidades que expresan cuantas de cada cien veces se
espera que ocurra el suceso.
ENFOQUE CLÁSICO
La aplicación del enfoque clásico o a priori exige la aceptación del llamado principio de indiferencia, según el cual
todos los elementos del espacio muestral tienen las mismas opciones de ser verificados al realizar un experimento
aleatorio. Desde el enfoque clásico que exige asumir el principio de indiferencia se define la probabilidad de un
suceso como la frecuencia relativa de ese suceso en el espacio muestral. Desde este enfoque la probabilidad de un
suceso es igual al cociente entre el número de casos favorables y posibles. Los procedimientos habitualmente
utilizados para determinar estas cantidades reciben los nombres de técnicas de contar o combinatoria. De la forma
de definir la probabilidad de este enfoque se deducen:
a) La probabilidad de un suceso es un valor que oscila entre 0 y 1.
b) Un suceso que no contiene ningún suceso elemental tiene una probabilidad igual a 0, y por ello recibe el
nombre de suceso imposible.
c) Un suceso que contiene todos los sucesos elementales del espacio muestral tiene una probabilidad igual a 1
y por ello recibe el nombre de suceso seguro.
d) La suma de las probabilidades de un suceso y su complementario es igual a 1.
ENFOQUE FRECUENCIALISTA
La probabilidad se determinaría mediante una operación ideal de repetición sistemática del experimento
aleatorio y de cómo del número de veces que se verifican los sucesos. Las opciones de verificación de un suceso se
manifestarían en el número de veces que se repite este al realizar una y otra vez el experimento aleatorio.
Representa proporcionalmente a su probabilidad, el número de veces que se realiza el experimento debe ser
infinitamente grande. Por tanto, desde el enfoque frecuencialista la probabilidad de un suceso A se define como el
límite de la frecuencia relativa de apariciones de ese suceso cuando el número de repeticiones del experimento
aleatorio tiende a infinito.
La diferencia fundamental entre este enfoque y el anterior es que mientras en el primero n era el tamaño del
espacio muestral, en este representa el número de repeticiones del experimento aleatorio. De esta definición se
deducen las mismas consecuencias y propiedades que exponíamos en conexión con el enfoque clásico.
La hipótesis nula es la hipótesis que se somete a contraste. Consiste generalmente en una afirmación concreta
sobre la forma de una distribución de probabilidad o sobre el valor de alguno de los parámetros de esa distribución.
La hipótesis alternativa es la negación de la nula, incluye todo lo que la nula excluye. Mientras la nula suele ser una
hipótesis exacta (tal cosa es igual a tal otra), la alternativa suele ser inexacta (tal cosa es distinta, mayor o menor que
otra). Cuando en Hi aparece el signo “distinto” decimos que el contraste es bilateral o bidireccional. Cuando en Hi
aparece los signos mayor o menor, decimos que el contraste es unilateral o unidireccional. La hipótesis nula y
alternativa suelen plantearse como hipótesis rivales. Son exhaustivas y mutuamente exclusivas, lo cual implica que si
una es verdadera, la otra es necesariamente falsa.
El signo de igualdad siempre va en la hipótesis nula.
SUPUESTOS
Para que una hipótesis estadística pueda predecir un resultado muestral con cierta exactitud es necesario, en
primer lugar, que la distribución poblacional con la que se va a trabajar esté completamente especificada. Son
hipótesis que especifican por completo las distribuciones poblacionales a las que hacen referencia. Se las llama
simples. Las hipótesis en las que la distribución poblacional no queda completamente especificada reciben el nombre
de compuestas. Lo ideal es plantear hipótesis nulas simples, pero ocurre que ni los intereses del investigador se
corresponden siempre con el contenido de una hipótesis simple.
Los supuestos de un contraste de hipótesis hacen referencia al conjunto de condiciones que deben cumplirse para
poder tomar una decisión sobre la hipótesis nula Ho basada en una distribución de probabilidad conocida.
Los supuestos de un contraste de hipótesis son un conjunto de afirmaciones que necesitamos establecer
(sobre la población de partida y sobre la muestra utilizada) para conseguir determinar la distribución de
probabilidad en la que se basará nuestra decisión sobre Ho.
Algunos de estos supuestos son más restrictivos o exigentes que otros. Es importante tener presente que el
incumplimiento de uno o varios supuestos podrían invalidad el contraste y llevarnos a una decisión errónea.
Conviene, por tanto, que los supuestos sean pocos y poco exigentes.
ESTADÍSTICO DE CONTRASTE
Un estadístico de contraste es un resultado muestral que cumple la doble condición de proporcionar
información empírica relevante sobre la afirmación propuesta en la hipótesis nula y, poseer una
distribución muestral conocida.
La primera condición que debo cumplir es que debemos recurrir a un estadístico que sea capaz de detectar
cualquier desviación de la afirmación establecida en Ho. Para contrastar la hipótesis, lo razonable será utilizar la
información muestral proporcionada por el estadístico X
La segunda condición que debe cumplir un resultado muestral para poder ser utilizado como estadístico de
contraste es la de poseer una distribución muestral conocida. Un estadístico es una variable aleatoria y como tal,
tiene su propia función de probabilidad a la que denominamos distribución muestral. Es en la distribución muestral
del estadístico de contraste en la que nos vamos apoyar para tomar una decisión respecto Ho en términos de
probabilidad.
Una vez planteada la hipótesis, es necesario seleccionar el estadístico de contraste capaz de proporcionarnos
información relevante sobre ellas y establecer los supuestos necesarios para conseguir determinar la distribución
normal del estadístico.
REGLA DE DECISIÓN
La regla de decisión es el criterio que vamos a utilizar para decidir si la hipótesis nula planteada debe o no ser
rechazada. Este criterio se basa en la partición de la distribución muestral del estadístico de contraste en dos zonas
mutuamente exclusivas: la zona de rechazo y la zona de aceptación.
La zona de rechazo también llamada zona crítica, es el área de la distribución muestral que corresponde a los
valores del estadístico de contraste que se encuentran tan alejados de la afirmación establecida en Ho, que es muy
poco probable que ocurran si Ho, como se supone, es verdadera. Su probabilidad es alfa (nivel de significación).
La zona de aceptación es el área de la distribución muestral que corresponde a los valores del estadístico de
contraste próximos a la afirmación establecida en Ho. Es, por tanto, el área correspondiente a los valores del
estadístico de contraste que es probable que ocurran si Ho como se supone, es verdadera. Su probabilidad es 1 – alfa,
valor llamado nivel de confianza.
La regla de decisión consiste en rechazar Ho si el estadístico de contraste toma un valor perteneciente a
la zona de rechazo o crítica; mantener Ho si el estadístico de contraste toma un valor perteneciente a la
zona de aceptación
Se rechaza una hipótesis sometida a contraste cuando el valor del estadístico de contraste cae en la zona crítica; y
se rechaza porque eso significa que el valor tomado por el estadístico de contraste se aleja demasiado de la
predicción establecida por esa hipótesis, es decir, porque, si la hipótesis planteada fuera verdadera, el estadístico de
contraste no debería haber tomado ese valor; como de hecho el estadístico ha tomado es el valor, la conclusión más
razonable será que la hipótesis planteada no es verdadera.
El tamaño de las zonas de rechazo y aceptación se determina fijando el valor de alfa, es decir, fijando el valor de
significación con el que se desea trabajar. Alfa será, necesariamente, un valor pequeño.
La forma dividir la distribución muestral en zonas depende de si el contraste es bilateral o unilateral. La zona
crítica debe estar situada allí donde puedan aparecer los valores muestrales incompatibles con Ho, es decir, allí donde
puedan aparecer los valores muestrales que apunten en la dirección propuesta en H. En los contrastes bilaterales, la
zona crítica se encuentra, generalmente repartida a partes iguales entre las dos colas de la distribución muestral. En
los contrastes unilaterales la zona crítica se encuentra en una de las dos colas de la distribución muestral.
DECISIÓN
El paso consiste en obtener una muestra aleatoria de tamaño n, calcular el estadístico de contraste y tomar una
decisión. Tal decisión se toma siempre, respecto a Ho, y consiste en rechazarla o mantenerla de acuerdo con el valor
tomado por el estadístico de contraste y las condiciones establecidas en la regla de decisión: si el estadístico de
contraste cae en la zona critica, se rechaza H o; si el estadístico de contraste cae en la zona de aceptación, se mantiene
Ho.
Una decisión, en el contexto del contraste, siempre consiste en rechazar o mantener una Ho particular. Si la
rechazamos estamos afirmando que esa hipótesis es falsa, es decir, estamos afirmando con una probabilidad alga de
equivocarnos, que hemos conseguido probar que esa hipótesis es falsa. Por el contrario, si la mantenemos, no
estamos afirmando que hemos probado que esa hipótesis es verdadera, simplemente estamos afirmando que no
disponemos de evidencia empírica suficiente para rechazarla y que por lo tanto, podemos considerarla compatible
con los datos
Cuando decidimos mantener una hipótesis nula, queremos significar con ello que consideraos que esa
hipótesis es compatible con los datos. Cuando decidimos rechazar una hipótesis nula, queremos significar
con ello que consideramos probado que esa hipótesis es falsa
La razón de que esto sea así es doble. Por un lado, dada la naturaleza inespecífica de Hi, raramente es posible
afirmar que Hi no es verdadera; las desviaciones pequeñas de Ho forman parte de Hi, por lo que al mantener una Ho
particular, también se están manteniendo algunos valores de Hi; debe concluirse que se mantiene o se rechaza Ho,
pero nunca que se acepta como verdadera. Por otro lado, en el razonamiento estadístico que lleva a la toma de una
decisión respecto a Ho puede reconocerse el argumento deductivo modus tollens.
ERRORES DE TIPO I Y II
Ho puede ser verdadera o puede ser falsa. Si Ho es verdadera y la mantenemos estaremos tomando una decisión
correcta; si es falsa y la rechazamos, también estaremos tomando una decisión correcta. Pero si Ho es verdadera y la
rechazamos, estaremos cometiendo un error e igualmente estaremos cometiendo un error si Ho es falsa y la
mantenemos.
Llamamos error de tipo I al que se comete cuando se decide rechazar una Ho que en realidad es
verdadera. La probabilidad de cometer ese error es alfa.
Llamamos error de tipo II al que se comete cuando se decide mantener una Ho que en realidad es falsa.
La probabilidad de cometer ese error es beta.
Por tanto I –α será la probabilidad de tomar una decisión correcta cuando Ho es verdadera. Y 1-beta será la
probabilidad de tomar una decisión correcta cuando Ho es falsa. La probabilidad de cometer un error I con nuestra
decisión es una probabilidad conocida, pues el valor de alfa lo fija el propio investigador. Sin embargo, la probabilidad
de cometer un error de tipo II, es un valor desconocido que en un contraste depende de tres factores: la verdadera
Hi, el valor de alfa y el tamaño del error típico de la distribución muestral utilizada para efectuar el contraste.
POTENCIA
La potencia (1-B) de un contraste es la probabilidad de rechazar una hipótesis nula que en realidad es
falsa.
Cuando hablamos de la potencia de un contraste, por tanto, nos estamos refiriendo a la capacidad de ese
contraste para detectar que una hipótesis concreta es falsa. Para poder calcular la potencia de un contraste
necesitamos referirnos a una afirmación de las muchas definidas en Hi.
NIVEL CRÍTICO Y TAMAÑO DEL EFECTO.
La probabilidad de cometer un error de tipo I se establece antes de efectuar el contraste para evitar que influya en
la decisión final. En ese sentido, podemos entender el nivel de significación como el riesgo máximo que estamos
dispuestos a asumir al tomar la decisión de rechazar la hipótesis concreta.
Efectuar un contraste estableciendo previamente un nivel de significación es lo que se hace, aunque trae
inconvenientes:
1. La decisión sobre Ho puede depender decisivamente del nivel de significación establecido. Podemos decidir
mantener la hipótesis con α = 0.01 y rechazarla con α = 0.05.
2. Decidir si Ho es o no falsa no proporciona ningún tipo de información sobre el grado en el que la evidencia
muestral se muestra incompatible con esta hipótesis.
Si consideramos que cometer un error de tipo I es muy grave, adoptaremos para alfa un valor más pequeño que si
consideramos que cometer ese error no tiene consecuencias graves. Pero recordemos que al hacer más pequeño el
valor de alfa, la potencia del contraste disminuye automáticamente (que es igual que decir que la potencia de que se
produzca un error II se incrementa). Eso puede llevar a cometer un error II por querer evitar el I.
Llamamos nivel crítico y lo representamos por p, al nivel de significación más pequeño al que una
hipótesis nula puede ser rechazada con el estadístico de contraste obtenido
Podemos definir el nivel crítico, más brevemente, como la probabilidad asociada al estadístico de contraste. En
términos generales, en un contraste unilateral, el nivel crítico es la probabilidad asociada a los valores mayores
(contraste unilateral derecho) o menores (contraste unilateral izquierdo) que el estadístico de contraste obtenido; en
un contraste bilateral, el nivel crítico es la probabilidad asociada a los valores que se encentran tan alejados de Ho
como, al menos, el estadístico de contraste. Según esto, el nivel crítico se obtiene, a diferencia de lo que ocurre con
el nivel de significación, después de efectuar el contraste, es decir, una vez obtenido el estadístico de contraste.
Decidir si una hipótesis es o no falsa no constituye, en la mayor parte de las situaciones experimentales, un criterio
suficiente para determinar si el experimento realizado contribuye o no de la forma significativa al desarrollo de una
teoría o de una línea de investigación. Esto es así porque la decisión a la que se llega en un contraste de hipótesis
sobre la base del grado de discrepancia existente entre la Ho planteada y la evidencia muestral observada depende
directamente, según hemos señalado ya, del tamaño de la muestra utilizada. Tamaños muestrales grandes pueden
llevarnos a considerar estadísticamente significativas discrepancias muy pequeñas y tamaños muestrales muy
pequeños pueden llevarnos a considerar estadísticamente insignificantes discrepancias teóricamente relevantes.
El nivel crítico, no solo nos ayuda a tomar una decisión sobre Ho, sino que su tamaño nos informa sobre el grado
de compatibilidad o discrepancia existente entre la evidencia muestral observada y esa Ho. Podemos decir que el
tamaño del nivel crítico nos está informando sobre el grado en el que la evidencia empírica obtenida se muestra
incompatible con la Ho planteada.
La utilización del nivel crítico como una medida del grado de discrepancia entre la Ho planteada y la evidencia
muestral observada tiene el inconveniente de que el valor del nivel crítico está condicionado por el tamaño de la
muestra concreta utilizada. Necesitamos, por tanto, otra medida de ese grado de discrepancia que no dependa del
tamaño de la muestra tamaño del efecto
Decidir si una hipótesis es o no falsa no constituye un criterio suficiente para determinar si el experimento
realizado contribuye o no de forma significativa al desarrollo de una teoría o de una línea de investigación. Esto es así
porque la decisión a la que se llega en un contraste de hipótesis sobre la base del grado de discrepancia existente
entre Ho planteada y la evidencia muestral observada depende directamente del tamaño de la muestra utilizada.
Tamaños muéstrales grandes pueden llevar a considerar como estadísticamente significativas discrepancias muy
pequeñas; y tamaños muéstrales muy pequeños pueden llevarnos a considerar estadísticamente insignificante
discrepancias teóricamente relevantes.
CONTRASTE BILATERALES Y UNILATERALES
Cuando un investigador desea comprobar si un parámetro toma o no un determinado valor, si dos grupos
difieren entre si en alguna variable, si dos variables son independientes, etc., puede someter a contraste de hipótesis
como estas: Ho: µ= 0,5; Hi: µ ≠ 0,5
Las hipótesis formuladas no contienen ninguna predicción sobre la dirección en la que se puede producir un
resultado muestral incompatible con la afirmación establecida en Ho. Lo cual está reflejado en Hi, con el signo de" ="
Así, por ejemplo, si se quiere estudiar si los varones y las mujeres difieren en inteligencia, y no existen una
expectativa justificada sobre cuál de los dos grupos es más inteligente, lo razonable será plantear un contraste
bilateral: Ho: µv = µm; Hi: µv ≠ µm
Cuando se utiliza la distribución normal o la distribución t de Student en un contraste bilateral, la zona critica está
repartida en partes iguales, entre las dos colas de la distribución muestral. De ahí el nombre bilateral.
Cuando un investigador desea comprobar si el valor de un parámetro ha aumentado, si un grupo supera o es
mejor que otro en alguna variable, si dos variables se encuentran negativamente relacionadas, etc. puede someter a
contraste hipótesis como estas: Ho: µ ≤ 0,65; Hi: ≠ 0,65
A este tipo de contraste se les llama unilaterales. Las hipótesis contienen una predicción concreta sobre la
dirección en la que se puede producir un resultado muestral incompatible con la afirmación establecida en Ho. Lo
cual esta reflejado en Hi, con los signos "< y >"
Cuando se utiliza la distribución normal o la distribución t de Student en un contraste bilateral, la zona critica está
en una de las dos colas de la distribución.
WELKOWITZ
RANGO PERCENTILAR
Una forma de suministrar la información adicional consiste en transformar la puntuación original (puntuación
directa) en una nueva puntuación que mostrar de forma inmediata la situación de un individuo en comparación con
los demás estudiantes de la clase: los percentiles.
El rango percentil de un valor dado es un número que expresa el tanto por ciento de casos en el grupo específico
de referencia, cuyo valor es igual o inferior al dado. Por ejemplo: a una puntuación de 41 le corresponde un rango 85,
significa que el 85% de la clase obtuvo una puntuación igual o inferior a 41 puntos, mientras que sólo un 15% de la
clase recibió puntuaciones más elevadas. Un percentil es un valor no superado por un tanto por ciento dado de los
casos registrados. Una puntuación que nos colocase en el percentil 5° debería inquietarnos, pues significaría que el
95% de la clase lo hizo mejor que nosotros y solo un 5% se comporto peor o igual. Así, el percentil muestra
directamente como un valor concreto se compara con los demás en un grupo específico.
No se puede interpretarse correctamente un percentil si no se conoce perfectamente un grupo de referencia en
cuestión.
Un percentil compara un valor con un grupo específico de valores.
- PROCEDIMIENTO DE CALCULO: para encontrar el rango del percentil correspondiente a la calificación de 41,
solo hay que hacer lo siguiente:
1. Localizar el intervalo de clase al que pertenece dicha calificación (intervalo critico)
2. Clasificar las frecuencias (f) en tres categorías: las correspondientes a todas las calificaciones superiores al
intervalo crítico, las correspondientes a todas las calificaciones del intervalo crítico y las correspondientes a todas las
calificaciones inferiores a dicho intervalo.
En orden a determinar exactamente nuestra situación en el intervalo crítico debemos cerciorarnos de cuál es el
límite inferior real del mismo. Una regla conveniente consiste en situar el límite inferior real de un intervalo
exactamente en el punto medio entre la calificación más baja de este intervalo y la más alta inmediatamente
inferior.