Está en la página 1de 35

UNIDAD1: CAPITULO 1

Población: Es un conjunto de elementos, unidades de análisis que presentan características que son objeto de un
estudio en particular. Pueden ser humanos, escuelas, familias, animales, etc. Debe estar definida en tiempo y
espacio. Como son muy numerosas, se trabaja con MUESTRAS (subconjunto de elementos de una población).

Una vez completados los cuestionarios, la información está “en bruto” y es necesario ordenarla para interpretar. Eso
se logra organizando los datos recogidos en la matriz de datos: es un arreglo en el que cada fila (horizontal)
representa un individuo del cual proviene la información, cada columna (vertical) es un aspecto de ese individuo
(variable), que se ha seleccionado para observar, y cada celda es el valor que tiene el individuo de la fila en el
aspecto de la columna correspondiente. Cada columna es un item del cuestionario.

Los individuos pueden ser personas, o también entidades colectivas, elementos de una población. Cada una de ellas
se denomina unidad de análisis: entes individuales acerca de los que se analizan sus cualidades. Si las unidades de
análisis fuesen escuelas, sus características, dependiendo de la investigación de que se trate, podrían ser:
dependencia (estatal o privada), nivel (primaria, secundaria, ambas), cantidad de alumnos, turnos (mañana, tarde,
ambos), etc. Si se tratara de hogares, puede observarse: cantidad de miembros, composición, actividad económica,
etc.

Las variables son las características de los individuos que se someterán al análisis, que pueden asumir distintos
valores en cada uno de ellos. Ej. Sexo, la carrera que cada estudiante cursa, el año en que ingresó, etc. Pueden variar.
Constituyen cada ítem del cuestionario, que a su vez forma una columna en la matriz de datos; es decir un aspecto
seleccionado de las unidades de análisis sobre el que se llama la atención.

Las categorías: son las posibilidades que tiene una variable, los valores que puede asumir. Ej. La variable sexo tiene 4
categorías (varón, mujer, otro, prefiere no responder).

Las categorías deben cumplir con dos propiedades:

1) Exclusión mutua: Todo individuo debe poder incluirse en alguna de las categorías de una variable y solo en
una. Ej. Al analizar los tipos de lectura preferida, nos equivocaríamos si los categorizáramos como de ficción,
de misterio, policiales, románticas, biográficas, de aventuras; ya que la categoría ficción puede incluir
misterio, policiales, novelas románticas o de aventuras.
2) Exhaustividad: las categorías deben agotar todas las posibilidades de variación. Ej. Si evaluamos la variable
situación conyugal y ofrecemos como categorías: casado, soltero, divorciado, viudo; las personas que estén
viviendo juntas sin estar casadas no encuentran un lugar donde ubicarse. Para resolver esto es necesario, o
incluir estas categorías explícitamente: casado, unido, soltero, separado, divorciado, viudo; o bien
fusionarlas con las existentes: casado o unido, soltero, separado o divorciado, viudo. Todo individuo tiene
alguna categoría que le corresponda.

Tipos de variables

Variable cualitativa: Cuando sus valores son símbolos o números (q funcionan como etiquetas). Son atributos,
cualidades de los individuos cuyos valores no admiten orden entre ellos. Ej. Sexo, lugar de residencia, ocupación.

Variable cuantitativa: Sus valores son siempre números con características de números, no etiquetas. Se dividen en
discretas y continuas. Las discretas se pueden enumerar (ej. Cantidad de palabras recordadas en un dictado o la
cantidad de miembros de una flia). Las continuas pueden tomar valores a lo largo de un intervalo de números reales,
no se pueden enumerar (ej. Tiempo empleado en responder a un estímulo).

Los símbolos numéricos: Las categorías pueden tener diferente naturaleza: algunas se expresan con números (como
la edad) y otras con palabras (como la carrera que cursa), otras en graduaciones (como el grado de acuerdo); sin
embargo, es muy común representar con números a las categorías. Ej. en la variable “nivel de educación”, pueden
codificarse las categorías de la siguiente manera: Código numérico/Máximo nivel de educación formal alcanzado 
1/ninguno, 2/primario incompleto, 3/primario completo, etc.

La medición: Es asignar números a los objetos conforme a ciertas reglas de modo que las propiedades de estos se
vean reflejadas en los números que las representan. El nivel de medición de una variable está determinado por el
significado que tengan los símbolos numéricos que se asignan a las categorías. Existe una graduación en el
significado que tienen los números, y por eso se habla de niveles, que pueden ser más altos o bajos. En la variable
sexo, haber elegido 1 para varones y 2 para mujeres es de una arbitrariedad, por lo que 25 y 38 tambien podrían ser.

Niveles de medición

Cuánta más restricción haya en la asignación de los números a las categorías, más alto será el nivel de medición de
las variables. Si los números se asignan de manera totalmente arbitraria, el nivel de medición es el más bajo de todos
y se llama nivel nominal (como en la variable sexo); si los números deben respetar el orden de las categorías (como
en la educación), la variable se llama de nivel ordinal.

El nivel nominal: Una variable está medida a este nivel si los números que representan cada categoría son asignados
de manera arbitraria y solo cumplen con la función de designar y distinguir categorías, por lo que es indiferente que
numero elijo en tanto respete la regla de asignación. Atención: no es válido usar el mismo número más de una vez, a
categorías diferentes DEBEN corresponderles números diferentes. Si no cumpliéramos con esto confundiríamos las
categorías que corresponden a cada individuo.

Ej. Carrera que cursa (1. Ps; 2. Antro; 3. Socio). El único tipo de relación que puede establecerse entre ellas es decir
que 1 es diferente de 2.

Requisito para la transformación de una escala nominal en otra: los números se pueden cambiar por otros en tanto
no se repita el mismo para diferentes categorías. La escala nominal 1, 2, 3, 4 puede cambiarse por la 5, 8, 4, 2.

El nivel ordinal: los números que representan cada categoría son asignados de manera que respeten el orden según
aumenta o disminuye la característica que la variable mide. Los símbolos numéricos no solo designan, también
reflejan jerarquía (una categoría es mayor o menor que otra). Ej. Grado de escolarización: primario incompleto es un
nivel de estudios superior a ninguno, pero inferior a primario completo.

Requisito para la transformación de una escala ordinal en otra: no se puede repetir ningún número (como en la
nominal) y tienen que seguir el mismo orden. La escala ordinal 1, 2, 3, 4 puede cambiarse por la 5, 8, 15, 23.

El nivel intervalar: las distancias entre las categorías son proporcionales, se construye una escala en la que las
categorías están proporcionalmente distanciadas entre sí. Esto permite especificar la distancia que separa a cada
categoría de las demás. El 0 es arbitrario, no indica ausencia de aquello que se mide. Por ej. La temperatura, si yo
veo 0° no significa que no hay temperatura, y eso es porque el 0 está de manera arbitraria. Ej. Puntaje en un
examen. Como el 0 es arbitrario, no tiene sentido interpretar los cocientes entre los niveles de escala, porque si yo
cambio al cero de lugar todo lo que estableci antes deja de tener sentido.

Ej. No compartimos el año cero con el calendario judío, para ellos estamos 5778, mientras que el cristiano contempla
el 2018. Sin embargo, el tiempo transcurrido entre 1975 y 2005 es de treinta años, como lo es el tiempo transcurrido
entre 5735 y 5765. Es decir que la transformación que lleva los años de un calendario al otro conserva las distancias.
Eso sucede porque las dos escalas se distinguen solo en la elección del origen (la posición del cero) pero no en la
definición de lo que es un año. Ubicar el cero en un momento o en otro es una elección; ese cero no indica la
ausencia de tiempo. En este caso, cero no quiere decir “nada”, sino “origen elegido”.

Ejemplo. El manual original del Inventario de Depresión de Beck-II establece niveles (ordinales) para los puntajes
(intervalares) que resultan de la aplicación del instrumento: Puntaje en la escala/Significado  (0-13) /depresión
mínima, (14-19) /depresión leve, (20-28) /depresión moderada, (29-63) /depresión grave

Requisito de transformación: si x e y representan la medición del mismo atributo en diferentes escalas, puede
obtenerse y a partir de x a través de la siguiente operación: y=b0 +b1 × x . Se usan los símbolos b0 y b1 para indicar
dos números fijos elegidos arbitrariamente. B0 indica el desplazamiento en el origen de la escala: allí donde x valga
0, y tomará el valor de b0. Por su parte, b1 es un factor de escala, que modifica el tamaño de la unidad de medida.

El nivel proporcional: sus valores respetan relaciones de proporcionalidad y el cero tiene un valor absoluto, indica la
ausencia del atributo que se mide (cantidad de materias aprobadas, cantidad de hermanos). Los números se
comportan como números, se puede operar con ellos (sumarlos, multiplicarlos, etc.).
Ej. La cantidad de errores ortográficos cometidos en una prueba, admite el valor cero como correspondiente a “no
errores”, es la ausencia de lo que se mide, se trata de un cero absoluto. Además, cometer 10 errores es el doble que
cometer 5. Por eso, la variable “Número de errores ortográficos cometidos” es de nivel proporcional.

Requisito de transformación entre escalas proporcionales: si x e y representan la medición del mismo atributo en
diferentes escalas: y=b1 × x . Ahora solo tenemos un número fijo: b1, que es el factor de escala, que modifica el
tamaño de la unidad de medida; pueden cambiarse las unidades con que se miden las variables proporcionales.

Variable discreta  los siguientes son ejemplos de ella: cantidad de materias aprobadas 0, 1, 2, 3, 4 o más. Aquí
podría suceder que la variable tenga un gran número de valores. Valores consecutivos, no hay valores intermedios.
Por ejemplo: número de hijos, número de aciertos en una prueba, etc. Las frecuencias se concentran en puntos
individuales.

Variable continua  Cuando admite números decimales; el número de valores puede ser muy elevado. Aquella en la
que entre dos valores cualquiera siempre pueden encontrarse valores intermedios.

Ya sea porque una variable discreta tiene una cantidad grande de valores, o bien porque la variable es continua, el
problema de la presentación de las categorías se resuelve agrupándolas. Esto se llama recategorización porque
consiste en construir nuevas categorías a partir de las originales de la variable, a fin de resumir la información. Por
ejemplo, Estatura (en metros) hasta 1,55 1,55 – 1,65 1.65 – 1.75 1,75 – 1,85 1,85 – 1,95 1,95 – 2,05 más de 2,05.
Nivel de Significado de los Requisito para cambiar los
Ubicación del cero Ejemplos
medición símbolos numéricos números
Que no se repita el mismo Cepa de la que provienen
Nominal Designan, distinguen número para diferentes Sin significado animales de laboratorio;
categorías ocupación.
Que respeten el orden Nivel de escolarizacion
Ordinal Expresan orden creciente o decreciente de Sin significado alcanzado; grado de dificultad de
las categorías un examen.
Reflejan la
Discreta: Año de calendario.
Intervalar proporcionalidad de ‫ݕ‬ൌ ܾ଴ ൅ ܾଵ ‫ݔ כ‬ Arbitrario
Continua: Puntaje del CI.
las distancias
Discreta: número de palabras
Reflejan la
Absoluto (indica la recordadas en un exámen de
proporcionalidad de
Proporcional ausencia de lo que memoria. Contínua: tiempo
los valores de la ‫ݕ‬ൌ ܾଵ ‫ݔ כ‬
se mide) empleado en responder un
variable
cuestionario.

UNIDAD 1: CAPITULO 2

Una vez que se obtiene la matriz de datos se obtiene un conjunto de valores de varias variables que hay que
organizar para extraer más fácilmente la información. Para eso se construye la distribución de frecuencias, que
permiten realizar representaciones graficas.

Frecuencia absoluta simple: Es el número de veces que un valor se repite en la muestra, y se simboliza con “f”. El
número de casos que asumen un determinado valor de una variable. Ej. En la variable “sexo”, la f estaría
k
representada por el total de casos que respondieron varón o mujer. ∑ fi=n  n es el tamaño de la muestra, el
i=1
total; k es el número de valores diferentes de la variable. Se lee “La sumatoria de las frecuencias desde 1 hasta k es
igual al total de observaciones”. Todos los niveles de medición.

Frecuencia relativa simple: Es el resultado de la división entre la frecuencia absoluta y el total de casos (el tamaño de
la muestra), la proporción de casos que asumen un valor. Se simboliza con f´ (efe prima). El resultado se puede
representar en números decimales o bien como un porcentaje al multiplicarlo por 100, generando una frecuencia
k
porcentual. Proporción: ∑ f ´ i=1  Si se suman todas las proporciones se obtiene la unidad, siempre tiene que
i=1
dar 1. Todos los niveles de medición. Expresa el peso que tiene un valor sobre el total de observaciones.
xi (Lugar de residencia) fi f´i f%i
1 CABA 9 0,45 45
2 Gran Buenos Aires 9 0,45 45
3 Otro 2 0,1 10
Totales 20 1 100
Ej.

Frecuencias acumuladas absolutas: la cantidad de casos que asumen un determinado valor y todos los valores
menores a él; se simboliza como F. Pero solo para variables medidas a ESCALA ORDINAL O SUPERIOR, porque con
variables nominales no se puede decir que una categoría es mayor o menor que otra. El cálculo consiste en contar
las frecuencias de la categoría que interesa y sumarla a las frecuencias de las categorías anteriores a ella. “36 de los
encuestados tienen 20 años o menos”. Solo en nivel ordinal o superior. Tengo que sumar cada frecuencia absoluta
simple con la anterior. La primera F, será la primera f.

Frecuencia relativa acumulada: es la proporción de casos que asumen un valor y todos los valores menores a él; se
identifica como F´. “Un 0,56 de los encuestados tienen 20 años o menos”. Nivel ordinal o superior. Tengo que sumar
cada frecuencia relativa simple con la anterior. La primera F´, será la primera f´.

Las frecuencias relativas y las porcentuales, a diferencia de las absolutas, se utilizan para expresar el peso que tiene
cada valor de la variable en el total de observaciones.

Representación grafica

Para variables nominales con pocas categorías, se puede utilizar un grafico de barras o un grafico de torta (hasta
tres variables). Para variables cuantitativas (medición intervalar o proporcional), se usan los histogramas (y=
frecuencia relativa; x= valor en intervalos). Lugar de residencia
Por ejemplo, en un grafico de torta los sectores circulares son proporcionales a CABA Gran Bs As
las frecuencias de los valores de la variable. Otro

CABA  a 1=f ´ 1∗360 °=0,45∗360 °=162 ° 10%

Gran Bs As  a 2=f ´ 2∗360 °=0,45∗360 °=162 ° 45%


45%

Otro  a 3=f ´ 3∗360∨¿ 0,1∗360 °=36 °

En las variables discretas las frecuencias se concentran en valores individuales mientras que en las continuas
reparten en intervalos. Un histograma, para una variable continua, puede transformarse en un polígono de
frecuencia al unir los puntos medios de cada intervalo. El polígono suaviza el histograma ayudando a abstraer una
curva que muestra la forma de la distribución. Para variables cuantitativas discretas se puede usar el grafico de
bastones, porque indican que toda la frecuencia se concentra en un punto y no en un intervalo alrededor del mismo.
Según sus valores Según su nivel de medición Ejemplos
Profesión, tipo de trastorno, estado civil,
Nominal
Cualitativas : Sus valores son nacionalidad
atributos o cualidades de la Grado de acuerdo con una opinión, grado de
unidad de análisis Ordinal satisfacción, orden de mérito en un concurso,
nivel socioeconómico
Cuantitativas : Sus valores Temperatura, puntaje en un test
Intervalar
son cantidades numéricas. estandarizado (CI)
Pueden ser discretas (sus Medidas físicas: son continuas (tiempo,
valores se pueden longitud, superficie). Conteo: Discretas
enumerar) o continuas (sus Razón (cantidad de pacientes con depresión entre los
valores posibles constituyen que llegan al consultorio, cantidad de palabras
un intervalo de números memorizadas).

Hay variables en Psicología que no son directamente observables, como la memoria, a las cuales se las denomina
“Constructos”. Para poder medirlos hay que operacionalizarlos, indicando los procedimientos necesarios para
obtener un valor aplicable a un individuo. Por ej. Estado de depresión. Ej. Un investigador entrevistó a un grupo de
adultos mayores y registró la cantidad de veces por semana que realizan actividad física para determinar si tienen
una actitud positiva hacia el ejercicio físico. El constructo sería la actitud hacia el ejercicio físico de los adultos
mayores.
Clasificación de variable según su tipo Escala de medición
Nominal: "¿Está usted deprimido?"
Cualitativa
Ordinal: Grados de depresión
Intervalar: Puntajes de inventario de depresión
Cuantitativa (puede ser discreta o de Beck
continua) Razón: Cantidad de días que hace que no se
levanta de la cama

 Diagrama de Tallos y Hojas : permite obtener simultáneamente una distribución de frecuencias de la


variable y su representación gráfica. Para construirlo basta separar en cada dato el último dígito de la
derecha (que constituye la hoja) del bloque de cifras restantes (que formará el tallo). Esta representación de
los datos es semejante a la de un histograma, pero además de ser fáciles de elaborar, presentan más
información que estos. El tallo y hoja sirve para variables cuantitativas discretas y continuas no informada
en intervalos.

Los valores de una variable que han sido observados en una muestra pueden enumerarse conociendo su
diagrama de tallo-hoja.

 Diagrama de bigotes: Variables cuantitativas discretas y continuas. Depende de como aparezca la mediana
dentro de la caja podemos ver e interpretar cuan concentrados están los datos. Si dentro de la caja la
mediana corta dejando un espacio muy grande y otro chico, dentro de ese pequeño espacio hay mucha
cantidad de datos concentrados (por ej. Mucha gente que se saco un 7 en el examen). A este grafico hay que
pensarlo en términos de dispersión, porque sirve para interpretar de que manera esta distribuida la muestra
(asimetría por ejemplo), si los datos están mas concentrados o dispersos y en torno a que valores. Puedo ver
cuan lejos están los valores de la centralidad.

 Diagrama de torta: Variable cualitativa nominal.

 Diagrama de barras: Variable cualitativa nominal y ordinal. Cuantitativas discretas. En el eje x van los valores
discretos de la variable y en el eje Y las frecuencias relativas o porcentuales.

 Diagrama de Bastones: Variable cuantitativa DISCRETA. Los bastones son barras delgadas que deben estar
apoyadas sobre los puntos del eje horizontal que corresponden a los valores numéricos de la variable.

 Escalonado (para frecuencias acumuladas): cuantitativas discretas.

 Histograma: Distribución de frecuencias agrupadas en intervalos de clase (CUANTITATIVAS CONTINUAS). Los


valores de la variable quedan representados en el eje horizontal, mientras que las frecuencias se indican en
el eje vertical. Todos los intervalos de igual longitud. Sobre ellos se levanta un rectángulo de altura
correspondiente a su frecuencia. El histograma no muestra los tiempos individuales ni los tiempos exactos.
Sin embargo, es una bonita forma de ver la tendencia de los datos. Variable cuantitativa continua.

Las áreas bajo el histograma son proporcionales a las frecuencias de los intervalos de valores
correspondientes a una variable cuantitativa continua.

 Ojiva de Galton: Sirve para representar variables cuantitativas continuas, es decir, en intervalos. Además,
permite interpolar valores que no aparecen en la tabla. Es un grafico de frecuencias acumuladas. Para cada
valore de la variable representando en el eje x, en el eje y se lee la frecuencia acumulada por dicho valor; es
decir, la cantidad, proporción o porcentaje de valores menores o iguales al valor en cuestión. Primero se
averiguan las frecuencias acumuladas para cada intervalo; después se traza un punto final de cada intervalo
a una altura del eje y correspondiente a la frecuencia acumulada al final de ese intervalo. Luego se unen los
puntos.

Si la variable es discreta, y como no puede tomar valores entre dos valores consecutivos, cada valor aporta su
frecuencia, que “salta” en el valor siguiente, haciendo que el grafico de frecuencias acumuladas tenga una forma
escalonada (ej. La edad, se hace en un gráfico de escaleras). Si la variable es continua, las frecuencias se van
acumulando y quedan representadas en una línea quebrada ascendente, denominada “ojiva de Galton” y permite
interpolar valores no observados, que no aparecen en la tabla. Ej. Tiempo empleado en responder un cuestionario.

El nivel proporcional o de razón: A parte de que se cuenta con el 0 absoluto, sus valores son isomórficos con la
aritmética, se puede hacer cualquier cuenta con ellos. Por lo tanto, puedo hacer algo que se llama diferencia de
razones, es decir, el doble que y la mitad que.

Por ejemplo, el CI es una variable intervalar, su cero es arbitrario, por lo que no indica ausencia del atributo
inteligencia. Entonces no es correcto decir que el que tiene CI 100 es el doble de inteligente que el que tiene CI 50
porque no tengo seguro el punto de inicio de la medición.

UNIDAD 2: CAPITULO 3

Todas las medidas que se usan en un nivel pueden utilizarse en los niveles superiores, pero no al revés.

Para variables NOMINALES:

1) Proporción: es la frecuencia relativa de un valor en particular expresada en porcentaje. Tendremos que


hacer 1-f´ o 100-f´ para indicar la proporción restante a todas las demás categorías. Se indica como p.
2) Tasa: Es la frecuencia relativa de un fenómeno en referencia a la población total, con la condición de tener
en cuenta un determinado periodo de tiempo. Se obtiene dividiendo la cantidad de ocurrencias de un hecho
en una población dada en un momento específico.
3) Razón: Se usa para referirse a cocientes entre conjuntos que no tienen nada en común. Por ej. Si quiero
saber la razón de masculinidad, divido el total de hombres por el de mujeres y multiplico por 100. El
resultado es: hay x hombres por cada 100 mujeres.
4) Moda.

MEDIDAS DE TENDENCIA CENTRAL: Nos dan una idea de como están los datos en la matriz, sacar conclusiones, hacer
un análisis mas profundo que solo mirando la matriz es algo ingobernable. Titulan a un valor de la variable, no a su f.

1) MODA (Mo)  Es el valor de la variable (es decir, la categoría) que tiene la mayor frecuencia, la categoría
que más veces aparece en la muestra. TODOS LOS NIVELES DE MEDICIÓN. La moda no es la frecuencia más
alta, sino la categoría de la variable que tiene mayor frecuencia: se identifica la más alta de las frecuencias, y
se señala la categoría que le corresponde. Por ejemplo, si 350 es la frecuencia más alta, la categoría q a ella
corresponde es la moda, en este caso, “Muy bueno”.
Cuando hay un solo valor que es el que más se repite, se dice que la muestra es unimodal, bimodal si hay 2
(si la variable es cualitativa se promedia el valor entre los dos valores y se toma el resultado como moda),
amodal si no hay moda, y multimodal y son más de 2 categorías con la mayor frecuencia. El titulo de “moda”
le corresponde a la categoría en la cual se haya la frecuencia que más apareció, no al número. Para saber
cual es, miro las frecuencias absolutas simplemente. Para sacarla en un grafico de tallo y hoja, veo en donde
está el tallo mas frecuentado y lo defino como un intervalo. Es decir, en variables cuantitativas continuas,
conviene nombrar un intervalo como moda, o bien su marca de clase.

2) MEDIANA (Mdn)  Buscamos el valor que deja de tras de si al 50% de los casos y lo sobrepasa el otro 50%,
es decir, si estamos frente a una fila de gente, buscamos a aquella persona que tenga la misma cantidad de
persona delante y detrás de sí. También se le dice cuartil 2, porque está en el medio. NIVEL ORDINAL EN
ADELANTE. Puede pasar que no sea justo el 50%, por eso se dice también que la mediana es aquel valor que
supera y es superado por NO MÁS del 50% de las observaciones. La mediana corta los valores a la mitad, sin
importar si lo hace de manera equitativa o no. Para sacar la mediana, primero debo saber la F (frecuencia
acumulada simple).

Es ciega respecto de los valores que toma la variable, no le importan y no los utiliza. Solo le importan las frecuencias
de esos valores. Para hallarla en variables cualitativas o cuantitativas discretas, divido n/2 (el total de casos) y veo
qué valor supera a ese número, mirando las frecuencias acumuladas (las necesito sí o sí). Si la variable es continua,
Statistix. Si la variable es discreta y la cantidad de datos es par, la mediana es el promedio de los dos valores que
ocupan las posiciones centrales, de modo que quede la misma cantidad de datos de un lado que del otro.

La primer categoría que tenga una frecuencia acumulada superior al 50%, esa será la mediana (porque la anterior no
llega al 50). No es exactamente la mitad, sino uno de los valores que están en la categoría dentro de la cual se
acumula el 50% de los casos (n/2).

Ej. Tengo 20 observaciones (cuanti discreta) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20  20/2= 10. Como


es par, busco el promedio entre los valores centrales: 10+11/2= 10,5. Esa es la mediana.

Si la variable es cuantitativa discreta o cualitativa ordinal, la mediana es menos exacta, porque va a ser el conjunto
que contiene al valor (ver frecuencias acumuladas para determinar que categoría rebasa a n/2) que parte a la mitad
a las observaciones. Por eso en estas variables la mediana pierde exactitud, porque va a dar un resultado que no
necesariamente deja al 50 por debajo y por arriba, sino aprox el 50 por debajo. Si tengo (discreta) 1 2 3 4, la mediana
es 2,5 y no es un valor discreto.

3) MEDIA o PROMEDIO  Es la suma de todos los valores observados multiplicados por su frecuencia
absoluta, y dividido por el total de casos (se indica x con el palito arriba). Si hay valores que aparecen más de
una vez, tengo que primero multiplicar cada uno por la cantidad de veces que aparecen y recién ahí hacer la
sumatoria entre ellos. Ej. Si la categoría “22” aparece 6 veces, entonces tengo que hacer 22x6 y ahí sumarlo
con los demás valores. Entonces, primero multiplico cada valor por su frecuencia absoluta, sumo los valores,
y finalmente divido el resultado de esa suma por la cantidad de unidades de análisis. NIVEL INTERVALAR Y
PROPORCIONAL.
A la media si le importan los valores de la variable, por eso es que se usa solo con variables métricas y por eso la
media es sensible a los valores extremos.

No todo es color de rosa, la media puede no servir. Cuando hay valores extremos, la media deja de ser
representativa, tanto para el valor extremo como para los demás (ej. De Michael jordan y los geógrafos), por lo
que en vez de sacar esta medida conviene mas la mediana. Si los valores están compensados esta todo bien,
pero si tengo 6, 7, 8, 8, 5, 70; y no, no conviene la media. Además, hay que pensar que la modificación de
cualquier valor de la muestra va a modificar la media.

Las observaciones pueden alejarse de la media (x-media), pero esos desvíos se compensan y al sumarlos da
SIEMPRE 0, porque la media es el centro de equilibrio de la distribución. Para saber este número simplemente le
resto al valor, la media. Ej. Si la media es 8 y tengo un valor que es 6, hago 6-8= -2.

Antes de hacer la media, tengo que asegurarme entonces, de que no haya valores extremos. Para eso esta el
DIAGRAMA DE CAJA Y BIGOTES. Para hacerlo, hay que saber que son los cuartiles.

MEDIDAS DE POSICIÓN

1) PERCENTILES: Son los valores que se definen en función del porcentaje de observaciones a las que superan.
A PARTIR DE NIVEL ORDINAL. Es el valor de la variable que deja por debajo de sí el r por ciento de los casos.
Ej. El P10 es el valor de la variable que acumula el 10% de las observaciones. Se ven en la ojiva.

Los que más se usan son los CUARTILES: Son tres medidas que dividen a la distribución en 4 partes y que
permiten ubicar a un individuo en relación al grupo. Para saberlos necesito conocer el total de unidades de
análisis que tengo en la muestra (n), a ese total lo divido por 4 (como dividimos por dos al calcular la mediana!).
Supongamos que da 14,75.

Lo que hay que mirar es la frecuencia acumulada y buscar la primer frecuencia que supere al 14,75. Cuando la
encuentro digo que ese es el primer cuartil (Q1 o P25, deja un 25% de los casos por debajo de si y un 75% por
encima). El título, como siempre, le corresponde a la categoría en la cual se halla la frecuencia que supera al
14, no al número en sí mismo. El Q2 es la mediana, porque es la mitad de las observaciones. El Q3 (supera al
75% -P75- y lo supera un 25% de los casos) lo encuentro multiplicando al 14,75 x 3, y observo en las F cual es la
que supera a ese valor.

Con los cuartiles calculados, ya tengo todo para hacer el diagrama de CAJA Y BIGOTES, que permite observar,
además de la presencia de valores extremos, la distribución grafica de los datos:

1° paso: En el eje Y pongo los valores de la variable, aquellos que puede tomar, mientras que en el eje X no se pone
nada. Hago una caja cuya “altura” vaya del primer al tercer cuartil (van a quedar valores por debajo de la caja).

2° paso: Hago una línea horizontal dentro de la caja que coincida con la mediana y un punto que represente a la
media. Esto nos da una idea de la asimetría.

3° paso: Calculo el RANGO INTERCUARTILAR, que es el recorrido entre el Q1 y el Q3. Ej. Si el Q1 es 20 y el Q3 es 28,
entonces el rango Inter cuartil es 8.

4° paso: Dibujo los bigotes. Estos no pueden tener una longitud mayor que 1,5 veces el rango. Es decir, si el rango es
8, los bigotes pueden medir hasta 8 más la mitad de 8 (12 lugares). Los bigotes representan el campo completo de
variación de la variable, van desde el valor mínimo al máximo (sin exceder eso del 1,5 veces).

5° paso: Todos los valores que no fueron alcanzados por los bigotes los marco con asteriscos, y los considero
VALORES EXTREMOS. Ahí es donde me doy cuenta si conviene o no sacar la media.

Si pasa que, desde el inicio de las observaciones hasta la caja no hay mucho espacio, quiere decir que los datos en
ese lugar están amontonados, hay mucha carga informacional en esa zona. Esto se relaciona con la asimetría.

Todas las medidas que hacen uso de las frecuencias acumuladas pueden graficarse a través de la ojiva (mediana, Q).
En el eje Y van las F y en el eje X los valores, categorías, de la variable (ej. Tiempo de reacción).
2) Centiles: 99 valores de la variable que la marcan y la dividen en 100 partes iguales, tal que cada parte tiene
un 1% de la distribución. P20  “Menos del 20% de los encuestados obtuvo x resultado).

MEDIDAS DE FORMA

1) ASIMETRÍA: se indica mostrando hacia donde se Posición entre la


sitúan los valores extremos. Si los valores extremos Asimetría de la distribución
media y la mediana
son mayores que la mayoría de los datos, entonces
media = Mdn Simétrica
la asimetría es hacia la derecha. Si se encuentran
media > Mdn Asimétrica hacia la derecha
valores particularmente chicos en comparación a
media < Mdn Asimétrica hacia la izquierda
una mayoría de valores altos, la asimetría es hacia la
izquierda. Viendo un histograma o un grafico se puede apreciar la asimetría también. Si un grafico muestra
simetría quiere decir que tanto la mediana como la media van a acercarse a los valores centrales.

Es negativa (hacia la izquierda) cuando las frecuencias se acumulan en los valores más grandes, y positiva (hacia la
derecha) cuando se concentran en los mas chicos (el lado hacia el que va la colita me dice el signo de la asimetría).

MEDIDAS DE VARIABILIDAD o DISPERSIÓN

1) AMPLITUD/RECORRIDO: Es la diferencia entre el mayor y el menor valor de los casos observados. R= xmax –
xmin. Representa la distancia que existe entre esos dos valores. Es muy sensible a los valores extremos y
nada a los intermedios. NIVEL INTERVALAR Y PROPORCIONAL.

2) Relacionadas con la distancia a la media (x – media): Se llaman desvíos esos valores, e indican cuanto se
aleja cada observación de la media. Pueden ser negativos o positivos según se trate de observaciones que
superen a la media o bien estén por debajo de ella. Estos valores se compensan, al sumarlos da SIEMPRE 0.
Como esto da siempre 0, no es muy representativo como medida de dispersión, no los puedo promediar. Lo
que se hace es ELEVAR AL CUADRADO los valores para quitarles el signo negativo y así poder seguir
operando. La media es el valor de la variable que anula la suma de los desvíos. El cero se debe gracias a la
media.

3) VARIANZA: Es el promedio de las distancias cuadráticas de los valores a la media y se simboliza S2. Quiere
saber cuánto se alejan los valores de la media. Permite comparar la variabilidad de dos o más conjuntos de
valores en una misma variable de NIVEL INTERVALAR. Cuanto más grande sea el resultado que arroje la
varianza, más heterogéneo/variable/disperso será el conjunto.

Lo que se hace es agarrar a esos valores que elevé al cuadrado para sacarles el negativo y los sumo. Ese resultado
que obtuve sumando todas las “distancias” a la media elevadas a la 2, lo divido por la cantidad de casos -1 (porque
sí). Ese número es la varianza, el que me permite comparar la variabilidad entre conjuntos.

La varianza es elemental, la necesito sí o sí para poder calcular el resto de las medidas de dispersión (que solo se
usan para variables CUANTITATIVAS).

La desventaja de esta medida es que está elevada al cuadrado, y eso es medio raro porque no queda en la misma
unidad en la que están las observaciones originalmente, es difícil de interpretar aunque ya sepamos que nos dice.
Hay que volver a la unidad original. Esto se soluciona con la siguiente medida.

4) DESVÍO ESTÁNDAR: Lo calculo para que los valores sean más fáciles de interpretar y quede con las unidades
originales. Básicamente, se le saca el cuadrado a la varianza haciéndole raíz cuadrada. Cuando obtengo el
resultado, digo “Los datos tienden a alejarse x valor de la media”. Se simboliza como S. Es la desviación
esperable de la media. Hay valores preestablecidos, que dicen, por ejemplo, que si el DS nos da 4 ya son
valores alejadísimos de la media. Se usa para corregir las distorsiones que producen los cuadrados de las
distancias en la definición de la varianza.

Si estoy comparando dos conjuntos, aquel que tenga la varianza o el desvío más grande será el “grupo más
disperso/heterogéneo/variable”, mientras que el que tenga el numero más chico, será el “grupo más
homogéneo/menos disperso/menos variable”.
ANTENCIÓN: Si yo quiero comparar dos grupos en cuanto a su dispersión usando la varianza o el desvío estándar,
primero me tengo que asegurar de que TENGAN LA MISMA MEDIA. Si no tienen la misma media, la comparación
usando estas medidas no tiene sentido.

5) COEFICIENTE DE VARIACIÓN: Se expresa CV y es el resultado de dividir el desvío estándar por la media,


multiplicado por 100. Es un porcentaje. Permite hablar de la dispersión relativa a la media. Mide el peso del
desvío en comparación con la media. NIVEL PROPORCIONAL. Ej. Me da 25%, digo “La desviación estándar
representa un 25% de la media”. Permite comparar al dispersión entre variables que son diferentes.

También sirve para saber cuan representativa es la media; cuanto mayor sea el coeficiente, menos representativa es.
Cuanto más grande me de el CV, más dispersa será la distribución de los datos.

ATENCIÓN: Esta medida no se puede calcular siempre, es SOLO A NIVEL PROPORCIONAL.

6) ENTROPÍA: La uso para medir variabilidad en variables cualitativas nivel ordinal o nominal. Lo que hace es
cuantificar el nivel de incertidumbre acerca de la clase a la que pertenece el dato. A mayor entropía, mayor
dispersión de datos e incertidumbre. Por ej. Si estuviéramos apostando a qué categoría sacaría (si fueran
papelitos) dentro de los hombres y dentro de las mujeres en cuanto al estado civil, la entropía nos permite
saber en que grupo hay menos incertidumbre a la hora de hacer una extracción al azar. Se calcula en Excel
con una formula logarítmica que no importa.

Son medidas que sirven para comparar variables que tienen diferentes unidades, por ejemplo, podemos decir ¿Qué
es más variable, la estatura o el peso en los niños? Si hacemos una tabla con estas medidas, la varianza, el desvío
estándar, no dan información sobre la diferente variabilidad porque dependen de sus unidades de medida y no
comparten la media las variables. Pero, el coeficiente de variación en porcentaje si permite comparar, para saber en
que variable los datos tienden a variar más.

El gráfico de CAJA Y BIGOTES también permite analizar la dispersión, ya que cuanto más “larga” sea la caja, más
dispersa es la distribución en la parte central, los cuartiles están lejanos y el rango cuartil es grande. Si la caja es
corta, sabemos que hay una concentración de datos en la parte central. La longitud de los bigotes señala la mayor o
menor concentración de los datos en las zonas extremas.

EL INDIVIDUO CON RELACIÓN A UN GRUPO

Muchas veces es necesario saber cuál es la posición relativa que ocupa un puntaje en relación a su conjunto de
observaciones. Los valores son relativos a sus grupos, ej. de las notas de un examen. Si me saqué un 1, pero todos se
sacaron un 1 y un 2, entonces mi puntaje no es tan bajo, porque estoy dentro del promedio de las observaciones.

Para saber cuál es la posición exacta de un valor, se calcula el PUNTAJE Z. Lo primero que hay que hacer es ubicar al
individuo en relación a la media, si está por arriba o por debajo de ella. Luego, calculo el desvío estándar para saber a
cuantas desviaciones el sujeto se corrió de la media. La fórmula es: (x – media)/desvío estándar. Estoy viendo la
cantidad de veces que entra el desvio estándar en la puntuación diferencial (a cuantas unidades está un
determinado valor de la media). El puntaje Z permite comparar y posicionar al sujeto en algún punto de la escala,
decir exactamente en donde esta en comparación al grupo. Indica el número de desviaciones estándar por debajo o
por encima de la media al que se encuentra su puntaje bruto.

Si en una prueba de ortografía el promedio de errores es 10 (media=10) y la desviación estándar es 4 (s = 4 errores),


y un alumno comete 6 errores, se puede decir que cometió menos errores que el promedio del grupo. El cálculo de x
– media nos dice a cuantos errores se ubica por debajo o por encima de la media el alumno. En este caso, 6 – 10 = -4,
lo que significa que está a 4 errores por debajo de la media. Si a esto lo divido por la desviación estándar obtengo un
-1, que me dice que “el alumno se encuentra a una desviación estándar por debajo de la media). Le resto al valor que
x−x
me interesa la media y divido el resultado por la DE. z= Statistix: data/Transformations: nueva variable con
s
los Z.

Mido la distancia a la cual se encuentra una observación particular de la media en términos de una fracción de la
desviación estándar, es una medida estandarizada de alejamiento. Mientras que los desvíos (x- media) indican a
cuantas unidades de la variable se ubica cada caso del promedio, los desvíos estándar indican a cuantas desviaciones
estándar se encuentra cada caso del promedio.

Puede pasar que el puntaje z de negativo. Se lo pasa a escala T: 50+10.z , donde se considera que 50 es la media y 10
el desvio estándar. Tambien puede ser escala CI= 100+15.Z , donde la media es 100 y el desvío es 15. Cuando da (-)
es porque esta a tantas desviaciones estándar POR DEBAJO del promedio.

Lo que hace el puntaje Z y el CV es poner en los mismos términos a las variables para hacer comparaciones. Son
adimensionales, no tienen escala. El puntaje z lo que hace es permitirnos comparar cualquier valor de cualquier
variable con independencia de la magnitud de la variable o de la poblacion. Si el z es negativo el valor de x esta por
debajo de la media y si el z es positivo el valor de x esta por encima de la media

RANGO PERCENTILAR

Para calcularlo solo necesito las frecuencias porcentuales, de la absoluta y la acumulada. Para el primer valor
simplemente divido la f%/2, y ese es el RP para ese valor. Para el segundo tengo que agarrar a la F% del primer
renglón, el anterior al cual estoy haciendo la operación, y sumarle la f% correspondiente o actual (del segundo
renglón), haciendo F%+f%/2. Y eso voy haciendo con los que siguen, la F anterior más la f actual, dividido 2.

Los RP van creciendo, lo que significa, por ejemplo, que si para la nota de examen 3 el RP es 10,05; una persona que
se haya sacado un 3 está superando al 10,05 % de las observaciones. Permite que quede más clara la posición de un
sujeto en el grupo. También se puede interpretar como que el 10,05% de los puntajes son 3 o menos.

Ej. Si se sabe que el rango percentilar asociado a X = 9 es 70, eso quiere decir que el 70 por ciento de las
observaciones es menor o igual a 9.

UNIDAD 3: CAPÍTULO 4

Las variables pueden establecer relaciones entre sí, no necesariamente siendo “X es causa de Y”, sino
considerándolas a unas como factores explicativos de otras. Jamás agotaremos el conjunto de todos los factores
explicativos de un fenómeno, porque en última instancia cada caso es único. Si bien no se establecen relaciones de
causalidad, se puede analizar la importancia relativa de los diferentes factores explicativos; saber en qué grado
aporta cada uno a las diferencias que se observan. Las hipótesis son consecuencias deductivas de la teoría, cuya
verificación no es suficiente para validar la teoría, aunque sí para aportar evidencia en su favor. En cualquier modelo
explicativo hipotético participa un número de variables mayor a dos,

Establecer de manera hipotética una relación entre dos variables equivale a afirmar que los cambios de una de ellas
van acompañados de cambios en la otra. Pero esto puede suceder de maneras muy diferentes. A veces una variable
es la que incide sobre la otra, otras veces es solo una contribución, por último, hay casos en que su ocurrencia
conjunta o sucesiva se debe a otras razones.

Tablas de contingencia/bivariada/de distribución conjunta  Es un arreglo con tantas filas como categorías tenga
una de las variables y tantas columnas como categorías tenga la segunda variable. Indicamos la dimensión de la tabla
indicando cuántas filas tiene y cuántas columnas, en este orden. Ej. 2x2 (fxc). Agrega aquellos valores que se dan de
forma simultanea en las categorías de dos variables diferentes: Son frecuencias conjuntas o contingencias, los
valores que resultan de los cruces de categorías.

Con f indicaremos la frecuencia y con el subíndice la celda a que corresponde, así, fij será la cantidad de casos en la
celda que corresponde a la fila i y a la columna j simultáneamente.

Se llama frecuencias marginales de fila a las frecuencias absolutas de las categorías de la variable que se ubica en las
filas. Las frecuencias marginales de columna son las frecuencias absolutas de las categorías de la variable ubicada en
las columnas.

Las frecuencias conjuntas indican la cantidad de casos que corresponden simultáneamente a una determinada
categoría de la variable de las filas y una categoría de la variable de columnas. Ej. De cómo se leen: 20 de los niños
observados crecieron en hogares monoparentales maternos y se relacionan con sus compañeros con sumisión.
Así como en ciertos casos es posible anticipar el orden (sea lógico o cronológico) en que se presentan las variables
que constituyen una relación, hay algunas situaciones en que esto es muy difícil. El orden en que se establezcan las
variables que se busca relacionar está influido por la posición teórica que el investigador asuma.

Las frecuencias relativas pueden calcularse de 3 maneras:

1) Relativas al total general: Contiene info simultanea de ambas variables.


2) Relativas a los totales de fila: Fija una categoría para una de las variables.
3) Relativas a los totales de columna: Fija una categoría para una de las variables.

SIMETRÍA/ASIMETRÍA  Una relación entre dos variables es simétrica cuando es de variación conjunta y no puede
identificarse a una variable como previa a la otra, pueden invertir lugares. Por ejemplo, si encontramos que a
aquellos alumnos que les va bien en Epistemología también obtienen buenas notas en Biología, no creeremos que
un resultado incida en el otro, solamente describiremos que varían conjuntamente

Aquellas relaciones en las que puede identificarse a una variable como anterior a otra son asimétricas, es decir, no
es lo mismo planearlas en un sentido que en otro, están desequilibradas. Una de las variables (la anterior) se llama
antecedente y la otra (posterior) consecuente, o bien, respectivamente independiente y dependiente. Esto no
implica que una variable sea ni la causa, ni un factor explicativo, de la otra.

La dirección de la relación  Solo NIVEL ORDINAL o superior. Solo tiene sentido si puede hablarse de aumento o
disminución, es decir, si es factible realizar juicios de orden entre las categorías de las variables.

Es directa/creciente si a cambios ascendentes de una variable se siguen cambios ascendentes de la otra. Es decir, si
cuando los valores de una variable aumentan, también lo hacen los de la otra.

Es indirecta/Decreciente si el incremento de valores de una de las variables va acompañado de la disminución de los


valores de la otra.

RIESGO RELATIVO  Se usa más que nada en distribuciones dicotómicas, en tablas de 2x2 con relaciones
asimétricas. Es el cociente entre la proporción de casos que se encuentran en una categoría de la variable
consecuente bajo determinado escenario (una categoría de la variable antecedente) y la proporción de casos que se
hallan en la misma, bajo el escenario complementario (la otra categoría de la variable antecedente).
Insomnio (consecuente)
Estrés
Padece No padece Totales
(antecedente)
Padece 98 42 140
No padece 30 90 120
Totales 128 132 260

R = (98/140) / (30/120)  R = 2,8  “Las personas que padecen estrés tienen 2,8 más chances de padecer insomnio
que aquellas que no lo padecen” o “Es 2,8 veces más probable padecer insomnio si se padece estrés que si no se lo
padece”. En este ejemplo, el estrés es la variable antecedente y el insomnio la consecuente, porque me interesa
saber el posible efecto del estrés sobre el insomnio.

El RR nos dice qué tanto más probable o qué tantas más chances hay de que suceda un evento indeseado bajo un
escenario o el otro. Es decir, cuanto más probable es padecer insomnio bajo el escenario de padecer estrés o no
padecerlo. Cuanto mas grande es el RR, más fuerte es el efecto que tiene la variable explicativa sobre la
consecuente.

Para usarlo tiene que existir una relacion asimétrica entre las variables. Una vez que identifiqué el antecedente y el
consecuente hay que dar cuenta de cual es el escenario (indeseado) que a mi me interesa calcular el RR. En el ej. El
escenario que a mi me interesa es el de quienes padecen insomnio. Quiero saber como es la relacion entre los que
padecen estrés y presentan insomnio y los que no padecen estrés e igualmente padecen insomnio.
Como los totales no son los mismos, hay que recurrir a las frecuencias relativas. 98/140= 0,7. 30/120= 0,25. Quiero
saber cuantas veces entra el 0,7 en 0,25, es decir, cuantas veces mas grande es el 0,7, cuantas más chances tengo de
padecer insomnio si sufro estrés que si no lo sufro.

INTENSIDAD DE UNA RELACIÓN  Cuando hay muchos factores explicativos para un fenómeno, interesa saber qué
factores inciden en mayor o menor medida en el fenómeno y a eso se responde indicando la intensidad.

La intensidad de una relación es una medida de la fuerza con que los cambios en una variable afectan los cambios en
la otra (si es una relación asimétrica) o bien, de la frecuencia con que los cambios de una variable acompañan a los
de la otra (si se trata de una relación simétrica). Se puede medir a través de varios coeficientes, que se usan para
saber si la relacion es fuerte, débil o inexistente. Estos coeficientes varían según el nivel de medición de la variable,
el numero de categorías, la simetría y el aspecto que se está analizando.

La evaluación de esta intensidad puede lograrse, en una primera aproximación, observando la distribución conjunta
de las dos variables. En la medida que cierta combinación de categorías de una y otra variable concentren la mayor
parte de los casos, estaremos en presencia de relaciones más fuertes o de mayor intensidad.

1) Coeficiente Q de Kendall: Mide la intensidad de la relacion entre dos variables dicotómicas comparando la
concentración de frecuencias en las diagonales. Alcanza su máximo cuando todos los casos se ubican sobre
una diagonal y la relacion es perfecta. Alcanza su mínimo cuando las frecuencias están distribuidas de
manera proporcional en las celdas y las variables son independientes. −1 ≤Q ≤ 1 El signo no se considera,
sino la cercanía al 1. Cuando más cerca al 1 o al -1 nos dé el resultado, más intensa es la relacion. Nominales
cuali.

Si Q=1 o Q=-1, la relacion es perfecta. Si Q=0, la relacion es nula. Limitación de uso: Si una cela vale 0, porque eso
generaría una falsa relacion perfecta. Se calcula cruzado, la primer celda conjunta es A, la de al lado es B, debajo de
A está C y a su lado, D.

( A∗D )−(C∗B)
Q=
( A∗D ) +(C∗B)
Se calcula haciendo el producto de las frecuencias acumuladas de una de las diagonales, menos el producto de las
frecuencias de la otra diagonal, sobre la misma operación pero sumada. El orden en que posicionamos las categorías
de la variable hace que los numeradores adopten una posición u otra, lo que tendrá consecuencias en el signo del
resultado, por eso no importa, ya que depende del orden arbitrario de la tabla. Me quedo con el valor absoluto.

INDEPENDENCIA ESTADÍSTICA  Dos variables son estadísticamente independientes si la frecuencia de cada celda es
igual al producto de las frecuencias marginales de la fila y la columna a las que la celda pertenece sobre el total de
casos. Para saber las frecuencias esperadas, que esperaríamos encontrar si las variables fueran independientes:

f i∗f j
f eij =
n
La cuantificación de la relacion entre dos variables cambia según el tipo de variable. Para variables cualitativas
tenemos el chi cuadrado, el Q de Kendall, el V de Cramer (más de dos categorías por variable) y el RR.

Generalmente se hace una nueva tabla de contingencia pero con las frecuencias esperadas, para observar si estas
son parecidas o no a las observadas, y posteriormente calcular el chi cuadrado, que usandolo en el V de Cramer nos
dice cuan lejos están las variables de ser independientes.

Si las variables son independientes, entonces tendríamos que encontrar una distribución proporcional de las
frecuencias. Es decir, la misma proporción de casos por ejemplo, de gente que sacó 10 en matemática habiendo
estudiado y no habiendolo hecho. Es decir, esperar la misma proporción de observaciones en ambos escenarios de la
variable antecedente. Para esto multiplico el valor marginal de una de las categorías de la consecuente por el
marginal de la categoría de la antecedente que le corresponde a la celda que estoy investigando. Divido eso por el
total de casos y hago lo mismo con el resto de las celdas. Lo hago por columna.
Ej. Las frecuencias conjuntas deben ser todas proporcionales. Los que tienen hipertensión mas allá de la migraña o
no son 37. O sea son 0,054 del total de la muestra es decir 685 y los que no tienen hipertensión son 648. O sea el
0,95 del total. Entonces lo proporcional sería cuanto es 0,054 de los hipertensos con migraña. Es decir el 0,054 de
264. Eso es redondeando 14 y el 0,054 de los hipertensos sin migraña que son 421 es redondeando 23. De esa
manera tenemos las frecuencias conjuntas proporcionales.

UNIDAD 3: CAPÍTULO 5

Se puede evaluar la distancia que existe entre las frecuencias observadas reales y las esperadas, para saber cuán
lejos o cuan cerca están de la independencia estadística. Si halláramos que las observadas son muy similares a las
esperadas bajo la hipótesis de independencia, diríamos que las variables están cerca de ser independientes, o que
habría escasa relación entre ellas. Por el contrario, si las frecuencias observadas fueran muy diferentes de las
esperadas, creeríamos que las variables están lejos de ser independientes, es decir, que habría alguna relación entre
ellas.

Para medir la distancia entre los dos conjuntos de frecuencias se hace una comparación celda por celda, restándole a
la frecuencia observada su respectiva esperada, elevando esta expresión al cuadrado y dividiéndola sobre la
frecuencia esperada. Luego, se suman todas las expresiones, que darán el resultado “Puntaje Chi cuadrado” y se
expresa con una x₂ con la patita larga. Es una medida de la distancia a la que se encuentran las frecuencias
observadas de las que se esperaría encontrar si las variables fueran independientes, por lo que para calcularlo lo
primero que hay que hacer es calcular la hipótesis de independencia estadística. Cuantifica las discrepancias entre
las fe y fo. Nominal cuali.
2
(O−E)
∑ E
Solo puede ser cero si cada frecuencia observada es exactamente igual a la esperada correspondiente. En ese caso
las variables son independientes. El puntaje indica si las frecuencias observadas están cerca o lejos de las esperadas,
pero al no tener un campo de variación, un techo, es muy difícil decir cuánto es lejos y cuanto es cerca; el resultado
puede ser indefinidamente grande ya que su valor depende del número de casos que se evalúan y de la dimensión
de la tabla. Para comparar la intensidad de la asociación, el resultado x2 solo es valido si las tablas tienen la misma
dimensión y el mismo numero de casos.

Para calcularlo en Statistix: Cargo los datos de la tabla de contingencia (chequeo si lo hice bien con la función Cross
Tabulation, que muestra la tabla), y después voy a Statistix/asociation tests/chi square test.

Para evaluar la intensidad de la relacion a través de un coeficiente hay que transformar al chi cuadrado, ya que este
es simplemente una medida y no un coeficiente. Esto se hace con el Coeficiente V de Cramer, que tiene su techo en
1 y su mínimo en 0, resolviendo el problema del x2:


2
x
n∗min (f −1; c−1)
La expresión min (f-1, c-1): el mínimo entre el número de filas menos uno y el número de columnas menos uno. Para
obtenerlo se resta 1 al número de filas, luego se resta 1 al número de columnas y se elige el menor de los dos. El
resultado va a ser 0≤V≤1. Cuanto más cercano a 1 sea, más intensa será la relacion y menos independientes serán las
variables. Por el contrario, cuanto más cercano a 0, más independientes serán entre ellas las variables y su relacion
será débil o nula en el caso de que V=0.

V no puede tomar valores negativos. Si da 0 es porque se cumple la hipótesis de independencia, la tabla de fe es


igual a la de fo. Nominales cuali.

Variables de nivel ordinal

Cuando se trata con dos variables, la del menor nivel de medición es la que manda. Así, para relacionar una ordinal y
una nominal, debe usarse un coeficiente V, como si fueran las dos nominales.
DIAGRAMA DE DISPERSION  Se usa para evaluar la relacion entre variables cuantitativas sin perder los valores
(son muchos a veces). En Excel: selecciono el área de datos (con títulos) y en insertar busco el grafico de dispersión; x
equivale a los datos numéricos de una variable, e “y” equivale a los datos de la otra. Lo que se busca es ver a través
del grafico si las variables están relacionadas o no. Igualmente, siempre va a haber un resto que no se puede
explicar, porque hay siempre más de un factor explicativo.

En el grafico aparece un punto por cada una de las unidades de análisis, ubicado en el punto donde convergen para
cada caso, los dos valores de las variables que le corresponden (par cordenado). Se forma una “nube de puntos”, con
la que me doy cuenta de qué tan fuerte es la relacion entre variables. La intensidad de la relacion estará
determinada por el achatamiento de una elipse que rodee a la nube de puntos, que se verá determinado por el
grado de alineación que tengan los puntos.

Para medir la relacion lineal entre dos variables cuantitativas (proporcional o intervalar) se calcula el COEFICIENTE
DE CORRELACION DE PEARSON (R de Pearson), que cuantifica la relacion. Decir correlación no es lo mismo que decir
causalidad, significa que las variables varían juntas (de manera inversa o directa aun no sabemos).

Lo importante es saber interpretar el coeficiente; el calculo lo hace Excel: Me paro en la celda en la que lo quiero,
voy a Fx y busco en la categoría estadísticas al “Coef.de.correl”. En donde dice matriz 1 tengo que poner al conjunto
de valores de X (antecedente, sin los títulos) y en la matriz 2 a los de Y (consecuente), le doy aceptar. Le puedo sacar
un par de decimales.

El R de Pearson varía entre -1 y 1, cuanto más cerca de 1 o -1 esté, más fuerte es la relacion entre las variables, lo
que tambien indica que la nube de puntos se estaría elongando hacia una línea. Si está cerca de 0, es porque la
relacion es nula o baja, hay poca relacion lineal, la nube tiene forma de circulo. Los signos acá si importan, porque
indican la dirección de la relacion. Si es positivo el coeficiente, se entiende que la relacion es directa (osea que
cuando los valores de una variable aumentan, los de la otra también); y si es negativo, la relacion es inversa (al
aumento de los valores de una, los de la otra se reducen). La relacion perfecta positiva (r=1) implicaría los puntos
ubicados en una línea creciente.

COEFICIENTE DE DETERMINACIÓN  Es r al cuadrado, o sino en Excel: Fx/Estadísticas/CoeficienteR2/Conocido Y


(consecuente)/Conocido X (antecedente)/Aceptar. El resultado es un porcentaje, que significa cuanto de la variable
consecuente puede explicarse a partir de la antecedente; qué tan bien se explica una a partir de la otra; qué parte de
la variabilidad de la variable dependiente puede atribuirse a la independiente.

Este coeficiente indica la magnitud del aporte que una variable hace a explicar los cambios de la otra; qué parte de
los cambios que se observan pueden atribuirse a un determinado factor explicativo.

RECTA DE REGRESIÓN  Cuando los puntos de la nube se asemejen a una recta lineal, es posible sacar la función
que la determina. Se le llama X a la antecedente e Y a la consecuente. La pendiente de la recta depende de si se trata
de una relacion directa o inversa (si sube o baja), por eso la pendiente siempre tiene el mismo signo que el R de
Pearson.

Una vez que tenemos la recta, se puede hacer una tabla para ver si los puntos se desvían mucho de la recta, lo que
determinará si esta se ajusta bien o no a los valores y su dispersión. Esto se hace restándole al valore efectivo que
tenemos de Y en un punto de X, osea, el real punto de Y de una unidad de análisis, el valor Y de la recta en ese
mismo punto, para ver que tan lejos esta. Así por ejemplo, si mi unidad de análisis en x=1 está en Y=1, pero la recta
en ese mismo punto de x esta en y=4,22; tengo que hacer: 1 – 4,22 = -3,22  Distancia a la recta. El desvio es
negativo porque el punto esta debajo de la recta. Si los valores se alejan mucho es porque la relacion entre variables
no es tan fuerte.

La recta sirve para predecir valores.

RELACION ENTRE VARIABLES CUANTITATIVAS EN STATISTIX

1) Diagrama de dispersión: Satistics/Summary Statistics/Scatter plot. Pongo cual es la variable que va en el eje x
(antecedente) y cual va en el eje Y (consecuente). Puedo poner la recta de regresión si quiero (display
regression line). OK.
2) Coeficiente de correlación lineal de Pearson: Statistics/Linear models/Correlations (Pearson). Pongo las
variables a relacionar y OK.
3) Recta de regresión: Linear models/Linear regression. Pide la variable dependiente y la independiente. OK. Lo
que nos interesa de todo lo que da eso es la ordenada al origen de la recta “Constant”, la pendiente “X”, y el
R-Square: R2.

UNIDAD 4: CAPÍTULO 6

La estadística inferencial provee los procedimientos para estudiar un subconjunto de elementos y generalizar las
conclusiones obtenidas un total. Hago inferencias acerca del comportamiento de una población en función de lo que
observo en una muestra. Es decir, se busca sacar conclusiones sobre algo que no se ha visto. Para esto se recurre al
muestreo: un conjunto de procedimientos mediante los cuales se selecciona, de un universo determinado un
subconjunto que recibe el nombre de muestra, con el objetivo de llegar al conocimiento de determinadas
características de los elementos de la población a través de la observación y generalización de esas características
presentes en los elementos de la muestra.

Hay distintos tipos de muestreo: - muestreo aleatorio simple (se eligen los individuos completamente al azar, todos
tienen las mismas probabilidades de ser elegidos) – muestreo aleatorio sistemático.

Población/universo: conjunto de unidades de análisis que son objeto de un estudio particular. Definición y
acotación de la población: mencionar las características que ubican a la población en un espacio y tiempo concretos.
Para ello han de tenerse en cuenta el problema y los objetivos principales de la investigación. Esto permite que los
resultados sean más verdaderos.

El tamaño que tiene una población influye en el diseño de la muestra porque dependiendo de su tamaño, la
población puede ser tratada como finita o infinita. Es finita si el número de elementos es limitado y se puede tener
acceso a todos o casi todos los elementos; ej. Los alumnos de cuarto año del colegio Manuel Belgrano del ciclo
lectivo 2013. Es infinita cuando el número de elementos que integra la misma es elevado, por ejemplo, los
automovilistas que circularon por las rutas nacionales en el año 2012, o alumnos de nivel inicial de la República
Argentina. En casos como estos no tenemos posibilidad de delimitar la población completa, decimos que se trata de
poblaciones hipotéticas, no podemos enumerar unidades de análisis ni tampoco delimitar un tiempo.

Marco de muestreo: Es el listado que comprende las unidades de la población. Se usa para buscar documentación
que ayuda a la identificación de la población de estudio. Los requisitos son: ser lo más completo posible,
comprensividad, exigencia de actualización, cada unidad está igualmente representada (no duplicidad), no incluir
unidades que no correspondan a la población que se analiza, contener información suplementaria que ayude a
localizar las unidades seleccionadas y ser fácil de utilizar.

MUESTRA: Es un subconjunto de la población que comparte sus características en los aspectos de interés para la
investigación, tiene la capacidad de actuar como representante de los elementos de la población que no han sido
seleccionados. Factores que se tienen en cuenta para decidir el número de unidades por incluir en una muestra:
Tiempo y recursos disponibles, modalidad de muestreo seleccionada, diversidad de los análisis de datos prevista,
varianza o heterogeneidad poblacional, margen de error máximo admisible y nivel de confianza de la estimación
muestral.

Sólo será lícito utilizar los resultados muestrales como estimación de valores poblacionales cuando sea posible
conocer antes cuál es la probabilidad que cada individuo de la población tiene de ser incluido en la muestra. Las
técnicas de muestreo que permiten asegurar este requisito se denominan de carácter probabilístico. Otras técnicas
que no cumplen esta condición se llaman muestreos no probabilísticos.

Muestreo probabilístico  Usa la aleatorización como criterio de selección muestral. Cada unidad tiene igual
probabilidad de ser seleccionada para la muestra. La elección de cada una es independiente de las demás. Este tipo
de muestreo permite controlar el error muestral. Las muestras obtenidas por estos procedimientos permiten
generalizar los resultados obtenidos en ellas a toda la población de referencia.

Muestreo no probabilístico  Utiliza criterios como la conveniencia o criterios subjetivos para seleccionar la
muestra, lo que puede hacer que algunas unidades tengan más probabilidades de ser seleccionadas que otras para la
muestra, provocando así también la introducción de sesgos. Los resultados no se pueden generalizar de manera
probabilística más allá de los casos observados.

Nivel de confianza: Es el grado de confianza que tiene el investigador en que su estimación se ajuste a la realidad.
Proviene del nivel de probabilidad usado en el método de estimación.

UNIDAD 4: CAPÍTULO 8

MODELO: Es una distribución de frecuencias relativas teóricas llamadas probabilidades, las cuales son postuladas a
partir de la experiencia previa (una población). Un modelo es una construcción teórica, una formulación simplificada
de la realidad que sirve para facilitar interpretaciones, conclusiones y predicciones, además permite una mejor
comprensión de los comportamientos de las variables. Contar con el modelo teórico para una variable le permite al
estadístico deducir conclusiones que luego confrontará con la realidad observada.

Una distribución de probabilidad indica toda la gama de valores que pueden representarse como resultado de un
experimento si éste se llevase a cabo. Es decir, describe la probabilidad de que un evento se realice en el futuro,
constituye una herramienta fundamental para la prospectiva, puesto que se puede diseñar un escenario de
acontecimientos futuros considerando las tendencias.

En las variables discretas la probabilidad de cada valor se interpreta como la medida de la posibilidad de que dicho
valor sea observado. En estas variables las probabilidades se concentran en puntos individuales (cada punto se lleva
“un pedacito” de la probabilidad que en total es 1), las probabilidades le corresponden a puntos definidos. Entonces,
el modelo para las variables discretas es la función de probabilidad puntual, que se exhibe en una tabla (x, n, p),
donde a cada valor xi (cada valor de la variable) se le asigna su correspondiente probabilidad. La suma de todas las
probabilidades siempre da 1; P(X=xi) es la probabilidad de que la variable X tome el valor xi; es un número que nunca
será negativo y oscilara entre 0 y 1.

En las variables continuas cada punto aisladamente no se lleva nada, sino que la probabilidad total de 1 se
desparrama a lo largo de todo un intervalo. Su modelo es una función cuya grafica es una curva que encierra a todas
las probabilidades (es igual a 1). Las probabilidades que se le asignan a los intervalos son las áreas bajo la curva sobre
cada intervalo. La función se llama “Función de densidad de probabilidad”.

En los modelos aparecen la media, la mediana, la moda, el desvío estándar y la varianza; que funcionan como
parámetros.

V. Discretas  Variable Bernoulli (parámetro p); Variable Binomial (parámetros n y p).

V. Continuas  Distribución normal (parámetros media y DS); T de Student; Chi Cuadrado.

En síntesis: en los modelos de probabilidad para variables discretas las probabilidades son de los puntos y en las
continuas de los intervalos.
VARIABLE BERNOULLI: Una variable se distribuye según este modelo cuando es dicotómica, es decir que puede
tomar únicamente dos valores, los cuales se consideran “éxito” y “fracaso”, que no tiene nada que ver con lo
considerado moralmente correcto, sino que se considera éxito a aquel valor de la variable que me interesa
investigar, se elige arbitrariamente. Por ejemplo, el resultado de un alumno en un examen que es considerado como
“aprobado” o “desaprobado”; La respuesta de un sujeto a un ítem cuando es evaluada como correcta o incorrecta.
Esta variable evalúa 1 solo caso, no tiene en cuenta ninguna repetición, implica una sola fila en la tabla. Marca la
dicotomía en general, sin mostrar todas las observaciones; por ejemplo “condición de acertar o no acertar al
responder al azar la pregunta presentada con cuatro opciones de respuesta”.

Para que la variable sea Bernoulli debo tener una variable dicotomica con una condición de exito que tenga asociada
una probabilidad al evento. La definición de la variable nombra cual es la condición de exito. La letra “P” indica la
probabilidad de éxito. Esta probabilidad es un numero comprendido entre cero y uno que, en el modelo teórico, es
la frecuencia relativa asignada al éxito. Al fracaso se le asigna la frecuencia relativa “1-p”. de esta manera la suma de
todas las frecuencias relativas es uno.

La variable Bernoulli no es la variable Binomial, para la cual hay definido un modelo de probabilidad. Para llegar a la
binomial debo tener una Bernoulli que cumpla con las dos condiciones.

DISTRIBUCIÓN BINOMIAL: Es lo mismo que la variable Bernoulli pero considera a sus repeticiones (aparece n) y
cumple con dos condiciones: Estabilidad, ya que la probabilidad de éxito debe permanecer constante en todas las
observaciones que se hagan de la variable Bernoulli (por ej. La probabilidad de acertar la respuesta correcta en cada
ítem tiene que ser la misma, no puede ser que un ítem tenga 5 opciones y el otro 3 porque eso altera las
probabilidades y por lo tanto la condición de estabilidad); y la condición de Independencia, que dice que la
probabilidad de tener un éxito en una observación no aumenta ni disminuye si se conoce el resultado de otra
observación (ej. La probabilidad de responder correctamente una pregunta no varia si se sabe que la anterior se
contesto de manera incorrecta; o El hecho que haya salido cara no afecta el resultado de la proxima tirada. Vuelve
otra vez a ser cara o seca.). Ej. “Cantidad de aciertos (el éxito de la Bernoulli) frente a 20 preguntas con 4 opciones
de respuesta”. No nombra las dos posibilidades (acertar o no acertar, éxito y fracaso), nombra solo el éxito y los
parámetros n y p; en la Bernoulli solo tengo p, no n.

Una variable sigue el modelo binomial de parámetros (n, p) si cuenta la cantidad de éxitos que ocurren en n
observaciones de la Bernoulli de parámetro P, que son independientes y cuentan con la misma probabilidad de éxito
P. Los valores de la variable binomial pueden ser 0, 1, 2, 3, 4… n. La probabilidad de observar cada uno de ellos se
calcula con Excel, Statistix, etc. Se usa para modelar fenómenos aleatorios que pueden dar solo dos resultados (éxito
y fracaso). La elección de cuál es éxito es arbitraria y corresponde a la categoría que el investigador toma como de
interés. La variable aleatoria que se considera es el número de veces que se obtienen éxitos, o simplemente el
número de éxitos que resultan luego de una cierta cantidad de repeticiones de la experiencia.

Para construir la tabla de la variable Binomial necesito conocer: - La cantidad de repeticiones del experimento (n). -
La probabilidad del evento cada vez que se lo repite (p). - El número de veces cuya probabilidad calculamos (el
número de éxitos, “x”, el valor de la variable al cual le estamos calculando la probabilidad).

Relación entre binomial y Bernoulli: La relación que existe entre estas es que la variable binomial toma los valores
éxito y fracaso de la variable Bernoulli usando n (cantidad de veces que se repite la variable Bernoulli) y p (cantidad
de éxitos) bajo condiciones de estabilidad e independencia.

Ej. De variable Binomial y Bernoulli: Se lanza 3 veces una moneda al aire y se registra el numero de veces que sale
cara en los 3 lanzamientos. El resultado de cada lanzamiento es una variable Bernoulli con probabilidad de éxito 0,5
(1/2). La variable “Cantidad de caras en 3 lanzamientos” es la variable binomial de parámetros p=0,5 y n=3.

Otro ej. La respuesta de un ítem calificada como correcta o incorrecta es Bernoulli. La binomial seria “Cantidad de
respuestas correctas respondidas al azar entre 10 ítems”, con parámetros p=0,2 (1/5 opciones) y n=10.
La variable Binominal repite, sería por ejemplo “Cantidad de desaprobados entre 10 que dieron el parcial (cuando se
sabe de antemano que el 20% de los que lo dieron desaprobaron)”, que tendría parámetros n=10 y p=0,20. La
variable Bernoulli sería “Cantidad de desaprobados que dieron el parcial” con p=0,20 y condición de éxito
desaprobado. La Bernoulli no tiene en cuenta las repeticiones, solo puede hablar de un caso (alguien que dio el
examen, aprobó o desaprobó, tiene 0,20 probabilidad de desaprobar  dato que se conoce de antes, de la
población). La que calcula las probabilidades de repeticiones es la binomial.

En la tabla binomial, la columna correspondiente a “x” indica los escenarios posibles, los valores de la variable
binomial, por ejemplo, “Cantidad de respuestas contestadas correctamente entre 5 contestadas al azar”. La columna
de “n” muestra los ensayos o repeticiones de la variable Bernoulli, las veces que la observé (en el ejemplo es 5,
porque son 5 veces las que voy a estar contestando al azar). La columna “p” indica las probabilidades individuales de
cada valor x, que son todas las mismas por la condición de estabilidad; representan la probabilidad de acertar a cada
una de las preguntas por azar. La ultima columna se llama “Probabilidad binomial” y representa la probabilidad de
entre esas n observaciones, obtener el valor1, valor2, valor3, etc. Es la probabilidad que el modelo binomial le asigna
a un determinado escenario/valor de la variable. Ayuda a prevenir.

Responderíamos por ejemplo: “bajo un modelo binomial, la probabilidad de obtener 3 éxitos en 4 repeticiones de un
experimento en el que cada éxito tiene probabilidad 0,50, es 0,25”; que sería B~(X= 3; 4; 0,50) = 0,25.

Cada vez que estemos ante un experimento en el que queramos calcular la probabilidad de una cierta cantidad de
casos (x) de una categoría de una variable dicotómica (a la que llamamos éxito) que se presenta con una frecuencia
relativa conocida y constante (p), luego de un determinado número de extracciones (n); usaremos este modelo
binomial.

La variable binomial expresa la cantidad de éxitos obtenidos al observar n veces la Bernoulli bajo las condiciones de
estabilidad e independencia. Las probabilidades calculadas dependen de dos parámetros, (n; p). Para cada par de
valores tenemos una variable binomial con su distribución de probabilidades. P es la probabilidad de éxito, y N la
cantidad de veces que se observa la variable Bernoulli.

En la distribución binomial aparecen ciertos resúmenes estadísticos:

 La media se llama “Esperanza” y representa el número esperado de casos favorables a obtener en n


repeticiones. Se calcula n*p.
 La varianza se calcula n*p*(1-p); es una medida de la variabilidad del proceso.

No todos los eventos son al azar. Por ejemplo la aparición de psicosis no es al azar, esa probabilidad se obtiene con
datos históricos. Los hospitales van informando a lo largo de los años los casos de psicosis que se presentan y se
obtiene una tasa de ocurrencia, que puede ser 30%. Entonces si quiero averiguar cuál es la probabilidad de que
entre 10 pacientes que tengo nuevos en el hospital 3 sean psicóticos, por ejemplo, debo usar el modelo Binomial.

El 30% es un dato que se obtiene del estudio del comportamiento de la variable durante el tiempo. Entonces los
parámetros de la binomial van a ser n y p; n es la cantidad de repeticiones, en mi ejemplo 10 pacientes nuevos que
llegan al hospital y p la probabilidad asociada a el evento (Éxito) que en este caso es la aparición de psicosis, será del
30% (o 0,3)

Si la consigna dice “a lo sumo o por lo menos”, incluye el valor extremo.

DISTRIBUCIÓN NORMAL: Es un modelo para variables continuas, para las cuales son frecuentes los valores cercanos
a la media y no tan frecuentes los que se alejan de ella. Sus parámetros son la media y la desviación estándar. Ej. CI,
altura, peso, tiempo empleado en responder un cuestionario, agudeza visual. Modeliza muy bien el comportamiento
de las variables (no significa que muestra efectivamente lo que sucede, sino que muestra de forma general el
comportamiento). Se llama “curva normal” a su gráfica, y lo que hace es modelizar, dar cuenta de cómo se comporta
de manera general esa variable. Que algo se comporte de manera normal, significa que se puede modelizar bastante
bien, con cierto grado de ajuste a su curva (hay datos de los histogramas que sobrepasan la curva).

Características de la Curva Normal:

1. Sus asíntotas se acercan al eje x por ambos lados, pero nunca lo cortan.
2. Es unimodal y simétrica.
3. El área bajo la curva indica la probabilidad correspondiente a la totalidad de los valores, y vale 1. Bajo la
curva, están comprendidos el 100% de los casos. Lo que se tienen como probabilidad, son áreas de la curva
que se suman o restan de acuerdo con lo que pida el ejercicio. La suma de todas las probabilidades da 1,
esto es importante saberlo por si no tenés el área que te pide y tenés la contraria: podés restarle a 1 la que
tenés.
4. Tiene un punto máximo en u (la media, mediana y moda), y es simétrica respecto de la recta que forma ese
punto. A sus costados, la curva baja, y las probabilidades por lo tanto también lo hacen.
5. Hay cambio de dirección en la curvatura en 2 puntos: mientras la curva es cóncava hacia abajo en μ y en su
cercanía, se vuelve cóncava hacia arriba al alejarse X suficientemente de μ en cualquier dirección. Esos
lugares donde cambia la dirección se llaman “puntos de inflexión”.

Hay una “familia de curvas” que comparten ciertas características y lo que hace particular a cada una de ellas son los
parámetros; si los conozco ya se cómo es la curva. Si yo hago modifico la media, la curva repta sobre el eje x sin
cambiar su forma. Si yo altero el DS, la curva se vuelve más ancha o más puntiaguda. De todas las curvas normales,
se destaca la normal estándar (que está medida en puntaje Z), que tiene como media a 0 y como DS a 1. Z~N(0; 1).
La notación de las otras distribuciones normales es X~N(u, ds). A partir de las áreas calculadas de la normal estándar
se puede conocer las probabilidades asignadas a cualquier intervalo de valores de una variable nominal X con media
u y desviación estándar ds. Osea, puedo pasar el valor xi del cual quiero conocer la probabilidad a puntaje Z y evaluar
directamente con los parámetros de la normal estándar para mayor comodidad, porque el calculo en realidad es
muy engorroso.

Con μ fija, el cambiar σ tiene por efecto acercar o alejar de μ las abscisas de los puntos de inflexión, y como el área
total se mantiene igual a 1, esto resulta en una mayor o menos aglomeración de los valores en torno a la media, lo
cual concuerda con el hecho de que la desviación típica σ mide el valor de dispersión en la curva: si σ es menor, hay
menos dispersión, si σ es mayor hay, hay más dispersión.

El puntaje Z medía el número de desviaciones estándar —contadas desde la media—, a las que se encuentra un caso
individual. Entonces podremos conocer la probabilidad de hallar casos, por ejemplo a más de dos desviaciones
estándar de la media y eso tendrá una inmediata traducción a valores de la variable. También se pueden identificar
probabilidades entre valores de z, por ejemplo, cuál es el área entre -1 y 1 (es decir cuál es la probabilidad de
encontrar a z entre esos valores). Para eso calculo la probabilidad hasta el valor mas grande y le resto la del valor
mas chico.

Sea X~N(u, ds) y Zi = (xi – u)/DS, entonces, P(X<xi) = P(Z<zi).  TEOREMA DE LA TIPIFICACIÓN PARA VARIABLES
NORMALES.

La curva, por más que pueda cambiar de forma según la variable, siempre comprende a la misma área. SIEMPRE es
p=1. ¿Cómo se distribuye esa área dentro de la curva de manera general? Esto sirve para predecir los datos y
después poder confirmarlos o inferir que hicimos algo mal.

De esta manera, se entiende que por encima de la media, mediana, moda, esta el
50% de los casos y por debajo de ella el otro 50%. Además, se ve que
aproximadamente el 68% de los casos están comprendidos entre -1ds y 1ds por
encima de la media, confirmando que son mas frecuentes los casos cercanos
a esta medida y menos frecuentes aquellos que tienden a alejarse de ella.
Estar más allá de los 3 desvíos, sea por debajo o por encima
de la media, es raro e implica una muy baja probabilidad.

Para calcular la “Probabilidad Normal” (la probabilidad que el modelo normal le asigna a ese valor que me interesa),
hago una tabla con x, la media, el desvío, y la probabilidad. Después de haber dibujado aproximadamente la curva
(para predecir), voy a Excel y a la función DISTRIB.NORM.N: En x pongo el valor de la variable para el cual quiero
conocer la probabilidad, en Media pongo la media correspondiente a la variable (si la función es la normal estándar
no la pide porque se conoce que es 0), en desvío lo mismo, y en acumulado pongo 1 (verdadero). Lo que me aparece
en la columna de la probabilidad no es un porcentaje, las probabilidades van de 0 a 1. Si quiero un porcentaje lo
tengo que multiplicar por 100. Ojo q Excel siempre calcula lo que está por detrás del valor que quiero investigar.

Al resultado lo tengo que leer como “en una distribución normal con media 100 y desvío 15, el porcentaje de sujetos
con un puntaje menor a 64 es el 0,82%.

La distribución normal sirve para dos cosas: para modelar muchos fenómenos observables, variables biológicas como
el peso de los niños al nacer, la talla, variables psicológicas como el CI. La segunda razón es que cuando se extraen
muestras aleatorias de una población, algunas medidas que se calculan sobre esas muestras tienen una
distribución que se aproxima a la normal a medida que las muestras tienen mayor tamaño. Distribución de la
población, para hacer predicciones, comprobar hipótesis y ubicar a sujetos en grupos.

Cuando vamos a trabajar con una variable real, por ejemplo, el peso de los niños cuando nacen es necesario
disponer de una variable concreta, a la que llamamos x. Para encontrar probabilidades correspondientes a valores
reales de una variable y no solo los z abstractos, debemos transformar esos valores en puntajes z con la formula (x-
media)/DS. Ahí ya ese cumple el teorema de tipificación.

Por ejemplo: el peso medio en el momento de nacer son 3300 gramos y la desviación estándar es de 800 gramos. La
distribución normal es adecuada para describir la variable peso al nacer. Entonces podemos calcular la probabilidad
que un niño al nacer tenga un peso por debajo de los 1500 gramos. Para calcular la probabilidad vamos a
transformar el valor de x (1500) a puntaje z  -0,25. Ahora es equivalente solicitar la probabilidad de x menor que
1500 que la de z menor que -2,25.

Toda variable que puede modelarse con una distribución normal puede transformarse a puntaje z y así hallar la
probabilidad asociada a diferentes intervalos. Para poder calcular probabilidad necesitas ir de los valores de tu
variable a sus correspondientes z que es para los cuales están calculadas las probabilidades.

Puede ser que me pidan el valor de la variable correspondiente a una determinada probabilidad, es decir, tengo que
hacer la operación inversa. Por ejemplo, si me piden en cuanto al CI, aquel puntaje que es superado solo por el 10%
de la distribución, lo que tengo que hacer es sacar el percentil 90, que es el valor de la variable que deja por debajo
de si al 90% de los casos y que es superado por el 10%. Entonces, voy a fx en Excel y le pido INV.NORMAL (porque
Excel no calcula valores por encima del que le pido), le ingreso la probabilidad (0,9) y me dice el valor de la variable
que estoy buscando. Si es con la normal estándar pongo INV.NORM.ESTAND.

Interquintilas  Son los espacios entre los “cortes” que le hago a una distribución al calcular los quintiles. Al
dividirla en 5 partes iguales, obtengo cuatro cortes, que son el quintil 1, el quintil 2, 3 y 4. El 1 supera al 20% de la
distribución, el 2 al 40%, el 3 al 60% y el 4 al 80%. Las interquintilas son los espacios entre cortes, esos 5 pedacitos. Si
quiero saber los limites de la central (la tercera), tengo que calcular cual es el valor de la variable que supera al 60%
de la distribución y cual es el que supera al 40%. Hago otra vez la función inversa, tengo las probabilidades, 0,6 y 0,4.

Grados de libertad  el número de observaciones linealmente independientes que existen en una suma de
cuadrados, pero del que haremos un uso exclusivamente instrumental. Su denominación es gl o bien df en inglés.

DISTRIBUCIÓN CHI CUADRADO (X2): Es un modelo con forma asimétrica. Además de la forma asimétrica, hay otra
diferencia con la distribución normal, la x 2 no es una distribución única: no es suficiente especificar un valor de la
variable para conocer su probabilidad acumulada sino que la forma que tenga dependerá de los grados de libertad,
los cuales tomaremos como n-1. A medida que se incrementan los grados de libertad, la forma de la distribución
gana en simetría y se asemeja a la distribución normal. Para hallar las probabilidades de los valores de la variable,
uso algún programa.

Se usa para poner a prueba la independencia entre dos variables nominales. Depende siempre de los grados de
libertad como parámetros, que están en relacion al tamaño de la muestra. Si me piden percentiles voy a
INV.CHICUAD.CD.

DISTRIBUCIÓN T DE STUDENT: Para variables continuas. Depende de los grados de libertad (parámetro v) y es
parecida a la curva normal estándar (simétrica respecto del 0 pero con más varianza, más cargadas las colas). Se usa
para hacer inferencias sobre una media, sobre una diferencia de medias y sobre parámetros de regresión.
Si me piden percentiles voy a INV.T. En los gráficos y en los valores de las probabilidades se ve que el aumento de los
grados de libertad en la distribución t tiene el efecto de reducir la probabilidad de los valores extremos

En Statistix: Probability functions. No hace funciones inversas de chi cuadrado pero si de T de Student (T inverse) y
de normal estándar (Z inverse).

UNIDAD 4: CAPÍTULO 9

La inferencia estadística supone un salto de lo muestral a lo poblacional, lo que introduce la posibilidad de un error.
Se busca una estimación previa a los parámetros (media, proporción y desviación estándar). Como los parámetros
poblacionales son desconocidos, para estimarlos se calculan las características análogas a nivel muestral. La
inferencia consiste en la utilización de técnicas para llegar a inducciones o inferencias acerca de una población
completa, basándose en datos de una muestra integrante de la misma. Los métodos y técnicas de la inferencia
estadística se pueden dividir en dos: métodos de estimación de parámetros y métodos de contraste de hipótesis.

Parámetro: Es una característica fija y numérica de la población de valores de una variable. Son medidas de
tendencia central o de variabilidad, de población. Las medidas son “paramétricas” cuando refieren a una población
completa y no a una muestra. Es la característica poblacional que pretende conocerse.

Estadístico: Es una variable cuyos valores dependen de una muestra, por lo que se dice que es una característica
muestral. Si cambio la muestra cambia el valor de los estadísticos. Son las medidas calculadas sobre los datos de la
muestra, los “parametros” a nivel muestra. La media muestral, la proporción, la varianza o el coeficiente de
correlación muestral son estadísticos. Los valores que de ellos obtengamos en la muestra permitirán estimar los
correspondientes valores paramétricos.

Estimador: Es un estadístico cuyos valores se consideran próximos a un parámetro que se quiere estimar. Ej. Media,
varianza, proporción, son estimadores de sus respectivos parámetros poblacionales. El estimador puede tomar
diversos valores según la muestra aleatoria que salga sorteada. Todo estimador es un estadístico, pero no todo
estadístico es un estimador. Un estimador se dice insesgado cuando su media coincide con el parámetro que
pretende estimar. Son los valores calculados sobre los datos muestrales que se utilizarán para realizar
aproximaciones a los valores poblacionales. Por eso se dice que la media muestral es un estimador de la media
poblacional.

Características de los estimadores

 Insesgabilidad: Cuando el promedio de todos los valores obtenidos en todas las muestras de un
determinado tamaño para cierto parámetro es igual al valor de esa característica en la población, se dice que
el estimador muestral es insesgado.
 Consistencia: el aumento en el tamaño de la muestra (número de elementos que la componen) mejora la
calidad de la estimación. El concepto de consistencia expresa que si la muestra, en lugar de 30 elementos,
contiene 100, la probabilidad de obtener una sobreestimación extrema es menor. Esto no significa que el
estimador alcance valores más próximos a los paramétricos a medida que la muestra aumenta de tamaño,
sino que disminuye la probabilidad de obtener resultados muy lejos de los paramétricos a medida que la
muestra crece.
 Eficiencia: Sirve para comparar estimadores. La eficiencia será mayor cuanto más pequeña sea la varianza
del estimador.

La media muestral, por ser una medida calculada sobre los valores obtenidos en una muestra aleatoria, es una
variable aleatoria, su valor depende de cuáles sean los casos que constituyen la muestra y esto depende del azar.
Cuando el tamaño muestral es grande, la distribución de la media muestral es normal (más normal cuanto mayor
el tamaño de la muestra).

Error muestral: Es la diferencia entre las estimaciones (datos obtenidos en la muestra) y los parámetros
(características poblacionales). Hay algo que hace que al hacer la extracción al azar, la media muestral no coincida
exactamente con la poblacional. Una estimación es más precisa cuando el error muestral es menor. Es determinado
por el tamaño de la muestra, medida que este último aumenta, decrece el error muestral.
E=θ( parámetro)−ϑ (estimador)
La media poblacional es un valor que puede ser conocido (si hemos observado a toda la población) o desconocido,
pero en todo caso es fijo. Cuando hacemos estimaciones no sabemos cuánto vale la media de la población, pero sí
sabemos que es un número estable, fijo. Por el contrario, la media muestral—y porque depende de los casos que
hayan sido aleatoriamente seleccionados para constituir la muestra—depende finalmente del azar, por eso es una
variable aleatoria.

Ej. Tomo una muestra de 100 niños, de los cuales me interesa saber el promedio de edades, conociendo que la
media poblacional es 4,5. Cada grupo de 100 niños que pueda sacarse como muestra de la población posee un valor
de media eventualmente diferente; es decir, hay tantas medias como grupos de 100 niños. Así, la media es una
variable.

Los cálculos de los valores poblacionales y muestrales son los mismos salvo para la varianza, porque el modo de
calcularla es levemente distinto si se trabaja con datos muestrales o poblacionales: Se cambian los nombres de los
elementos con los que se opera (μ en lugar de x ̅, N en lugar de n), y además se ha eliminado el -1 del denominador.
Ya no es el total de casos menos uno, sino el total de casos.

Dos aspectos importantes para recordar cuando se usan muestras: La variabilidad de las muestras, ya que difieren
entre sí. Las muestras extraídas de la misma población dan resultados diferentes. La representatividad de la
muestra: No indica la similitud entre la muestra y la población, sino su obtención por un procedimiento adecuado
que permita estimar valores de la población a partir de lo que se halle en la muestra.

Conocer las distribuciones de probabilidad de los estadísticos muestrales sirve para ponerlos en relación con los
parámetros a los que estiman: se usarán las distribuciones de probabilidad para relacionar los estimadores
(conocidos) con los parámetros (desconocidos).

DISTRIBUCIÓN DE LA MEDIA MUESTRAL: las diferentes muestras ofrecen valores diferentes de x ̅; el valor varía
dependiendo de cuál haya sido la muestra que se seleccionó al azar. Por eso la media es una variable aleatoria que
TIENE UNA DISTRIBUCION DE PROBABILIDADES QUE ES NORMAL, ya que hay valores más probables que otros. Si yo
tengo una media poblacional 36, voy a esperar más un 35,6 antes que un 20.

Se describe la variable x ̅ a través de su esperanza (media) y su varianza. Calculamos la esperanza de x ̅, (sumatoria


de cada n*p). A través de esto se puede verificar que el valor esperado para las medias muestrales coincide con la
media de la población. Esto implica que, si de una población se extraen todas las muestras posibles de un
determinado tamaño, y en cada una de ellas se calcula la media, el promedio de esas medias muestrales coincide
con la media de la población completa. Así, la esperanza del estimador es igual al parámetro  insesgabilidad.

Varianza: cuanto más grande sea la muestra, más pequeña será la varianza de las medias muestrales. La varianza
mide la dispersión de los valores de una variable, por lo que esta varianza mide la dispersión entre los valores de las
diferentes medias muestrales. El hecho que disminuya cuando aumenta el tamaño de la muestra significa que para
muestras más grandes, las medias muestrales tendrán menos dispersión, es decir que menos probables los valores
muy alejados.

Teorema Central del Límite  Si X es una variable, µ la media de sus valores y σ su desviación estándar, la media X/
σ
de muestras es una variable que tiene distribución normal con la misma media µ y desviación típica muestral ,
√n
cuando sigma no se conoce se reemplaza por S. Una suma de n variables aleatorias tiende a tener distribución
normal a medida que aumenta n, independientemente del modo en que esté distribuida esa variable. Tiene la
misma “media” que el parámetro poblacional porque justamente si yo hago el promedio de medias de todas las
muestras posibles de una población, ese número coincide con la media poblacional.

Si una variable X sigue una distribución Normal con media  y desvío , la distribución de la media muestral también
sigue una distribución normal con una media igual a  pero con un desvío estándar menor al de la variable X: 
dividida la raíz de n. Al estandarizar o tipificar la media, ésta sigue la distribución normal estándar.

σ
N (μ; )
√n
-La esperanza, o media de la media muestral es la media de la población (insesgabilidad). -La varianza de x ̅ es la
varianza de la población dividida en el tamaño de la muestra (consistencia). -La media muestral tiende a tener una
distribución normal con media μ y varianza , cuando el tamaño de la muestra aumenta.

x−μ
La estandarización (puntaje z) de la media muestral resulta: σ
√n
La distribución de la media muestral tipificada, cuando la variable X es normal y la desviación estándar  se estima
con S, sigue la distribución t de Student con n-1 grados de libertad. La t es se aproxima a la z a medida que el tamaño
de muestra n es cada vez más grande. Las diferencias entre ambas distribuciones se acentúan para tamaños
muestrales pequeños o inferiores a 30.

La distribución de la media muestral para muestras pequeñas: El estimador sigue siendo el mismo, x , y la
estandarización es igual a la de las muestras grandes. Lo que cambia es que la media muestral se distribuye según el
modelo T de Student con n-1 grados de libertad: tn−1. Por ejemplo:

( )
7−6,5 ( media )
P ( x>7 )=P t 14 > =P(t 14 >3,87)
3
√ 15
DISTRIBUCION DE LA PROPORCION MUESTRAL:

La proporción muestral f =^p es un estimador insesgado de la proporción poblacional P, es una variable que se
aproxima al modelo normal. Pasa lo mismo que con la media muestral, al promediar todas las proporciones respecto
de una categoría entre todas las muestras, esta coincide con la proporción poblacional respecto de esa categoría. Se
distribuye normalmente si n*p≥5 y n*(1-p)≥5.

^p− p
Su estandarización:
√ ^p∗(1− ^p ) se lee proporción muestral menos proporción poblacional sobre raíz cuadrada de
n
proporción muestral por 1 menos proporción muestral sobre n.

( √
Su distribución: N P ;
p∗( 1− p )
n )El desvío es una estimación, todas las formulas lo son.

FORMULAS EN GRAL.  esos estimadores (fórmulas de estandarización) dan por resultados Z o T de student o Chi
cuadrados que tienen un modelo de probabilidad asociado. Con el resultado de esas formulas yo puedo entrar a la
distribución de probabilidad.

UNIDAD 5

Hipótesis estadística: Es una afirmación referida a cualquier característica de la distribución de probabilidades de


una variable aleatoria o varias variables observadas conjuntamente. Dado que las variables aleatorias y sus
distribuciones de probabilidades modelizan a variables empíricas que describen problemas reales de poblaciones, se
puede decir que una hipótesis refiere a cualquier característica de una población de valores de una o más variables.

Prueba de hipótesis: Es un procedimiento basado en información muestral que proporciona un criterio racional para
tomar decisiones bajo incertidumbre (no tomarlas a ojo). Consiste en confrontar hipótesis, y a partir de lo observado
en la muestra, optar por una de ellas. Las hipótesis por contrastar son H0 y H1. H0 es la hipótesis nula, que indica la
nulidad de efecto de un tratamiento sobre la variable de interés. H1 es la hipótesis alternativa, que afirmaría la
eficacia de un tratamiento. El rol de estas hipótesis no es simétrico, el método es conservador de H0, la mantiene
mientras no se encuentre suficiente evidencia muestral en su contra. Ej. Si se quiere proponer una nueva terapia
para cierta patología, se deberá dar suficiente evidencia a favor de esta para poder reemplazar la anterior.

La prueba de hipótesis es un procedimiento para evaluar si un valor observado en la muestra es compatible con el
valor poblacional que plantea la hipótesis nula, para la media o la proporción. Siempre la hipótesis nula sostendrá
que no hay diferencias entre las puntuaciones obtenidas antes y después del tratamiento, o por un grupo y el otro; o
lo que es lo mismo, que las diferencias son cero (nulas). En la alternativa se planteará la situación opuesta, sea
bilateral (las medias difieren) o unilateral (una media es mayor que la otra).

Ejemplos de hipótesis nulas: Esta droga no produce ningún efecto sobre la memoria. La técnica terapéutica A es
igualmente eficaz que la B. Los métodos A y B para enseñar a leer a los niños producen iguales resultados. La
hipótesis nula es una afirmación sobre un parámetro que indica ausencia de diferencia.

Dos aspectos fundamentales de las pruebas de hipótesis: Las conclusiones son probabilísticas, no son verdaderas ni
falsas. Toda conclusión proveniente de estos procedimientos está sujeta a error.

Lógica de la prueba de hipótesis: Si suponemos verdadera a H0, tendremos provisoriamente información sobre la
población de donde proviene la muestra que se examinará para tomar la decisión. A partir de ese conocimiento
sabremos qué resultados muestrales son más o menos probables usando la distribución de probabilidad que
corresponda. La hipótesis nula se rechazará siempre que se observen resultados muestrales improbables si ella fuera
verdadera (si encuentro algo muy raro en ese escenario). La lógica es siempre la misma, lo que cambia es el
estadístico de prueba y su distribución bajo H0 dependiendo del parámetro sobre el cual se hagan las hipótesis, los
supuestos sobre las variables que intervienen, el tamaño de la muestra, etc.

La lógica de la prueba de hipótesis consiste en plantear el escenario en el que H0es verdadera y observar qué tan
probable es lo que hallamos en la muestra en ese caso. Si la respuesta a esas preguntas es “muy probable”, la
decisión será la de no rechazar la hipótesis nula, porque los resultados muestrales hallados serían esperables (muy
probables) bajo H0. Al contrario, si la respuesta es “muy poco probable” decidiremos rechazar H0, ya que se trata de
un resultado poco esperable si H0 fuera cierta. En lugar de evaluar intuitivamente si un valor muestral está cerca o
lejos del valor hipotético, lo que haremos será evaluar cuál sería la probabilidad de hallarlo si fuera cierta la hipótesis
nula.

Para realizar una prueba de hipótesis, necesitamos calcular la probabilidad del valor observado, si H0 fuera cierta, es
decir, si el parámetro tuviera ese valor (el que señala H0). Para decidir si un resultado muestral se aleja mucho o
poco del valor paramétrico, deberemos determinar si es poco probable o muy probable. Afirmar que un valor
muestral se aleja mucho del valor poblacional equivale a decir que sería muy poco probable si el valor poblacional
fuera el hipotético.

El carácter unilateral o bilateral de la prueba no depende de la H0 sino de la H1. La H0 siempre indica un valor
determinado para el parámetro, mientras que la H1 puede indicar un valor diferente si la prueba es bilateral, o bien
señalar la dirección de la diferencia hacia los mayores o menores y en esos casos, la prueba es unilateral.

Tipos de prueba de hipótesis:

1. Sobre una media cuando se conoce la desviación estándar poblacional.


2. Sobre una media cuando el desvío estándar poblacional es desconocido.
3. Sobre una proporción.
4. Sobre la diferencia de medias de variables independientes (de dos poblaciones).
5. Sobre la independencia de dos variables cualitativas.

x : Media muestral como valor observado enuna muestra particular


X : Media como variable aleatoriacuyos valores dependen de la muestra que salga sorteada
X :Variable poblacional
Errores de tipo I y de tipo II  - Error de tipo I: se rechaza H0 cuando esta es verdadera (alfa). – Error de tipo II:
conservar H0 cuando es falsa (beta).
Decisión
Estado de realidad Aceptar H0 Rechazar H0
ERROR DE TIPO I
H0 es verdadera Correcto (1- α)
(α)
ERROR DE TIPO
H0 es falsa Correcto (1-β)
II (β)

Cada vez que rechacemos H0 debemos recordar que hay una probabilidad de haber tomado una decisión incorrecta.
Esta es la razón por la que α se elige con valores pequeños, pero no se puede reducir indefinidamente el valor de α,
porque también existe el riesgo de aceptar H0 siendo falsa.

En un experimento que consiste en decidir si una droga produce efectos sobre un determinada patología, la Ho dirá
que no hay efecto, por lo que cometer el ETI será creer que hay efecto (rechazar H0) cuando en realidad no lo haya
(H0 verdadera). Un error de tipo II consiste en creer que la droga no es efectiva (aceptar H0) cuando en realidad sí
tiene efectos (H0 es falsa).

Nivel de significación: Es la probabilidad de cometer un error de tipo I y se designa con α. Generalmente es 0,05. Es
el riesgo que admito de cometer este error. Lo fija el investigador según cuan dispuesto esté a arriesgarse a tal error.
Cuanto más pequeño sea el nivel de significación, más evidencia se necesitará para descartar H0. Está en relacion a
la alternativa, dependiendo del signo que esta lleve es en donde se ubica el nivel de significación, al final, al principio
o en ambas colas. Si el símbolo es ≠, entonces va medio alfa para cada cola. Este valor es el que determina la zona de
rechazo. Es la probabilidad de hallar al valor muestral en la zona de rechazo de H0, si H0 es verdadera.

Potencia de la prueba: Es la probabilidad de rechazar H0 cuando es falsa. Se designa 1 – β porque con beta se denota
la probabilidad de cometer un error de tipo II (conservar H0 cuando es falsa).

Ej. En un test en el cual se quieren mejorar los tiempos de reacción, se obtiene que la media muestral es menor que
la poblacional. Uno no puede generalizar a partir de esto, porque si bien es menor, a veces las diferencias pueden
atribuirse al azar y no ser estadísticamente significativas. Se necesita un criterio para decidir si esa diferencia fue
circunstancial de la muestra o si indica que a nivel poblacional la media se ha reducido. Ese criterio lo da la
probabilidad. Que una diferencia sea “estadísticamente significativa” quiere decir que conduce al rechazo de H0. Se
concluye H1, que “hay efecto” de lo que sea que se esté evaluando.

Potencia de la prueba: es la probabilidad de rechazar una H0 cuando ésta es falsa. Se designa 1 – β, porque con β se
designa la probabilidad de mantener H0 cuando es falsa. Cuanto menor es α, mayor es β y menor es la potencia, ya
que se está pidiendo más evidencia para rechazar H0.

Zona de rechazo: Es la zona de valores de la distribución determinados por el nivel de significación que me llevan a
rechazar H0, son los valores “improbables” bajo un determinado escenario o hipótesis. El “punto crítico” es aquel
valor que inaugura esta zona. Dependiendo de la hipótesis alternativa, la zona de rechazo puede abarcar un extremo
o ambos (α/2). Depende del signo de H1. ¿Por qué las zonas de significación están en las colas? Porque ahí están los
valores menos probables del z o estadístico de prueba si H0 es verdadera. Si el z aparece ahí es porque la diferencia
con la media poblacional es importante, es una DIFERENCIA SIGNIFICATIVA.

La zona de rechazo de H0 es el conjunto de valores extremos de la distribución, donde es poco probable encontrar
los valores muestrales si H0 es verdadera. La zona de aceptación de H0 es el conjunto de valores centrales de la
distribución, donde es más probable encontrar los valores muestrales si H0 es verdadera.

Que una prueba haya dado significativa no implica directamente que el resultado tenga interés práctico. Para que
una diferencia significativa pueda interpretarse como relevante debe acompañarse con una medida del tamaño del
efecto, una cuantificación de lo importante que es una diferencia o un coeficiente, luego de haber obtenido un
resultado significativo en la prueba de hipótesis. Es necesario para interpretar los resultados de una investigación:
¿¿
Con desvío conocido: d=¿ x −μ 0∨
σ
¿
Con desvío poblacional desconocido: d=¿ x −μ 0∨ ¿
s
Valores entre 0,2 y 0,3 son considerados efectos bajos. Aproximadamente 0,5 es efecto moderado y a partir de 0,8
es efecto alto.

Diferencia significativa: Lo esperable siempre es que las medias se parezcan. Cuando vemos que la muestral difiere
de la poblacional decimos ¿Será que el parámetro ya no es más valido? Para sostener esto tiene que haber mucha
evidencia a nivel probabilidad. Lo que someto al contraste es el parámetro, no el estadístico. Y para sustituir el
parámetro que ya no sirve, hacemos pruebas de hipótesis. Hay que ver si esa diferencia que encontré entre el
parámetro y el estadístico es significativa o no, y eso me lo dicen las pruebas de hipótesis.

Valor p: H0 se rechaza si y solo si el valor de p<α. Es la probabilidad de observar en la experiencia un resultado igual
o más extremo que el obtenido a partir de los datos muestrales, bajo el supuesto de que la hipótesis nula es cierta.
Es decir, la probabilidad de hallar un resultado como el que se encontró o más extremo que él. Es el ínfimo nivel de
significación que podríamos haber elegido para el rechazo de H0, por eso es más informativo que el punto crítico y la
zona de rechazo. Son dos formas de llegar a lo mismo, solo que una es más informativa que la otra. Es la zona de
probabilidades desde el punto donde cayó el estadístico de prueba en adelante. Calculo una probabilidad. Es el valor
de probabilidad asociado al estadístico que encontré, el área que este deja por debajo o por encima de él.

Un valor p pequeño indica que el resultado observado (o resultados más extremos que él) son poco probables bajo
el supuesto de hipótesis nula cierta. Un valor p grande indica que el resultado observado es muy probable bajo el
supuesto de hipótesis nula cierta. Si el valor p es menor que el nivel de significación establecido (p< α): se rechaza la
hipótesis nula y se describe como un resultado estadísticamente significativo. Si el valor p es mayor que el nivel de
significación establecido (p>α): no se rechaza la hipótesis nula y se expresa como un resultado no estadísticamente
significativo.

Usando el valor p, la lectura del resultado de la prueba de hipótesis se expresa: Si la hipótesis nula fuera verdadera,
habría una probabilidad p de hallar un valor como el observado o uno más extremo.

Si H 1 > ( mayor ) → El valor p es el area que el estadistico deja por encima de si . P ( x >estadistico ) .

Si H 1 < ( menor ) → El valor p es el area que el estadistico deja por debajo de si . P ( x< estadistico ) .

Si H 1 ≠ → Se parte en dos la probabilidad a ambos ladosde ladistribución .

Si la prueba es bilateral hay que considerar la probabilidad de “la cola más corta” y multiplicarla por dos para
comparar eso con el nivel de significación que se tuvo que repetir en dos colas.
Es otra manera de resolver la decisión. En vez de ubicar al estadístico en la zona de rechazo, comparo el valor p con
el alfa . Si p es menor se rechaza la H0.

Cuanto mas grande sea el valor del estadístico que encuentre, más grande es la diferencia entre la media y la µ, ya
que z (el estadístico estandarizado) es la cantidad de desvíos a la media. Mas z, mas desvíos.

1. Prueba de hipótesis con desvío conocido

“Registros históricos”: Datos que nos dicen cosas de la variable de antes, no solo de hoy. Suele ser una proporción o
una media, poblacionales. Si yo tengo históricamente una media= 43, y en una muestra ALEATORIA saco media = 46,
eso no indica que algo cambio y que se puede aceptar una u otra hipótesis. La media de la muestra tiene una
distribución de probabilidades.

Si yo quiero averiguar, por ejemplo, si un programa funcionó o no funcionó, lo que hago es creerle al escenario que
dice que no funcionó, porque si yo le creo a ese escenario que sostiene que la media se mantuvo en su lugar (ya que
H0 es siempre una igualdad), estoy diciendo que ese grupo de x chicos es una muestra posible dentro de esa
población donde la media sigue siendo la misma. Lo que hay que hacer es determinar si la media muestral, el
estadístico obtenido, está en el grupo de las medias que espero o en el grupo de las que me sorprendería si aparece.
Si llego a algo muy improbable, dejo de creerle a H0 y me quedo con la alternativa. Si es muy poco probable
encontrar la media observada en el escenario de H0, la rechazo.

Pasos por seguir:

1. Mencionar la variable de interés de la población . Por ejemplo  X: Puntaje que obtendrían en el test de
actitudes si se implementara el programa (nos imaginamos que lo aplicamos, por eso es una población
hipotética, yo no puedo aplicar el programa a todos). Es importante el condicional.

Además tengo que decir los supuestos, que en este caso serían: - X se distribuye normalmente. Si X es normal,

entonces X es exactamente normal  X ~ N(µ;


√ σ . Si la consigna no especifica la distribución de X, por el
n
¿
Teorema Central del Limite X es APROXIMADAMENTE normal si n es lo suficientemente grande (mayor a 30). Si el
tamaño de la muestra es pequeño y no se conoce la distribución de X, también se desconoce la distribución de X . Se
usa la distribución normal del estadístico de prueba para determinar la zona de rechazo o el valor p.

2. Plantear las hipótesis por contrastar  ej.


H 0 : μ=μ0 ( lamedia poblacional ) → El efecto del programa es nulo
H 1 : μ< o> o ≠ μ → El programa funciona . Se pone a prueba una sola, la nula. Es el planteo simbólico de la
hipótesis (los escenarios), pero siempre hay que explicar la parte coloquial.

La nula siempre lleva el símbolo =, su planteo es siempre que el parámetro es igual a tal valor. Sostiene la veracidad
del parámetro, por eso es conservadora. En cambio, la alternativa es inexacta, depende de cada caso. Son rivales, si
una es verdadera, la otra es necesariamente falsa.

3. Elegir el nivel de significación  Es el punto de corte, determina a partir de qué momento una media es
poco probable. Hasta qué punto los valores son probables y esperables. Si es α=0,05, digo “Cualquier media
muestral cuya probabilidad sea menor que 0,05 me lleva a rechazar la hipótesis nula”.
4. Indicar el estadístico de prueba adecuado y explicitar su distribución bajo la hipótesis nula 

X ≈ N μ0;
( σ
√n )
Bajo H 0

“Bajo H0 el efecto del programa es nulo, por lo que también la desviación estándar de X es la misma que la
de los puntajes históricos”. El estadístico es una medida que tomo en una muestra, por ejemplo en este caso
sería la media muestral. Este paso pide la distribución de este estadístico en el caso de que le estemos
creyendo a H0, porque si no le creyéramos la distribución sería otra.

Lo que esta arriba es la distribución del estadístico. El estadístico solo es X , porque es el estimador del parámetro μ,
sobre el cual se formulan las hipótesis.
Se usa el modelo normal para resolver la prueba. Para entrar al modelo se estandariza el valor, se encuentra su

( )
x−μ
respectivo z en la distribución normal. La estandarización es: σ o S . El z indica la cantidad de desvíos de la media
√n
muestral de la poblacional.

5. Determinar la zona de rechazo de la hipótesis nula y la regla de decisió n 


Zona de rechazo: Dado que mi nivel de significación es 0,05 entiendo que la zona de rechazo tiene que
ocupar un 5% de la distribución bajo la curva. Para saber si este 5% es al final o al principio de la curva, miro
el signo que tiene la hipótesis alternativa (<, >, o diferencia (alfa sobre dos)). Es la zona en la cual, si el
estadístico de prueba cayera, rechazo H0. Una vez que sabemos de qué lado está la zona, averiguamos el
punto crítico de la misma, aquel valor que la inaugura.

Si la H1 tiene el signo >, entendemos que el punto crítico es el valor que tiene por encima suyo al 5% de la
distribución y deja por debajo de sí al 95%, osea, es el percentil 95. Eso lo calculo con Excel (INVER.NORM/0,95…). A
partir de ese punto empiezan esos valores que se alejan mucho de la media. Si el estadístico de prueba cae después
de ese número tengo que rechazar H0.

Si H1 tiene el signo ≠, se rechaza H0 si la media muestral tomara valores suficientemente inferiores a µ o


suficientemente mayores. Esto es un test bilateral, y se resuelve dividendo a alfa por 2, quedando 2 zonas de
rechazo con 0,025 de probabilidad cada una. Ahí lo que hay que hacer es averiguar los dos puntos críticos que
inauguran las zonas, aquel que deja por debajo de si al 2,5% de la distribución, y aquel que es sobrepasado
únicamente por el ultimo 2,5%. Para calcular esos valores tomo en cuenta la distribución normal con media μ0 y de
desvío uso lo que obtuve en el estadístico.

Regla de decisión: “Se rechaza H0 si y solo si el valor de la media observado es mayor/menor que (punto crítico)”.

6. Calcular el valor observado del estadístico de prueba  A veces viene dado por la consigna, otras veces no.
7. Tomar la decisión  A partir de lo observado en la zona de rechazo, se decide mantener o rechazar H0 al x%
(nivel de significación).
8. Dar una conclusión en términos del problema planteado  Ej. “Como creerle a H0 nos llevó a considerar una
media muy poco probable, pareciera ser que el programa funciona”. Atención con el condicional.

2. Prueba de hipótesis con desvío poblacional desconocido

Los pasos para seguir son los mismos. Cargo los datos en el Statistix, y con summary le pido la media, el desvío y n.

Hay un problema, cuando en el paso 4° hay que hacer la distribución del estadístico de prueba nos encontramos con
que nos falta el desvío estándar de la población (sigma). Frente a esto, lo que se hace es estimar a sigma a través del
desvío estándar que se obtuvo en la muestra (S). Esto tiene como consecuencia que ya no podamos estar seguros de
que la distribución del estadístico de prueba se aproxime a la normal. Por lo tanto, es una distribución T de Student
con n – 1 grados de libertad.

El estadístico es 𝑥ҧ− 𝜇 y su distribución es


x−μ
𝑠 t= t n−1 Bajo H 0
𝑛
s
ξ
√n

Supuestos: n>30 o distribución normal de X. y que σ =S.

La zona de rechazo: Lo primero que tengo que hacer es el dibujo aproximado. La distribución t se parece mucho a la
normal estándar, lo que hay que hacer es transformar a la x (estandarizarla y estimar su error estándar
reemplazando sigma por S) para ver en qué parte de la curva está ubicada. Le pido a Statistix que calcule el punto
crítico, suponiendo que H1 lleva el signo <, sería el valor que deja por debajo de sí al 5%. Probability Functions/ T
inverse / p= 0,05 y DF= n-1/ go. Ese valor que me tira es el punto crítico, y en este ejemplo, todos los valores
menores a él son los que me va a hacer rechazar a H0.

Regla de decisión: “Se rechaza H0 si y solo si el valor observado del estadístico de prueba, t obs, es menor/mayor que
(punto critico)”.

Para sacar el estadístico de prueba calculo el choclo que está arriba: me da un numero solo. Para eso necesito saber
la media y el desvío de la muestra, que me lo da Statistix después de que haya cargado los datos. x es el valor que
quiero transformar a la escala de los t. Si ese número que me da queda en la zona de rechazo que calculé antes,
rechazo H0. Finalmente, doy una conclusión aclarando siempre el nivel de significación usado para tomar la decisión,
ya que a lo mejor con otro nivel la decisión hubiera sido diferente (valor p).

Statistix  One sample T Test / Null Hyphotesis: hipótesis nula, el valor de media que sostiene. /Alternate: Less than
(<) o Greater than o diferent / OK.  Así nos da la media de la muestra, SE (el desvío de la muestra sobre la raíz de
n), T (estadístico de prueba), DF (grados de libertad), P (valor P, que también sirve para tomar la decisión
comparándolo con alfa).
1 Puntaj
Los datos los tengo que cargar e
2 Puntaj
e
En la salida del programa 3 Puntaj observo:
e
- Mean: Media muestral observada ( x )
- T: Valor observado t obs (que sería muy parecido al z obs si hubiera aproximado el estadístico a la distribución
normal (cuando n > 30).
- DF: Grados de libertad, n-1.
- P: Valor p que uso comparando con alfa.

3. Prueba de hipótesis sobre una proporción

Probabilidad de éxito y proporción poblacional P

La probabilidad P de que un suceso ocurra modeliza la proporción de casos favorables a ese suceso en la población.
La proporción muestral ^p es estimador de la proporción poblacional P, que es un parámetro que muchas veces se
desconoce, por eso se lo estima tomando una muestra aleatoria de tamaño n, se cuenta la cantidad de casos
favorables (éxitos) al sucedo en cuestión y se lo divide por n.

^p es un estadístico, una variable cuyos valores dependen de la muestra. Se obtiene a partir de una variable Y que
cuenta la cantidad de veces que ocurre un suceso en la muestra de tamaño n.

^p=Y /n  El problema es que la variable Y se distribuye con la binomial de parámetros (n, p), donde p es la
probabilidad de éxito de cada variable Bernoulli subyacente a la variable binomial y coincide con la proporción de
ocurrencia del suceso en la población (“datos históricos”). Lo que se hace es pasar de la binomial a la normal
verificando que: n∗p ≥5 y que n∗(1−p) .

Así, la distribución del estadístico quedaría: ^p ≈ N P ;


( √
P∗(1−P )
n )
. Por TCL, a medida que n aumenta, las

probabilidades obtenidas según el modelo binomial para la variable ^p con sus parámetros, más se parecen a las
obtenidas según el modelo normal con esos parámetros.

La forma de transformar el valor observado a puntaje Z, es decir, la distribución muestral de la proporción

(√ )
^p −P
z=
estandarizada es: P∗( 1−P )
n

El test sobre la proporción


1. Nombrar la variable: Es la Bernoulli sobre cuyo parámetro P se quiere inferir.
2. Planteo de hipótesis: Acá es lo mismo que antes, H0 va a establecer siempre una igualdad donde P=P 0,
mientras que la H1 va a depender del caso: P< P0 , P> P 0 , o P ≠ P0.
3. Estadístico de prueba: Es ^p, porque es el estimador del parámetro P, sobre el cual se formulan las hipótesis.
Su distribución aproximada:

( √
^p ≈ N P0 ;
P0∗(1−P )
n )
 Hay que acordarse de que para que esa aproximación se verifique como buena, se

tiene que cumplir: n∗p ≥5 y que n∗(1−p). Usando esta distribución se procede determinando la zona de rechazo
o calculo del valor p para tomar la decisión como en las pruebas anteriores.

Esas son las cosas “distintivas” de esta prueba. Después es mas de lo mismo, el nivel de significación lo determina el
investigador. Resolución manual:

1. Nombro la variable. Por ejemplo: X= “condición de tener altos niveles de agotamiento o no tenerlos”
2. Planteo de hipótesis según corresponda.
3. Nivel de significación: Puede ser 0,01 o 0,05. Tengo que acordarme de ponerlo al final en la conclusión.
4. Verifico las condiciones de aproximación n∗p ≥5 y que n∗(1−p) . Si se cumplen, sigo tranca.
5. Se nombra el estadístico y su distribución. Al final del choclo de la distribución pongo “Bajo H0” y lo resuelvo
para que me quede N (P; (…)).
6. Zona de rechazo y regla de decisión. Acá depende de el signo que lleve la H1.
n ° de éxitos
7. Averiguo el estadístico: ^p=
n
8. De acuerdo al valor de la zona de rechazo y el valor obtenido, tomo la decisión.
9. Calculo el valor p dependiendo del signo que lleve H1.
^ −P
p
10. Tamaño del efecto: d=
√ ^p∗(1− ^p )
Resolución con el Statistix: No hace falta cargar los datos.

Voy a: Statistics / One, Two, Multisample Tests / Proportion Test. En especificación de modelo se pone “One Sample
Test” porque es para una sola muestra. En “Sample 1” se ponen los datos, en sample size se pone el tamaño de la
muestra y en número de éxitos, la cantidad de éxitos LOL, el valor de la variable que me interesa. En “Null
Hyphotesis” pongo el valor de la proporción postulado en H0. En “Alternate” tengo que marcar la relacion que
aparece en H1, que puede ser < (Less than), > (greater than) o ≠ (not equal). El CI Percent bla es siempre 99. Le doy
OK.

La salida marca el valor P corregido y sin corregir, se usa el sin corregir: Z UNCORRECTED. Si ese valor es menor al
nivel de significación, rechazo H0. Recordar que el programa muestra al estadístico estandarizado.

Ej. De Gisele  ¿Cómo hacer para medir la intención de voto de la gente sin tener que llamar a todos los votantes?
Para poder estimar la cantidad de votos que va a tener un candidato, tomamos una muestra ALEATORIA, de n=400.
Les pregunto al candidato al que van a votar en un contexto bipartidista. Así, se generan automáticamente dos
categorías: 1) Los que votan al candidato que me interesa (éxitos) 2)Los que votan en blanco o al otro candidato
(fracasos).  Es una variable dicotómica! Bernoulli.

Suponemos que en la muestra el número de éxitos que obtuvimos (la cantidad de personas que votan a mi
204
candidata) fueron 204. Entonces, ^p= =0,510. ¿Ya se puede quedar tranquila y pensar que va a ganar? Y no sé,
400
para eso hago la prueba de hipótesis.

- Escenario 1: P ≤ 0,50.
- Escenario 2: P > 0,50.

Me quedo con el primer escenario “malo” y voy a determinar que si mi candidata no va a ganar las elecciones, eso
quiere decir que en la población hay una proporción menor o igual a 0,50.
1. Nombro la variable: X= “Condición de haber respondido o no a “tu candidata” o no a la pregunta “a quién
votará” por parte de un elector.

Supuestos: Estabilidad e independencia. La probabilidad de que un sujeto de una respuesta es independiente de


las respuestas de los demás.

2. Hipótesis:
 H0: P≤0,50  “Como mucho el 50% de los candidatos elegirán a mi candidata”
 H1: P>50  “Más del 50% de los votantes elegirán a mi candidata”

Nivel de significación: α = 0,05.

Estadístico de prueba y su distribución: El estadístico es la PROPORCION MUESTRAL, aquello que observé en la


muestra y usaré para poner a prueba a la hipótesis nula.

Cosas a chequear: 1) ¿La muestra es grande? Para decir que las distintas proporciones hipotéticas se distribuyen en
forma normal tengo que ver si tengo el aval del TCL, que la muestra sea lo suficientemente grande. Para eso debe
tener un tamaño mayor a 30 unidades de análisis. 2) La relacion entre n y P0. Si la proporción es muy grande y la
muestra es muy chica no puedo suponer que se comporta normalmente, para eso hago dos cuentas:

n∗p ≥5 y que n∗(1−p)


Si chequeo esas dos cosas y está todo bien, sigo tranquila y puedo decir que la distribución de las proporciones
muestrales es normal.

¿Cuáles son los parámetros de esa distribución normal? Tiene su valor más probable en la media (en este caso es
0,50). Si 0,50 es el valor de proporción mas probable, es la media de la distribución normal . El desvío de la

distribución es
√ P∗(1−P)
n
.

( √
Entonces, la distribución de este estadístico es ^p ≈ N 0,50 ;
0,50∗( 1−0,50 )
400 )
=N ( 0,50; 0,025).

El paso siguiente es calcular el estadístico de prueba ^p, que ya lo teníamos, es 0,51.

Calcular el nivel critico o valor p: Valor p = 0,34 < α, por lo tanto no puedo rechazar H0.

Conclusión: “Al 5% no puedo decir que mi candidata tenga más de un 50% de los votos”.

Si lo hago con el programa me tengo que acordar de que me da al estadístico estandarizado!! Al 0,51 le resto 0,50 y
lo divido por 0,025.

4. Test sobre una diferencia de medias para muestras independientes .

Se usa para comparar dos grupos que, cuando estos representan dos poblaciones a través de una variable
cuantitativa, como el puntaje de un test, y se toma como resumen de estos a las medias, entonces se comparan
ambas medias muestrales como representantes de sus correspondientes medias poblacionales y de ahí se concluye
si hubo un efecto del tratamiento, si las poblaciones difieren o no.

Características de este modelo: 1) estamos en presencia de dos grupos. 2) Es una medición cuantitativa de la variable
de interés.

Las poblaciones se comparan a través de la diferencia de sus medias ( μ1−μ 2), que se estiman con x 1−x 2.

Supuestos: Si n1 y n2 son pequeños se necesita el supuesto de normalidad de las variables X1 y X2, que SON
INDEPENDIENTES. Si no conocemos los desvíos poblacionales (sigmas), se hace una pequeña prueba de hipótesis con
las varianzas para saber si son iguales o no, ya que no es el mismo camino. Entonces: - Que las muestras fueron
aleatorias; - Que las muestras son independientes entre sí; - Que ambas variables se distribuyen normalmente.

Hipótesis:

H 0 : μ1=μ2 →también se puede expresar como μ1−μ2 =0 , ya que si son iguales no habría diferencia entre ellas , por

H 1 : Depende del problema. Puede ser : μ1 < μ2 ( es lo mismo que decir μ 1−μ2 <0 ) , μ1 > μ2 ( que es lo mismo que μ1−μ2 >
.

Si yo le creo a H0 y extraigo 2 muestras, espero que las medias muestrales valgan lo mismo, ya que vendrían de
poblaciones donde las medias son iguales según este escenario. Eso es lo más probable, pero puede haber una
pequeña diferencia de 0. SI la diferencia es muy grande ya empiezo a desconfiar de H0. Así tenemos: 1) Diferencias
de medias cercanas a 0 (esperadas); y 2) Diferencias de medias que se alejen del 0 (no esperadas).

Estadístico de prueba: Es la diferencia de las medias muestrales (en el mismo sentido en que se haya planteado la
diferencia en las hipótesis), estandarizada bajo H0. Se divide la diferencia de las medias por la desviación estándar de
esa diferencia (es un desvío combinado): S x1− x2 . Lo da el programa don’t worry be happy.

Estadístico 
( x 1−x 2−( μ 1−μ 2 )
S x 1−x 2 )
 El termino de las mu no se pone en realidad porque dado que estamos

suponiendo que son iguales (H0), su diferencia valdría cero.

Su distribución es: t= ( x 1−x 2


S x 1−x 2 )t n−1 Bajo H 0.

Pasos a seguir:

1) Nombrar laS variables. Por ejemplo X1= “Cantidad de horas de ocio de un anciano con apoyo social alto”.
X2=”Cantidad de horas de ocio de un anciano con apoyo social bajo”.
2) Planteo de hipótesis:
H 0 : μ1=μ 2o bien , μ1−μ 2=0. Ambos grupos emplean la misma cantidad de horas en promedio al ocio .
H 1 : μ 1> μ 2 , o bien, μ 1−μ 2>0. Los ancianos con apoyo social alto dedican en promedio,
mayor cantidad de ocio que aquellos ancianos con apoyo social bajo .
3) Nivel de significación.
4) Explicitar el estadístico de prueba: Para eso tengo que centrarme en qué es aquello que observo en las
muestras y que uso para el contraste.

t=( x 1−x 2−( μ1−μ 2 )


S x1− x2 )
No tenemos ni la varianza poblacional ni el desvío poblacional, por eso los tengo que estimar a partir de los valores
muestrales. Pero, esas dos varianzas pueden ser iguales o no. Para dar cuenta de eso hago una leve prueba de
hipótesis.

x 1−x 2−(μ 1−μ 2)


t=


Si las varianzas son iguales uso la formula 1 1
Scomb +
n1 n2
x 1−x 2−(μ 1−μ 2)
t=


2 2
Si las varianzas difieren: S1 S 2
+ Apoyo alto Apoyo bajo
n 1 n2
1 Horas de ocio Horas de ocio
Y ahora? Statistix! 2 Horas de ocio Horas de ocio
1. Cargo los datos en el Statistix. Los tengo que cargar por ejemplo así:

Después voy a Two Sample T Test. En modelo de especificación le doy a “Table” y pongo las variables EN ORDEN,
primero x1 y después x2. En Null Hyphotesis pongo cero. En la Alternativa pongo lo que corresponda (Less than si el
signo de H1 es <, Greater than si este es >, etc.)
Salida del Statistix:

Lo primero que tengo que ir a mirar es el Test de Igualdad de Varianzas, que es lo que me delimita el resto de la
tabla. Para esto se toma generalmente un nivel de significación de 0,10, por lo tanto, si el P que aparece en ese
renglón es menor que 0,10 se descarta la hipótesis de igualdad de varianzas y miro el renglón de “Unequal
Variances”. Por el contrario, si p>0,10, entonces miro el renglón de Equal Variances y trabajo con esos valores.

La tabla presenta las medias, los desvíos estándares y los errores estándar (sigma sobre raíz de n) de cada muestra y
la diferencia entre las mismas (nos sirve después para calcular el tamaño del efecto). Después están los resultados
para la prueba de hipótesis con los renglones según igualdad o desigualdad de varianzas. Una vez que chequeé la
igualdad de varianzas, miro el valor p del renglón que corresponde para ver si rechazo H0 o no según el nivel de
significación que este considerando. Si rechazo H0 digo que estoy rechazando la igualdad de medias, y por lo tanto
se acepta la alternativa (en condicional!). El estadístico también lo miro en ese renglón (T).

Finalmente, doy una conclusión de acuerdo al problema. Hay mas ejemplos en el cuaderno.

(√ )
x 1−x 2
g=
Tamaño del efecto: ( n 1−1 )∗S 21 + ( n 2−1 )∗S 22 . Todo lo que se necesita para esta formula aparece en la
n 1+n 2−2
salida del programa. Lo único que no tenemos es la varianza, pero se averigua rápido agarrando al desvió estándar
de cada muestra y aplicándole la elevación al cuadrado. Fin.

Chequeo de supuestos: Cuando las muestras son chiquitas, se necesita suponer la normalidad de las variables. El
aspecto mas importante para determinar esto es la SIMETRÍA. Los Tests de hipótesis resisten apartamientos
moderados del supuesto de normalidad, pero se necesita que la distribución no sea demasiado asimétrica. Para
chequear esto se hace un diagrama de caja y bigotes. Statistix  Box and Whisker Plots. Si los diagramas muestran
simetría no se invalidan los resultados de la prueba.

5. Test sobre la independencia de variables cualitativas

Para estudiar la independencia entre dos variables cualitativas se dispone de una muestra con los datos ubicados en
una tabla de contingencia o tabla bivariada. Las frecuencias relativas conjuntas estiman las correspondientes
probabilidades poblacionales. Estudiamos la relacion entre dos variables cualitativas, por ejemplo, la relacion entre
las notas de física y las de matemática. Las discrepancias entre las frecuencias observadas y las esperadas bajo
hipótesis de independencia se observan en el χ 2, pero que pasa, necesito un punto de corte para saber si esa
discrepancia es muy alta o muy baja.

En este último caso las hipótesis no se hacen sobre parámetros, sino sobre las distribuciones de probabilidades
(estimadas por las frecuencias relativas observadas). Bajo la hipótesis de independencia, las probabilidades
conjuntas son el producto de las marginales.

1. Nombro a las variables. Por ejemplo: X = Nota en física. Y= Nota en matemática.


2. Hipótesis:
 H 0 : X e Y son variables independientes .
 H 1 : X e Y no son independientes , alguna asociacion hay .
3. Nivel de significación.
2
( f o−f e )
Estadístico: χ = ∑ n ° filas ∑ n ° columnas
2
e
2
χ v . El estadístico es χ 2 y se distribuye bajo H0 como chi
f
cuadrado con v grados de libertad. Acá los grados de libertad no se calculan n-1, sino: v=( nf −1 )∗(nc−1) .

La hipótesis de independencia se mantiene si el valor observado de χ 2 está suficientemente cerca de 0, es decir, si


hay poca discrepancia entre las frecuencias conjuntas observadas y las esperadas. Si su valor excede determinado
punto critico se rechaza la hipótesis de independencia. ESTE TEST ES SIEMPRE UNILATERAL A LA DERECHA, por la
forma de la distribución χ 2, que nunca puede ser negativo y es asimétrico positivo, los valores menos probables
están siempre a la derecha, la zona de rechazo va a estar siempre de ese lado.
El estadístico lo puedo calcular en el programa Statistix: Association Tests / Chi Square Test. Model specification:
Table. Selecciono las variables (row variable para la que ocupa las filas y column variable para la que ocupa las
columnas). Display Grid. Ok.

Salida: Me aparece toda la tabla con mucha información. Lo que tengo que mirar es “Overall Chi Square” y “P-
Value”. Es importante el orden en el cual cargo los valores. Tengo que copiar la tabla tal cual me aparece, para eso
armo dos variables en el Statistix que sean, si la tabla es de dos columnas, “columna 1” y “columna 2” y copio los
valores que hay en cada una. Ejemplo de los ppt.

COLUMNA 1 COLUMNA 2
17 8
5 15
5 35

También podría gustarte