Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Básica e Inferencial
5- El error tiene un lugar importante en la Estadística desde finales del siglo XIX y ha
especializado la enseñanza de la misma en dos ramas. ¿Qué tipos de error trabaja la
Estadística?.
8- Indique para cada una de las siguientes afirmaciones sobre la ECH si son correctas e
incorrectas:
Una Encuesta de Hogares que se comenzó a realizar a partir de 1981. A partir del año
2006 su muestra representa todas las zonas del país, tanto urbanas como rurales. Una
Encuesta de Hogares que se hace cada dos años (NO). Es un programa reiterado año a
año. Aplica el módulo de actividad laboral a los mayores de 18 años (NO). Activo
persona de 14 o más años que tiene una ocupación en la que vierte su esfuerzo
productivo a la sociedad o que sin tenerlo lo busca activamente en el período de
referencia considerado por la encuesta. Está a cargo del Ministerio de Desarrollo Social
(NO). Está a cargo del INE. Define un hogar como un conjunto de personas vinculadas
entre sí por lazos familiares (NO). Se define a un hogar particular que es una persona o
grupo de personas que habitan bajo un mismo techo y al menos para su alimentación
dependen de un fondo común. Suelen efectuar la unificación de sus ingresos mediante la
construcción de un presupuesto común y establecen el uso compartido de bienes
durables y no durables. Este grupo suele estar conformado por personas vinculadas entre
sí por lazos familiares aunque no necesariamente tienen que ser parientes para cumplir
con la definición de hogar. También puede estar conformado por una sola persona. Cada
año, el INE hace pública una base de datos de personas y una de municipios a partir de
la ECH (NO). La página web del INE tiene dos bases de datos o microdatos (matrices)
para cada año: una corresponde a los módulos del cuestionario que indagan sobre
aspectos de cada individuo integrante del hogar (“base de personas”) y la otra base
refiere a los atributos del hogar y de la vivienda que ocupa (“base de hogares”).
Una clase especial que pueden interpretarse tanto como métricas como no métricas.
Las variables no métricas son aquellas que para su medición requieren ser codificadas
para expresarlas en números (u otro lenguaje estándar). Dentro de las variables no
métricas podemos distinguir dos clases:
Nominales. La operación empírica que se debe realizar para satisfacer la exigencia
lógica (clasificar) tiene que permitir, dadas dos unidades, si son iguales o diferentes con
relación al indicador en cuestión. Para llevar a cabo la operación de clasificación, la
única propiedad de los números reales que necesitamos emplear es la que permite
diferenciarlos, para ello basta con utilizar sus nombres (numerales). A las unidades que
en virtud del indicador puedan considerarse iguales se les asigna el mismo número y a
unidades registro que se consideren distintas se les adjudican números diferentes. Por
ejemplo sexo, estado civil, deparamento de residencia, etc. Ordinales. La comparación
de orden implica que se pueda establecer una jerarquización entre dos o más unidades en
función de la propiedad observable que se mide. Para satisfacer la exigencia lógica que
subyace a la escala ordinal no basta con poder decir que dos unidades son iguales o
diferentes respecto a un indicador; en el caso que sean diferentes tenemos que precisar
cuál es mayor (o menor). Se utilizan dos propiedades de los números reales: el nombre y
la posición en la recta. La asignación de números a categorías no es arbitraria, debe
existir isomorfía entre ambos conceptos. Por ejemplo nivel educativo (Inicial, Primaria,
Ciclo Básico, Media Superior). Las variables métricas son aquellas que en la condición
se han expresado la propiedad que representan con un número. La exigencia lógica pide
medir la distancia que separa los valores que asumen los indicadores en las unidades de
registro; vale decir, no sólo ordenarlos sino usar la información sobre el tamaño de esa
distancia. La medición realizada a nivel métrico no solamente nos dice si dos unidades
de registro son iguales o diferents en relación a un indicador y cuál es mayor, sino
también cuanto es mayor. La exigencia lógica de cuantificación métrica origina dos
escalas: de intervalo y de razón. La escala interval no tiene cero absoluto, esto es, no
tiene un origen sino que éste se define de manera convencional.
10- Las variables ordinales no hacen uso de la propiedad de los números relativa a:
El ángulo
11- La transformación de la matriz de datos por el lado de las columnas se caracteriza
por:
Una matriz de datos es un arreglo rectangular que despliega a las unidades en las filas y
a las variables en las columnas. Las celdas formadas por la intersección de las filas
(también llamadas renglones) y las columnas contienen los valores específicos que
asumen las variables en cada observación (dato). Se pueden realizar dos grandes tipos de
transformaciones por el lado de las columnas: la recodificación que en algunos casos
implica una transformación a una escala de medida menor a la que originalmente se
registró la información y generación que es el resultado de aplicar una función que
modifica los datos originales contenidos en la matriz, aunque no necesariamente supone
un cambio en la escala de medida. Ambos implican crean nuevas columnas en la matriz
de datos, sin modificar las (cantidades de) unidades.
13- Indique para cada una de las siguientes afirmaciones si son correctas o incorrectas:
Una tabla de frecuencias se utiliza para resumir información sobre la distribución de una
variable. La celda de una matriz de datos informa del valor que asume una variable en
una unidad. La tabla de contingencia muestra la distribución de una variable para todos
los casos de la matriz. En una tabla de contingencia, el total del marginal columna es
igual al total del marginal fila. El marginal columna de la tabla de contingencia informa
la distribución univariada de la variable que está colocada en los renglones
(INCORRECTO). Cada celda de una tabla de contingencia bivariada informa la
distribución conjunta de las dos variables. En una tabla de contingencia sólo puedo
conocer la distribución conjunta de dos variables (INCORRECTO). En una matriz de
datos puedo resumir la información de la distribución de todas las variables que contiene
(INCORRECTO).
16- ¿Qué valor debería tomar el estadístico X2 (ji-cuadrada) para que sin dudas
debieramos concluir que no existe asociación alguna entre dos variables?.
P (A) = P (A/B)
P (A) ≠ P (A/B) Entonces tendríamos que enunciar que no hay independencia, o más
claramente, que las variables están asociadas. El análisis de asociación es la rama de la
Estadística que se dedica al estudio de la existencia y fuerza con que se vinculan las
variables no métricas (nominales y ordinales). El análisis de la existencia de una
asociación entre variables es el objetivo mínimo común para cualquier estudio. Puede
aplicarse a cualquier tipo de variable. La conclusión de que existe asociación supone
lógicamente rechazar la idea de que las variables son independientes. El análisis de la
fuerza de la relación implica calcular la magnitud con que la presencia de un atributo de
una variable está asociada a la presencia de un atributo de la otra variable. Establecer el
sentido de una relación es la traducción empírica de una hipótesis del tipo “a más de A,
más de B” (sentido o signo positivo) y “a menos de A, menos de B” ( (sentido o signo
negativo), si las relaciones son inversas. Sólo para las variables métricas es posible
establecer la forma de la
relación. Cuando en la gráfica se puede identificar una línea recta que guarda
equidistancia entre todos los puntos, entonces es razonable también que una función de
primer grado represente la relación (forma lineal), cuando la gráfica que representa la
relación tiene forma acampanada o de “U”, o de “U” invertida, entonces la relación tiene
forma cuadrática y una función de grado la representará en forma más apropiada.
Existe asociación cuando se puede descartar que las variables sean estadísticamente
independientes. En consecuencia mientras más alejadas de cero se encuentren los
valores de estos estadísticos podemos afirmar con mayor confianza que las variables no
son independientes.
Corrige el hecho que el valor ji-cuadrada aumenta en la misma proporción que crece el
número total de observaciones, sin que haya habido cambios en la asociación entre las
dos variables.
19- En el caso de un coeficiente de asociacióon que pueda alcanzar como límite superior
el valor de la unidad (por ejemplo V=1), ¿cómo se interpreta este resultado?.
20- En términos clásicos, la explicación causal debe satisfacer cuatro requisitos. ¿Podría
usted indicar al menos cuatro presentes en la bibliografía de este curso?.
Establecer la asociación, a través de un estadístico o de un conjunto de estadísticos que
informen sobre la existencia de la relación, y si corresponde, también la magnitud,
sentido y forma. Establecer que una variable postulada como causa antecede
temporalmente a la otra, postulada como efecto. Controlar la incidencia que pudieran
tener otras variables en la relación analizada. Proponer un vínculo conceptual, un
mecanismo, entre la causa y el efecto tal que permita entender cómo la primera
“produce” el segundo.
La variable postulada como causa haya ocurrido antes de que el efecto haya ocurrido. Si
este requisito se cumple, la variable establecida como antecedente en la hipótesis será
denominada como variable independiente o explicativa, en tanto, que la variable
establecida como efecto será trabajada como variable dependiente o explicada.
22- ¿Cuáles de los siguientes procedimientos son correctos o incorrectos para investigar
si existe asociación entre ambas variables?.
Drc X2
n11/n1=n12/n2=n1/1 Q/
x2 (INCORRECTO)
En la matriz de correlaciones, las variables están tanto en las filas como en las columnas.
Las celdas de la matriz de correlaciones no contienen datos, sino valores de un
estadístico particular, el coeficiente de correlación de Pearson. En la diagonal mayor o
principal de la tabla, se encuentran una serie de “1”, ya que se trata de la correlación de
cada variable consigo misma. Obsérvese en particular que se han suprimido los valores
que están sobre la diagonal. La razón de esto es que la información que aportarían estos
valores es redundante ya que por la propiedad de simetría el orden de las variables no
altera el valor del coeficiente de correlación. La matriz permite hacer una lectura de los
coeficientes que una variable independiente tiene con otras variables.
Un valor de -1 indica que las variables no tienen relación lineal. Un valor de =1 indica
relación lineal positiva y perfecta. Normaliza la covarianza con el producto de los
desvíos estándares de las variables x1 y x2. La covarianza nos indica el sentido de la
asociación (INCORRECTA) porque indica la existencia de asociación entre dos
variables métricas. El coeficiente de correlación R de Pearson cumple con los tres
primeros objetivos del análisis de asociación (existencia, magnitud, sentido) y supone el
cuarto objetivo (la forma). Cuando la covarianza es igual a 1 las dos variables tienen una
asociación perfecta (INCORRECTO). Si obtenemos un valor sumamente alto no
informa sobre la magnitud de la correlación debido a que no conocemos el límite
superior por lo que no podemos calibrar la fuerza de la relación. Toma valores positivos
o cero (INCORRECTO). El valor que puede asumir la covarianza va entre -1 y +1
(INCORRECTO). No tiene un valor superior ni inferior (recorrido abierto), más allá de
que si su valor es 0, no es posible conocer si hay correlación o qué magnitud tiene.
Depende del número de casos de la muestra (INCORRECTO). Su cuadrado es igual a la
covarianza (INCORRECTO).
Dos instrumentos que permite resumir cómo se relacionan dos variables métricas son: la
covarianza y el coeficiente de correlación, también denominado “r de Pearson”. La
covarianza es una medida estadística específicamente diseñada para establecer la
relación entre dos variables métricas. Cuando las dos variables métricas son
independientes, la covarianza es cero; es positiva y grande cuando la relación es directa;
y negativa y grande (en valor absoluto) si es inversa. Cuando las variables están
relacionadas el valor de la covarianza no tiene límite superior ni inferior. Pero aún, pues
su valor puede aumentar (en términos absolutos) aun cuando la relación entre las
variables no se modifique: la covarianza es sensible a los cambios de escala de
medición. Los dos inconvenientes que tiene el estadístico de covarianza se los corrige
mediante una transformación algebraica de la covarianza, que es denominada coeficiente
de correlación, también llamado “producto momento” o “r” de Pearson. Es igual a la
covarianza dividida entre el producto de las desviaciones estándar de las dos variables.
El denominador opera como un factor de normalización: su valor es el máximo teórico
que puede tomar la covarianza. De esta construcción se deducen los valores máximos y
mínimos que pueda tener el coeficiente. Si la covarianza calculada es la máxima en
valor absoluto para estos datos, el coeficiente tendrá valor 1 indicando una correlación
perfecta. Es insensible a los cambios en la escala, puesto que si multiplicamos los
valores de x1 por 1000, la covarianza y la desviación estándar de x también se
multplican por 1000, es decir, el numerador y denominador aumentan en la misma
proporción, y se cancelan. Lo mismo ocurre si se multiplica x2 por una constante. Por
construcción, el coeficiente de correlación asume valores en el intervalo: -1 ≤ r ≤ 1.
Cuando las variables no están relacionadas, sucede que r=0; si hay relación positiva
perfecta asume el valor de 1 y si la relación es negativa perfecta, entonces asume el
valor -1. Tiene cuatro propiedades: es simétrico (si se invierten las posiciones de las
variables para los cálculos su valor final no se altera, más allá de cual sea el valor del
coeficiente no podemos inferir de éste que exista una relación de causalidad, la
causalidad no viene de los datos sino de la hipótesis, correlación no es causalidad); es
lineal (no permite captar una relación entre variables métricas que tenga forma funcional
de un círculo); es idéntico (la correlación de una variable consigo misma es igual a la
unidad); y su cuadrado es denominado como “coeficiente de determinación” y
simbolizado como R2 (proporción de la varianza total que sería explicable por las
variables involucradas en su cálculo). Para interpretarlo se pueden usar cinco estrategias
distintas: comparar el resultado de interés con otros computados sobre la misma base;
para la misma relación pero con otras bases; con la tabla convencional de valores
propuesta por Sierra Bravo; calcular una tasa de cambio; o contrastar el valor observado
con el esperado según la hipótesis.
B= r* Sy/Sx
El cómputo del coeficiente B para una variable dicotómica independiente permite hallar
la brecha entre los promedios de x1 entre las dos categorías de x2 definidas.
Es una medida sensible a los valores extremos. Se define como una medida que
captura el centro de gravedad de una distribución. La sumatoria de los desvíos de
cada valor a la media es igual a cero. Su valor representa a una alta cantidad de
unidades (INCORRECTO).
Aumenta a $6896.
31- ¿Por qué no se pueden comparar varianzas tomadas de dos distribuciones diferentes
de una misma variable (por ejemplo, el ingreso per cápita de los residentes en Salto y de
los residentes de Maldonado)?.
32- Las consideraciones éticas están presentes en varios aspectos del análisis estadístico,
por lo general, en el momento de valorar o cuantificar ciertos resultados, concluir
informes o hacer recomendaciones de política. Sin embargo, en la medición de la
desigualdad, se dice que los juicios ingresan en la construcción misma de la medida.
Indique por qué y de algún ejemplo de medida en que esto sea así.
Transferencias de cantidades desde ricos a pobres sin modificar sus posiciones relativas.
Mayor peso a las transferencias hacia los pobres que entre los ricos.
35- La condición de inferencia a la escala significa que el estadístico calculado no es
sensible a:
Las propiedades mínimas que caracterizan a los buenos indicadores de desigualdad son:
la medida debe ser invariable a las transformaciones proporcionales o cambios de escala
(indiferencia); la medida debe cumplir con la propiedad de Pigou-Dalton (axioma débil
de transferencia) si se observa en dos momentos del tiempo, t=1 y t=2, la distribución
del ingreso y se registra que una proporción p= 0,10 de hogares, los más favorecidos,
transfieren ingresos a una proporción igual, p=0,10, de los hogares menos favorecidos
(manteniéndose el nivel de ingreso constante) debería registrar este cambio y presentar
un valor para t=2; y debería satisfacer el denominado axioma fuerte de transferencias
propiedad de cambio relativo, se exige una sensibilidad diferencial para marcar cambios
de la concentración según el nivel en que se realicen las transferencias entre hogares.
Otras propiedades son: la descomposición (el valor del indicdor calculado para toda la
población fuera igual a una suma algebraica conocida de los valores que el indicador
asuma en cada una de las categorías de otra variable que pueda usarse par dividir la
población estudiada); la propiedad de población establece que las medidas deberían ser
insensibles al tamaño de la población analizada, permitiendo así comparar distribucines
formadad de distinto tamaño de N; la propiedad del rango asume vaores dentro de un
recorrido cerrado entre valores limites conocidos y estandarizados, a los que se les
asigna un contenido significativo (0 denota equidistribución y el 1 concentración total);
y la propiedad del anonimato indica que para todos los efectos del análisis, resultan
indiferentes las otras propiedades que caracterizan las unidades analizadas.
E(x)= xi ei
T= logN- E(x)