Está en la página 1de 4

1.

Estimación: es el conjunto de técnicas y procedimientos que permiten dar un valor


aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra, infiriendo.

2. Inferencia: Es una parte de la estadística cuya finalidad es obtener conclusiones


respecto a la población a partir de datos observados en muestras. Es el proceso por
medio del cual se hacen aseveraciones o estimaciones de un todo, a partir de sus partes
o elementos.

3. Proporción: es el número de veces que se presenta ese dato respecto al total de datos.
Se conoce también como frecuencia relativa y es uno de los parámetros de cálculo más
sencillo. Tiene la ventaja de que puede calcularse para variables cualitativas. Se calcula
dividiendo el número de veces que se presenta la variable sobre el total de datos de la
muestra.

4. Grado o nivel de confianza: es la probabilidad de que el parámetro a estimar se


encuentre en un par o varios pares de números entre los cuales se estima que estará
cierto valor desconocido con una determinada probabilidad de acierto. Se suele tomar
en tanto por ciento. Los niveles de confianza más usuales son: 90%; 95% y 99%.

5. Muestreo no probabilístico: Es aquella que se obtiene mediante juicio de la persona


que selecciona los elementos de la muestra que usualmente es un experto en la
materia. Este método está basado en los puntos de vista subjetivos de una persona y la
teoría de la probabilidad no puede ser empleada para medir el error de muestreo. Las
principales ventajas de una muestra de juicio son la facilidad de obtenerla y que el costo
usualmente es bajo.

6. Muestreo aleatorio simple: También llamado irrestrictamente aleatorio. Es un método


de muestreo donde una muestra aleatoria simple es seleccionada de tal manera que
cada muestra posible del mismo tamaño tiene igual probabilidad de ser seleccionada de
la población.

7. Muestreo aleatorio sistemático: Es una variante del método aleatorio simple de


selección de cada elemento de la muestra. Se aplica cuando la población está listada en
algún orden. Consiste en seleccionar un número aleatorio menor que N/n y luego los (n-
1) elementos de la muestra se eligen agregando al primer aleatorio: el entero K obtenido
por K=N/n y así sucesivamente. El primer elemento de la muestra es seleccionado al
azar. Por lo tanto, una muestra sistemática puede dar la misma precisión de estimación
acerca de la población que una muestra aleatoria simple cuando los elementos en la
población están ordenados al azar.
8. Muestreo aleatorio estratificado: Es un método de muestreo que se aplica cuando se
divide la población en grupos, llamados estratos, donde los datos son más homogéneos
pero un estrato frente al otro muy distintos. Para extraer la muestra aleatoria se aplica el
muestreo aleatorio simple a cada estrato y el tamaño es la suma de los tamaños de
todos los estratos. Para determinar los tamaños de los estratos se puede utilizar la
asignación proporcional, óptima y óptima económica. Si no se conoce la variabilidad de
los datos se aplica la asignación proporcional.

9. Muestreo por conglomerados: Es un método de muestreo en el cual la población está


en grupos debido a la organización administrativa u otro (conglomerados). Ejemplo:
Colegios, Universidades, manzanas de casas, entre otros. Al interior de los
conglomerados no se puede garantizar homogeneidad.

10. Error de muestreo: Conocido también como error muestral, es la diferencia que existe
entre el valor real (parámetro) obtenido con los valores de la población y el valor
estimado en base a los valores de una muestra (estimación).

11. Distribución muestreal: es la lista de posibles valores de un estadístico y la


probabilidad asociada a cada valor. Se puede construir varias distribuciones muestrales
a partir de una población y dependerá del tipo de estadístico que se tome como
referencia.

12. Teorema de límite central: es uno de los resultados fundamentales de la estadística.


Este teorema nos dice que si una muestra es lo bastante grande (generalmente cuando
el tamaño muestral (n) supera los 30), sea cual sea la distribución de la media muestral,
seguirá aproximadamente una distribución normal. Es decir, dada cualquier variable
aleatoria, si extraemos muestras de tamaño n (n>30) y calculamos los promedios
muestrales, dichos promedios seguirán una distribución normal.

13. Rango Intercuartil: diferencia entre el tercer y el primer cuartil de una distribución. Es
una medida de la dispersión estadística. A diferencia del rango, se trata de un
estadístico robusto.

14. Rango Semi-Intercuartil: es un medio de la diferencia entre el primer y tercer cuartiles.


Es la mitad de la distancia requerida para cubrir la mitad de las cuentas.

15. Desviación media: es la diferencia en valor absoluto entre cada valor de la variable
estadística y la media aritmética.
16. Heterocedasticidad: cuando los errores no son constantes a lo largo de toda la
muestra. La palabra heterocedasticidad se puede desglosar en dos partes, hetero
(diferente) y cedasticidad (dispersión). De tal manera que, si unimos estas dos palabras
adaptadas del griego, obtendríamos algo así como diferente dispersión.

17. Homocedasticidad: es una característica de un modelo de regresión lineal que implica


que la varianza de los errores es constante a lo largo del tiempo. Para ver si nuestro
modelo tiene la propiedad de homocedasticidad, es decir, para ver si la varianza de sus
errores es constante, calcularemos los errores y los representaremos en un gráfico.

18. Histograma: Gráfico de la representación de distribuciones de frecuencias, en el que


se emplean rectángulos dentro de unas coordenadas.

19. Universo: Conjunto infinito de elementos o unidades generado por un modelo teórico.
Conjunto real de todos los elementos que comparten unas condiciones de admisión en
el conjunto.

20. ANOVA: Un análisis de varianza, prueba la hipótesis de que las medias de dos o más
poblaciones son iguales. Los ANOVA evalúan la importancia de uno o más factores al
comparar las medias de la variable de respuesta en los diferentes niveles de los
factores. La hipótesis nula establece que todas las medias de la población (medias de
los niveles de los factores) son iguales mientras que la hipótesis alternativa establece
que al menos una es diferente.

21. Índice: Cociente entre un valor considerado y un valor de referencia denominado base,
y que generalmente se presenta multiplicado por 100. Permite comparar las magnitudes
que toma una variable entre dos periodos de tiempo o entre dos espacios.

22. Regresión Lineal: o ajuste lineal es un modelo matemático usado para aproximar la


relación de dependencia entre una variable dependiente Y, las variables
independientes Xi y un término aleatorio ε.

23. Independencia Estadística: cuando el comportamiento estadístico de una de dos


variables no se ve afectado por los valores que toma la otra; esto es cuando las relativas
de las distribuciones condicionadas no se ven afectadas por la condición, y coinciden en
todos los casos con las frecuencias relativas marginales.

24. Cartogramas: es un tipo de gráfico mediante el cual se muestra datos estadísticos


sobre una base geográfica como mapas.

25. Censo: es una investigación estadística que consiste en el recuento de la totalidad de


los elementos que componen la población a investigar. Es necesario que se especifique
el espacio y el tiempo al que se refiere el recuento.
26. Fuentes de datos: medios de donde procede la información. Los datos pueden
reunirse de diferentes fuentes de información ya existentes o pueden obtenerse
mediante censos, encuestas y estudios experimentales para conseguir datos nuevos.

27. Población finita: es aquella que se puede enumerar y contar físicamente los elementos
que pertenecen a la población.

28. Población infinita: es aquella en la que no es posible enumerar y contar físicamente


los elementos que pertenecen a la población. Dicho de otra manera, cuando los
elementos de la población son ilimitados.

29. Regresión: Es una técnica de análisis para poner de manifiesto la estructura de


dependencia que mejor explique el comportamiento de la variable dependiente o
explicada (y) a través de un conjunto de variable independientes o explicativas (X1, X2
…Xn), con las que se supone que está relacionada.

30.

También podría gustarte