Está en la página 1de 7

1.

- Estadística: Se designa con el nombre de estadística a aquella ciencia que


ostenta en sus bases una fuerte presencia y acción de las matemáticas y que
principalmente se ocupa de la recolección, análisis e interpretación de datos que
buscan explicar las condiciones en aquellos fenómenos de tipo aleatorio.

2.- Estadística inferencial: Es una parte de la estadística que comprende los


métodos y procedimientos que por medio de la inducción determina propiedades
de una población estadística, a partir de una parte de esta. Su objetivo es obtener
conclusiones útiles para hacer deducciones sobre una totalidad, basándose en la
información numérica de la muestra.

3.- Tamaño de población: se le llama asi al número de individuos que la


componen, siendo cada posible observación un individuo; así pues, las
poblaciones pueden ser finitas e infinitas.

4.- Tamaño de la muestra: El tamaño de la muestra normalmente es


representado por "n" y siempre es un número entero positivo. No se puede hablar
de ningún tamaño exacto de la muestra, ya que puede variar dependiendo de los
diferentes marcos de investigación.

5.-Suma de los cuadrados en la regresión: En la regresión, la suma total de los


cuadrados ayuda a expresar la variación total de las Y. Por ejemplo, usted recoge
datos para determinar un modelo que explique las ventas generales en función de
su presupuesto de publicidad.

La suma total de los cuadrados = suma de los cuadrados de la regresión (SSR) +


suma de los cuadrados del error residual (SSE)

La suma de los cuadrados de la regresión es la variación atribuida a la relación


entre las X y las Y o, en este caso, entre el presupuesto de publicidad y las ventas.
La suma de los cuadrados del error residual es la variación atribuida al error.

6.- Suma de cuadrados del error : la suma total de los cuadrados ayuda a
expresar la variación total que se puede atribuir a diferentes factores. Por ejemplo,
usted hace un experimento para probar la efectividad de tres detergentes para
ropa.

La suma total de los cuadrados = suma de los cuadrados del tratamiento (SST) +
suma de los cuadrados del error residual (SSE)
La suma de los cuadrados del tratamiento es la variación atribuida a, o en este
caso entre, los detergentes para ropa. La suma de los cuadrados del error residual
es la variación atribuida al error.

El convertir la suma de los cuadrados en cuadrados medios al dividir entre los


grados de libertad le permitirá comparar estas relaciones y determinar si existe
una diferencia significativa debido al detergente. Mientras mayor sea esta relación,
más afectarán los tratamientos el resultado.

7.- Suma de cuadrado total varianza: El análisis de un factor es apropiado


cuando se dispone de tres o más grupos. En los diseños equilibrados, cada grupo
tiene el mismo número de datos (individuos), los cuales idealmente han sido
asignados al azar a cada grupo a partir de una muestra original preferiblemente
homogénea.

8.- Desviación estándar: La desviación estándar es la medida de dispersión más


común, que indica qué tan dispersos están los datos con respecto a la media.
Mientras mayor sea la desviación estándar, mayor será la dispersión de los datos.

El símbolo σ (sigma) se utiliza frecuentemente para representar la desviación


estándar de una población, mientras que s se utiliza para representar la desviación
estándar de una muestra.

9.-Análisis de la regresión: Es un proceso estadístico para estimar las


relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de
diversas variables, cuando la atención se centra en la relación entre una variable
dependiente y una o más variables independientes (o predictoras). Más
específicamente, el análisis de regresión ayuda a entender cómo el valor de la
variable dependiente varía al cambiar el valor de una de las variables
independientes, manteniendo el valor de las otras variables independientes fijas.

a) Regresión lineal simple: En el estudio de la relación funcional entre dos


variables poblacionales, una variable X, llamada independiente, explicativa
o de predicción y una variable Y, llamada dependiente o variable respuesta,
presenta la siguiente notación:
Y=a+bX+e
Donde:
a es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.
b es el coeficiente de regresión poblacional (pendiente de la línea recta)
e es el error
b) Regresión lineal múltiple: El modelo de regresión lineal múltiple es idéntico
al modelo de regresión lineal simple, con la única diferencia de que
aparecen más variables explicativas:
Modelo de regresión simple: 𝑦 = 𝑏0 + 𝑏1 (𝑥 + 𝑢)
Modelo de regresión multiple : 𝑦 = 𝑏0 + 𝑏1 (𝑥1 )+𝑏2 (𝑥2 )+𝑏3 (𝑥3 ) + 𝑢

c) Diagrama de dispersión: Un diagrama de dispersión o gráfica de


dispersión o gráfico de dispersión es un tipo de diagrama matemático que
utiliza las coordenadas cartesianas para mostrar los valores de dos
variables para un conjunto de datos.

d) Método de mínimos cuadrados: es una técnica de análisis numérico


enmarcada dentro de la optimización matemática, en la que, dados un
conjunto de pares ordenados: variable independiente, variable dependiente,
y una familia de funciones, se intenta encontrar la función continua, dentro
de dicha familia, que mejor se aproxime a los datos.

e) Medidas de variación: nos dicen hasta qué punto estas medidas de


tendencia central son representativas como síntesis de la información.
Cuantifican la separación, la dispersión, la variabilidad de los valores de la
distribución respecto al valor central.

f) Coeficiente de determinación: es el cuadrado del coeficiente de correlación


de Pearson, y da la proporción de variación de la variable Y que es
explicada por la variable X (variable predictora o explicativa). Si la
proporción es igual a 0, significa que la variable predictora no tiene NULA
capacidad predictiva de la variable a predecir (Y). Cuanto mayor sea la
proporción, mejor será la predicción. Si llegara a ser igual a 1 la variable
predictora explicaría TODA la variación de Y, y las predicciones NO
tendrían error.

g) Error estándar de la estimación: Es el error debido a la estimación de la


media poblacional a partir de las medias muestrales) es la desviación
estándar de todas las posibles muestras (de un tamaño dado) escogidos de
esa población. Además, el error estándar de la media puede referirse a una
estimación de la desviación estándar, calculada desde una muestra de
datos que está siendo analizada al mismo tiempo.

h) Evaluación de supuestos básicos: son hipótesis,de una situación grupal


fantaseada,inconsciente que deviene de un común denominador. Hay un
trama, interacción de personas que no se conocen donde emerge una ley
organizativa, estructura dotada de cierta coherencia.
i. Linealidad: Indica que el valor esperado de la variable
dependiente depende linealmente de las variables
independientes. El impacto esperado por un cambio unitario
de cada una de las variables independientes, manteniendo las
otras constantes, es siempre el mismo.

ii. Normalidad: La distribución normal o distribución de Gauss


representa la forma en la que se distribuyen en la naturaleza
los diversos valores numéricos de las variables continuas,
como pueden ser estatura, peso, etc.

iii. Homocedasticidad: cuando la varianza del error condicional


a las variables explicativas es constante a lo largo de las
observaciones. relaciona el valor de una variable a predecir
con el de otras. Si el modelo es insesgado, el valor predicho
es la media de la variable a predecir. En cualquier caso, el
modelo da una idea del valor que tomará la variable a
predecir.

i) Analisis de residuos: Si bien para la estimación por mínimos cuadrados de


los coeficientes de un modelo de regresión, sólo es necesaria la asunción
de linealidad, la normalidad de los mismos, en base a la cual se realizan los
contrastes de hipótesis, está basada también en las asunciones de
normalidad y homoscedasticidad. Por consiguiente, conviene asegurar que
dichas asunciones se cumplen en cada caso.

Hay que tener en cuenta que, en caso de que no se cumpla la normalidad,


no se puede utilizar la t ni la F para los contrastes de hipótesis. Puede
usarse, sin embargo, la desigualdad de Tchebysheff, que establece que
para cualquier variable aleatoria

j) Autocorrelacion: La autocorrelación se puede definir como la correlación


entre miembros de series de observaciones ordenadas en el tiempo
(información de series de tiempo) o en el espacio (información de corte de
transversal). El modelo de regresión lineal supone que no debe existir
autocorrelación en los errores , es decir, el término de perturbación
relacionado con una observación cualquiera no debería estar influenciado
por el término de perturbación relacionado con cualquier otra observación.

k) Prueba T: En estadística, una prueba t de Student, es cualquier prueba en


la que el estadístico utilizado tiene una distribución t de Student si
la hipótesis nula es cierta. Se aplica cuando la población estudiada sigue
una distribución normal pero el tamaño muestral es demasiado pequeño
como para que el estadístico en el que está basada la inferencia esté
normalmente distribuido, utilizándose una estimación de la desviación
típica en lugar del valor real. Es utilizado en análisis discriminante.

l) Prueba F: En estadística se denomina prueba F de Snedecor a


cualquier prueba en la que el estadístico utilizado sigue una distribución F si
la hipótesis nula no puede ser rechazada. El nombre fue acuñado en honor
a Ronald Fisher

La hipótesis de que las medias de múltiples poblaciones normalmente


distribuidas y con la misma desviación estándar son iguales. Esta es,
quizás, la más conocida de las hipótesis verificada mediante el test F y el
problema más simple del análisis de varianza.
La hipótesis de que las desviaciones estándar de dos poblaciones
normalmente distribuidas son iguales, lo cual se cumple.

m) Intervalo de confianza: Un intervalo de confianza es un rango de valores,


derivado de los estadísticos de la muestra, que posiblemente incluya el
valor de un parámetro de población desconocido. Debido a su naturaleza
aleatoria, es poco probable que dos muestras de una población en
particular produzcan intervalos de confianza idénticos. Sin embargo, si
usted repitiera muchas veces su muestra, un determinado porcentaje de los
intervalos de confianza resultantes incluiría el parámetro de población
desconocido
10.-Analisis de correlación: se usa para determinar la dirección y la magnitud de
dicha relación. La dirección de la relación se refiere a si ésta es positiva o
negativa.
a) Pearson: Es una medida de la relación lineal entre dos variables aleatorias
cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.

b) Spearman: ρ (rho) es una medida de la correlación(la asociación o


interdependencia) entre dos variables aleatorias continuas. Para calcular ρ,
los datos son ordenados y reemplazados por su respectivo orden.

c) Tipos de correlaciones:
a) Correlación Directa: La correlación directa se da cuando al aumentar
una de las variables la otra aumenta. La recta correspondiente a la nube
de puntos de la distribución es una recta creciente

b) Correlación Inversa: La correlación inversa se da cuando al aumentar


una de las variables la otra disminuye. La recta correspondiente a la
nube de puntos de la distribución es una recta decreciente.
c) Correlación nula: La correlación nula se da cuando no hay
dependencia de ningún tipo entre las variables. En este caso se dice
que las variables son incorrelacionadas y la nube de puntos tiene una
forma redondeada.

d) Grados de correlación:
a) Fuerte: la correlación será fuerte cuanto más cerca este los puntos
de la recta.
b) Débil: la correlación será débil cuanto más separados estén los
puntos de la recta
c) Nula: no hay
e) Correlación lineal: se representa mediante una línea recta
a) Simple: la variable dependiente actúa sobre la variable independiente
b) Múltiple: cuando la variable dependiente actúa sobre varias variables
independientes
c)Parcial: cuando la relación que existe entre una variable dependiente y
una independiente es de tal forma que los demás factores permanezcan
constantes.
bibliografia

https://es.wikipedia.org/wiki/Error_est%C3%A1ndar

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/what-is-a-confidence-interval/

https://www.uv.es/webgid/Descriptiva/6_coeficiente_de_determinacin.html

http://www.monografias.com/trabajos27/regresion-simple/regresion-
simple.shtml#ixzz55e3FDTQw

https://es.wikipedia.org/wiki/Diagrama_de_dispersi%C3%B3n

http://webs.ucm.es/info/genetica/Estadistica/estadistica_basica%202.htm

https://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_covarianza

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/data-concepts/what-is-the-standard-deviation/

https://es.slideshare.net/gevalbe/medidas-de-variacin
http://www.hrc.es/bioest/Reglin_16.html

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/anova/supporting-topics/anova-statistics/understanding-sums-of-squares/

https://www.definicionabc.com/general/estadistica.php

https://es.wikipedia.org/wiki/Estad%C3%ADstica_inferencial

https://es.wikipedia.org/wiki/Prueba_t_de_Student

https://es.slideshare.net/mader_rosales/correlacin-48618911

https://es.wikipedia.org/wiki/Homocedasticidad

http://accessmedicina.mhmedical.com/content.aspx?bookid=1464&sectionid=1010
50839