Está en la página 1de 4

Marco teórico:

Intervalos de confianza:
Un intervalo de confianza es una técnica de estimación utilizada en inferencia
estadística que permite acotar un par o varios pares de valores, dentro de los cuales
se encontrará la estimación puntual buscada (con una determinada probabilidad).
Un intervalo de confianza nos va a permitir calcular dos valores alrededor de una
media muestral (uno superior y otro inferior). Estos valores van a acotar un rango
dentro del cual, con una determinada probabilidad, se va a localizar el parámetro
poblacional.
Intervalo de confianza = media +- margen de error [1]
Estimación de punto

Este valor individual estima un parámetro de población usando los datos de la


muestra.
Margen de error

Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que,
sin importar lo bien que esté diseñado su estudio, su estimación está sujeta a error
de muestreo aleatorio. El margen de error cuantifica este error e indica la precisión de
la estimación. [2]
Factores de los que depende un intervalo de confianza:
El cálculo de un intervalo de confianza depende principalmente de los siguientes
factores:
 Tamaño de la muestra seleccionada: Dependiendo de la cantidad de datos
que se hayan utilizado para calcular el valor muestral, este se acercará más o
menos al verdadero parámetro poblacional.
 Nivel de confianza: Nos va a informar en qué porcentaje de casos nuestra
estimación acierta. Los niveles habituales son el 95% y el 99%.
 Margen de error de nuestra estimación: Este se denomina como alfa y nos
informa de la probabilidad que existe de que el valor poblacional esté fuera de
nuestro intervalo.
 Lo estimado en la muestra (media, varianza, diferencia de medias…): De
esto va a depender el estadístico pivote para el cálculo del intervalo. [1]
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que
un intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de
confianza), mientras que, para un intervalo más pequeño, que ofrece una estimación
más precisa, aumenta su probabilidad de error.
En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un
parámetro poblacional θ que sigue una determinada distribución de probabilidad, es
una expresión del tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de
distribución de probabilidad de θ. [3]
Prueba de hipótesis:

Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar
una afirmación acerca de una población dependiendo de la evidencia proporcionada
por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se
probará. Por lo general, la hipótesis nula es un enunciado de que "no hay efecto" o
"no hay diferencia". La hipótesis alternativa es el enunciado que se desea poder
concluir que es verdadero de acuerdo con la evidencia proporcionada por los datos
de la muestra.

Con base en los datos de muestra, la prueba determina si se puede rechazar la


hipótesis nula. [4]
Nivel de significancia (α):
Se le conoce así al error máximo adoptado al momento de rechazar la hipótesis nula
(Ho) cuando es verdadera.
Dependiendo del tipo de significación que se da al estudio, hay tres grados:
 α = 0.01 → Demasiado significativo
 α = 0.05 → Significativo
 α = 0.10 → Poco significativo
Región de aceptación y rechazo:
H1: ≠ H1: < H1: >

[5]
Regresión lineal:
El análisis de regresión lineal es una técnica estadística utilizada para estudiar la
relación entre variables. Se adapta a una amplia variedad de situaciones.
Tanto en el caso de dos variables (regresión simple) como en el de más de dos
variables (regresión múltiple), el análisis de regresión lineal puede utilizarse para
explorar y cuantificar la relación entre una variable llamada dependiente o criterio (Y)
y una o más variables llamadas independientes o predictoras (X1, X2, ..., Xk), así como
para desarrollar una ecuación lineal con fines predictivos. Además, el análisis de
regresión lleva asociados una serie de procedimientos de diagnóstico (análisis de los
residuos, puntos de influencia) que informan sobre la estabilidad e idoneidad del
análisis y que proporcionan pistas sobre cómo perfeccionarlo. [6]
Si utilizamos un sistema de coordenadas cartesianas para representar la distribución
bidimensional, obtendremos un conjunto de puntos conocido con el diagrama de
dispersión, cuyo análisis permite estudiar cualitativamente, la relación entre ambas
variables tal como se ve en la figura. El siguiente paso, es la determinación de la
dependencia funcional entre las dos variables x e y que mejor ajusta a la distribución
bidimensional. Se denomina regresión lineal cuando la función es lineal, es decir,
requiere la determinación de dos parámetros: la pendiente y la ordenada en el origen
de la recta de regresión, y=ax+b.
La regresión nos permite además, determinar el grado de dependencia de las series
de valores X e Y, prediciendo el valor y estimado que se obtendría para un valor x
que no esté en la distribución. [7]
Tipos de modelos de regresión lineal
Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus
parámetros:
Regresión lineal simple
La regresión lineal simple se basa en estudiar los cambios en una variable, no
aleatoria, afectan a una variable aleatoria, en el caso de existir una relación
funcional entre ambas variables que puede ser establecida por una expresión lineal,
es decir, su representación gráfica es una línea recta. Es decir, se está en presencia
de una regresión lineal simple cuando una variable independiente ejerce influencia
sobre otra variable dependiente.
Ejemplo: Y = f(x)
Regresión lineal múltiple
La regresión lineal permite trabajar con una variable a nivel de intervalo o razón, así
también se puede comprender la relación de dos o más variables y permitirá
relacionar mediante ecuaciones, una variable en relación a otras variables
llamándose Regresión múltiple. O sea, la regresión lineal múltiple es cuando dos o
más variables independientes influyen sobre una variable dependiente.
Ejemplo: Y = f(x, w, z). [8]
Webgrafía:
[1]https://economipedia.com/definiciones/intervalo-de-confianza.html
[2]https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/what-is-a-confidence-interval/
[3]https://es.wikipedia.org/wiki/Intervalo_de_confianza
[4]https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/what-is-a-hypothesis-test/
[5]https://es.wikiversity.org/wiki/Prueba_de_hip%C3%B3tesis_(estad%C3%ADstica)
https://es.wikiversity.org/wiki/Prueba_de_hip%C3%B3tesis_(estad%C3%ADstica)
[6]http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/GuiaSPSS/18reglin.pd
f
[7]http://www.sc.ehu.es/sbweb/fisica/cursoJava/numerico/regresion/regresion.htm
[8]https://www.ecured.cu/Regresi%C3%B3n_lineal

También podría gustarte