Está en la página 1de 10

MÓDULO 3

PRUEBAS DE HIPÓTESIS

Características del razonamiento estadístico

+ La inferencia constituye una de las áreas de mayor utilidad de la estadística, ya que se pueden obtener
conclusiones de interés acerca de una población con base en la información que proporcionan los datos de una
muestra.

+ La estimación de parámetros podrá ser puntual o intervalar con la construcción de intervalos de confianza. Para
ambos casos el objetivo será estimar el valor de un parámetro desconocido de una población (por ej la media) a partir
de los datos contenidos en una muestra.

� Estimación puntual: se proporciona un valor único como estimación del parámetro.


� Estimación intervalar (intervalo de confianza): se establece un intervalo aleatorio junto con un nivel de
confianza (1 − α) que establece la probabilidad de incluir al parámetro.

+ Una hipótesis estadística es un enunciado referido a la población que puede ser evaluado en función de la
información muestral, y ser considerado verdadero o falso en virtud de la evidencia que la muestra proporciona. Las
hipótesis estadísticas generalmente involucran una o más características de la distribución, como la forma de una
distribución, el valor de cierto parámetro o la independencia de la variable aleatoria, entre otras. Las hipótesis son
siempre enunciados relativos a la población o la distribución que se encuentra bajo estudio y no constituyen
enunciados referidos a la muestra.

+ Pruebas de hipótesis:
� Primer paso: definición de una hipótesis inicial/hipótesis alterna
� Segundo paso: recolección y organización de la información
� Tercer paso: contraste de hipótesis. Nivel de significación
� Cuarto paso: conclusión

Primer paso: definición de una hipótesis. Prueba de hipótesis

+ Consiste en un método que permite verificar una aseveración acerca del valor de un parámetro poblacional. Como
los datos son proporcionados por una muestra, los resultados podrán estar sujetos a variaciones aleatorias, por lo
que una prueba de hipótesis permite establecer si pequeñas desviaciones observadas (respecto del resultado que
idealmente debería haber ocurrido según nuestra hipótesis) son atribuibles al azar o, efectivamente, los resultados no
guardan relación con la hipótesis que se ha planteado respecto del valor del parámetro.

Esquema de la prueba de hipótesis

Fundamentos y conceptos de las pruebas de hipótesis

+ Si se puede aceptar o rechazar una afirmación respecto de una población, dependerá de la evidencia
proporcionada por una muestra de datos.

+ Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la hipótesis inicial H0 (también
llamada nula o de no cambio) y la hipótesis alternativa H1.

� La hipótesis nula es: la hipótesis que queremos contrastar. Es la hipótesis que el investigador asume como
correcta.
� La hipótesis alternativa es: la negación de la hipótesis nula (es lo que aceptamos cuando rechazamos la
hipótesis nula).
+ Una prueba de hipótesis constituye un proceso en el que, partiendo de dos hipótesis estadísticas contrapuestas
(nula y alternativa), tomamos información muestral a los efectos de decidir si se rechaza o no la hipótesis inicial en
favor de la hipótesis alternativa.

+ Con base en los datos de muestra, la prueba determina si se puede rechazar la hipótesis nula. Se utilizará el valor
p para tomar esta decisión. Si el valor p es menor que el nivel de significancia (denominado α o alfa), entonces puede
rechazar la hipótesis nula. El nivel de significancia es el nivel de error tipo I que estamos dispuestos a aceptar.

+ Características de la hipótesis nula:


� Se va a considerar como cierta hasta que se tenga suficiente evidencia de lo contrario.
� Es la base para el análisis estadístico de la prueba.

+ Características de la hipótesis alternativa:


� Es lo contrario a la hipótesis nula.
� Es la que define la dirección de la zona de rechazo.

+ El valor del parámetro de la población especificado en la hipótesis puede determinarse de las siguientes formas:
� Forma 1: surge de la experiencia o conocimientos pasados del fenómeno de interés, o incluso de
experimentación previa. El objetivo de la prueba de hipótesis, en estos casos, suele ser determinar si la
situación analizada ha cambiado.
� Forma 2: se determina a partir de alguna teoría o modelo con respecto al objeto que se estudia. El objetivo
de la prueba de hipótesis es, en este caso, verificar la teoría o el modelo.
� Forma 3: es el resultado de consideraciones experimentales, como las especificaciones de diseño. El objetivo
de la prueba de hipótesis será la prueba de conformidad.

+ Una hipótesis de investigación será el enunciado que establece un investigador en el cual se ofrece una posible
respuesta a una pregunta de investigación.

CONTRASTE DE HIPÓTESIS

Segundo paso: recolección y organización de la información

+ Comprenderá la elección y el tamaño de la muestra, la forma que tendrá la encuesta o la recopilación de datos y el
diseño de los cuestionarios, si estos corresponden.

+ Con toda la información reunida, se deberá establecer la organización y la forma de presentarla, lo cual se podrá
realizar mediante tablas de frecuencia, gráficos, etcétera, de manera que faciliten el análisis y la posterior obtención
de información de interés.

Tercer paso: contraste de hipótesis

+ Dentro de la inferencia estadística, un contraste de hipótesis (también denominado nivel de significación),


constituye un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible
con lo observado en una muestra de dicha población.

+ Este método fue inicialmente diseñado por Ronald Fisher y fue posteriormente fundamentado por Karl Pearson. En
forma sintética, se puede expresar que, mediante esta teoría, se formula una hipótesis inicial y una hipótesis
alternativa para establecer posteriormente cuál de las dos resulta ser la hipótesis verdadera.

� A partir de una muestra de la población bajo análisis, se extraerá un estadístico (un valor que es función de la
muestra), cuya distribución de probabilidad esté relacionada con la hipótesis en estudio, la cual deberá ser
conocida.
� Se establece entonces una región de aceptación y rechazo. La zona de rechazo comprenderá al conjunto de
valores por los cuales rechazaremos lo expresado por la hipótesis inicial, si es que se observa que el valor
del estadístico está contenido dentro de dicha zona.
� La probabilidad de que se obtenga un valor del estadístico que entre en la región de rechazo aun siendo
cierta la hipótesis puede calcularse.
� De esta manera, se puede escoger dicha región de tal forma que la probabilidad de cometer este error sea
suficientemente pequeña.

+ Por lo tanto, el procedimiento de prueba se detalla por lo siguiente:


� Un estadístico de prueba: se adopta en función de los datos muestrales en los cuales se basará la decisión
de rechazar o no la hipótesis.
� Una región de rechazo: será el conjunto de todos los valores del estadístico de prueba para los cuales será
rechazada

+ En síntesis, la hipótesis nula será rechazada si el valor calculado del estadístico de prueba se ubica dentro de la
zona de rechazo.

+ Se presenta una cierta dificultad al usar un procedimiento basado en datos muestrales debido a la variabilidad que
puede ocurrir en el muestreo, lo cual puede resultar al tomar una muestra no representativa.

Cuarto paso: conclusión

+ Una vez realizado el cuarto paso y verificada o no la hipótesis en función de que el estadístico se encuentre o no
en la región de aceptación, se puede obtener una de las siguientes conclusiones:

� Se acepta la hipótesis nula si el valor calculado del estadístico de prueba se ubica dentro de la zona de
aceptación.
� Se rechaza la hipótesis nula si el valor calculado del estadístico de prueba se ubica dentro de la zona de
rechazo.

NIVEL DE SIGNIFICACIÓN

+ El nivel de significación de una prueba estadística constituye un concepto asociado a la verificación de una
hipótesis. Es la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta es verdadera, acción que
se conoce como error de tipo I. La decisión se toma a menudo utilizando el valor p: si el valor p es inferior al nivel de
significación, entonces la hipótesis nula es rechazada. Cuanto menor sea el valor p, más significativo será el
resultado.

+ El nivel de significación de un contraste de hipótesis es una probabilidad p tal que la probabilidad de tomar la
decisión de rechazar la hipótesis nula (cuando esta es verdadera) no es mayor que p.

Valor p

+ El valor p es la proporción de veces que el estadístico de contraste (media, desviación estándar, varianza,
proporción, etc.) toma un valor más extremo (diferente) que el resultado del experimento realizado. Otra forma de
definirlo es la probabilidad de encontrar un valor del estadístico de contraste más alejado o de valor más extremo que
lo observado en la muestra, si repitiéramos el experimento en iguales condiciones de manera infinita.

+ Este valor juega un papel importante al realizar contraste de hipótesis. Como es una presunción relativa respecto
de una o varias poblaciones, que puede ser cierta o no, las hipótesis estadísticas se podrán contrastar con la
información extraída de las muestras; por lo tanto, si estas se aceptan siendo falsas o si se rechazan siendo
verdaderas, se estará cometiendo un error.

+ Consecuentemente, uno de los problemas conceptuales que podemos encontrar al contrastar una hipótesis es el
de poder establecerla de una forma apropiada.

Tipos de error

+ Un buen proceso será aquel en el cual la probabilidad de cometer algún tipo de equivocación resulte pequeña.
Entonces, la elección de un valor particular de corte de la región de rechazo fijará las distintas probabilidades de
errores tipo I y II. Estas probabilidades de error serán representadas con las letras griegas α y β, respectivamente.

+ De acuerdo con el enfoque Neyman – Pearson, las pruebas de hipótesis se plantean como un proceso de decisión
entre dos hipótesis, considerando una hipótesis alternativa (H1), que es la negación o complemento de la hipótesis
nula (H0).

� Error tipo I: cuando se rechaza H0 siendo H0 cierta = α. También se lo conoce como nivel de significancia
� Error tipo II: no rechazar H0 al ser H0 falsa = β.
Tipos de error y sus posibilidades

+ El nivel de significación se fijará antes de la prueba y permitirá delimitar las regiones de rechazo y aceptación de la
hipótesis nula. Si el valor del estadístico de prueba cae en la región de rechazo, la hipótesis nula es rechazada; en
caso contrario, la hipótesis nula es aceptada como válida.

+ Determinar el valor de α dependerá, en parte, de la confianza o creencia que el investigador tenga en la hipótesis
nula. Si está firmemente convencido de su validez, necesitará una evidencia muy fuerte en su contra para rechazarla.
Si, por otro lado, su creencia o confianza en la validez de la hipótesis nula es débil, entonces requerirá poca
evidencia para rebatirla.

+ El estadístico de prueba es una variable aleatoria que comúnmente se denota mediante una mayúscula (Z). El
valor crítico que delimita una región de la distribución muestral de rechazo o aceptación corresponde a un
determinado cuantil de la distribución del estadístico de prueba (por ejemplo: Z 0,95 = 1,645 con un α = 0,05).

ANÁLISIS DE VARIANZA

Esquema conceptual de los métodos de contraste de hipótesis

Análisis de varianza (ANOVA)

+ Prueba la hipótesis de que las medias de dos o más poblaciones son iguales. Los ANOVA evalúan la importancia
de uno o más factores al comparar las medias de la variable de respuesta en los diferentes niveles de los factores.

+ La hipótesis nula establece que todas las medias de la población (medias de los niveles de los factores) son
iguales mientras que la hipótesis alternativa establece que al menos una es diferente.

+ El nombre análisis de varianza se basa en el procedimiento que utiliza las varianzas para determinar si las medias
son diferentes. El procedimiento funciona comparando la varianza entre las medias de los grupos y la varianza dentro
de los grupos como una manera de determinar si los grupos son parte de una población más grande o de
poblaciones separadas con características diferentes.

+ Un análisis de la varianza se basa en los conceptos de regresión lineal y, en forma general, permitirá:
� Finalidad 1: determinar si diferentes tratamientos muestran diferencias significativas o si, por el contrario,
puede suponerse que sus medias poblacionales no difieren.
� Finalidad 2: superar las limitaciones de hacer contrastes bilaterales por parejas, dado que se aprecia (por las
experiencias realizadas) que son un mal método para determinar si un conjunto de variables con n > 2 difiere
entre sí.

Lógica empleada en el análisis de varianza

+ A las variables independientes se las llama también factores; estos y sus niveles suelen definirse de manera
experimental por el investigador. En cada factor hay, por lo menos, dos niveles o tratamientos que se efectuarán.

+ La hipótesis nula (H0) que se desea contrastar es H0: µ1 = µ2 = ... µk, donde k es el número de tratamientos. En
esta hipótesis, los tratamientos no producen efectos, es decir, no existirá una diferencia estadísticamente significativa
entre los grupos. El análisis de varianza presupone una relación lineal entre las variables experimentales y las
observadas.

+ En general, el objetivo de un experimento será investigar los efectos de las variables, tanto las independientes
(experimentales) como las observadas (dependientes o de respuesta).

+ Clasificación según:
� El número de factores.
� El tipo de muestreo efectuado sobre los niveles de los factores.
� El tipo de aleatorización utilizada para seleccionar las muestras representativas de cada población y agrupar
sus elementos (unidades experimentales) en los distintos grupos que se desea comparar.

+ Como en todo experimento estadístico en el que no resulta posible trabajar con la población en su totalidad, se
deben elegir muestras al azar y asignar aleatoriamente sus elementos a los diferentes niveles o tratamientos, a los
efectos de asegurar que no se cometan errores sistemáticos. Si las unidades experimentales reaccionan o responden
a los tratamientos de la misma manera, se dice que son homogéneas; si responden de manera distinta, se las
denomina heterogéneas.

+ Si las dos poblaciones tienen distinta media (pero la misma varianza), al combinarlas cambiarían tanto la media de
la nueva distribución como su varianza. En este caso, si se estimara la varianza poblacional a partir de una muestra
extraída de las poblaciones iniciales, el resultado sería sustancialmente diferente del de una estimación efectuada a
partir de la muestra conjunta. Se analiza la relación entre las llamadas medias cuadráticas intergrupos y medias
cuadráticas intragrupos, que deben ser iguales si las medias de las poblaciones lo son.

+ Para poder aplicar esta técnica, resulta necesario que se verifiquen las siguientes condiciones:
� Independencia: los individuos estudiados deben ser independientes unos de los otros.
� Aleatoriedad: las muestras o grupos objeto de estudio deben haberse obtenido de manera aleatoria.
� Normalidad: las muestras o grupos analizados deben seguir una distribución normal.
� Homocedasticidad: debe existir una igualdad de varianzas en las muestras o grupos estudiados.

+ La razón es que esta prueba se lleva a cabo comparando dos o más tipos de variación. El análisis de la varianza es
un método general para estudiar fuentes de variación en las respuestas. La comparación de varias medias, que es la
forma más simple del ANOVA, se llama análisis de la varianza de un factor.

Estadístico F del ANOVA

+ Dentro de la estrategia para verificar la hipótesis de igualdad de medias, se emplea el estadístico F, que refleja el
grado de parecido existente entre las medias que se están comparando.

+ El estadístico F solo puede tomar valores positivos o cero. Será cero solo cuando todas las medias muestrales
sean idénticas y se hará mayor a medida que las medias muestrales están más separadas entre sí. Los valores F
grandes constituyen una buena evidencia en contra de la hipótesis nula H0 de que todas las medias poblacionales
son iguales.

+ Los grados de libertad del estadístico F dependen del número de medias que comparamos y del número de
observaciones de cada muestra. Es decir, el estadístico F tiene en cuenta el número de observaciones.

+ La homocedasticidad asume que la varianza de los errores debe ser constante a lo largo del tiempo. Ello implica
que debe existir una igualdad de varianzas en las muestras o grupos estudiados.
MÓDULO 4
INDEPENDENCIA DE ATRIBUTOS – CHI CUADRADO

+ La relación entre variables consiste en que, si una cambia, la otra cambiará también, y el cambio puede ser positivo
o negativo. Su efecto es absolutamente relevante, pero debe tenerse presente que la correlación entre dos variables
no implica necesariamente una causalidad entre ellas, sino quizás simplemente una interrelación.

+ Entre dos variables puede existir una independencia o dependencia estadística. Las variables serán
independientes si los valores que toma una variable no están influenciados por los de la otra.

+ La prueba de independencia permite establecer si existe o no relación entre variables. Por ejemplo, si las variables
son medidas en escala nominal, cada una de ellas poseerá dos o más categorías. Una de las pruebas más usadas
para verificar la independencia o no de atributos o variables es la prueba Chi – cuadrado.

Prueba Chi – cuadrado

+ Es un método estadístico de carácter general que se utiliza cuando se desea determinar si las frecuencias
absolutas obtenidas en una observación difieren significativamente o no de las que se estarían esperando, teniendo
en cuenta, a su vez, una determinada hipótesis planteada de interrelación sobre las categorías de las variables
consideradas.

+ Este método nos permite poder analizar la relación entre variables y posee aplicaciones principales:
� Independencia: probar la supuesta independencia de dos variables cualitativas de una población
� Inferencia de proporción: realizar inferencias sobre más de dos proporciones de una población
� Inferencia sobre varianza: hacer inferencias sobre la varianza de la población.
� Prueba de bondad: realizar pruebas de bondad de ajuste a efectos de evaluar la credibilidad de datos
muestrales, que provengan de una población cuyos elementos se ajusten a un tipo específico de distribución
de probabilidad.

+ La distribución Chi – cuadrado es una distribución de probabilidad y se encuentra en estado de normalidad. A


medida que aumentan los grados de libertad (gl), la curva tiende a tener una forma o distribución de tipo normal.

+ Procedimiento que se puede seguir para elaborar una prueba de independencia:


� Obtener la frecuencia observada (F.O.), proveniente de la encuesta o del experimento.
� Resumir los datos obtenidos (F.O.), en un cuadro de contingencia.
� Calcular la frecuencia esperada (F.E).
� Determinar el nivel de significancia (α), y los grados de libertad (gl).
� Plantear las hipótesis.
� Construir las áreas de aceptación y rechazo.
� Calcular Chi – cuadrado
� Tomar una decisión y emitir una conclusión en términos del problema

V DE CRAMER

+ Se trata de un coeficiente (Harald Cramer) que funciona como una medida de relación estadística que tiene su
base en Chi – cuadrado. Es decir, se lo emplea en relación con a este último para hacer una corrección del
mencionado coeficiente Chi – cuadrado, a efectos de precisar la fuerza de asociación existente entre dos o más
variables.
+ Es uno de los coeficientes más usados para analizar la asociación de las variables nominales cuando sus
categorías son de dos o tres clases distintas. Es decir, si la tabla de contingencia posee dos filas por dos columnas o
tres filas por tres columnas, resultará válido aplicar este coeficiente.

+ En este sentido, se observa que el resultado del coeficiente variará entre cero y uno, en donde cero es considerado
un valor nulo de asociación. Por lo tanto, el 0 corresponderá a una ausencia de asociación y el 1 a una asociación
perfecta. Cuanto más próximo a 0 se encuentre el valor V, más independientes serán las variables. Por el contrario,
cuanto más próximo a 1 sea su valor, más asociadas estarán las variables que se estudien.

+ Para emplear V de Cramer será necesario que se cumplan los siguientes requisitos:
� Forma: una de las variables debe tener al menos dos formas posibles
� Chi – cuadrado: tener previamente una tabla Chi – cuadrado.
� Tamaño: este coeficiente se puede utilizar en tablas de contingencia de cualquier tamaño

+ Limitaciones:
� Solo trabaja con variables de tipo nominal.
� Deberá realizarse el cálculo de Chi-cuadrado previamente para poder calcular V de Cramer.
� No se podrá realizar un análisis sobre la dirección de la relación entre variables ya que el resultado será
siempre positivo.

COEFICIENTES DE CORRELACIÓN, C DE PEARSON, R DE SPEARMAN

+ Con el análisis de correlación se busca estimar el nivel de asociación lineal existente entre las distintas variables
que son objeto de estudio. Un aspecto que debemos resaltar es que cuando las variables están relacionadas,
resulta posible realizar predicciones respecto del comportamiento de dichas variables, pero, claro, ello estará,
limitado a realizar inferencias sobre la causa de la relación. Por esa causa, este análisis recibe también el nombre
de asociación.

+ La correlación es la forma numérica en la que la estadística evalúa la relación entre dos o más variables. Es decir,
permite medir la dependencia de una variable con respecto a otra variable independiente. Es recomendable trazar el
gráfico de dispersión entre las variables estudiadas y construir el histograma de frecuencia, el cual dará cuenta de la
asimetría, la forma de la distribución de los datos, su grado de dispersión, etc. Todos estos elementos descriptivos
proporcionarán los datos suficientes respecto del comportamiento de las variables investigadas, a efectos de decidir
cuál de los coeficientes de correlación será el más apropiado

Coeficientes de asociación

+ Los coeficientes de asociación son valores numéricos que permiten cuantificar el grado de ajuste y de relación
lineal entre dos variables

+ Coeficiente C de Pearson: es un coeficiente paramétrico, es decir, infiere sus resultados en la población real, lo
que hace necesario que la distribución de nuestra muestra se asemeje a la distribución real, es decir, que haya
normalidad

+ Coeficiente de correlación R de Spearman: es un coeficiente NO paramétrico, es decir, la distribución muestral no


se ajusta a una distribución conocida, por lo que los estimadores muestrales no son representativos de los
parámetros poblacionales

+ El coeficiente C de Pearson es un coeficiente paramétrico. Esta característica constituye la mayor diferencia


existente entre ambos coeficientes, dado que el de Pearson es paramétrico y requiere que se cumpla el supuesto de
normalidad en las variables. Se distribuyen los datos de acuerdo a una curva de forma normal, solo podrá calcularse
en variables cuantitativas, con niveles de medición intervalar o de razón

+ Por otra parte, el R de Spearman es No paramétrico, por lo tanto, los estimadores muestrales no son
representativos de los parámetros poblacionales.Por otro lado, si las variables cuantitativas no cumplen con el
supuesto de normalidad, o son variables de tipo cualitativo (ordinal), deberemos usar el coeficiente de correlación de
Spearman.

Coeficiente C de Pearson
+ Constituye una medida de relación estadística, la cual permite expresar la intensidad de la relación entre dos o
más variables cuantitativas. Este coeficiente se basa en comparar las frecuencias de dos características calculadas
de manera efectiva con las frecuencias que se hubieran esperado independientemente de estas características.

+ Este coeficiente brindará valores entre –1 y +1:


� Cuando el valor tiende a 1: la asociación positiva es elevada. Un valor de 1 indica una relación lineal
positiva perfecta
� Cuando el valor tiende a -1: la asociación negativa es elevada. Un valor de -1 indica una relación lineal
negativa perfecta.
� Una correlación próxima a cero: indicará que no hay relación lineal entre las dos variables

Coeficiente de correlación de rangos de Spearman

+ Se representa con la letra griega ρ (rho) y muestra la asociación existente entre variables. A diferencia del
anterior, permite obtener un coeficiente de asociación ente variables que no se comportan normalmente, entre
variables aleatorias continuas o discretas. Se calcula en base a una serie de rangos asignados. También es
recomendable para aplicar en situaciones en las que los datos presentan valores externos, dado que los valores
afectan demasiado el coeficiente de correlación de Pearson.

+ En este caso, los valores van de -1 a 1, donde 0 es el valor que indica no correlación, y los signos indican
correlación directa e inversa.

+ Los datos hay que traducirlos u ordenarlos en rangos. A los puntajes más elevados le asignamos el rango 1, al
siguiente el rango 2 y así sucesivamente. Si se repiten dos puntajes o más se calcularán las medias aritméticas.

MODELO DE REGRESIÓN LINEAL

+ Se basa en el uso de variables de respuesta cuantitativa. Se dividen en:


� Modelo I: son aquellos donde los valores de X estarán fijos y serán determinados por el diseño experimental.
Los valores de Y (variable dependiente), se establecerán en función de su respectiva X (variable
independiente). Un aspecto que debemos puntualizar es que la distribución probabilística de la población de
Y se supondrá normal, y se seleccionan de manera aleatoria los distintos valores de Y (modelo estándar de
regresión).
� Modelo II: en este modelo tanto los valores de X como los de Y son aleatorios. Debe trabajarse entonces con
muestras aleatorias de una distribución poblacional bivariada. Este modelo deberá cumplir el supuesto de
homocedasticidad, es decir, la varianza de Y será la misma para toda X

+ El propósito de un modelo de regresión es tratar de explicar la relación que existe entre una variable dependiente
(variable respuesta) Y con respecto a una variable independiente, que se denomina también variable explicativa, X. A
este modelo matemático, usado para aproximar la relación de dependencia entre variables, se le agrega un valor ε
que es el error que es posible de cometer y que para nuestros cálculos lo consideraremos despreciable.

+ Con respecto a su empleo, resulta ser una explicación simplificada de la realidad, para configurar una herramienta
más ágil y con un adecuado soporte teórico suministrado por la matemática y la estadística. De esta manera se
puede desarrollar el modelo de regresión lineal. El problema está en el ajuste de los datos a una línea recta; es por
ello que se parte de la ecuación de la línea recta como base de este modelo.

+ El término regresión lineal se refiere a una relación que puede representarse gráficamente mediante una línea
recta. Esta es la forma gráfica de representar la relación entre dos variables y que describe en forma clara la
dependencia que ambas podrán tener, la cual podrá ser positiva o negativa.

+ Cuando predecimos los valores de una variable cuantitativa, es este modelo, el de regresión lineal, el que más se
utiliza (a partir de los valores de otra variable explicativa que es además cuantitativa). Esto recibe el nombre de
modelo de regresión lineal simple. Una consecuencia o variante de esto puede ser el modelo de regresión lineal
múltiple, que admite más de una variable explicativa cuantitativa.

También podría gustarte