Está en la página 1de 14

UNIVERSIDAD AUTÓNOMA GABRIEL RENE MORENO

FACULTAD INTEGRAL DEL NORTE


INGENIERIA COMERCIAL

TEMA: LA MULTICOLINEALIDAD

Materia: ECONOMETRIA
Sigla /Grupo: Eco-300 5C
Docente: Ing. Edson Llanos
Universitario: Daniela Lucas Melgarejo
Registro: 221121927

Montero 29 de junio del 2023


Tabla de contenido
Introducción.......................................................................................................................................3
OBJETIVO........................................................................................................................................3
DESARROLLO DEL TEMA............................................................................................................4
CONCEPTO LA MULTICOLINEALIDAD.................................................................................4
Puntos clave de la multicolinealidad..............................................................................................4
Naturaleza de la multicolinealidad.................................................................................................4
Fuentes de la multicolinealidad......................................................................................................5
Causas de la multicolinealidad.......................................................................................................5
Consecuencias prácticas de la multicolinealidad............................................................................6
Estimadores de MCO con varianzas y covarianzas grandes.......................................................7
CLASES DE COLINEALIDAD........................................................................................................8
1) Multicolinealidad perfecta.........................................................................................................8
2) Multicolinealidad fuerte.............................................................................................................8
3) Multicolinealidad débil:.............................................................................................................9
¿Es la multicolinealidad necesariamente mala?..............................................................................9
Algunas de las técnicas comunes incluyen:....................................................................................9
Algunos de los efectos comunes incluyen:...................................................................................10
¿Cómo corregimos la multicolinealidad?.....................................................................................10
¿Qué cambia cuando centramos los predictores?.........................................................................10
¿Qué NO cambia cuando centramos los predictores?...................................................................11
EJEMPLOS DE MULTICOLINEALIDAD.....................................................................................11
EJEMPLO #1...............................................................................................................................11
EJEMPLO#2................................................................................................................................12
EJEMPLO #3...............................................................................................................................12
CONCLUSIÓN................................................................................................................................14
BIBLIOGRAFIA.............................................................................................................................14
Introducción
En estadísticas, la multicolinealidad se refiere a la presencia de correlaciones fuertes entre
dos o más variables predictoras en un modelo de regresión. Esta correlación puede hacer
que sea difícil distinguir la contribución única de cada variable a la predicción del modelo.
En consecuencia, la multicolinealidad puede tener implicaciones negativas para la precisión
y la fiabilidad de un modelo de regresión. Esta monografía explorará en profundidad el
concepto de multicolinealidad y examinará sus causas, detección y efectos en modelos de
regresión.
La multicolinealidad es un problema estadístico que ocurre cuando dos o más variables
independientes en un análisis de regresión están altamente correlacionadas. Esta situación
puede ser problemática ya que puede llevar a la interpretación errónea de los resultados del
análisis de regresión, ya que la multicolinealidad puede crear sesgos en las estimaciones de
los coeficientes de regresión, y reducir la precisión de las estimaciones. En esta monografía,
se discute en profundidad el concepto de la multicolinealidad, su efecto en la interpretación
de los resultados y los métodos para detectar y corregir la multicolinealidad en un análisis
de regresión. Definición de multicolinealidad.

OBJETIVO
1. Identificar y eliminar variables redundantes: La multicolinealidad ayuda a identificar
variables que tienen una relación estrecha entre sí. Esto permite identificar y eliminar las
variables redundantes, evitando así la redundancia de información en el modelo.
2. Mejorar la precisión del modelo: La multicolinealidad puede afectar negativamente la
precisión de los modelos de regresión, ya que puede dificultar la interpretación de los
coeficientes. Al eliminar la multicolinealidad, se puede mejorar la precisión del modelo y
hacer que los resultados sean más confiables.
3. Evitar la inferencia incorrecta: La presencia de multicolinealidad puede llevar a
inferencias incorrectas en el análisis. Por ejemplo, puede llevar a atribuir una relación
incorrecta entre una variable independiente y la variable dependiente, o puede llevar a
sobrestimar o subestimar los efectos de las variables independientes.
4. Estabilidad de los coeficientes: La multicolinealidad puede hacer que los coeficientes de
regresión sean inestables y sensibles a pequeños cambios en los datos. Al eliminar la
multicolinealidad, se puede mejorar la estabilidad de los coeficientes, lo que facilita la
interpretación de los resultados.
5. Mejorar la interpretabilidad del modelo: La presencia de multicolinealidad puede
dificultar la interpretación de los resultados del modelo. Al eliminar la multicolinealidad, se
puede mejorar la interpretabilidad del modelo, lo que facilita la toma de decisiones basada
en los resultados.
DESARROLLO DEL TEMA
CONCEPTO LA MULTICOLINEALIDAD
La multicolinealidad ocurre cuando las variables independientes (predictores) en un modelo
de regresión están correlacionadas.
Las variables independientes deberían ser eso, independientes. Y esto se debe a que, si
el grado de correlación entre las variables independientes es alto, no podremos aislar la
relación entre cada variable independiente y la variable dependiente (respuesta).
¡Si no podremos aislar los efectos podríamos confundir sus efectos!
Es decir, cuando las variables independientes están muy correlacionadas los cambios en
una variable están asociados con cambios en otra variable y, por tanto, los coeficientes
de regresión del modelo ya no van a medir el efecto de una variable independiente sobre la
respuesta manteniendo constante, o sin variar, el resto de predictores.
Puntos clave de la multicolinealidad
 La multicolinealidad es un concepto estadístico en el que se relacionan varias
variables independientes en un modelo.
 Dos variables se consideran perfectamente colineales si su coeficiente de
correlación es +/- 1,0.
 La multicolinealidad entre variables independientes dará como resultado inferencias
estadísticas menos confiables.
 Es mejor utilizar variables independientes no correlacionadas o repetitivas cuando
se construyen modelos de regresión múltiple que utilizan dos o más variables.
 La existencia de multicolinealidad en un conjunto de datos puede generar resultados
menos confiables debido a errores estándar más grandes.
Naturaleza de la multicolinealidad
El término multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una
relación lineal “perfecta” o exacta entre algunas o todas las variables explicativas de un
modelo de regresión. Para la regresión con k variables que incluye las variables explicativas
X1, X2, . . . , Xk (donde X1 = 1 para todas las observaciones de forma que den cabida al
término del intercepto), se dice que existe una relación lineal exacta si se satisface la
siguiente condición:
λ1X1 + λ2X2 +···+ λk Xk = 0
donde λ1, λ2,. . . , λk, son constantes tales que no todas son simultáneamente iguales a cero.
Hoy en día, sin embargo, el término multicolinealidad incluye el caso de multicolinealidad
perfecta, como lo indica y también el caso en el cual hay X variables intercorrelacionadas
pero no en forma perfecta, de la siguiente manera:
λ1X1 + λ2X2 +···+ λ2Xk + vi =0
donde vi es un término de error estocástico.
Para apreciar la diferencia entre multicolinealidad perfecta y multicolinealidad menos que
perfecta suponga, por ejemplo, que λ2 # 0. Entonces, se escribe como
X2i =−λ1/ λ2 x X1i − λ3 /λ2 x X3i −···− λk/ λ2 x Xki
que muestra la forma como X2 está exactamente relacionada de manera lineal con otras
variables, o cómo se deriva de una combinación lineal de otras variables X. En esta
situación, el coeficiente de correlación entre la variable X2 y la combinación lineal del lado
derecho de está obligado a ser igual a uno. En forma similar, si λ2#0, la ecuación se escribe
como:
X2i= −λ1 /λ2 x X1i − λ3/ λ2 x X3i −···− λk /λ2 x Xki – 1/ λ2 x vi
lo cual muestra que X2 no es una combinación lineal exacta de otras X porque está
determinada también por el término de error estocástico vi.
Fuentes de la multicolinealidad
Existen diversas fuentes de multicolinealidad. Como afirman Montgomery y Peck, la
multicolinealidad puede deberse a los siguientes factores:
1. El método de recolección de información. Por ejemplo, la obtención de muestras en un
intervalo limitado de valores tomados por las regresoras en la población.
2. Restricciones en el modelo o en la población objeto de muestreo. Por ejemplo, en la
regresión del consumo de electricidad sobre el ingreso (X2) y el tamaño de las viviendas
(X3) hay una restricción física en la población, pues las familias con ingresos más altos
suelen habitar viviendas más grandes que las familias con ingresos más bajos.
3. Especificación del modelo. Por ejemplo, la adición de términos polinomiales a un
modelo de regresión, en especial cuando el rango de la variable X es pequeño.
4. Un modelo sobre determinado. Esto sucede cuando el modelo tiene más variables
explicativas que el número de observaciones. Esto puede suceder en investigación médica,
donde en ocasiones hay un número reducido de pacientes sobre quienes se reúne
información respecto de un gran número de variables.
Otra razón para la multicolinealidad, sobre todo en los datos de series de tiempo, puede ser
que las regresoras del modelo compartan una tendencia común; es decir, que todas
aumenten o disminuyan a lo largo del tiempo. Por tanto, en la regresión del gasto de
consumo sobre el ingreso, la riqueza y la población, las regresoras ingreso, riqueza y
población tal vez todas crezcan con el tiempo a una tasa aproximadamente igual, con lo
cual se presentaría la colinealidad entre dichas variables.
Causas de la multicolinealidad
La multicolinealidad puede tener varias causas, y es importante entenderlas para poder
detectarla y evitarla en un análisis de regresión. Algunas de las causas comunes incluyen:
1. Variables predictoras altamente correlacionadas: El modelo de regresión asume que las
variables predictoras son independientes entre sí.
Si hay una correlación fuerte entre dos o más variables, esto puede hacer que sea difícil
distinguir la contribución única de cada variable al modelo. Por ejemplo, las variables de
ingreso y educación pueden estar altamente correlacionadas en un conjunto de datos, lo que
hace que sea difícil determinar cuál de ellas es el principal predictor de un resultado
determinado.
2. Variables predictoras medidos en la misma escala: Si todas las variables predictoras se
miden en la misma escala (por ejemplo, en una escala de 0 a 10), esto puede hacer que sea
difícil distinguir cuál de las variables está contribuyendo a la predicción de un resultado. Si
hay una correlación fuerte entre las variables, esto puede crear multicolinealidad.
3. Tamao de muestra pequeo: La multicolinealidad también puede surgir en muestras
pequeas, especialmente si las variables están altamente correlacionadas.
4. Categorización de variables predictoras: Las variables predictoras categorizadas pueden
crear multicolinealidad si hay demasiadas categorías. Por ejemplo, si se tienen varias
categorías de ingresos (por ejemplo, bajo, medio y alto), esto puede crear correlaciones
fuertes entre ellas y hacer que sea difícil distinguir cuál es el principal predictor de un
resultado. Detección de la multicolinealidad La multicolinealidad puede ser detectada
mediante varias técnicas.
Consecuencias prácticas de la multicolinealidad
La multicolinealidad provoca 3 tipos de problemas:
-El valor de los coeficientes de regresión del modelo cambia si incluyes o no otras variables
independientes, y por lo tanto dificulta la interpretación del modelo.
-Se reduce su precisión de nuestras estimaciones (aumenta el error estándar de los
coeficientes de regresión).
-La significación estadística (p-valor) de los coeficientes de regresión del modelo se vuelve
menos confiable, como consecuencia del ítem anterior, y por lo tanto es difícil identificar
variables independientes a incluir en el modelo.
En los casos de casi o alta multicolinealidad es probable que se presenten las
siguientes consecuencias:
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes
que dificultan la estimación precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más
amplios, lo cual propicia una aceptación más fácil de la “hipótesis nula cero” (es decir, que
el verdadero coeficiente poblacional es cero).
3. También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser
estadísticamente no significativa.
4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
Las consecuencias anteriores se demuestran de la siguiente manera.
Estimadores de MCO con varianzas y covarianzas grandes
Para ver varianzas y covarianzas grandes, recuerde que, para el modelo, las varianzas y
covarianzas de βˆ 2 y βˆ 3 están dadas por: _

donde r23 es el coeficiente de correlación entre X2 y X3.


De (7.4.12) y (7.4.15) se desprende que, a medida que r2 3 tiende a 1, es decir, a medida
que aumenta la colinealidad, también lo hacen las varianzas de los dos estimadores y, en el
límite, cuando r2 3 1, son infinitas. Es igualmente claro de que, a medida que r2 3 aumenta
hacia 1, la covarianza de los dos estimadores también aumenta en valor absoluto. [Nota:
cov (βˆ2, βˆ3) ≡ cov (βˆ3, βˆ2).]
La velocidad con que se incrementan las varianzas y covarianzas se ve con el factor
inflacionario de la varianza (FIV), que se define como.

El FIV muestra la forma como la varianza de un estimador se infla por la presencia de


la multicolinealidad. A medida que r 2 2 3 se acerca a 1, el FIV se acerca a infinito. Es
decir, a medida que el grado de colinealidad aumenta, la varianza de un estimador también
y, en el límite, se vuelve infinita. Como se aprecia, si no hay colinealidad entre X2 y X3, el
FIV será 1. Con esta definición, (7.4.12) y (7.4.15) se expresan como:
lo cual muestra que las varianzas de βˆ 2 y βˆ 3 son directamente proporcionales al
FIV. Para dar alguna idea de la rapidez con que aumentan estas varianzas y covarianzas a
medida que lo hace r, considere la tabla 10.1, que da estas varianzas y covarianzas para
valores seleccionados de r23. Como lo indica esta tabla, los aumentos en r23 tienen un
efecto drástico sobre las varianzas y covarianzas estimadas de los estimadores de MCO.
Cuando r23 0.50, la var (βˆ 2) es 1.33 veces la varianza cuando r2 3 es cero, pero, para
cuando r23 alcance 0.95, será alrededor de 10 veces más alta que cuando no hay
colinealidad. Observe bien que un incremento de r2 3 de 0.95 a 0.995 hace que la varianza
estimada sea 100 veces la obtenida cuando la colinealidad es cero.
Se observa el mismo efecto espectacular sobre la covarianza estimada. Todo esto se ve en
la fi gura 10.2. Los resultados recién analizados se extienden fácilmente al modelo con k
variables.
En un modelo así, la varianza del k-ésimo coeficiente, como vimos en (7.5.6), se expresa
como:

CLASES DE COLINEALIDAD

Existen diferentes tipos de multicolinealidad en estadística y análisis de regresión. Algunos


de los principales tipos son:
1) Multicolinealidad perfecta
ocurre cuando existe una relación lineal exacta entre dos o más variables predictoras. En
este caso, una variable predictora se puede expresar como una combinación lineal exacta de
las otras variables. Esto puede causar problemas en los modelos de regresión, ya que la
matriz de covarianza es singular y no se pueden obtener estimaciones precisas de los
coeficientes de regresión.
2) Multicolinealidad fuerte
ocurre cuando existe una alta correlación lineal entre dos o más variables predictoras, pero
no hay una relación lineal exacta. En este caso, las variables predictoras están altamente
correlacionadas, lo que puede dificultar la interpretación de los coeficientes de regresión
individuales y conducir a la inestabilidad de los estimadores.
3) Multicolinealidad débil:
ocurre cuando existe una correlación moderada a baja entre las variables predictoras.
Aunque puede no tener un impacto tan significativo como la multicolinealidad fuerte, aún
puede dificultar la interpretación de los coeficientes de regresión y afectar la estabilidad de
los modelos.
Es importante detectar y abordar la multicolinealidad en un análisis de regresión, ya que
puede afectar la interpretación de los resultados y conducir a estimaciones sesgadas de los
coeficientes de regresión. Algunas técnicas para abordar la multicolinealidad incluyen la
eliminación de variables redundantes, la combinación de variables correlacionadas o el uso
de técnicas de regresión más robustas como la regresión ridge o la regresión de
componentes principales.
¿Es la multicolinealidad necesariamente mala?
Quizá no, si el objetivo es sólo la predicción.
Dijimos que, si el único propósito del análisis de regresión es el pronóstico o la predicción,
la multicolinealidad no es un problema grave, pues, entre más alta sea la R2, mejor será la
predicción. Pero esto sucede “… siempre que los valores de las variables explicativas, para
los cuales se desean las predicciones, obedezcan las mismas dependencias lineales casi
exactas de la matriz X [de datos] del diseño original”. Por tanto, si en una regresión
estimada se encuentra que X2 2X3 aproximadamente, entonces, en una muestra futura para
pronosticar Y, X2 también debe ser aproximadamente igual a 2X3, condición difícil de
cumplir en la práctica, en cuyo caso la predicción será cada vez más incierta. Más aún, si el
objetivo del análisis no es sólo la predicción sino también la estimación confiable de los
parámetros, la presencia de una alta multicolinealidad puede ser un problema porque, como
vimos, genera grandes errores estándar en los estimadores.
Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un
problema grave. Es el caso en el cual se tiene una R2 elevada y los coeficientes de
regresión son significativos individualmente como lo demuestran los altos valores t. Aun
así, los diagnósticos de multicolinealidad, por ejemplo, el índice de condición, indican que
los datos presentan colinealidad grave. ¿Cuándo puede presentarse tal situación? Como
menciona Johnston:
Esto sucede si los coeficientes individuales resultan estar numéricamente muy por encima
del valor n verdadero, de forma que el efecto siga visible, a pesar de los errores estándar
inflados y/o debido a que el valor verdadero es en sí mismo tan grande que, aunque se
obtenga una estimación subestimada, continúe siendo significativa.
Algunas de las técnicas comunes incluyen:
1. Análisis de correlación: Se puede realizar un análisis de correlación entre las variables
predictoras para detectar cualquier correlación fuerte.
2. Estadísticas de tolerancia y VIF: La tolerancia es una estadística que mide cuánto de la
varianza de la variable depende de otras variables del modelo. El VIF (Factor de Inflación
de Varianza) es la inversa de la tolerancia y mide si una variable es redundante con otras
variables. Los valores de tolerancia cercanos a cero y los valores de VIF cercanos a uno
indican multicolinealidad.
3. Estadísticas de los coeficientes de regresión: Los coeficientes de regresión grandes
indican una correlación fuerte y pueden ser un indicador de multicolinealidad. Efectos de la
multicolinealidad La multicolinealidad puede tener varios efectos negativos en un modelo
de regresión.
Algunos de los efectos comunes incluyen:
1. Coeficientes de regresión imprecisos: Los coeficientes de regresión pueden ser
imprecisos e inestables debido a la multicolinealidad, y las estimaciones de los coeficientes
pueden cambiar significativamente si se agregan o eliminan variables del modelo.
2. Intervalos de confianza amplios: La multicolinealidad puede hacer que los intervalos de
confianza para los coeficientes de regresión sean amplios, lo que significa que no se puede
estar seguro de la precisión de las estimaciones.
3. Aumento del error estándar de la estimación: La multicolinealidad puede aumentar el
error estándar de la estimación, lo que a su vez afecta la precisión de las predicciones.
4. Dificultad para identificar las variables predictoras importantes: La multicolinealidad
puede hacer que sea difícil determinar cuáles son las variables predictoras más importantes
para la predicción de un resultado.
¿Cómo corregimos la multicolinealidad?
Para solucionar los problemas de multicolinealidad debemos fijarnos en qué tipo de
multicolinealidad tenemos.
Si la multicolinealidad no es muy alta, o no afecta a las variables que más te interesan o si
tu objetivo solo es realizar predicciones, no hay demasiados problemas y puedes seguir
adelante con tu modelo.
1. Para corregir la multicolinealidad estructural
Si solo tienes multicolinealidad estructural puedes eliminarla centrando los predictores y
volviendo a ajustar el modelo. Al centrar las variables independientes estamos
estandarizando las variables restando la media.
¿Qué cambia cuando centramos los predictores?
la interpretación de los coeficientes de regresión sigue siendo la misma. Los coeficientes
continúan representando el cambio medio en la variable dependiente dado un cambio de 1
unidad en la variable independiente.
Los VIF del modelo con predictores centrados no mostrarán problemas de
multicolinealidad (<5).
La precisión de las estimaciones aumenta (disminuyen los errores estándar de los
coeficientes de regresión).
Puede que varíen los signos de los coeficientes de regresión y la significación estadística
(p-valor) cuando eliminamos el problema de multicolinealidad.
¿Qué NO cambia cuando centramos los predictores?
la bondad de ajuste no cambia: el R-cuadrado (R-cuadrado ajustado y múltiple)
las predicciones del modelo no se ven afectadas: el error RSE no cambia.
2. Para corregir la multicolinealidad de los datos
Si la multicolinealidad es de los datos y alta entonces tendrás que valorar cuál es la mejor
opción para corregirla según tus objetivos y conocimiento previo del área de estudio.
Algunas opciones son:
Eliminar algunas de las variables independientes altamente correlacionadas.
Combinar linealmente las variables independientes, e.g. realizar un PCA para crear nuevos
predictores independientes y volver a ajustar el modelo de regresión con ellos.
Realice un análisis diseñado para variables altamente correlacionadas, e.g. la regresión de
mínimos cuadrados parciales.
Realizar una regresión que pueda manejar la multicolinealidad, e.g. LASSO y la regresión.

EJEMPLOS DE MULTICOLINEALIDAD
EJEMPLO #1
EJEMPLO#2

EJEMPLO #3
En Inversiones
Para las inversiones, la multicolinealidad es una consideración común cuando se realiza un
análisis técnico para predecir los probables movimientos futuros del precio de un valor,
como una acción o un futuro de materias primas.
Los analistas de mercado quieren evitar el uso de indicadores técnicos colineales, ya que se
basan en datos muy similares o relacionados; tienden a revelar predicciones similares con
respecto a la variable dependiente de la acción del precio. En cambio, el análisis de
mercado debe basarse en variables independientes marcadamente diferentes para garantizar
que analicen el mercado desde varios puntos de vista analíticos independientes.
Un ejemplo de un posible problema de multicolinealidad es realizar un análisis técnico
utilizando solo varios indicadores similares.
El destacado analista técnico John Bollinger, creador del indicador de las Bandas de
Bollinger, señala que «una regla cardinal del uso efectivo del análisis técnico requiere
evitar la multicolinealidad entre los indicadores». Para resolver el problema, los analistas
evitan utilizar dos o más indicadores técnicos del mismo tipo. En su lugar, analizan una
acción utilizando un tipo de indicador, como un indicador de impulso, y luego realizan un
análisis separado utilizando un tipo de indicador diferente, como un indicador de tendencia.
Por ejemplo, el estocástico, el índice de fuerza relativa (RSI) y el %R de Williams son
indicadores de impulso que se basan en entradas similares y es probable que produzcan
resultados similares. En este caso, es mejor eliminar todos menos uno de los indicadores o
encontrar una manera de fusionar varios de ellos en un solo indicador, al mismo tiempo que
se agrega un indicador de tendencia que probablemente no esté altamente correlacionado
con el indicador de impulso.
en biología
La multicolinealidad también se observa en muchos otros contextos. Uno de esos contextos
es la biología humana. Por ejemplo, la presión arterial de un individuo no es colineal con la
edad, sino también con el peso, el estrés y el pulso.
CONCLUSIÓN
En conclusión, la multicolinealidad es un problema común en los modelos de regresión y
puede tener efectos negativos en la precisión y la fiabilidad de las estimaciones. Es
importante detectar y evitar la multicolinealidad en un análisis de regresión, y hay varias
técnicas disponibles para hacerlo. Al comprender las causas y los efectos de la
multicolinealidad, los investigadores pueden mejorar la calidad y la precisión de sus
modelos de regresión, es un desafío común en el análisis de regresión que puede
comprometer la fiabilidad de los resultados y las interpretaciones. Es importante identificar
y abordar la multicolinealidad de manera adecuada para garantizar análisis de regresión
precisos y confiables. Las soluciones presentadas en este estudio proporcionan enfoques
viables para reducir los efectos de la multicolinealidad y mejorar la calidad del análisis de
regresión.

BIBLIOGRAFIA
1. Belsley, D. A., Kuh, E., & Welsch, R. E. (2005). Regression Diagnostics: Identifying
Influential Data and Sources of Collinearity. Wiley.
2. Gujarati, D. N. (2003). Basic Econometrics. McGraw-Hill.
3. Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate Data
Analysis. (8th ed.). Cengage Learning.

También podría gustarte