Está en la página 1de 15

ANÁLISIS DE

DEPENDENCIA
Análisis Multivariado

Bloque 2

AMA0420
ANÁLISIS MULTIVARIADO

El presente material recopila una serie de definiciones, explicaciones, ejemplos y ejercicios prácticos de autores
especializados que te ayudarán a comprender los temas principales de este bloque.

Las marcas empleadas en la antología son única y exclusivamente de carácter educativo y de investigación, sin
fines lucrativos ni comerciales.

2
ANÁLISIS MULTIVARIADO

Análisis de dependencia

2. Análisis de dependencia
Cuando nos aproximamos al estudio de cualquier fenómeno, ya sea de carácter natural, social o la com-
binación de ambos, podemos partir del análisis de las observaciones existentes (datos) y, en el caso de
que no existan, se generan dichas observaciones. Dentro del análisis multivariado es importante escoger
aquellas variables que expliquen mejor el tema que se requiera explicar. Cuando dichas variables presen-
tan una relación de dependencia, es decir, cuando existe una o un grupo de variables cuyo comportamien-
to depende de otro conjunto de variables, los métodos adecuados para estudiarlas serán los del análisis
de dependencia. Sin embargo, queda a criterio del investigador determinar o conjeturar la existencia de
las relaciones de dependencia entre las variables para lo cual se puede apoyar en dos elementos: teorías
o leyes que demuestren relaciones de dependencia, o bien experiencias y estudios de caso previos.

En este sentido, es importante señalar que los métodos de análisis de dependencia permiten explicar
el efecto de una o más variables independientes (también conocidas como explicativas) en una o más
variables dependientes (o explicadas) y realizar predicciones sobre las dependientes.

Sin embargo, uno de los principales problemas que se pueden encontrar al emplear esta metodología es
trabajar con variables explicativas muy similares, pues esto dificulta diferenciar cómo es que afecta indi-
vidualmente cada variable independiente a la dependiente (o dependientes), por lo que se deben aplicar
métodos que puedan dar tanto una diferenciación a esas variables como el poder unirlas para crear un
nuevo estimador que incluya el parámetro del grupo.

3
ANÁLISIS MULTIVARIADO

2.1. Regresión múltiple

La regresión lineal múltiple es un modelo que considera más de una variable independiente para una
variable dependiente. De manera simplificada, se puede definir al modelo de regresión múltiple como
el uso de diversas variables independientes x1, x2, x3 … xn, a fin de explicar el comportamiento de una
sola variable dependiente y.

Es necesario tener en cuenta que el modelo de regresión múltiple es una extensión del modelo simple
que considera sólo una variable independiente o explicativa, por lo que la ecuación para varias variables
se define de la siguiente forma:

y = β0 + β1 x 1 + β2 x 2 + ... + βρ x ρ + e

Donde “y” es nuestra única variable dependiente, “x” son las “ρ” variables independientes, “β” son los
parámetros o “regresores” de cada variable independiente que determinan el sentido y el peso explicativo
de cada “x” en “y”; y “e” es el coeficiente de error de la regresión.

Podemos expresar la anterior fórmula, a través de un arreglo matricial para simplificar la expresión y
operar con matrices, de la siguiente manera:

Figura 1. Matriz regresión múltiple

Donde “y” y “X” son los “n x p” datos de nuestra base de información, pero ya acomodados matricial-
mente; β son los coeficientes a estimar, y “e” es el vector de errores. Es importante que identifiquemos
dos cosas: primero, no necesariamente tiene que coincidir la dimensión del número de variables que se
tienen con el número de observaciones, por tal motivo “n” no necesariamente es igual a “p”; por ejemplo,
si consideramos 6 variables para analizar las ventas de dos productos, entonces n = 2 y p = 6. Segundo,
se añade una columna o vector de “1” a nuestra matriz “X” para considerar el término independiente “β0”
de la ecuación de regresión. La ecuación matricial entonces se escribe como:

y = βX + e

Donde las flechas encima de las letras significan “vectores”. Es importante señalar que la regresión múltiple
es una extensión de la regresión de una sola variable explicativa, por lo tanto, se aplica el mismo método
de los Mínimos Cuadrados Ordinarios (mco). Ahora bien, lo que se busca en este método es estimar los
valores de las β (ya que los valores de las variables independientes y de la dependiente ya se conocen

4
ANÁLISIS MULTIVARIADO

al ubicarse en la base de datos) y a partir de dichos resultados hacer un pronóstico para “y”, por lo que la
ecuación de regresión utilizada para el modelo lineal múltiple, se denota por:

β = (XT X)-1 XT y

Donde la β con énfasis es el vector de los parámetros regresores estimados; XT es la matriz traspuesta
de X y el exponente “-1” denota que hay que obtener la matriz inversa de la matriz resultante de la multi-
plicación XT por X. Revisemos un ejemplo.

Ejemplo:

El análisis de regresión es la base de la elaboración de pronósticos de comportamiento empresarial en


los estudios de estrategias de marketing determinadas. En la siguiente tabla tenemos un conjunto de
datos que muestran el ingreso bruto mensual de una empresa, su gasto en publicidad en internet y en
televisión todo expresado en miles de dólares:

Cuadro 1. Datos. Gasto en publicidad

Ingreso (y ) Gasto internet (x 1) Gasto televisión (x 2)

96 5 1.5

90 2 2

95 4 1.5

92 2.5 2.5

Si nos basamos en algún argumento teórico que plantee que los ingresos de una empresa dependen de
sus gastos en publicidad, entonces tendríamos ya ubicadas las variables tanto dependientes (los ingre-
sos “y”) como las explicativas o independientes (gasto internet “x1” y gasto televisión “x2”), y a partir de
ellas proponer un modelo de regresión múltiple para esta información. Revisemos el proceso de solución.

En primer lugar, organizamos los datos de las variables y construimos las matrices de y ̂ y X. Donde y ̂
concentrará los datos de la variable dependiente “ingresos” y X las variables independientes de “gasto
internet y televisión”. Es importante colocar en la primera columna de la matriz X el número “1”, ya que
este dato nos permitirá obtener el coeficiente “beta subcero” que es el coeficiente beta independiente o
“intercepto” de la ecuación de regresión.

5
ANÁLISIS MULTIVARIADO

Figura 2. Matrices de y ̂y X

Posteriormente, trasponemos los datos de la matriz “X”.

Figura 3. Matriz traspuesta de X

Una vez que obtenemos la matriz traspuesta de X, multiplicamos sus datos por la matriz original “X”, esto
es XTX, a esta nueva matriz le calculamos su inversa para obtener (XTX)-1 como lo vemos a continuación:

Figura 4. Matrices de XTX, (XTX)-1

Ya tenemos nuestra primera parte de la ecuación para calcular el vector β que contendrá el valor de cada
uno de los coeficientes β. Después, calculamos la segunda parte, es decir, X Ty.

Figura 5. Matrices de XTy

Ahora multiplicamos las dos matrices resultantes, o sea, (XTX)-1 por XT para finalmente obtener el vector
de valores de los coeficientes β, que se escribe como β “gorro”.

Figura 6. Matriz de coeficientes β

6
ANÁLISIS MULTIVARIADO

Por último, construimos la ecuación predictiva para la variable dependiente “y ̂” con enfásis. Con los va-
lores de β0 = 84.844, β1 = 2.1225 y β2 = 0.65995 contenidos en nuestro vector β “gorro”:

y ̂ = 84.84 + 2.1225 x1 + 0.65995 x2 + e

Donde la β con énfasis son los regresores estimados con los que se construye la ecuación predictiva
para la variable dependiente “y”, que se expresa como “y” con énfasis. Los valores de los regresores
estimados β indican el peso específico y la manera en la que cada variable independiente influye en la
variable dependiente. Por ejemplo, en este caso un aumento de un peso en el gasto de publicidad en
internet aumentará en 2.1225 pesos el ingreso mensual de la empresa. Esta ecuación final también es
útil para predecir el comportamiento de la variable dependiente “y”, ya que si se conoce el gasto realizado
en publicidad en el mes, es posible pronosticar cuál será el ingreso de la empresa.

Si bien el ejemplo anterior contiene muy pocas variables, permite identificar el proceso de cálculo y análisis
de la dependencia entre las variables. Sin embargo, en el contexto real es frecuente enfrentar situaciones
en las que la cantidad de datos es extensa, y para facilitar los cálculos se puede hacer uso de una gran
diversidad de paquetería como Excel, spss, Stata, EViews, hasta R, que permiten obtener de manera
eficiente los diferentes estadísticos para el análisis de la regresión.

2.2. Análisis discriminante

Generalmente, durante el análisis estadístico de una serie de observaciones (x1, x2, x3 … xn) se pueden
obtener variables cualitativas y cuantitativas, aunque otro reto importante surge cuando queremos sepa-
rarlas debido a ciertos atributos (físicos, matemáticos, etcétera), en ese caso se pueden aplicar diversos
métodos para agrupar a las observaciones.

Carles M. Cuadras (2007) al respecto manifiesta que “una regla discriminante es un criterio que permite
asignar w, y que a menudo es planteada mediante una función discriminante D (x1, x2, … xn). Entonces,
la regla de clasificación es: Si D (X1, … Xn) es mayor o igual a 0, asignamos w al conjunto. En caso con-
trario, asignamos a w en el conjunto 2”.(p.181).

El planteamiento anterior da a entender cómo es que funciona el análisis discriminatorio; teniendo dos
conjuntos poblacionales separados entre sí se parametriza a la función D para introducir una condición,
la cual facilita la separación de variables a sus respectivos grupos (conjuntos). La idea principal de este
tipo de clasificaciones es separar en dos principales grupos a variables que puedan diferenciarse, lo que
permite ver el efecto real de cada una en relación con la variable dependiente.

7
ANÁLISIS MULTIVARIADO

Clasificación en dos poblaciones

Cuando suponemos que existen los vectores de las medias para las variables en dos poblaciones exis-
tentes y si además tomamos a la matriz de covarianzas con una distribución común, entonces se tendrá
que las distancias de las observaciones en X = (x1, x2, … xn) para un individuo, se pueden representar
en la siguiente ecuación matemática:

Esta expresión también recibe el nombre de “distancia de Mahalanobis”, donde x1 y x2 son los vecto-
res de las variables de las dos poblaciones y Σ inversa es precisamente la matriz de covarianzas de las
variables involucradas. Lo anterior significa que, si queremos segmentar a las observaciones en dos
grupos, a cada individuo se le asignará dentro del grupo que se encuentre más cercano (en distancia de
las observaciones, con respecto al individuo). Analíticamente, se tendría:

Si dm - x1 es mayor a dm - x2 entonces el individuo será asignado a la población 1 y en caso contrario será


asignado a la población 2.

Por ejemplo:

Queremos clasificar los productos mangos, manzanas o aguacates para su comercialización en dos
categorías: “premium” y “estandar”. En este caso se pueden tomar medidas de diámetro, peso, color,
etc., y con base en esos datos construir un vector para cada una de las frutas a clasificar. Dado que cada
variable tendrá varianzas diferentes se debe incluir la matriz Σ en la ecuación, de otra manera se estaría
dando mayor peso a la variable con menor varianza.

Otra regla que se usa es la “máxima verosimilitud” y tiene como función asignar a los individuos en la
población donde exista una mayor probabilidad de pertenecer a ella. Algo que puede parecer bastante
trivial, sin embargo, se deben considerar varios aspectos para determinar a la población idónea a la que
se adjuntará la observación. Para este método se debe conocer la función de distribución de probabilidad
de la variable x, para ambos grupos poblacionales; el criterio de selección es, sencillamente, escoger la
de mayor probabilidad de la observación. La función de discriminación, que parametriza a un rango de
números a las variables y obtiene la diferencia, puede denotarse por:

V(X) = logf 1(x) - logf 2(x)

Donde f 1(x) es la probabilidad de que suceda la observación de la variable X en la población 1 y f 2(x) es


la probabilidad de que suceda en la población 2. Si V(X) > 0 entonces el individuo se asigna a la población
1; si V(X) < 0 entonces se asigna a la población 2. Nótese que la implementación de un logaritmo (gene-
ralmente en base 10 o base e) puede funcionar para mantener a los valores de nuestras observaciones
dentro de cierto rango, evitando de esta manera dificultar la asignación correcta de la variable.

8
ANÁLISIS MULTIVARIADO

Clasificación en poblaciones normales

Cuando tenemos variables a las que no podemos identificar de manera muy clara, entonces se agrupan
por su distribución normal (suponiendo que sea el caso), dada la población donde existe una distribución
normal (Quintana y Mendoza, 2016), lo cual significa que si una variable tiende a agruparse al centro
del rango de las observaciones (por ejemplo, en un rango de 0 a 5, las observaciones tenderán a 2.5),
entonces se le puede colocar en la población donde ocurre esta distribución (denotada por w1). Alge-
braicamente, se tendría que para la distribución X1, X2, … Xn en la población 1 (w1) es Nn (u1,Σ1). La
afirmación anterior indica que, si la distribución se comporta de manera normal para el discriminador de
máxima verosimilitud, entonces puede estipularse el grupo al que será ubicada la observación.

Otro método que se usa con frecuencia es la regla de Bayes, la cual estipula que, si conocemos la probabi-
lidad de que una observación pertenezca al grupo 1, así como la probabilidad de que otro dato pertenezca
al grupo 2 y además sabemos que u1 ≠ u2, entonces fácilmente encontraremos el grupo más probable al
que pertenece dicho dato, mediante la siguiente relación:

Donde P1(x) es la probabilidad de que la observación x del individuo esté en la población 1; P2 (x) es la
probabilidad de que la observación x del individuo esté en la población 2; q1 es la probabilidad de que el
individuo se encuentre en la población 1; y q2 de que esté efectivamente en la población 2.

Si B(x) > 0, entonces el individuo es asignado a la población 1, de lo contrario se asigna a la población 2.

Esta variante se utiliza sobre todo cuando trabajamos con resultados de estudios previos que nos indican
estructuras de preferencias para un mercado específico y queremos conocer, dada la compra de nuestro
producto, la probabilidad de que el consumidor pertenezca al segmento de mercado correcto.

9
ANÁLISIS MULTIVARIADO

2.3. Análisis de correlación canónica

En la mayoría de los casos prácticos tenemos una sola variable dependiente, pero también existen casos
en los que hay múltiples variables dependientes (Y1, Y2, Y3, … Yn), así como múltiples variables inde-
pendientes, el objetivo del análisis canónico es encontrar una relación entre ambos grupos, que, debido
a la magnitud de variables, puede expresarse por medio de matrices. Esta técnica es muy útil, ya que
puede aplicarse a variables métricas (cuantitativas) y no métricas (cualitativas), sus funciones principales
son, además de la ya mencionada al principio, la independencia de los conjuntos de variables, obtener
combinaciones lineales para los conjuntos maximizando la correlación resultante y explicar el nivel de
relevancia entre una variable y otra “midiendo la contribución relativa de cada variable a las funciones
canónicas” (Barcia, 2007).

Supuestos del análisis de correlación canónica:

— El análisis canónico se restringe a encontrar relaciones lineales, pero también es posible utilizarlo
sin considerar la normalidad de la serie de datos.
— Se debe tomar en cuenta la homocedasticidad (cambios en la varianza) en este análisis, ya que, si
encontramos dicho problema presente, la correlación entre los datos tiende a ser menor.
— La multicolinealidad también debe tomarse en cuenta porque, al ser un problema de identificación
de datos, no se puede analizar con certeza el impacto total de cada variable independiente.

De manera simplificada, podemos ver al análisis de correlación canónica de la siguiente manera:

Y1, Y2, … Yn = X1, X2, … Xn

Donde (Y1, Y2, …Yn) es el conjunto de observaciones de las “n” variables dependientes y (X1, X2, … Xn)
es el conjunto de las “n” observaciones del as variables independientes.

Para estimar un modelo, con base en múltiples variables dependientes, hay que seguir una serie de pasos:

— Obtener una o varias combinaciones canónicas, formadas por una combinación lineal (dependiendo
del número de variables en cuestión), básicamente uniendo en forma matricial las variables, tanto
para X como para Y.
— El resultado de las combinaciones lineales es que el primer par de funciones canónicas tenga la
mayor correlación de todas, el siguiente par la segunda mayor, etcétera.
— Para determinar si realmente existe una relación entre las combinaciones lineales, se eleva al
cuadrado la correlación canónica, encontrando la cantidad de varianza que comparte la combinación,
generalmente estudiándolo a un nivel de significancia de 0.05 (5 %) o mayor.

10
ANÁLISIS MULTIVARIADO

2.4. Análisis logit

El modelo sirve de manera bastante eficiente para definir la probabilidad (estimada) de que un suceso
ocurra y los factores de riesgo que pueden propiciarlo, por lo que el análisis logit es una evolución de
un modelo de regresión, al darnos las variables explicativas y las probabilidades de que ocurra el suceso
analizado para la variable independiente (Gujarati, 2006).

Figura 8. Análisis LOGIT

60

50

40

30

20

10

2012 2013 2014 2015 2016 2017

Los modelos logit están en función del número de variables y el tipo ellas, así que se catalogan en dis-
tintos tipos:

— logit dicotómico: para este caso sólo existen dos respuestas posibles (alternativas), siendo
excluyentes entre sí (conjuntos separados), y binarias. El ejemplo típico es la condición de género
de un individuo: Hombre/Mujer mutuamente excluyente.
— logit de respuesta múltiple: al igual que en el anterior, las alternativas que se piensan estimar
son excluyentes entre sí, pero en este caso son mayores a dos. Por ejemplo, cuando se considera
el riesgo de un bono de deuda en el mercado, se clasifica como alto, moderado y bajo, o en escalas
de tamaños de un producto puede haber una multiplicidad de segmentaciones, pero siempre
excluyentes unas de otras.
— logit con datos no ordenados: independientemente del número de alternativas a modelar, se
utiliza cuando no presentan un orden fijo (generalmente cualitativas). Por ejemplo, cuando el criterio
lo da el color del objeto o individuo o su localización geográfica.
— logit multinomial: dependiendo del número de alternativas (respuestas) para Y, se modelizarán
el mismo número de ecuaciones, y para las variables independientes se estiman los mismos
parámetros que el número de alternativas de Y-1. Se utiliza cuando deseamos clasificar nuestras
observaciones dentro de alguna de las diferentes alternativas de Y según las distintas variables
independientes consideradas. Por ejemplo, cuando clasificamos los hogares de un país según su
grado o nivel de pobreza.

11
ANÁLISIS MULTIVARIADO

— logit condicional: tiende a usarse cuando los parámetros estimados del modelo tienen que ver
con las alternativas de respuesta. En este caso lo que se modelará no serán las características
de los individuos sino las opciones de elección con que cuentan; por ejemplo, cuando queremos
estudiar las diferentes opciones o rutas de transporte que tiene una persona para llegar a su destino.
— logit con datos ordenados: como su nombre lo indica, se emplea cuando las alternativas de
respuesta sí tienen un orden específico, es decir, que son variables cuantitativas, sin considerar el
número de alternativas.

Algebraicamente, un modelo de regresión múltiple se construye con la ecuación:

y= βX+e

Sin embargo, para el modelo logit general, la ecuación que forma el modelo es la siguiente:

Donde “e” representa la función exponencial, β son los regresores de las variables explicativas “x” mien-
tras que el vector “épsilon” es el error de la regresión. A partir de esta expresión se obtiene la probabilidad
de que el evento “Y” suceda.

Validación del modelo logit

Es común que, en el uso de este tipo de modelos, se determinen las variables no relevantes, es decir las
que no tienen peso explicativo en el modelo, por medio de la prueba de Wald, que puede estar determi-
nada de dos maneras:

Si la variable no tiene un orden fijo:

Si la variable tiene un orden fijo:

Se utiliza una distribución de chi cuadrada y, dependiendo del número de regresores, se estiman los gra-
dos de libertad para aplicar la prueba de hipótesis. Tomando en cuenta lo anterior, sólo queda plantear la
prueba que sigue el procedimiento usual, con una hipótesis nula H = 0 y una hipótesis alternativa H ≠ 0, por
lo que si se rechaza la hipótesis nula (que es el objetivo), el regresor es significativo y puede considerarse.
Un nivel de confianza mayor al 95 % puede considerarse moderadamente significativo.

Para las pruebas logit también debe considerarse el estadístico Nagelkerke, que puede denominarse
como la R2 de los modelos logit (el nivel mínimo de significancia para dicho estadístico queda a criterio
del estadista) (Gujarati, 2006).

12
ANÁLISIS MULTIVARIADO

2.5. Análisis de varianza multivariado

Para los modelos lineales simples sólo encontramos una varianza, que nos indica la dispersión de los datos,
en tanto que para los modelos multivariables existen múltiples varianzas, las cuales pueden representarse
en una forma generalizada denominada MANOVA. Barcia (2007) señala que este modelo permite valorar
diferencias entre grupos a través de múltiples variables dependiente métricas de forma simultánea y su
uso es recomendable cuando se tiene un control directo sobre las variables independientes.

Lo expuesto indica que la MANOVA funciona para diferenciar a los grupos de variables dependientes, si
se conoce el efecto individual de las variables explicativas sobre las dependientes. Algebraicamente se
puede representar el MANOVA de la siguiente manera general:

Y1 + Y2 + Y3 + ... + Yn = X1 + X2 + X3 + ... + Xn

Supuestos que debe cumplir el análisis manova, para validar la información obtenida de este análisis:

— No debe haber relación entre las observaciones de cada variable.


— Tanto la matriz de varianzas (que indica relación entre las variables X ^ Y) deben ser iguales para
todos los conjuntos de matrices (grupos de datos a analizar).
— Las variables dependientes en conjunto deben formar una distribución normal (agrupación de datos
al centro del rango de las observaciones).

El manova tiende a ser muy sensible debido a los datos atípicos, esto significa que cambia de manera
radical, por lo que se debe tomar en cuenta que no exista multicolinealidad (tendencias muy similares)
en las matrices de datos.

Existen diversos modos de estimar el modelo manova, los principales son: Raíz característica de Roy,
Lambda de Wilks y la traza de Hotelling.

El procedimiento más estable y completo es Lambda de Wilks, el cual se denota algebraicamente por la
fórmula:

Donde “H” es la matriz de las sumas de cuadrados “entre” las medias de los grupos de variables con
respecto a la media total, “E” es la matriz de las sumas de los cuadrados “dentro” de las variables con
respecto a su propia media, mientras que “1+ lambda” es la proporción de la varianza en las variables
dependientes explicada por efectos del modelo. Entre más cercano sea el valor de Δ a cero, mayor peso
explicativo tendrán las variables analizadas en el modelo. Finalmente, para validar el resultado o resulta-
dos obtenidos por el manova, la forma más recomendada es realizar varios experimentos con distintas
observaciones, para comprobar que los resultados son constantes y significativos.

13
ANÁLISIS MULTIVARIADO

Un ejemplo del uso del manova puede encontrarse en Malhotra (1997), quien presentó cuatro comerciales
de una marca de jabón X a cuatro grupos de consumidores, de modo tal que cada grupo de consumidores
veía una variación posible del comercial; tras verlo, las personas en cada grupo otorgaron calificaciones
sobre la preferencia por el jabón y la compañía comercializadora entre otras características. Dado que
se espera que las tres VD se correlacionen entre sí, es apropiado realizar un manova para determinar el
comercial hacia el cual se obtienen puntuaciones más favorables, para asistir en la elección del comercial
que será parte de la campaña publicitaria (Avendaño, Avendaño y Cruz, 2014).

2.6. Casos de aplicación en los negocios

Existe un amplio campo de aplicación de la estadística y el análisis multivariado para los negocios, desde
inversiones nacionales, internacionales hasta cuentas nacionales (Gujarati, 2006). A continuación, se
enlistarán los principales usos de los temas de este bloque, en materia de negocios:

— Análisis de mercados financieros: un uso bastante común en las regresiones múltiples, debido
a que el comportamiento de diversos mercados e industrias está explicado con diversas variables,
como tratados, número de empresas, precio de insumos, etcétera, lo cual puede estimarse por
medio de un modelo.
— La producción y precios de una industria: para este caso, una industria está conformada por
múltiples empresas, por lo que la producción individual puede verse como una variable a explicar,
siendo en este caso un análisis de regresión canónica.
— Control de calidad: usualmente se utilizan análisis de regresión lineal para saber sobre las variables
que afectan mayormente a la calidad de un producto, el número de quejas, etcétera.

14
REFERENCIAS

Avendaño, B., Avendaño, G., y Cruz, W. (2014). Guía de referencia para investigadores no expertos en el
uso de estadística multivariada. Revista Diversitas, 1(10), pp. 13-27. Recuperado de:

Barcia, C. (2007). Análisis estadístico multivariado. México: unam.

Cuadras, C. M. (2007). Nuevos métodos de análisis multivariante. Recuperado de:

Gujarati, D. N. (2006). Essentials of econometrics. Nueva York: McGraw-Hill.

15

También podría gustarte