Está en la página 1de 28

CAPITULO VI.

TEMAS AVANZADOS DE
TEORIA DE LA PRODUCCIÓN

1. Eficiencia de la producción.

1.1. Concepto.
La eficiencia en los procesos productivos es un concepto cada vez más utilizado no
sólo en el lenguaje científico y empresarial sino también en el lenguaje coloquial: se
trata ante todo de ser eficiente para poder competir en las mejores condiciones
posibles en unos mercados cada día más abiertos e internacionalizados.

Según el Diccionario de la Lengua de la Real Academia, eficiencia es “la virtud y


facultad para lograr un efecto determinado o bien, la acción con que se logra
ese efecto”.

Para la Teoría Económica, el concepto es más restrictivo y relaciona el producto


obtenido con los factores utilizados para su obtención. Considera que “un proceso
de producción es eficiente si se obtiene el máximo output para unos inputs
dados”

El concepto que aquí se va a utilizar de eficiencia es el estrictamente económico,


aún a sabiendas de que actualmente hay otras características de los sistemas

147
agrarios, como por ejemplo la sustentabilidad y el equilibrio ambiental que cada vez
tiene mayor importancia en detrimento de aspectos ligados a la productividad física y
económica del sistema.

Atendiendo a esto, una empresa agraria sería más eficiente que otra para lograr la
sustentabilidad, el equilibrio ambiental, la productividad, la estabilidad, la equidad u
otra cualquiera de las características analíticas de los sistemas agrarios, si el nivel al
que consigue alguna o algunas de ellas con el mismo coste es superior al de la otra.
Por el contrario, la eficiencia productiva, considerando la Teoría Económica supone,
como ya se ha mencionado, un concepto mucho más restrictivo que se relaciona con
la forma de convertir los factores de producción en productos.

Pero lo anterior no supone que la eficiencia productiva en su concepto puramente


económico, no sea un carácter deseable, muy al contrario, puede tener además de
los resultados económicos otros efectos positivos, entre ellos:

- Favorecer la producción, tratando de obtener productos de mayor calidad y que


no estén contaminados, por lo que tendrán mayor precio.

- Usar racionalmente los recursos, disminuyendo con frecuencia los efectos


polucionantes del exceso innecesario de inputs químicos.

- Tender a evitar la producción de externalidades ambientales negativas, que


posteriormente, tengan un coste de internalización.

Estos efectos, como se puede observar están en total concordancia con las
directrices de la nueva PAC y el GATT que exigen un gran esfuerzo para conseguir
una producción respetuosa con el medio ambiente y mucho más competitiva. En
este contexto solo las más eficientes lograrán perdurar.

2. Medida de la eficiencia.

2.1. Introducción.
Desde hace tiempo se vienen desarrollando técnicas para medir la eficiencia
productiva. Así, en los años sesenta se desarrollaron técnicas basadas en
indicadores usuales en el contexto de la gestión de empresas y tendentes a
identificar la eficiencia con uno solo o con la interacción de varios indicadores
económicos (productividad de factores, intensidad del uso de factores por unidad de
superficie, etc): de estas técnicas la denominada Análisis de grupo fue la más
utilizada y consistía en hacer una clasificación, dentro de un grupo de empresas,
mediante el cálculo de determinados índices de productividad de factores,
analizando posteriormente, las diferencias entre las empresas de cabeza y de cola.
Estos métodos, si bien sirvieron para el diseño de estrategias de gestión en grupos
de empresas, no tenían necesariamente su base en el concepto de eficiencia que se
desprende de la Teoría Económica. Por otro lado, fueron frecuentes los trabajos
relativos a relacionar el nivel de eficiencia con el grado de subempleo de la mano de

148
obra vinculada a la explotación agraria (Calatrava y Navarro, 1984 hacen una
revisión bibliográfica de dichos trabajos).

A continuación se van a describir los métodos más utilizados para medir el grado de
eficiencia/ineficiencia de los sistemas productivos.

2.2. Eficiencia de Farrell.


A finales de los años cincuenta, concretamente en 1957, Farrell ideó un método
para determinar la eficiencia productiva, al margen de las tradicionales medidas
asociadas a la productividad media. Centró su atención en la definición de eficiencia
productiva y propuso un marco conceptual para su interpretación, así como medidas
específicas para su determinación y cuantificación.

Farrell desechó la idea de eficiencia absoluta basada en alguna situación teórica o


ideal previamente definida, o la resultante de la comparación con la productividad
media. Propuso como alternativa más real alguna media de eficiencia relativa,
expresión de la desviación observada respecto a aquella situación que reflejara
mayor eficiencia productiva en un grupo representativo y homogéneo. Cada
organización o unidad productiva individual es puesta en relación con aquéllas
consideradas más eficaces, comparación de la que se desprenderá el grado de
(in)eficiencia de cada una de ellas.
Supuso que la eficiencia puede descomponerse en tres tipos distintos:

1) Eficiencia técnica.
La eficiencia técnica o productiva se refiere a la productividad de una serie dada
de inputs en una explotación o en un animal. Supone utilizar correctamente los
factores de producción; es decir, dados unos determinados recursos obtener con
ellos la máxima producción posible. Es por tanto, un concepto técnico y no
económico. Según la teoría de la producción un proceso es ineficiente si existe
otra combinación de factores quer permita obtener el mismo nivel de producción
con un menor consumo de factores, o más producto con el mismo nivel de
factores (Zona I y III) de la función de producción. Como ejemplo Alvárez,
Belknap y Saupe (1988) calculan un índice de eficiencia de 250 explotaciones
lecheras asturianas, como el cociente entre la producción real y la potencial,
resultando un alto grado de ineficiencia, con un índice medio de eficiencia del
40%. Otros autores aportan índices medios de eficiencia superiores: Bravo Ureta
(1987) en EEUU un 70%, Schafer (1983) en Alemania un 81% ó Bureau (1987)
para Francia un 70%. Cabe destacar los estudios de eficiencia técnica en
porcino de Murua y Albisu (1993) y en vacuno de leche García et al (1994).

2) Eficiencia asignativa.
Relaciona el producto obtenido por unidad de costes de los recursos utilizados.
Se refiere a la distribución de los recursos entre las actividades productivas o las
empresas. Cuando ya no se puede aumentar el beneficio monetario o social
mediante la traslación de recursos de una actividad a otra, o entre distintas
empresas se dice que se ha alcanzado la eficiencia en la asignación que
incorpora la idea de óptimo de Pareto u optimo optimorum, que indica que se

149
alcanza cuando no es posible mejorar el bienestar de un agente sin empeorar el
bienestar de otro.

Se dice que una empresa es eficiente en la asignación de recursos cuando los


combina de una forma óptima; es decir, cuando se iguala su coste e ingreso
marginal. Alvarez Pinilla, et al (1989) define la explotación eficiente como aquélla
que maximiza su beneficio, lo que supone minimizar el coste medio de
explotación. García et al (1997) calcularon la dimensión óptima a partir de la
función de beneficio, que se muestra en la Figura 1.

Figura 1. Función de beneficio.

Diversos autores critican las medidas de eficiencia asignativa debido a las


distorsiones en el rol de los precios como asignadores de recursos (Farrell,
1957; Lund y Hill, 1979; Rusell y Young, 1983)

3) Eficiencia de escala.
Consiste en lograr un tamaño óptimo para la explotación. En Teoría Económica
ese tamaño coincide con aquel volumen de producción para el que el coste
medio a largo plazo es mínimo.
En la economía de la producción escalar, tomamos en cuenta que todos los
factores son variables y además que todos se incrementan en la misma
proporción; aunque todos los factores aumenten en la misma proporción, nos
interesa conocer si el producto aumenta en la misma proporción o en proporción
mayor o menor. En el primer caso hablamos de rendimientos escalares
constantes; es decir, que a medida que incrementamos la producción se
incrementan los costes. En el siguiente caso estamos ante una situación
privilegiada ya que los costes disminuyen con el incremento de producción, por

150
lo tanto hablamos de rendimientos escalares crecientes y decrecientes en el
tercer caso.

Figura 2. Rendimientos de escala

La eficiencia de escala consiste en lograr un tamaño óptimo para la explotación.


En Teoría Económica ese tamaño coincide con aquel volumen de producción
para el que el coste medio es mínimo. Se observa en la Figura 2 que se
incrementa la dimensión disminuyen los costes unitarios; así se pasa de 45
pts/litro en explotaciones con 10.000 litros a 25 pts/litro en las de 375.000 litros.

Es obvio que para hablar de relaciones escalares tenemos que pensar en


producciones a largo plazo, en las que todos los factores son variables y no se
considera ninguno como fijo. La existencia de economías de escala pueden
justificarse por diversas razones. Por un lado cabe señalar que cuando se
incrementa el volumen de producción de la empresa puede aprovechar las
ventajas de la especialización. Así, cada trabajador puede concentrar su
actividad en una tarea muy específica y de este modo llegar a ser más eficiente.
Por otro lado es frecuente que a medida que crece la empresa ésta puede
acceder al empleo de un equipo mejor, dando lugar a lo que se denomina
economías técnicas. En otras ocasiones las economías tienen su origen en la
indivisibilidad de la producción.

Las deseconomías de escala se pueden asociar con las dificultades de gestionar


una empresa a medida que crece. Cuando una empresa crece cabe que
aumente la burocratización en los órganos directivos y que surjan dificultades de
coordinación entre los distintos departamentos, lo que puede conducir a que se
incrementen los costes medios. También se suele asociar la deseconomía de
escala a empresas que desarrollan su actividad en el sector servicios; es decir,
entran en un periodo de no calidad o mal servicio.

Para terminar este apartado vamos a reflejar como evoluciona el coste marginal
dependiendo del momento en que nos encontremos en la curva “ U” de los
costes medios, característica de la economía y deseconomía de escala. El coste
marginal será menor que el coste medio cuando éste disminuya y superior
cuando éste aumente, por lo tanto en el mínimo de la curva de los costes medios
coincide con el coste marginal.

151
Figura 3. Evolución de los costes medios totales

En la figura 3 se observa que el coste del litro de leche disminuye hasta que la
explotación alcanza una producción de 300.000 litros. A partir de esta
producción se entra en deseconomía de escala y se incrementa el valor del
coste del litro. En el sector agropecuario las deseconomías de escala suelen
estar motivadas al incorporar nuevas unidades de mano de obra (UHT) de
carácter asalariada, así como los incrementos de dimensión que suponen las
nuevas inversiones, que implican elevados gastos financieros y amortizaciones.

Cuando una empresa es eficiente en los tres tipos, se dice que es económicamente
eficiente, ya que está maximizando sus beneficios.

2.2.1. Forma funcional utilizada.


En la primera medida de la eficiencia realizada por Farrell, no se emplea ninguna
forma funcional para el cálculo de la isocuanta unitaria. El método consiste en
seleccionar, mediante programación lineal, un subconjunto convexo de
observaciones que constituyen la isocuanta del nivel óptimo de producción,
quedando el resto de observaciones por encima de la isocuanta. La isocuanta
óptima está formada por el conjunto de observaciones que desarrollan las mejores
prácticas tecnológicas. Las desviaciones de las empresas con respecto a esta
isocuanta se asocia a ineficiencias. Hay que tener presente que este concepto de
ineficiencia es relativo pues las empresas se comparan con las mejores empresas
observadas.

No obstante Farrell indica la conveniencia de estimar la isocuanta óptima de


producción mediante una forma funcional sencilla y propuso la “función Coob-
Douglas” que será explicada posteriormente

2.2.2. Metología.
Para la medida de la eficiencia, Farrell parte del supuesto de que existen
rendimientos constantes a escala, por lo que la tecnología puede caracterizarse por
una función de producción homogénea de grado 1. Es decir, Y = F (K, L), y se
cumple para todo λ > 0 que:

152
F (λ,λL) = λF (K, L) = λY

Si se hace λ = 1/Y, se tiene que F (K/Y, L/Y) = λY = 1

Si se considera una empresa que produce un único producto y, a partir de dos


factores x1, x2, se puede escribir, según lo indicado anteriormente, f (x1/y, x2/y) = 1.
Esta es la frontera tecnológica que se caracteriza por la isocuanta unitaria,
caracterizada a su vez por la combinación de factores que es necesaria para obtener
una unidad de producto (curva SS’ de la Figura 6).

Considérese una explotación representada por el punto P. Tracemos la línea OP


desde el origen de la observación. Esta línea corta a la isocuanta en el punto Q. El
segmento QP considerado es una medida del exceso de utilización de los dos
factores considerados. Por tanto, una medida de la eficiencia técnica es la razón
entre OQ y OP, es decir:

ET = OQ/OP

Todos los puntos que estén en la isocuanta SS’ tienen una eficiencia del 100% y los
que estén por encima una eficiencia inferior.

La línea AA’ representa la razón de los precios de los factores que es tangente a la
isocuanta unitaria en el punto Q’. Está claro que el punto Q que está sobre la
isocuanta unitaria representa mayor coste de utilización de factores que el
representado por Q’.

Se puede considerar que el segmento RQ es una medida de la ineficiencia en la


asignación de recursos (asignativa) que selecciona la técnica eficiente, pero más
cara comparándola con el mínimo coste Q’.

Se mide la eficiencia en asignación de recursos mediante la razón OR y OQ, es


decir:
EA = OR/OQ

Mediante una combinación de los índices, se obtiene la medida de la eficiencia


económica:

EE = OR/OP

Esta razón es la equivalente al producto de las razones anteriores, es decir:

OQ/OP * OR/OQ = OR/OP

EFICIENCIA * EFICIENCIA = EFICIENCIA


TÉCNICA ASIGNATIVA ECONÓMICA

153
2.2.3. Observaciones al modelo de Farrell.
La principal ventaja de esta aproximación es que no es necesario imponer ninguna
forma funcional con los datos para representar la producción.

Entre los inconvenientes cabe destacar, en primer lugar, la restricción que supone
su aplicación únicamente a rendimientos de escala constante al ser su
generalización a rendimientos de escala no constante bastante engorrosa (Farrell y
Fieldhouse, 1962 y Seitz, 1971).

En segundo lugar, el hecho que la isocuanta óptima de producción viene


determinada por las observaciones más eficientes de la muestra, siendo sensible a
las observaciones extremas, lo que puede causar errores en la medida (Forsund et
al, 1980).

2.3. Frontera de producción.


Las fronteras de producción expresan los valores límites que pueden alcanzar las
empresas. De este modo se asemejan los conceptos de frontera de producción con
los de función de producción e isocuanta unitaria adoptado por Farrell.

Las empresas situadas sobre la frontera de producción se consideran


económicamente eficientes, presentando el beneficio máximo con una disponibilidad
de recursos y una técnica.

La estimación de fronteras de producción ofrece una serie de ventajas, descritas por


Coelli (1995) como:

- La función de una función promedio ofrece una figura de la tecnología de una


empresa media, mientras que las fronteras de producción estarán más
severamente influenciadas por las empresas de mejor desenvolvimiento y por lo
tanto refleja la tecnología que éstas usan.
- Las fronteras de producción representan la mejor tecnología utilizable y contra la
que se debe medir la eficiencia de la empresa. Esta es razón principal del gran
desarrollo de esta metodología en los últimos años.

2.3.1. Formas funcionales utilizadas.


El punto de partida para la medida de funciones de producción frontera y eficiencia
es el trabajo de Farrell descrito anteriormente. Siguiendo sus indicaciones varios
autores propusieron métodos para la determinación de los parámetros de una
función frontera.

Un problema importante para estimar la frontera de producción, es que la forma


funcional que se adopte puede imponer restricciones sobre el valor y la posibilidad
de variación de los mismos. En concreto, por su sencillez y buenos resultados, las
funciones de Coob-Douglas han venido siendo usadas habitualmente para su
estimación, a pesar de que con esta forma funcional los rendimientos a escala

154
permanecen constantes para todo nivel de output y para cualquier proporción de los
inputs.

A pesar del importante papel que han jugado en los estudios econométricos, las
funciones de producción homogéneas están siendo muy cuestionadas ya que sólo
pueden modelizar tecnologías muy simples. Sin embargo, hay otros tipos de
funciones que no imponen tantas restricciones, por ejemplo:
- Funciones homotéticas, en las que los rendimientos a escala pueden variar con
el nivel de output.
- Funciones radio homogéneas, en las que los rendimientos a escala pueden
variar con la proporción de factores usada pero no con el nivel de output.
- Funciones radio homotéticas, en las que los rendimientos a escala pueden variar
con la proporción de factores y con el nivel de output.

La mayor flexibilidad de las anteriores formas funcionales sólo es parcial y afecta


exclusivamente a los rendimientos a escala. No se trata, pues, de formas
funcionales flexibles, entendiendo como tal una aproximación de segundo orden a
una función de producción arbitraria, capaz de modelizar diversas tecnologías y dar
mayor grado de flexibilidad a la función de producción.

a) Funciones homogéneas

Función de Coob-Douglas. Los rendimientos a escala permanecen constantes


para todo nivel de output y para cualquier proporción de los inputs. Indica una
relación multiplicativa entre los diversos insumos y su forma es:

Y = f(x) eµ

donde µ ≤ 0 necesariamente, puesto que no se puede producir más allá de lo


tecnológicamente posible.

Expresada en forma linealizada:

LnY = α + Σ Bi Ln xi + µ µ≤0

Se impone la restricción de que las perturbaciones aleatorias (µ) sean no positivas


(nadie puede producir por encima de la frontera), independientes e idénticamente
distribuidas. Las variables independientes (xi), se suponen independientes del
término perturbación.

La desviación respecto a la producción en la frontera indica el grado o medida de


ineficiencia productiva.

Los modelos más utilizados en el análisis empírico son los propuestos por Timmer
(1971) y Kopp (1981), modelos frontera ambos y compatibles con las medidas de
Farrell.

155
Timmer introduce algunas modificaciones es el procedimiento original de Farrell.
Utiliza la función de Coob-Douglas para la estimación de la función frontera e ignora
algunas observaciones extremas a fin de eliminar su influencia en la función
estimada. Define la medida de ET como la razón entre el output realmente obtenido
y el obtenible en la frontera.

Kopp generaliza el enfoque de Farrel. Estima la función frontera y define la ET en


términos de utilización de inputs, como la razón entre el nivel de utilización que le
correspondería si estuviera en la frontera y el nivel realmente utilizado produciendo
el mismo nivel de output.

Ambos índices toman valores comprendidos entre 0 y 1. Su interpretación no es otra


que, dado ese nivel de output o de utilización de inputs, el potencial aumento de
producción o ahorro de inputs, caso de eliminar las ineficiencias correspondientes.

Los citados índices se refieren al conjunto de factores que intervienen en el proceso


de producción, siendo por tanto índices de eficiencia multifactoriales, tal como los
denomina Kopp, sin diferenciar entre factores específicos.

Autores que la aplicaron:

- Aigner y Chu, exigiendo que los errores fuesen no negativos. El método


empleado fue el de programación matemática.
- Timmer, mediante programación lineal. El método consistió en calcular los
coeficientes de la función de producción frontera permitiendo que un porcentaje
de las observaciones esté por encima de la frontera.
- Afriat, suponiendo que los errores se distribuyen según una función beta y
estimando los parámetros de la función mediante máxima verosimilitud.
- Richmond, consideró que los errores seguirían una distribución gamma y estimó
los parámetros mediante Mínimos Cuadrados Ordinarios (MCO), aunque
corrigiendo el término independiente, con la media de la distribución gamma de
los errores, por lo que este método se conoce como Mínimos Cuadrados
Corregidos con desviación a la media (MCOCM).
- Green (1980), utilizó el método de los Mínimos Cuadrados Corregidos aplicando
una correción al término independiente consistente en sumrle el máximo residuo
positivo. Este método se conoce como Mínimos Cuadrados Corregidos con
desviación al extremo (MCOCE).
- Aigner, Lovell y Schmidt; y Meeusen y Van del Broeck (1977) desarrollaron el
modelo del error compuesto o frontera estocástica, suponiendo que las
perturbaciones del modelo se podían descomponer en la suma de dos
componentes, una que se distribuye según una normal y la otra que se distribuye
según una distribución de una cola. Así la forma funcional sería:

Yi = f(xi; β ) + ε i i= 1, ...n

Donde vi = N( 0, ω2v), representa las perturbaciones que caen fuera del control
de la empresa y ui, representa la ineficiencia técnica. La diferencia entre ambos
modelos es que el modelo desarrollado por Meeusen y Van den Broeck, la

156
distribución de ui es una exponencial, y en el de Aigner, Lovell y Schmidt es
una distribución seminormal.

b) Funciones homotéticas

c) Funciones radio homogéneas

d) Funciones radio homotéticas


Färe (1975) combinó las funciones radio homogéneas con las funciones homotéticas
de Shepard para crear la clase de funciones radio homotéticas. Estas funciones de
producción son homotéticas a lo largo de cualquier radio, pero la homoteticidad
puede cambiar a lo largo de distintos radios.

Una función radio homotética es una transformación homotética de una función


radio homogénea y puede expresarse como:

G (kX) = F k H( x/ |x| ) F-1 (G(X)) k > 0

Esta función puede contemplar como casos particulares otras funciones que son
más limitadas en las posibilidades de variación de los rendimientos a escala.

a) Si F es la función identidad, se tiene:


G (kX) = k H( x/ |x| ) G(X) k > 0, que es una función radio homogénea.

b) Si H (X / |X|) = h es una constante positiva, se tiene:


G (kX) = F k hF-1 (G(X)) k > 0, que es una función homotética.

c) Si F es la función identidad y H (X / |X|) = h, se tiene:


G (kX) = k hG(X) k > 0, que es una función homogénea.

En cuanto a las propiedades deseables que debe cumplir una función de producción,
Goldman y Shepard (1972) probaron que la función de producción radio homogénea
satisface las propiedades de estricto crecimiento y cuasiconcavidad global cuando H
(X / |X|) es una constante, es decir cuando se trata con nua función homogénea.
Färe (1975) prueba que cuando es homotética también satisface estas dos
importantes propiedades. Estas dos propiedades no se cumplen, en general, para el
caso de una función radio homotética, pero puede cumplirse localmente.

Un problema que presenta la función de producción radio homotética es que no es


lineal. Färe, Grabowski y Yoon (1983) han desarrollado una forma lineal de la
función radio homotética:

Y = ln (A Π Xi cixi / Σxi )

Tomando logaritmos, la expresión lineal correspondiente es:

Y = ln A + Σci Xi’ ln Xi

157
Donde Xi es uno de los factores de producción y Xi’ es la parte proporcional del
factor sobre el resto de los factores.

2.3.2. Metodología.
Existen diferentes métodos de estimación de las fronteras de producción, incluyendo
métodos de programación matemática, determinísticos, estocásticos.

- Los métodos de programación matemática se clasifican en dos grupos:

• Métodos paramétricos.- Consideran que los errores se distribuyen según


una función determinada. Entre estos métodos se incluyen:
* Mínimos Cuadrados Ordinarios Corregidos (MCOC)
- Por traslación a la media
- Por traslación al extremo
* Método de máxima verosimilitud
• Métodos no paramétricos.- Conocidos también como DEA (Data
envelopment analysis) consideran que la distribución de los errores es libre.
En general son menos utilizados en ganadería y se basan en el cálculo de un
ratio entre input y output de las empresas. Existen técnicas para calcularlos
con resultados constantes y con retornos variables a escala. Entre estos
métodos se incluyen:
* Métodos de programación lineal
* Métodos de programación cuadrática.

- Los métodos determinísticos establecen fronteras definidas y consideran que


todos los desvíos respecto a la función frontera se deben a ineficiencias técnicas,
ubicando todas las empresas o sobre la línea o por debajo de la frontera pero
nunca por encima, ya que no se puede producir más de lo que es
tecnológicamente posible.

- Los métodos estocásticos consideran que las variaciones respecto a la


frontera se deben tanto a la ineficiencia técnica como a un factor aleatorio de
error, pudiendo existir, por tanto, empresas situadas por encima de la frontera.
De esta forma, las variaciones están compuestas por un factor aleatorio muestral,
que se considera distribuido como una normal de media cero y desviación
estándar sigma y un factor de ineficiencia que se distribuye como una semi-
normal o gamma incompleta.

a) Determinación de modelos de frontera determinística no paramétrica

Las isocuantas de Farrell se puede considerar la primera aproximación no


paramétrica para la estimación de fronteras de producción. Sin embargo , como
dijimos anteriormente, con este modelo no pueden expresarse funciones de
producción que se ajusten a la Ley de Proporciones Variables o Rendimientos de
Escala no Constante.

158
Aigner y Chu (1968), propusieron un método no paramétrico, que se puede utilizar
en los casos en que el método Farrell no puede aplicarse. Plantean dos formas para
calcular los parámetros:
1º. Mediante la minimización de la suma de las desviaciones absolutas, lo que
equivale al uso de programación lineal.
2º Mediante la minimización de la suma del cuadrado de las desviaciones, lo que
equivale al uso de programación cuadrática. Esta forma es compleja por lo que no
ha sido muy empleada.

A continuación, se desarrollan ambos métodos:

1º Programación lineal

Los autores parten de una función de producción Cobb – Douglas para m factores:

y = A * x1a1 * x2a2.....xmam * e-u u>0

Donde:
y = producto
x1a1 , x2a2, ...xmam = factores de producción
u = error

Tomando logaritmos queda:

ln y = ln A + a1 ln x1 + a2 ln x2 +.......+ am ln xm – u

O lo que es lo mismo:
m
ln y = ln A + Σ ai ln xi - u
i =1

Suponiendo que hay n observaciones, el problema consiste en minimizar la suma de


los errores, es decir:
j=n
min Σ uj
j =1

Sujeto a las restricciones de que las observaciones descansan o están debajo de la


frontera:

m
ln A + Σ ai ln xij ≥ ln yj j = 1.....n
i =1

y a las restricciones de no no negatividad de las elasticidades de Cobb – Douglas ai


≥0 i = 1,.....m.

Se puede escribir que:

159
n m n
min Σ uj = min (n ln A + Σ Σ ai ln xij - Σ ln yj )
j=1 i=1 j=1

Como para cualquier conjunto de datos Σ ln yj tiene un valor constante se puede


suprimir de la fórmula anterior, pues para que el segundo miembro de esta expresión
sea mínimo ha de ser mínimo:

n m
n ln A + Σ Σ ai ln xij
j=1 i=1

Si se tienen n observaciones y tres factores de producción nos queda:


n n n
MINIMIZAR n ln A + ai Σ ln xij + a2 Σ ln x2j + a3 Σ ln x3j
i =1 i =1 i =1

siendo xij, x2j, x3j factores de producción y ln A, ai, a2, a3, los parámetros a estimar.

Sujeto a las restricciones:


Ln A + a1 ln x11 + a2 ln x21 + a3 ln x31 ≥ ln y1
Ln A + a1 ln x12 + a2 ln x22 + a3 ln x32 ≥ ln y1
.
.
Ln A + a1 ln x1n + a2 ln x2n + a3 ln x3n ≥ ln yn

y ln A ≥ 0, a1 ≥ 0, a1 ≥ 0, a1 ≥ 0,

2º Programación cuadrática

Es similar al anterior salvo que la función objetivo es:


n n m n
min Σ uj2 = min (n ln A + Σ Σ ai ln xij - Σ ln yj )2
i =1 i =1 i =1 i =1

b) Determinación de modelos de frontera determinística paramétrica

El primer autor que propuso un modelo para la estimación de la frontera por métodos
paramétricos fue Afriat (1972).

Su modelo es el siguiente:
y = f(x). e-u

o bien tomando logaritmos:


ln y = ln f(x) – u

160
El problema que se plantea en este modelo es conocer la distribución que siguen los
errores, pues al ir a estimar la función frontera, éstos han de ser positivos.
Afriat (1972) supone que los errores, en este caso e-u , se distribuyen según una
función de tipo beta, Richmond (1974) consideró para estos mismos errores una
distribución gamma
Schmidt (1976), demuestra que si la distribución de errores u se supone que es
exponencial la estimación de la frontera por máxima verosimilitud coincide con la de
la programación lineal; y si la distribución de u se supone seminormal, coincide con
la de programación cuadrática.

Esto viene a demostrar que es importante acertar al especificar una distribución a lo


errores pues como se verá en los siguientes apartados las estimaciones de las
funciones frontera van a depender de la hipótesis formulada en relación con la
distribución de los errores.

1º Método de los mínimos cuadrados corregidos por traslación

Si una vez estimada la función de producción media mediante M.C.O., se hace una
traslación de dicha función, se determina la función de producción frontera.
Esta estimación se conoce como Método de Mínimos Cuadrados Corregidos
(M.C.C.)
En realidad, se debe de considerar dos casos, que aunque los autores los
denominan indistintamente como M.C.C., son distintos y que nosotros vamos a
denominar por:
- Mínimos Cuadrados Ordinados Corregidos por traslación a la media o
M.C.C.(tm).
- Mínimos Cuadrados Ordinarios Corregidos por traslación al extremo superior o
M.C.C.(te).

A continuación se describirán ambos procedimientos:

a) Mínimos Cuadrados Ordinarios Corregidos por traslación a la media

El primero en señalar esta estimación fue Richmond (1974). Su planteamiento


fue el siguiente:
Considera una función de producción del tipo Cobb-Douglas en forma lineal tal
como la de la expresión siguiente:
n
(*) Ln y = ln (x) - u = α0 + Σ αi ln xi – u u≥0
i =1

Este autor supone que la distribución de u es una gamma.

Si E(u) = µ , se puede escribir:

Ln y = (α0 – u) + Σ αi ln xi – (u - µ)

Donde la E(u - µ) = 0.

161
De este modo, el término error satisface todas las condiciones deseables de los
estimadores, excepto la normalidad.

Por este motivo la ecuación anterior puede estimarse por mínimos cuadrados
ordinarios, para obtener un estimador BLUE (best linear unbiased estimates = no
sesgado, lineal, óptimo) de (α0 - µ) y de αi.

Si se supone otra distribución cualquiera para los errores y si los parámetros de esta
distribución se pueden estimar por los momentos centrales de orden superior
(segundo, tercero, etc) entonces, se pueden estimar dichos parámetros
consistentemente por los momentos de los residuos de la estimación por M.C.O.

Puesto que µ es uno de los parámetros función de los momentos puede estimarse
también consistentemente y este estimador puede utilizarse para corregir al término
independiente de la estimación por M.C.O., que es un estimador consistente de (α -
µ). Así, el método M.C.C.(tm) consiste en restarle al término independiente de la
estimación por M.C.O. la E(u) = µ .

Por lo dicho anteriormente, se deduce que M.C.C. (tm) proporciona una estimación
consistente de todos los parámetros de la frontera.

Sin embargo esta estimación tiene varias particularidades:


1º. Al corregir el término independiente, algunas observaciones quedan aún encima
de la función de producción frontera, cosa que no parece lógica, por lo que la
estimación de la frontera por M.C.C.(tm) resulta un método poco adecuado para
determinar la eficiencia técnica de las empresas individuales.

2º. Que la correción del término independiente depende de la distribución supuesta


para los errores u. Se distinguen dos casos:

- Si se considera una distribución gamma con un parámetro. Para todo u se tiene:

g1 (u,σ) = 1 / Γ(σ) * (u)σ - 1 * exp (-u) 0 < u < ∞, σ > 0

Los momentos de 1º y 2º orden son respectivamente:


E(u) = var(u) = σ

Por lo tanto, el estimador de la varianza del error en la estimación por M.C.O.


proporciona la corrección al término independiente.

- Si se considera una distribución exponencial, se tiene:

g2 (u,σ) = 1 / σ * exp (-u/σ) 0 < u < ∞, σ > 0

Los momentos de 1º y 2º orden son respectivamente:

E(u) = σ
Var(u) = σ2

162
Por tanto, la raíz cuadrada positiva del estimador de la varianza del error de la
estimación M.C.O. proporciona la corrección al término independiente.

De aquí se deduce que, según sea la distribución, una gamma de un parámetro o


una exponencial, las correcciones del término independiente varían y, por
consiguiente, darán diferentes estimaciones de la eficiencia técnica, excepto para el
caso particular en que var(u) = 1.

b) Mínimos Cuadrados Corregidos por traslación al extremo

Hay otro procedimiento para resolver el problema, éste consiste en estimar (*) por
M.C.O. y después corregir el término independiente, mediante una traslación hasta
que todos los residuos sean negativos y al menos uno nulo: M.C.C.(te) Green (1980
a), muestra que esta estimación proporciona un estimador consistente de α0.

Para la corrección del término independiente β0 se suma a éste el valor del mayor
residuo (um), obtendo de la estimación por M.C.O. y así se tiene que:
α0 = β0 + um

La estimación mediante M.C.C.(te) determina la función de producción frontera y la


estimación mediante M.C.O., la función de producción media.
La estimación por M.C.C.(te) presenta las siguientes particularidades:
- En general, hay una sola observación absolutamente eficiente, la que
corresponde al mayor residuo de la estimación por M.C.O., por lo que es
extraordinariamente sensible a valores anómalos.
- La estimación por M.C.C.(te) no tiene en cuenta el hecho de factores
coyunturales que pueden hacer que una o varias empresas sobrepasen la
frontera habitual correspondiente a esta técnica.

2º Método de máxima verosimilitud

Para aplicar la estimación de máxima verosimilitud es imprescindible hacer hipótesis


sobre la distribución de los errores u. Esta hipótesis presenta un inconveniente ya
que a priori no hay argumentos válidos para determinar el tipo de distribución de
dichos errores.
Otro inconveniente de la estimación máximo verosímil en funciones fronteras
determinísticas es que el rango de la variable dependiente depende de los
parámetros que se van a estimar, Schmidt (1976). ( Esto es así porque y ≤ f (x)
contiene los parámetros a estimar). Esto viola una de las condiciones de regularidad
necesarias para demostrar el teorema general de que los estimadores máximo
verosímiles son consistentes y asintóticamente eficientes. De aquí que las
propiedades estadísticas de los estimadores máximo verosímiles deberían
considerarse de nuevo. Green (1980 a) lo hizo y demostró que las propiedades
asintóticas de los estimadores máximos verosímiles se mantienen si la función de
densidad de u cumple las siguientes condiciones:
a) La función de densidad de u es cero, cuando u = 0.

163
b) La derivada de la función de densidad de u se acerca a cero cuando u se
aproxima a cero.

Green (1980 a) señala que la distribución gamma satisface estos criterios y por tanto
puede utilizarse:
f(u) = G(λ, P) = λp / Γ(P) * up-1 * e-λu u ≥ 0, λ > 0, P > 2

Entre otras muchas distribuciones, que cumplen estas propiedades y que por tanto
pueden utilizarse son la lognormal y la chi-cuadrado.

Contrariamente, las distribuciones exponenciales y normal truncada no pueden


utilizarse al no cumplir las propiedades anteriores.

Sin embargo esto presenta un inconveniente que señala el propio Green y es el que
la eficiencia técnica está condicionada por consideraciones estadísticas.

Según Millán (1986), los estimadores máximos verosímiles que cumplen las
condicones de Green 1980 a) y de las que se conocen sus propiedades
estadísticas, representan una modificación sustancial sobre los estimadores de
frontera determinística que se han visto anteriormente. Esta modificación consiste en
que la frontera no es alcanzada y no hay, por tanto, puntos sobre ella. Esto hace que
en este caso se aleje la función frontera de la función de producción convencional.

c) Determinación de frontera estocástica no paramétrica

d) Determinación de frontera estocástica paramétrica

1º. Modelo de Aigner, Amemiya y Poirier

Estos autores parten de que el modelo para una muestra de n observaciones viene
dado por la siguiente expresión matricial:
(**) Y = X . β + ε

Donde:
Y = es una matriz de dimensión n x 1, representanndo las observaciones de la
variable dependiente.
X = es una matriz de dimensión n x k, representando las observaciones, fijadas las k
variables independientes.
β = es una matriz de dimensión k x 1, representando los coeficientes de las variables
independientes.
ε = es una matriz de dimensión n x 1 que representa los errores.

Cada elemento del vector de dimensión n x 1 del error ε está reprresentado, según
los autores por:

∨ εi * / /(1-θ) si εi * > 0
i = 1, 2....n

164
∨ εi * / /θ si εi * ≤ 0

donde los errores εi * ∼ N (0, σ2) para 0 < θ < 1 y εi * tiene una distribución normal
truncada negativa para θ = 1 y normal truncada positiva para θ = 0; resumiendo:
εi * ∼ N (0, σ2) para 0 < θ < 1
εi ∼ Normal truncada negativa
*
para θ = 1
εi ∼ Normal truncada positiva
*
para θ = 0

La justificación del error es que se supone que las explotaciones obtienen


cantidades de productos distintas para un conjunto de factores dados, debido a
variaciones aleatorias en:

a) La habilidad para utilizar la mejor práctica tecnológica. Ello da origen a un error


de una sola cola, εi ≤ 0, al no utilizar los factores adecuadamente para obtener la
máxima cantidad de producto.
b) La cantidad de inputs o la medida del producto y. Esto da origen a un error
simétrico εi > 0.

Ambas causas se pueden dar separada o simultáneamente.

Un inconveniente que presenta este modelo es que es necesario conocer θ, que se


interpreta como una fuente de variabilidad del error, cuando θ es desconocido el
procedimiento de determinación de la frontera se complica bastante.

2º. Modelos de Aigner, Lovell y Schmidt; Meeusen y Van den Broeck

Estos modelos fueron hechos separadamente por sus autores, aunque son
similares, con pequeñas diferencias que se indicarán al desarrollarlos.

a) Se comienza describiendo el modelo de Aigner, Lovell y Schmidt. Asumen que


los errores εi de la ecuación (**) se descompone en dos componentes ui y vi .
εi = ui + vi i = 1,......n

La componente vi representa las perturbaciones que caen fuera del control de la


empresa, causas exógenas.

Se asume que vi se distribuye como una distribución normal de media cero y


varianza σv2, vi ∼ N (0, σv2).

La componente ui es independiente de vi y representa las perturbaciones que están


bajo el control de la empresa, causas endógenas, como la tecnología, siendo ui ≤ 0.

Se presta atención fundamentalmente, al caso en que ui presenta una distribución


normal de media cero y varianza σv2, truncada por encima de cero, ui ∼ N (0, σu2).

Se pueden emplear otras distribuciones de una sola cola y en general se puede


considerar una distribución exponencial.

165
Este modelo es semejante al de funciones frontera determinísticas cuando σv2 = 0 y
función frontera estocástica extrema cuando σu2 = 0, según Zellner, Kmenta y
Drèze (1966).

Obsérvese que si y ≤ f(xi ; β) + vi , es la misma frontera, ahora claramente


estocástica.

Así pues, el proceso productivo está sujeto a dos perturbaciones aleatorias,


distinguibles económicamente y con diferentes características.

Desde el punto de vista práctico, tal interpretación da muchas facilidades para la


estimación e interpretación de la frontera.

Obsérvese que la perturbación negativa ui, refleja el hecho de que el producto de


cada empresa deba estar en la frontera o debajo de ésta [f(xi ; β) + vi ].
Tal desviación es el resultado de factores que están bajo el control de la empresa
como la ineficiencia técnica y/o económica.
Pero esta misma frontera puede cambiar aleatoriamente entre empresas, o en otro
momento en la misma empresa.

Según esta interpretación la frontera es estocástica con perturbaciones aleatorias vi


mayores, iguales o menores que cero, según sea la media de los sucesos externos
a la empresa, como pueden ser el azar, el clima, la topografía, la maquinaria o
errores en la medida u observaciones del producto.
Otra característica a resaltar de esta consideración es que pueden estimarse las
varianzas de vi y ui y por tanto tener conocimiento de sus tamaños relativos.

Pero lo más interesante es que la eficiencia productiva se puede medir por la


relación:
yi / f(xi ; β) + vi i = 1....n

y no con la relación: yi / [f(xi ; β)]

que es la que se utiliza en las fronteras determinísticas.

Esto permite distinguir ineficiencias productivas de otras fuentes de perturbaciones


que están fuera de control de la empresa.

La estimación del modelo expresado en (**) se puede simplificar considerando un


modelo lineal, que matricialmente se expresa por:

Y=X.β+ε
y donde ε = u + v.

Para estimar la función frontera estocástica se tiene en cuenta la función de


distribución suma de una distribución normal y una distribución normal truncada que
fue obtenida por Weinsteins (1964) y adopta la fórmula siguiente:

166
(***) f(ε) = 2 / σ f* (ε / σ) [1 – F*(-ε λ σ-1)] -∞ ≤ ε ≤ ∞

donde σ2 = σu2 + σv2 , λ = σu / σv, f* (.) y F (.) son las funciones de densidad y de
distribución de una distribución normal estándar.

Esta función es simétrica en el entorno de cero y su esperanza y varianza vienen


dadas por:

E(ε) = E(u) = - /2/π . σu

V(ε) = V(u) + V(v) = π-2/π . σu 2+ σv2

La particular parametrización de (***) es conveniente ya que λ se interpreta como un


indicador de la variabilidad relativa de las fuentes de errores aleatorios.

Si λ tiende a cero implica que σu 2 tiende a cero y/o σv2 tiende a infinito. Esto implica
que la componente simétrica del error es la dominante, es decir que la distribución
de errores es una distribución normal N(0, σ 2), los errores caen fuera del control de
la empresa, son causas exógenas.

Cuando λ tiende a infinito, implica que σv2 tiende a infinito y/o σv2 tiende a cero,
estamos en el caso de ineficiencia técnica, los errores se deben a una mala
utilización de los factores; estos se distribuyen según una distribución seminormal
negativa.

Otro caso que estudian estos autores es considerar para –ui una distribución
exponencial, cuya función de densidad, viene dada por:

F(u) = 1/φ exp (u/φ), u≤0

Donde φ ≥ 0 es la esperanza de –ui. La varianza es φ2. La función de densidad de εi


= ui + vi , viene dada por la siguiente fórmula:

F(ε) = 1/φ [1-F* (ε/σv + σv/φ)] exp [ε/φ + σv2/2φ2 ]

Donde F*(.) representa la función de distribución de la normal estándar.

La estimación de la frontera estocástica se realiza mediante máxima verosimilitud y


se determinan los valores óptimos de los parámetros β, λ, σ2.

Para su cálculo, Aigner, Lovell y Schmidt emplearon el algoritmo de Fletcher


Powell (1963), aunque se pueden emplear otros algoritmos.

b) Meeusen y van den Broeck (1977) consideran en su modelo que el error se


descompone en dos componentes, la vi que se distribuye como una normal al igual

167
que el anterior modelo y la ui que se distribuye como una exponencial, cuya función
de densidad viene dada por la siguiente expresión:

f(u) = θ. e-θu, u≥0


(θ > 0)
f(u) = 0, u<0

La expresión general para la función de densidad de una suma de dos variables


aleatorias independientes cuyas funciones de densidad son f(u) y f(v) viene dada por
la siguiente expresión:

F(ε) = -∞Ι∞ f(u) . f(ε - u) du


= θ/2 exp (σ2θ2 / 2 - θε ) erfc (σ2 θ - ε / σ/2 )

siendo:
erfc(t9 = 1 – [2 / /π ] 0Ιt e-θ2 dθ

Los momentos se pueden obtener fácilmente:

m1 = 1/θ, m2 = 1/θ + σ2
m3 = 2/θ3, m4 = 9/θ4 + 6σ2/θ2 + 3σ4

Ambos modelos presentan una gran debilidad, que es el no poder determinar las
eficiencias de las empresas individualmente. La función frontera estocástica y las
varianzas estimadas, se pueden utilizar para medir la función frontera de un grupo
de empresas y así determinar la eficiencia media mediante la ecuación (**).

3º Modelo de Stevenson R.E.

Stevenson (1980) generaliza el modelo de Aigner, Lovell y Schmidt (1977)


considerando que el componente ui del error se asocoa a causas aleatorias y se
distribuye como una distribución seminormal o exponencial y el componente vi que
refleja las características estocásticas se distribuye como una distribución normal de
media cero y varianza σv2. Las dos posibles distribuciones de ui adoptan una moda
cero. Esto representa que el modelo de Aigner, Lovell y Schmidt se basa en
adoptar implícitamente que la verosimilitud de la forma ineficiente disminuye
monótamente cuando aumenta el grado de ineficiencia.

Los factores humanos que describen eficiencia como pueden ser la educación,
inteligencia, etc, no se distribuyen verosímilmente con esta función monótona
decreciente entre la población.

Al ser los agentes económicos, humanos, plantear para ui una distribución cuya
moda sea distinta de cero, parece más lógico.

Con estas premisas Stevenson (1980) generaliza el modelo de Aigner, Lovell y


Schmidt al permitir una moda distinta de cero para las dos posibles funciones de
densidad de ui (normal truncada y gamma) y considerar el caso de moda cero como

168
un caso especial. Emplean en su estudio la función dual (función de costes). De aquí
que considere que ui > 0.

Seguidamente se describen ambas posibilidades:

a) Normal - Truncada

La función de ui se distribuye como una normal truncada de moda µ y la vi se


distribuye como una normal N(0, σv2).

Las funciones de densidad para ui y vi vienen dadas por las siguientes expresiones:

f(ui) = 1/ (1-F* (-µ/σu)) /2πσu exp [-2 (ui - µ / σu)2], ui > 0

f(ui) = 0 para todos los demás.

g(vi) = 1/ /2πσv exp [-2 (vi /σv)2], ∀ vi

donde F*(.) es la función de distribución de la normal estándar.

La función de densidad conjunta para εi = ui + vi viene dada por la siguiente


expresión:

h(εi) = 0Ι∞ 1/ (1-F*(-µ/σ))2πσuσv x exp[-2 ((ui - µ /σu)2 + (εi - ui /σv)2)]du

que integrada da:

h(εi) = 2σ-1 f* (εi - µ / σ) [1 – F* (-µ / σλ - εi λ / σ)] [1-F*(-µ / σu)]-1

donde σ = (σu2 + σv2)2, λ = σu/ σv , y f* es la función de densidad de la normal


estándar calculada para ((ε - µ) / σ). Para µ = 0, se obtiene la función de densidad
dada por Aigner, Lovell y Schmidt (1977).

Este modelo es la generalización del de Aigner, Lovell y Schmidt, que


consideraban la distribución de ui como una normal truncada N(0, σu2) y vi como una
normal N(0, σv2).

La esperanza y la varianza del error εi = ui + vi de este modelo son:

E(εi) = E(ui) = µ . a / 2 + σu . a / /2π exp [-2 (µ / σu )2]

V(εi) = V(ui) + V(vi) = µ2 . a / 2( 1- a/2) + σu2 a(π - a) / π + σv2

a = [1 – F*(µ / σu)]-1

F*(.) es la función de distribución de una normal estándar.

169
Para el caso de µ = 0.

E(εi) = /2 / /π . σu

V(εi) = σu2 (π - 2) / π + σv2

Hay que tener en cuenta que:


σ = σu2 + σv2 y λ = σu / σv

La función de verosimilitud para la función de costes depende de β, λ, σ2 y µ.

c) Normal – Gamma

La función de densidad de ui se distribuye como una gamma y viene dada por la


siguiente expresión:

f(ui) = 1/ Γ (m + 1) θm+1 uim exp(-θui ), ui > 0, θ > 0, m > 0

=0 para todos los demás.


Dado g(vi) = g(εi –ui), la función de densidad conjunta de εi = ui + vi viene dada por la
siguiente expresión:

h(εi ) = 0Ι∞ 1/ Γ (m + 1) /2 σv θm-1 um exp[-2σv2 (θσ2u / 2 + (ε - u) 2 )] du

que simplificada queda:

h(εi ) = σv m / Γ (m + 1) /2π exp( -εθ + θ2σv2/2) θm-1wΙ∞ (t – w)m exp[ -t2/ 2] dt

donde w = (-εi /σv + θσv). La esperanza y la varianza de εi vienen dadas por las
siguientes expresiones:

E(εi) = E(ui) = m+1 / θ

V(εi) = V(ui) + V(vi) = m+1 / θ + σv2

Este autor considera que m solo toma valores enteros y determina la función de
densidad para εi en los casos en que m = 1, m = 2, y m = 3.

La función de verosimilitud, en este caso, depende de β, σv2 y θ.

170
2.4. Otros métodos basados en funciones que no son frontera.

2.4.1. Modelo de Lau y Yotopoulus.


Este modelo es aplicado también por Trosper (1980). Se utlizó para determinar la
eficiencia técnica y la eficiencia en la asignación de recursos.

Metodología
Se toma la muestra de empresas que se van a analizar, dicha muestra se divide en
dos grupos, uno de empresas grandes (grupo 1) y otro de empresas pequeñas
(grupo 2). Dentro de un mismo grupo se considera que la función de producción es
idéntica para todas las empresas:

Yij = Aij f(xij ) i = 1, 2 j = 1,... n


Siendo:
Yij : el producto
xij : los factores que intervienen en la producción
Aij : los parámetros que indican la eficiencia técnica

Una empresa m, dentro del grupo, es más eficiente técnicamente que otra p, si con
la misma cantidad de factores de producción produce mayor cantidad de producto,
es decir, si se considera el grupo 1, A1m > A1p

El beneficio queda definido como la diferencia entre ingresos y costes, luego será:
B = p* Ai* f(xij) – cijxij - cf

Siendo:
B: beneficio
P: precio unitario del producto
cij: precio unitario del factor variable i
cf: costes fijos

Las condiciones para la maximización del beneficio se obtiene al derivar la expresión


anterior:

δ p* Ai* f(xij) / δ xij = λij cij i = 1, 2 j = 1,... n

λij = 1/ p Ai

El término λij ≥ 0 indica eficiencia en precio, la habilidad de un conjunto de empresas


del mismo sector, de igualar el producto marginal al precio de los factores. Dos
empresas cualesquiera p y q, de un mismo grupo , por ejemplo el 1, son eficientes
en precios o asignación de recursos, si y solo si, λip = λiq

Por último, se dice que dos empresas cualesquiera, de un mismo grupo, son
económicamente eficientes si y solo si sus respectivas funciones de beneficio
coinciden.

171
2.4.2. Modelo de Toda.
Toda (1976, 1977) utiliza un modelo que se puede aplicar a una gran variedad de
formas funcionales flexibles.

Metodología
Se utlizó únicamente para investigar ineficiencia en asignación de recursos, aunque
según Forsund et al. (1980) puede extenderse a ineficiencia en escala e ineficiencia
técnica.

Toda comenzó asumiendo rendimientos de escala constantes e ineficinecia técnica y


propuso una función Leontief generalizada de coste medio, de la forma:
i=n j=n
c (y,w) / y = Σ Σ αij wi½ wj1/2 αij = αji
i=1 j =1

Siendo:

c = coste
y = producto
w = precio de los factores
αij = parámetros
Las demandas condicionadas de los factores adoptan la forma:
j=n
xi (w,y) = Σ αij (wj / wi )1/2 y i = 1,...n
j=1

Esto permite observar que las relaciones entre el producto y los factores de
producción se diferencian de la ecuación de coste mínimo de la demanda de
factores – producto en :
j=n
Xi/y = Σ αij [ θji (wj / wi )]1/2 i = 1,...n
j=1

Donde θji > 0 mide la ineficiencia asignativa. Usando esta última ecuación, el coste
medio observado es:
j=n j=n j=n
w’ (x/y) = Σ αii wi + ½ Σ Σ αii (θij -1/2 + θij 1/2) wi 1/2 wj1/2
j=1 j=1 j=1

Se observa que w’ (x/y) = c (w, y )/y, si y solo si:

(θij -1/2 + θij 1/2) = 2 para todo i ≠ j

Esto requiere que θij = 1 para todo i ≠ j. Si algún θij ≠ 1, entonces w’(x/y) >c(w,y)/y lo
que significa que hay de hecho ineficiencia asignativa.

Toda (1976, 1977) muestra que las acuaciones c(c, w)/y y xi (w,y) son simétricas y
que las ecuaciones Xi/y y w’ (x/y) no lo son. Por tanto, un test de simetría nos sirve

172
para ver ineficiencias asignativas, ya que las ecuaciones simétricas son eficientes y
las asimétricas son ineficientes.

Este modelo permite estimar los parámetros de la función de costes αii y los
parámetros de ineficiencia asignativa θij.

2.3. Optimización de la producción.

3.1. Concepto.
Optimizar es buscar un punto máximo o mínimo en una curva, encontrando la mejor
opción para un ambiente dado. La definición de “ la mejor opción” dependerá de los
objetivos buscados, del grado de oposición que exista entre ellos, del diferente peso
dado de cada uno, etc.

3.2. Metodología.
Se han desarrollado varias herramientas con el fin de poder definir de manera más o
menos exacta estos puntos óptimos. Las más frecuentes son las siguientes:

3.2.1. Programación matemática lineal.


Desde la primera publicación del método simplex por el Dr. George B. Dantzig en
1947, el avance en la programación lineal aplicada a la producción agropecuaria ha
sido muy rápido.

Los problemas de programación lineal presentan cierta estructura típica, en general


contienen:

173
c) Un objetivo o valor a alcanzar que puede ser un máximo o un mínimo, por
ejemplo obtener el máximo beneficio de una inversión o el mínimo coste de una
dieta. Se desarrollaron también herramientas para resolver problemas con más
de un objetivo.
d) Un cierto número de variables que se desplazan simultáneamente y
generalmente interaccionan entre ellas originando diferentes niveles de
respuesta.
e) Un cierto número de restricciones o valores mínimos o máximos para algunas
variables o grupo de variables. Por ejemplo, en el cálculo de raciones de mínimo
coste se plantean restricciones de nivel máximo de consumo, nivel mínimo de
proteínas, minerales, etc.
f) Las relaciones entre variables, los resultados y las restricciones deben ser
lineales.

La programación lineal se ha utilizado en abundantes y diversas aplicaciones en las


explotaciones agropecuarias. El desarrollo de la informática y la expansión de los
ordenadores permitió la aceleración del proceso matemático necesario
generalizando el uso de esta técnica.

3.2.2. Modelos de simulación.


Se desarrollan modelos matemáticos que intentan mediante ecuaciones teóricas
predecir o simular la producción máxima posible dados unos recursos. Estos
modelos han tenido un gran desarrollo en los sistemas agropecuarios a partir de
que la informática permitió el uso extensivo de ordenadores con gran capacidad de
memoria y cálculo. De esta manera, la complejidad de los modelos agropecuarios
pueden desarrollarse mediante un gran número de ecuaciones, interconectadas y
relacionadas entre sí, que sólo la gran velocidad de cálculo de los ordenadores
permiten hacerla funcional

3.2.3.- Fronteras de producción.

174

También podría gustarte