Está en la página 1de 65

ACTIVIDAD GRUPAL N° 4

METODOLOGÍAS PARA MEDIR Y MONETIZAR IMPACTOS SOCIALES


Y CASOS DE APLICACIÓN

INTEGRANTES:

NURIT ZAMBRANO – 1301663


SERGIO PINCHAO - 1301660
CRISTIAN PEDRAZA – 1301677
JOHN BOHÓRQUEZ – 1301581
GEOVANNY LLANOS - 1301690

DOCENTE:

JULIO CESAR OSORIO

EVALUACIÓN ECONÓMICA DE PROYECTOS


BOGOTÁ D.C.
2020
1. METODOLOGÍAS PARA MONETIZAR IMPACTOS SOCIALES

1.1. METODOLOGÍA VALORACIÓN CONTINGENTE

El método de la valoración contingente es una de las técnicas que tenemos para estimar el
valor de bienes (productos o servicios) para los que no existe mercado. Método de
valoración contingente, también conocido como método de encuesta, estimación hipotética
de la curva de la demanda, mapa de indiferencias, estimación de preferencias y de
mercados construidos.

En este método se hace una serie de encuestas para saber cuánto están dispuestas a
pagar las personas por cierta característica de su entorno (WTP).

Se trata de simular un mercado mediante encuesta a los consumidores potenciales, se les


pregunta por la máxima cantidad de dinero que pagarían por el bien si tuvieran que
compararlo, como hacen con los demás bienes. De ahí se deduce el valor que para el
consumidor medio tiene el bien en cuestión. Este libro pretende servir de guía a los
investigadores que utilicen el método de la valoración contingente y a las personas que
deban interpretar estudios en los que se haya aplicado tal método, la oferta viene
representada por la persona entrevistadora y la demanda por la entrevistada.

Pasos generales de la Valoración Contingente:

1. Identificar y describir las características del activo ambiental a valorar.


2. Identificar la población afectada por el activo y elegir a los encuestados.
3. Diseñar un cuestionario y realizar las encuestas necesarias.
4. Analizar los resultados obtenidos para obtener la valoración de nuestro activo
medioambiental.

Un cuestionario para la valoración contingente debe contener:

• Una descripción clara del activo ambiental a valorar por el encuestado


• Un conjunto de preguntas que cataloguen al entrevistado en función de su nivel de
renta y situación socioeconómica, lugar de residencia, edad, etc.
• Una serie de preguntas sobre actitud y comportamiento acerca del activo
medioambiental a valorar para poder revelar los factores que luego afectan a la
valoración que realiza el entrevistado.
• Una pregunta o conjunto de preguntas con las que se pretende obtener la información
relativa acerca de la WTP por el activo ambiental en cuestión.

Mediante la encuesta busca encontrar el comportamiento de las personas ante el cambio


(Impacto).

• Se puede preguntar por un pago o por una compensación:


• Pagar por obtener un cambio positivo
• Pagar por evitar un cambio negativo
• Ser compensado por permitir un cambio negativo
• Ser compensado por renunciar a un cambio positivo

Las encuestas pueden tener preguntas cerradas o abiertas:

Forma Abierta Forma Cerrada


Se calcula la media o la mediana de la Se ofrece el impacto por una cantidad
máxima disposición a pagar por obtener o económica determinada (a pagar o a ser
evitar el impacto. compensado).
Se calcula la media o la mediana de la La cantidad económica varía de una
mínima disposición a ser compensado por submuestra a otra.
permitir o renunciar al impacto.
Se calcula la proporción de personas que
dicen sí al pago (o compensación) y se
dibuja la curva de supervivencia
correspondiente.
Se calcula la media (área bajo la curva) o la
mediana (valor que corresponde a una
probabilidad de 0,5).
Sesgos:

Se pueden agrupar en dos conjuntos: los que provienen de la utilización de encuestas a


muestras de la población y los derivados del carácter hipotético del ejercicio.
1. Los economistas han compartido los avances con otras disciplinas, como la estadística
y la sociología.
2. Los intrínsecos al carácter hipotético del mercado, el principal es, seguramente, el ya
discutido de los incentivos a revelar o no el valor verdadero (sesgo de estrategia).

Pero existen algunos otros sesgos son: la percepción incorrecta del contexto, las pistas
implícitas para la evaluación y la complacencia de los entrevistados con los promotores de
la encuesta.

Fases en un ejercicio de valoración contingente

1. Definir con precisión lo que se desea valorar en unidades monetarias


2. Definir la población relevante
3. Concretar los elementos de simulación del mercado
4. Decidir la modalidad de entrevista
5. Seleccionar la muestra
6. Redactar el cuestionario
7. Realizar las entrevistas
8. Explotar estadísticamente las respuestas
9. Presentar e interpretar los resultados
Metodología de aplicación MVC

El MVC intenta averiguar en forma directa, la valoración que otorgan las personas a
cambios en el nivel de bienestar.

Fundamentos económicos:

• Variación Compensada del Ingreso


• Variación Equivalente del Ingreso
• Ambas son buenas medidas del cambio en el bienestar de los individuos
La Variación del Excedente del Consumidor es una buena aproximación a estas medidas,
pues se ubica entre ambas.

“Método de valoración contingente tiene la ventaja de poder aplicarse siempre, pero


requiere de una cuidadosa aplicación para evitar sesgos en las respuestas”

CASO DE APLICACIÓN

Caso de La Ligua – Petorca (Contreras, 2009)

La Conferencia Internacional sobre el Agua y Medio Ambiente reconoció que el agua es un


bien económico. En línea con las reformas de libre mercado que Chile implementó durante
la década de los 70s, el agua fue tratada como un bien económico.

En teoría, los derechos de agua transables resuelven el problema de la administración


económica del agua, ya que los usuarios estarán dispuestos a venderlos si su valoración
es menor que la del mercado.

Valles de Ligua y Petorca, se ubican en la Provincia de Petorca, V Región, tienen excelentes


condiciones agroclimáticas para la implantación de frutales de exportación y otros cultivos
de alta rentabilidad, no disponen de los recursos hídricos suficientes para desarrollar estos
cultivos en todo su potencial productivo.

Se encuestaron a 480 agricultores, 325 en La Ligua, 153 en Petorca y 2 encuestas que no


mencionan a que cuenca pertenecen, de las 480 encuestas eliminaron 25 encuestas que
no aplicaban para el análisis, 11 estaban sin respuesta, 1 sin sistema de riego y 1 sin VDAP,
para un total definitivo de 455 encuestas para analizar (95% encuestas útiles, un alto
porcentaje para este tipo de estudios).

Para el análisis de la información se utilizó logit, logistic y probit, que son modelos que
explican una variable dicotómica (Si o No en este caso) por un conjunto de otras variables.
La significancia de una variable viene dada por la comparación entre el nºz e la variable y
los siguientes rangos:
|z| > 1,98 la significancia es al 95%
1,66 < |z| < 1,98 la significa es al 90%
1,29 < |z| < 1,66 la significa es al 80%

Las variables utilizadas fueron:


Daps = (kgasto * gasto + knperd * nperd + kbrend * brend + kscult * scult +
Keduca * educa + kcuenc * cuenc + kcons)/kvdap1

Todas significativas al 95%, generó como resultado:

1.2. METODOLOGÍA CAMBIO EN PRODUCTIVIDAD

Esta técnica se basa en la valoración de cambios físicos en producción utilizando precios


de mercados para costos y beneficios, si estos precios de mercado son distorsionados de
deben usar las correctivas respectivas (precios de cuenta, precios sombra, etc.) de modo
que reflejen verdaderos valores económicos.

Este enfoque consiste en que los problemas ambientales surgen de las fallas del mercado,
es decir, situaciones en las que el mercado no funciona como un asignador óptimo de
recursos. El medio ambiente en general y muchos recursos naturales están vinculados con
los conceptos de externalidad, bien público y recursos comunes. La presencia de estas
fallas de mercado está generalmente asociada a la ausencia de mercados para estos
bienes y servicios ambientales.

Su importancia radica en la relación entre el resultado de una actividad productiva y los


medios que han sido necesarios para obtener dicha producción, es una intención directa
del análisis costo – beneficio, utilizándose cuando un proyecto de desarrollo afecta la
producción o productividad (positiva o negativa), los cambios pueden ser valorados usando
precios económicos normales o corregidos, cuando existan distorsiones en el mercado.

La metodología de cambio en la productividad se basa en la valoración de cambios físicos


en producción utilizando precios de mercados para costos y beneficios, este método
permite la estimación de la contribución del capital natural a diversas actividades
económicas.

Se basa en los costos o beneficios de una acción y estos son contabilizados ya sea que
ocurran dentro de la frontera o contexto del proyecto o fuera de él.

Estimación del método:

Permite la estimación de la contribución del capital natural a diversas actividades


económicas. Si se considera Y el producto de la actividad, MA las variables ambientales de
interés y Xi (1 = 1…N) otras entradas, la función de producción sería: Y = ∫ (Xi, MA).

Aplicación del método:

1.Identificarse los cambios de productividad originados por un proyecto tanto en el área del
proyecto como fuera del proyecto.

2. Evaluarse los cambios de productividad tomando en cuenta la situación con y sin


proyecto.

3. El cambio de productividad debe ser evaluado, no solo para un momento sino para un
periodo de tiempo.

4. Se deben resaltar en el método: Precios usados, tiempo de evaluación del cambio de la


productividad (periodo de análisis), si se esperan cambios futuros en los precios, etc.
CASO DE APLICACIÓN

Valoración económica del servicio ambiental hídrico asociado al uso de micropresas en la


subcuenca del río Jigüina, Jinotega, Jinotega en Nicaragua (Lleida & Diploma, 2007)

Los principales problemas que presentan las cuencas hidrográficas en países en desarrollo
son de índole socioeconómico, técnico, institucional y físico- natural. La mayor parte de
estos problemas están interrelacionados y no pueden separarse fácilmente cuando se
realiza su diagnóstico.

El río Jigüina, Jinotega se encuentra ubicado en la comunidad San José de las Latas en la
microcuenca El Chile, es un sistema agroforestal denominado árboles con cultivos limpios
(ACL), el productor Roberto Torres aprovecha con la construcción de la micropresa 480
m3/año de agua.

El manejo de cuencas es definido por la FAO como la gestión de recursos en una cuenca
para proporcionar bienes y servicios sin afectar adversamente al suelo y las aguas; y debe
considerar factores sociales, económicos e institucionales dentro y fuera del área de esta
unidad territorial (FAO, 1990).
Principales problemas de las cuencas:

• Socioeconómicos
• Técnicos e Institucionales
• Naturales

Se realizó una caracterización socioeconómica en las comunidades adscritas al área de la


subcuenca, con el propósito de identificar la problemática socioambiental. La información
se obtuvo mediante un Sondeo Rural Rápido (SRR), con entrevistas semiestructuradas a
los líderes comunitarios. También se realizó un diagnóstico institucional, mediante la
aplicación de una ficha institucional a los representantes de las entidades presentes en la
zona, identificando estrategias y limitantes para lograr la concertación institucional de
acciones de manejo integrado de la subcuenca del Río.

Costos totales e ingresos asociados a las situaciones “Sin Micropresa” y “Con Micropresa”,
Productor Roberto Torres de la Comunidad San José de las Latas, Jinotega (htt)
Cultivos Ingreso Bruto Costos C$ Ingreso neto
C$ C$

Situación “Sin Micropresa”

Fríjol (dos ciclos) 20.000 10.960 9.040

Brócoli (dos ciclos) 12.500 5.600 6.900

Costos e Ingresos 32.500 16.560 15.940

Situación “Con Micropresa”

Inversión para Micropresa* - 845 -845

Fríjol (dos ciclos) 20.000 10.960 9.040

Brócoli (seis ciclos) 37.500 16.800 20.700

Costo e Ingresos con Micropresa 57.500 28.605 28.895

Costos y beneficios asociados al 25.000 12.045 12.955


aprovechamiento del agua con
Micropresa

Como resultado del estudio, la construcción de la Micropresa aporta beneficios económicos


a los productores, permite disponer de agua para otros usos alternativos, se estimó un valor
de C$ 17,74/m3, este valor representa la importancia promedio del agua captada en las
micropresas.

La construcción de los micropresas representa una importancia altísima en conservación y


aprovechamiento del agua en zonas en las que las condiciones climáticas y topográficas.
1.3. METODOLOGÍA COSTO DE OPORTUNIDAD

En el presente documento se tratará la importancia del Costo de Oportunidad, así como su


utilización para la monetización de impactos (económicos, sociales y ambientales). Es así
como, en principio, es necesario identificar lo que representa el Costo de oportunidad.
En esencia, y de la manera más práctica, el Costo de oportunidad valor máximo sacrificado
alternativo de tomar una decisión económica, también es llamado costo alternativo o costo
económico. Es decir, El costo de oportunidad es el valor a que se renuncia por consumir o
utilizar un bien o servicio para un propósito dado en lugar de otro uso o destino posible.

En adición, el costo de oportunidad representa también, dependiendo del sector en el que


estudie, lo siguiente:

• Cuanto se deja de ganar al seleccionar otra alternativa.


• Renuncia al ingreso que se obtendría optando por la alternativa más ventajosa en
lugar de aquella que se ha elegido.
• Costo de producir una unidad más de un bien medido por la magnitud de la alternativa
que, como consecuencia de ella, es sacrificada.
• Es el costo de utilizar una unidad más de un determinado recurso en la producción de
un bien.
• Beneficio cesante de la mejor oportunidad pérdida, la cual resulta importante en
economía, porque nada es gratuito, sino que todo tiene su costo.
• Rendimiento que se podría haber obtenido si se hubiera optado por la mejor
alternativa posible de ganancia.
• Es el resultante de una opción entre dos alternativas que estará dado por aquella que
se deja de lado.

Es así como, en la evaluación financiera de proyectos el costo de oportunidad (beneficio


sacrificado), por destinar los recursos de una alternativa en otra posiblemente mejor, es
representado por la Tasa de Interés de Oportunidad -TIO -, la cual es el factor que permite
comparar los ingresos y egresos del agente que realiza la inversión, en diferentes
momentos del tiempo y adicionalmente representa.
Por otro lado, para la evaluación económica y social, el costo de oportunidad se encuentra
inmerso en la Tasa Social de Descuento - TSD -, factor que refleja el costo de oportunidad
de la sociedad en su conjunto por asignar sus escasos recursos a determinado proyecto.

Teniendo en cuenta lo que representa el costo de oportunidad, es posible emplearlo como


una metodología para la monetización de los impactos (económicos, sociales y
ambientales), lo anterior, toda vez que cuando un recurso es destinado a propósitos que no
cuentan con precio de mercado o no llegan a ser comercializados, su valor puede ser
calculado por medio del ingreso perdido por no usar el recurso en otros usos.

• VALORES DIRECTOS DE GASTO

Por medio de este método se busca utilizar los precios de mercado para la monetización
de los costos, de esta manera, cuando se toma como criterio para la valoración los costos,
se están determinando los beneficios potenciales que justifican los costos generados.

• COSTO – EFECTIVIDAD (ACE)

Esta es una técnica de análisis que consiste en comparar los costos de un proyecto con
los beneficios resultantes no expresados en la misma unidad de medida. Este análisis está
basado en la construcción de indicadores que buscan reflejar los posibles beneficios netos
del proyecto en términos cuantificables y poder comparar diferentes alternativas.

De esta manera, el costo de oportunidad se convierte en parte fundamental de los criterios


de selección de un proyecto, así como en una metodología que permite por sí misma la
valorización y monetización de los impactos generados por un proyecto.

EJEMPLO:
“VALORACIÓN DE LOS COSTOS DE OPORTUNIDAD APLICABLES AL ECOSISTEMA
URBANO “MALECÓN-PARQUE ISLA” DE LA CIUDAD DE NEIVA.”

Importancia de la valoración del ecosistema urbano:

Oportunidad de realizar un Ejercicio Práctico de Economía Ambiental aplicando la


valoración de costos de oportunidad. Consiste en asignar valores monetarios a una diversa
variedad de bienes y servicios ambientales ofrecidos por un ecosistema natural – urbano,
catalogado como estratégico.
Se hace para tener una base económica (valorativa) que posibilite tomar decisiones
alternativas respecto a la utilización y aprovechamiento del ecosistema urbano según su
“valor de uso” y “valor de no uso”. El “valor de uso” entendido como el precio en el mercado
que debe pagar el individuo para acceder a los bienes y servicios que desea demandar; el
valor de “no uso” que se define como el “valor sombra” de un bien o servicio, es decir, aquel
que está implícito pero que no se tiene en cuenta.

El análisis económico valorativo ayuda a establecer lo que la sociedad (urbana) estaría


dispuesta a renunciar (o a pagar) para mantener o proteger formas determinadas de valor
intrínseco. Esto es, la valoración subjetiva aplicada al derecho que tienen las otras especies
(ecosistemas) de existir.

Carlos Eduardo Amézquita Parra. Economista. Docente “Economía Ambiental Básica”.


Facultad de Economía y Administración de la Universidad Surcolombiana.

Objetivos de la Investigación:

Proporcionar un método que permita valorar el costo de oportunidad de un ecosistema


sostenible y estratégico para una ciudad latinoamericana. Se tomó como caso la ciudad de
Neiva (ciudad Puerto) (400 mil habitantes/2011) localizada sobre el río Magdalena (sur de
Colombia). Aprovechar que desde los años 70´s del siglo XX se han proyectado diversos
diseños arquitectónicos que involucran manglares, islas, diseños ecológicos, centros
mercantiles y residenciales, interactuando con la Avenida Circunvalar, en el gran Proyecto
arquitectónico – urbanístico - paisajístico: Malecón – Parque Isla.

El costo de oportunidad del Malecón - Parque Isla consiste en valorar desde el punto de
vista económico los recursos bio – físicos (con valor de no – uso) comparativamente con
aquellos recursos de inversión pública y privada (valor de uso).

Metodología:

Para realizar la investigación se delimitaron los lugares más significativos que componen
estructuralmente el “Malecón”: Mohán, Embarcadero, Capilla, Parque Isla, Tienda
Montañera, Polideportivo y Feria Artesanal, a los que se les dio carácter de proyectos y
áreas independientes.
En cada uno de ellos se analizaron y cuantificaron las variables 1. Infraestructura, 2. Fauna,
3. Flora, 4. Paisaje, 5. Servicios – cultura – educación, se determinaron el valor de uso,
valor de “no uso” y el costo de oportunidad, aplicando una plantilla de valoración.

Finalmente se comparó con sus equivalentes de medida en las distintas opciones que
ofrece el mercado financiero local: cuentas de ahorro, títulos financieros, acciones, fiducia,
usura, inversión privada (las t.i.r), etc.

Conclusiones y principales resultados:

En general, el valor de “no uso” estimado de todas las variables fueron superiores a las de
“uso” en al menos 200%, participación porcentual que se determinó valorando la
importancia y utilidad (preferencias) que tienen en la actualidad cada uno de estos lugares
y el valor comercial que podrían adquirir si se aprovechan teniendo en cuenta los servicios
ambientales que ofrecen.

El proceso ofreció varias propuestas que además de ser viables para crecimiento
económico del lugar, también contribuye a la conservación del ecosistema, por ejemplo:

La capilla, lugar patrimonio cultural de la localidad con excelente ubicación y valor


histórico (valor de no uso), su aprovechamiento es insuficiente ya que tanto en estructura
como en localización puede ser utilizada en: la recuperación del sentido religioso y artesanal
para la que fue construida y que buscaba mostrar la cultura huilense; adecuación del vivero
de plantas nativas de la región, instruir a los visitantes y comunidad sobre el cuidado
y conservación de la flora magdalenense. También es importante resaltar el valor de “no
uso” de la flora calculado con el promedio de producción de oxígeno de cada planta o
árbol con una altura de cerca de 2 metros que corresponde aproximadamente a 5.256
libras de O2 anuales que se cotizan en el mercado a $15,35 pesos por libra; son
entonces $63.877.429,44 millones de pesos lo que la flora del Parque Isla aporta en
Oxigeno a la Capital del Huila, esto refleja una superioridad alrededor de 400% a los
$16.179.000 millones de pesos de su valor de uso o costo de los árboles según la especie
y tamaño en el mercado.

La poca importancia que se le proporciona al paisaje que brinda esta zona (siendo este un
servicio ambiental), por parte de las empresas que allí se encuentran y de los turistas, al
hacer registros fotográficos, pintar, o al descansar en la pradera, a la orilla del rio o al
escuchar las aves, reptiles, e insectos, se obtiene un beneficio por el cual los usuarios no
valoran (pagan), los usuarios, no incorporan este valor en su bienestar, no son conscientes
de los productos o servicios que utilizan ; a esto se le llama valor de “no uso” del paisaje.

1.4. METODOLOGÍA GASTOS DEFENSIVOS O PREVENTIVOS

Esta metodología se basa en los de gastos de prevención parten del supuesto que es
posible medir los gastos incurridos para reponer o reemplazar los daños en activos
generados por las actividades antrópicas. Estos gastos pueden ser interpretados como una
estimación de la pérdida de bienestar generada por la pérdida de calidad en los parámetros
ambientales, debido a que para que la sociedad esté dispuesta a asumirlos, el valor
económico de los servicios ecosistémicos debe ser, por lo menos, igual al valor de dichos
gastos. Debido a las limitaciones de este supuesto, es importante señalar que los métodos
basados en gastos no proporcionan una medida técnicamente correcta del valor
económico; sin embargo, son una aproximación útil cuando no se requiere una valoración
exhaustiva o se disponen de recursos escasos.

Estos métodos de gastos de prevención consideran los gastos en los que se incurre al
prevenir, restaurar o reemplazar los recursos naturales y servicios ecosistémicos afectados
por un impacto negativo, como una medida aproximada de las pérdidas de bienestar social
provocadas, es un método que ve una forma de aportar a ese impacto negativo.

El método principalmente se emplea para valorar el uso indirecto de los ecosistemas


cuando no existe información sobre las funciones ambientales y su relación con los daños
producidos. Para poder aplicar este método, se parte de los precios de mercado de los
bienes y servicios necesarios para el desarrollo de las actividades de prevención,
restauración y reemplazo que resulten óptimas como medidas con las cuales manejar todos
los impactos que afecten negativamente al ambiente. En el caso de existir costos oficiales
de referencia, dichos costos deben constituirse como la base de dichos gastos.
Adicionalmente, se debe tener en cuenta las variaciones proyectadas en el tiempo de los
Índices de Precios del Consumidor y del Productor, durante el tiempo en el cual se
necesitaría efectuar los gastos de las actividades de manejo.
Una de las mejores prácticas para aplicar esta metodología es que existan diferentes
alternativas para la prevención, restauración o reemplazo de los recursos naturales o los
servicios ecosistémicos, por eso siempre se debe tener en cuenta la mejor alternativa
posible. Muy importantes es no solo se deben tener en cuenta los gastos en que se incurra
de forma directa, sino también todos los gastos indirectos. Los precios y costos de
referencia utilizados para estimar el valor de los gastos deben basarse en información real
de los mercados.

Los precios o costos de referencia de los bienes y servicios utilizados para costear los
proyectos deben reflejar adecuadamente los precios de mercado en el momento en el que
se espera que se empiece a generar la afectación. La aplicación de estos métodos no
requiere que efectivamente se desarrollen las actividades de prevención, restauración y
reemplazo, sino ser aplicados bajo escenarios hipotéticos (suponiendo que dichas
actividades se van a desarrollar).

Por otro lado, está el método de gastos defensivos que es similar al de gastos de
prevención, no obstante, su objetivo, a diferencia de los anteriores, es estimar los gastos
necesarios para la mitigación del daño. Debido a que las actividades de mitigación no
garantizan que el bienestar social sea completamente restaurado a su línea base, este
método debe incluir la generación de una adicionalidad, correspondiente con las pérdidas
residuales de bienestar que persisten una vez realizadas las actividades de mitigación.

Para poder aplicar este método de gastos defensivos simple y llanamente consiste en
estimar, a través de los precios de mercado o de costos de referencia, los gastos en que se
debe incurrir para la financiación de los bienes, servicios y acciones necesarias para la
mitigación de un impacto ambiental negativo que esté afectando a la población de forma
directa o indirecta. Hay q tener en cuenta para su aplicación de este método se debe tenerse
en cuenta que, como producto de la mitigación, persiste un impacto ambiental residual, que
debe ser debidamente valorado a través de otro método. No solo se deben tener en cuenta
los gastos en que se incurra de forma directa, sino también los indirectos. Los precios y
costos de referencia utilizados para estimar el valor de los gastos deben basarse en
información real de los mercados. Los precios o costos de referencia de los bienes y
servicios utilizados para costear los proyectos deben reflejar adecuadamente los precios de
mercado en el momento en el que se espera que se empiece a generar la afectación.
Existen diferentes alternativas de manejo para la mitigación de los impactos ambientales.
Al aplicar el método de gastos defensivos, debe valorarse la mejor alternativa posible. El
método de gastos defensivos no solo se puede aplicar cuando efectivamente se contempla
la mitigación como medida de manejo, sino que se puede realizar la valoración con base
en actividades de mitigación hipotéticas.

CASO DE APLICACIÓN
Planta de tratamiento de aguas residual - México
http://sinat.semarnat.gob.mx/dgiraDocs/documentos/ver/estudios/2008/30VE2008HD017.
pdf
Inversión requerida
La inversión requerida para la preparación del sitio y construcción de la PTAR, se estima
en $ 1,000,000.00 (incluye IVA). Debido a que se trata de una obra de gobierno para
beneficio social, no se contempla la amortización de la inversión realizada. Los gastos de
operación y mantenimiento de la PTAR se estiman en $ 118,079.20 anuales. Los costos de
las medidas de prevención y mitigación previstas que se estiman en $ 27,842.19 para este
proyecto.

Dimensiones del proyecto

a) Superficie total del predio: La superficie total del predio es de 1,000 m2.
b) Superficie a afectar: La superficie a afectar con respecto a la cobertura vegetal existente
en el predio, se muestra en el cuadro 2.1, donde se observa que la superficie afectada es
de 240.68 m2 El tipo de ecosistema en la zona de estudio corresponde a bosque de
coníferas. Sin embargo, en el predio de la planta, el sitio ha sido perturbado por actividades
antropogénicas, pero en cierta superficie ha sido reforestado.
Cuadro 2.1 Superficie del proyecto
Tipo de Área (m2)
Elemento
suelo
Pretratamiento 32.43
Caja para dar carga 6.25
Reactor Anaerobio de Flujo Ascendente 22.40
Bosque de
(RAFA)
Coníferas
Filtro Anaerobio de Flujo Ascendente (FAFA) 27.95
Perturbado Lechos de secado del RAFA 16.64
Lechos de secado del FAFA 13.33
Filtro de carbón activado 3.26
Tanque de cloración 3.42
Vialidades 115.00

Total 240.68

c) Superficie para obras permanentes: El proyecto de la PTAR considera que la


superficie de las obras permanentes sea igual a la superficie afectada, que de acuerdo
con el cuadro 2.1, es de 240.68 m2.

Uso actual del suelo y/o cuerpos de agua en el sitio del proyecto y en sus colindancias
Usos de suelo.

El predio en donde se pretende llevar a cabo la construcción de la PTAR no tiene uso


alguno, cuenta con una superficie de 1,000 m2 y es un bosque de coníferas que ha
sido perturbado por actividades antropogénicas y cierta superficie fue reforestado. Se
estima una población de 45 árboles de pino de 1.5 a 2.5 m de altura aproximadamente,
como se muestra en el reporte fotográfico. Los usos del suelo en las inmediaciones
del predio corresponden a cultivos de maíz y bosque de coníferas. A 400 m del sitio
de proyecto, el uso de suelo corresponde a las viviendas de la localidad de Tlaquilpa.

Usos de cuerpos de agua

El cuerpo de agua más cercano a la zona donde se pretende realizar la descarga del
agua tratada es un arroyo que se ubica a unos 25 m de la planta de tratamiento en la
parte más baja. Este arroyo constituye una corriente tributaria del río Apatlahuaya, que
a su vez es afluente del río Tonto.

En virtud de que el río Apatlahuaya no se encuentra incluido dentro de la clasificación


de cuerpos receptores que se establecen en el artículo 278-A de la Ley Federal de
Derechos, el criterio tomado para dicha clasificación consistió en considerar que el
punto de descarga es el río Tonto, debido a que la corriente mencionada, es tributaria
de este río.

De acuerdo con el artículo anteriormente referido, el río Tonto se clasifica como cuerpo
receptor tipo “B”, es decir, uso público urbano, cuyos límites máximos permisibles de
contaminantes en las descargas residuales en aguas y bienes nacionales, están
contemplados en la Norma Oficial Mexicana NOM-001-SEMARNAT-1996, publicada
en el Diario Oficial de la Federación el 6 de enero de 1997.

Urbanización del área y descripción de servicios requeridos

El sitio que será objeto de las operaciones de preparación del sitio y construcción de la
PTAR, se encuentra a 400 m a la localidad de Tlaquilpa, que cuenta con servicios de
energía eléctrica, agua potable y caminos de acceso.

Para la preparación del sitio y construcción del proyecto, no se requiere de servicios,


excepto del suministro de agua, para realizar la actividad de rellenos compactados.

1.5. METODOLOGÍA COSTO - EFECTIVIDAD

Las evaluaciones económicas son una técnica cuantitativa que permite evaluar tecnologías
en salud para el financiamiento público. El sistema de salud es considerado como una serie
de procesos en los cuales las materias primas (hospitales, doctores, enfermeras, equipos
médicos, medicamentos, entre otros) son transformadas en productos sanitarios
(prestaciones de salud, programas sanitarios, calidad de vida) que son finalmente
consumidos por los potenciales clientes (población). La evaluación económica en salud
usualmente mide la diferencia entre la efectividad clínica que aporta una alternativa de
atención en salud frente a otra, y comparar este cambio en la efectividad con la diferencia
en costos entre las alternativas.

Se conoce como el análisis costo efectividad (ACE) y hace referencia al análisis económico
que compara los costos relativos de un proyecto con los resultados o los efectos del mismo,
este es distinto al análisis costo – beneficio el cual asigna un valor monetario a la medida
del efecto.
El análisis costos – efectividad se utiliza con frecuencia en los proyectos que implican
servicios de salud, donde no es conveniente o es inadecuado monetizar el efecto sobre la
salud. El análisis costo – beneficio valora los resultados en términos cualitativos y
normalmente se expresa en términos de una relación donde el denominador es la ganancia
en la salud en cierta medida como por ejemplo (años de vida ganados, nacimientos
prematuros evitados, muertes evitadas, calidad de vida) y el numerador es el costo
asociado con el aumento de la salud. La medida que más se utiliza por sus resultados en
la de años de vida precisos por calidad.

Los resultados esperados de este análisis se visualizan en cuatro cuadrantes.

• Cuadrante 1: Son más efectivos y costosos.


• Cuadrante 2: Son más efectivos y menos costosos.
• Cuadrante 3: Son menos efectivos y costosos.
• Cuadrante 4: Son menos efectivos y más costosos.

En cierta medida el ACE lo que busca es recolectar información sobre una intervención en
términos de cuánto cuesta y cuáles son los beneficios que genera. Los costos se calculan
en pesos de hoy y se tienen en cuenta los precios del proveedor y otros costos asociados
para los trabajadores de la salud o para los pacientes, tales como; tiempos de
desplazamiento o de espera.

También dentro de la terminología que maneja el ACE se encuentran los costos de capital
que hacen referencia a la compra de equipos y construcción de edificaciones que se
requieren para montar el proyecto y los costos recurrentes que hacen referencia a aquellos
necesarios para mantener el proyecto funcionando tales como el recurso humano,
medicamentos e insumos varios.

Luego de haber calculado los costos, se debe calcular lo que corresponda a los años futuros
de la intervención del proyecto y se debe convertir a pesos de hoy mediante una tasa de
interés fijada que excluye el efecto de la inflación y lo que busca es reflejar las preferencias
del consumidor donde este prefiere recibir beneficios hoy que en un futuro prefiere incurrir
en costos en el presente y no incurrirlos a futuro.

En conclusión, podemos decir que la inclusión de una perspectiva económica para evaluar
la atención de la salud se ha convertido en un componente de creciente aceptación en la
política y planificación de la salud. Se ha usado el análisis de costo‐efectividad (ACE) como
una herramienta para abordar los temas relacionados con la eficiencia en la asignación de
los escasos recursos del sector salud, ya que es un método que permite comparar los
costos relativos, así como los beneficios a la salud de las diferentes (y a menudo en
competencia) intervenciones de salud.

CASO DE APLICACIÓN

Como ejemplo para el caso de Costo – Efectividad podemos expresar el siguiente.

Contexto:

AVISAS = años de vida ajustados por discapacidad.

C/E = Costo – Efectividad.

Supongamos que existen tres opciones para intervenir la deficiencia de vitaminas en niños
que asisten al colegio con edades entre 5 a 10 años:

1. Entregarles a las madres, complementos vitamínicos en el hospital.


2. Regalarles a los niños galletas fortificadas con vitaminas todas las mañanas en el
descanso de las 10:00 am.
3. Entregarle a cada niño la dosis de complemento vitamínico cada semana en el colegio
para que sean consumidas en la casa.

Opción 1 Opción 2 Opción 3

Cuesta: $ 1.000.000 Cuesta: $3.000.000 Cuesta: $5.000.000


Evita: 2 AVISAS Evita: 8 AVISAS Evita: 10 AVISAS

Si se hace un análisis incremental, se verá que la opción 1 es la menos costosa y evita 2


AVISAS, por lo que su costo por AVISA será de $500.000, la opción 2 es la siguiente más
costosa, pero solo es dos millones más costosa que la 1, y evita 6 AVISAS más que la 1,
por lo que su razón C/E incremental será $333.333 por AVISA ($2.000.000/6 AVISAS). La
opción 3 cuesta dos millones más que la dos, y evita 2 AVISAS más que la 2, por lo que su
razón C/E incremental será de $1.000.000 por AVISA ($2.000.000/2 AVISAS).
En el siguiente grafico se puede observar que la opción 2 tiene una razón incremental
mucho menor que la 1 (lo cual es evidente porque su pendiente es mayor).

Por lo cual la opción 1 se descarta por “dominancia extendida” y solo quedarían la opción
2 y 3. Al repetir de nuevo el análisis incremental con estas dos opciones, se verá que la
opción 2 cuesta $375.000 por AVISA evitado, y la opción 3 en comparación con la 2 cuesta
$1.000.000 por AVISA evitado.

¿Cuál de las dos opciones es más Costos – Efectiva?

En este punto la sociedad debe decidir si está dispuesta a gastar $375.000 0 $1.000.000
para ganar un AVISA. Lo único que el análisis de Costos – Efectividad aporta es el
conocimiento de las razones de C/E con base a las cuales la sociedad decide cómo
distribuir sus recursos. Si se hubieran tomado las razones crudas de las intervenciones se
mostraría que las opciones 1 y 3 con igualmente costo – efectivas ($500.000 por AVISA), y
que la opción 2 tendría una razón de $375.000 por AVISA. Sin embargo, un diseñador de
políticas podría concluir erróneamente que la opción 3, aunque es “un poco menos” costo
– efectiva que la 2, es mejor porque evita más AVISAS. En realidad, es mucho menos costo
– efectiva que la 2, porque el beneficio adicional en AVISAS evitados en comparación con
la 2 se logra a expensas de un costo adicional muy grande.

1.6. METODOLOGÍA PRECIOS HEDÓNICOS

A diferencia de la mayoría los bienes económicos, los inmuebles se caracterizan por


ser bienes heterogéneos que poseen una diversidad de atributos físicos, funcionales,
de localización y de durabilidad, a la vez que proveen una gama de servicios, como
confort, seguridad, proximidad al empleo y medios de transporte, entre otros. Según
Rosen (1974) los Precios Hedónicos se definen como los precios implícitos de los
atributos y que revelan a agentes económicos de los precios observados de aquellos
productos diferenciados y las características específicas asociadas a ellos. Además,
la metodología estándar proporciona una ecuación hedónica de precios que capta el efecto
de los distintos tributos individuales de un inmueble en la determinación de su valor de
mercado.

La metodología de precios hedónicos se basa fundamentalmente en que algunos


bienes no son homogéneos y difieren en algunas características. En la literatura se han
encontrado diversos artículos donde se han realizado análisis utilizando Modelos de
Precios Hedónicos, ésta técnica la desarrolló Rosen (1974), y consiste en analizar
mercados donde existen bienes heterogéneos, como la vivienda. Así, el precio (P(z))
de un predio está determinado por el valor de cada una de las particularidades del
inmueble, atributos y externalidades.

En otras palabras, es una función (f) de sus características propias y atributos


externos que lo circundan (z1,..., zn). Igualmente, este método es usado para estimar
los costos de bienes y servicios no transados en un mercado (externalidades). Así,
Rosen describe formalmente el equilibrio hedónico en función de los atributos externos,
tal como lo expresa la ecuación P(z) = f(z1,..., zn). Generándose así la postura o
disponibilidad a pagar (DAP) por los consumidores de vivienda e igualándola a la
disponibilidad a aceptar (DAA) de los productores.

Esta metodología intenta averiguar todas las características de un bien que pueden
llegar a explicar el precio de este y a la vez que trata de diferenciar la importancia
cuantitativa para cada uno de estos. Adicionalmente, define los precios implícitos que
posee cada una de las características, obteniendo entonces, la disposición marginal a
pagar por una unidad adicional de dicha característica. Finalmente evalúa las
implicaciones de diversos factores sobre el precio de una construcción.

Por ejemplo debido a externalidades algunos supuestos de esta metodología indican que
el consumidor maximiza su utilidad fija a la restricción del ingreso y que hay un
mercado donde tanto compradores como vendedores transan dicho bien. También se
asume que el precio de mercado mostrará el vector de características que estará
sujeto al número de compradores como de vendedores y de dichas características que
porte el bien. Otro supuesto de esta metodología señala que hay una
complementariedad frágil entre el bien privado y sus características.

Hasta el momento, el Modelo de Precios Hedónicos ha sido utilizado preferentemente en la


evaluación de los beneficios de proyectos sociales en el área habitacional. En este sentido,
el rol de organismos internacionales dedicados a financiar este tipo de proyectos ha sido
determinante. La falta de un instrumental técnico apropiado de evaluación en los países
destinatarios del financiamiento ha llevado a estos organismos a exigir la utilización de esta
herramienta, con distinto grado de éxito. Sin embargo, como se ha visto, la potencialidad
de aplicaciones de la metodología supera con mucho el ámbito estrictamente social,
pudiendo ser utilizada en forma satisfactoria en la evaluación privada de proyectos. La
principal ventaja que provee en este ámbito es la de entregar herramientas conducentes a
la maximización en la utilización de los recursos, y por ende de la utilidad, sujeta al diseño
y aplicación apropiada del modelo. Durante los últimos años, la utilización del modelo ha
sido ampliada en forma exitosa a la valorización, diseño y evaluación de proyectos con
destino habitacional, comercial e industrial.

CASO DE APLICACIÓN:

Como ejemplo para el caso de Precios Hedónicos podemos expresar el siguiente.

Existen diferentes tipos de aplicaciones posibles, para este ejemplo se tomará parte de un
estudio destinado a evaluar la factibilidad económica de un loteo industrial. La Teoría
Hedónica permite estimar la variación en el valor del terreno al efectuar sobre él un proyecto
que modifique su situación actual, de predio agrícola comercializable en un solo ambiente,
a loteo industrial dotado de infraestructura y urbanización básica. Los resultados obtenidos,
de alta significancia estadística (R2 = 0,65), permiten establecer la incidencia de cada uno
de los referidos atributos sobre el valor del suelo urbano. La principal ecuación estimada es
de la siguiente forma: LnP = 1,688 - 0,400LS + 0,506Mix + 0,641Ind + 1,170DCons + 1,179Y
Donde:

LnP: Logaritmo natural del precio del m2 de terreno

LS: Logaritmo natural de la superficie en m2

Mix: Uso mixto del suelo

Ind: Uso industrial dotado de urbanización

Dcons: Densidad de Construcción

Y: Índice de ingreso promedio del vecindario

A continuación, se muestra el resultado que se obtiene al aplicar esta ecuación según los
atributos actuales que presenta la subdivisión de los 657.452 m2 del proyecto:

(1) LnP=1,688-0,4Ln (657.452)+0,506(0)+1,17(0)+0,179(2)+0,641(0)


LnP = - 3,312
P = 0,04 UF/m2

Si se considera la subdivisión en sitios de 5.000 m2 promedio, conservando su uso agrícola,


los resultados anteriores varían de la siguiente forma:

(2) LnP=1,688-0,4Ln(5.000)+0,506(0)+1,17(0)+0,179(2)+0,641(0)

LnP = - 1,361

P = 0,26 UF/m2

Si a lo anterior se agrega el cambio de uso a industrial y la urbanización mínima que ello


requiere, se obtiene finalmente:

(3) LnP=1,688-0,4Ln(657.452)+0,506(0)+1,17(0)+0,179(2)+0,641(1)

LnP = - 0,720

P = 0,49 UF/m2

Los resultados de la estimación hedónica realizada sugieren que es posible alterar


sustancialmente el valor del metro cuadrado de terreno modificando la condición de
ambiente a loteo y el destino de agrícola a industrial, adicionando además el nivel de
urbanización que ello requiere.

1.7. METODOLOGÍA DIFERENCIAL DE SALARIOS

La suposición de este método corresponde a que existe la posibilidad de determinar


mediante la diferencia de lo que cuesta en términos del salario de la mano de obra en un
área que no ha sufrido contaminación y el salario de la misma mano de obra de un lugar
donde el nivel de contaminación puede ser peligroso, qué impacto económico recae sobre
el proyecto al realizar actividades de tipo laboral en condiciones que generen un mayor
riesgo para la salud de un trabajador.

Se debe considerar que el salario de los colaboradores quienes realizan actividades en


zonas contaminadas y en donde existe un mayor riesgo de afectar la salud de estos, deberá
ser mayor que el de aquellos colaboradores que realizan labores similares en sitios más
seguros o sin contaminación pues sería obvio que no ponen en riesgo su salud o integridad.

De acuerdo a varios textos consultados uno de los ejemplos más claros tenían que ver la
actividad de la bananera en Centroamérica, allí los trabajadores realizaban trabajos de corte
y carga de banano y con jornadas elevadas comparadas con otro operarios, en este caso
podían trabajar hasta 12 horas continuas y diarias, adicionalmente estos colaboradores
estaban expuestos a los químicos de tipo agrícola que se usaban en esta empresa, muchos
de los cuales estaban comprobados que podrían afectar de manera considerable la salud
de las personas que estuvieran expuestas a ellos, podían afectar las vías respiratorias,
causar afectaciones en la piel y causar afectaciones en la vista.

La relación de la diferencia de salarios es casi de un 60%, es decir mientras un operario


normal podía ganar 100 unidades, este tipo de colaboradores solo ganarían un total de 40
unidades, adicionalmente hay otras variables que determinan los niveles de los salarios,
como por ejemplo la oferta total, las posibilidades de migración desde países vecinos, el
nivel de formación y los costos de seguridad social entre otros.

Dentro de los varios factores que se evalúan para realizar la diferenciación del salario son
el nivel de educación y la experiencia que tiene el empleado. Claro está que muchos de los
factores también repercuten el tipo de empresa, la industria en la que está la compañía, la
ciudad, la locación dentro de la ciudad (es decir el estrato). Los aspectos como la educación
y experiencia son factores que influyen de manera relevante en el momento de una
asignación salarial, puesto que de acuerdo al nivel en que se encuentre la persona será
apto para un cierto tipo de trabajo. No obstante, en varios casos el hecho de tener una
carrera universitaria no implica que se vaya a tener un buen nivel salarial ya que
dependiendo el tipo de empresa y el entorno en el que se encuentre será de más relevancia
la experiencia y en muchos casos a edad del trabajador. Los trabajadores con
características similares recibirán salarios diferentes dependiendo de la industria a la que
pertenezcan.

Otro factor que está muy marcado a nivel mundial y que está de manera transversal para
cualquier tipo de industria es el Género de la persona, la diferenciación entre hombres y
mujeres es una realidad latente en todo el mundo, el salario de un hombre versus el de una
mujer bajo las mismas condiciones de experiencia, estudios y entorno supera al otorgado
a una mujer.
Los precios para la oferta laboral según el área o lugar de trabajo, se deben validar atributos
como los riesgos de salud y la presencia de herramientas y/o lugares para diversión o pasar
el tiempo libre. De esta manera el pago de una prima por riesgo solo ocurrirá si el mercado
no es altamente competitivo.

Esta metodología también se basa en la competitividad del mercado, de este modo el


salario que se paga a una persona hace referencia a la oferta y la demanda de un tipo de
empleo, y para esto aplican o se tienen en cuenta aspectos adicionales en los que se basa
la asignación del pago de un salario, como los mencionados anteriormente.

CASO DE APLICACIÓN

Diferenciales salariales en Colombia: un análisis para trabajadores rurales y jóvenes, 2002-


2009.

Este caso se basa en la diferencia de salarios para las personas que viven en áreas rurales
y personas entre 18 - 24 años y mayores (25-65 años) en el periodo durante 2002 - 2009.
De acuerdo con los indicadores entregados de desempleo de este periodo se evidencia una
tasa de desempleo en la zona rural por debajo de los de la zona urbana (esto para el mismo
periodo), teniendo en cuenta los datos por el Instituto de Estadísticas de Colombia. Estas
tasas arrojan resultados en donde el desempleo para personas entre 18 y 24 años
incrementa y son cercanos al doble de la tasa promedio de toda la economía.

Los diferenciales salariales encontrados son de -50 por ciento para trabajadores rurales y -
40 por ciento para jóvenes, de los cuales alrededor de 14 y 19 puntos porcentuales,
respectivamente.

Así mismo las brechas salariales se analizan por grupos de edad, lo cual es calculado con
base a los grupos de 18 a 24 y 25 en adelante. Este tipo de diferenciación en Colombia no
se ha realizado, no se han realizado estudios sobre los diferenciales entre jóvenes y
mayores, por lo que no se conocen las magnitudes ni los factores que pueden incidir en
que los jóvenes reciban un menor pago frente a las personas de más de 25 años de edad.
Para el período 2002 - 2009, los jóvenes de 18 a 24 años ganaron en promedio de 37,5 por
ciento a 41,2 por ciento menos que los trabajadores con edades entre 25 y 65 años.

Este caso estudio, se logró determinar que los salarios de los individuos son altamente
desiguales, sin embargo, se tienen en cuenta factores como el sexo, la ubicación
geográfica, la educación y la edad. Se logra determinar que se deben enfatizar las acciones
dirigidas a ampliar la cobertura y calidad educativa en zonas rurales y de esta manera se
disminuirá a mediano y corto plazo la tasa de desempleo.

1.8. METODOLOGÍA COSTO DE VIAJE

Este método se usa de forma que se pueda cuantificar el beneficio económico de las
actividades tales como recreación en las zonas donde se hayan diseñado para tal actividad;
como por ejemplo los parques nacionales, refugios de vida silvestre y todo aquel lugar en
que las personas utilizan para disfrutar de la naturaleza.

Este método se basa en el principio de que el valor de estas áreas puede ser determinado
con base en la disposición que tengan las personas para pagar por gozar de los bosques,
el mar, lagos y cualquier otro sitio dedicado a la recreación. Para poder aplicar este método
es necesario contar con información sobre:

• El costo del viaje al sitio según el tipo de transporte a usar. Si se trata de turista
extranjero, este costo es la suma del costo del tiquete aéreo y el costo del transporte
desde el aeropuerto o el hotel hasta el sitio en particular. Este transporte puede ser
terrestre, aéreo, por agua o una mezcla entre ellos. Es usual que los turistas
extranjeros adquieran en su país de origen, ya sea desde agencias de viajes o
intermediarios en donde el transporte este incluido en su paquete de viaje. En el caso
del turismo local que se desplaza usualmente con vehículo propio, debe considerarse
el costo del combustible y los costos fijos del vehículo como el seguro e interés y la
depreciación.
• El costo de oportunidad del tiempo que los visitantes invierten durante la visita al sitio.

• El costo de la entrada al sitio en el caso de que lo requiriera.


El autor Panayotou (1993) define cinco pasos para aplicar este método:

1. Se establecen círculos concéntricos alrededor del área, cada uno a igual distancia
de viaje que el otro.
2. Se debe realizar una encuesta a los usuarios del sitio con el fin de obtener
información sobre su lugar de origen, la frecuencia de las visitas, su ingreso, el costo
de movilización hasta el sitio, su nivel de educación y otras características
socioeconómicas que se consideren de interés.
3. Se calcula la tasa de visitas de acuerdo con cada una de las áreas que abarcan los
círculos.
4. Con base a la información obtenida en la encuesta, se construye un modelo de
regresión que relacione la tasa de visitantes para el costo de movilización
correspondiente con las variables socioeconómicas como el ingreso, la educación,
sexo entre otras. Esto con el fin de establecer la curva de la demanda del lugar.
5. Se debe calcular el excedente del consumidor, el cual constituye un estimado del
valor de ese activo ambiental.

En estos casos, lo que se obtienen son estimaciones de los valores de uso asociados con
ecosistemas y sitios destinados a actividades de recreación. Este método también supone
funciones de utilidad débilmente separables. En comparación con el método de valoración
contingente, el método del costo de viaje se basa en las actividades que la gente realiza,
en lugar de lo que la gente declara.

Para poder aplicar este método es preciso contar con información acerca de la utilización
real del entorno natural bajo estudio y luego, compararlo con el costo pagado para poder
hacerlo.

Este método parte de la premisa de que el tiempo y el dinero empleados para realizar el
viaje al sitio bajo estudio representa el precio de acceso al mismo. Por consiguiente, la
disposición a pagar para visitar el sitio se puede estimar a partir del número de visitas que
realiza la gente incurriendo en diversos costos de viaje.

A continuación, referenciamos las ecuaciones usadas para calcular el costo de viaje zonal
y el costo de viaje individual:
El costo de viaje zonal:

La función de demanda que, entre otras posibilidades, podría expresarse de la siguiente


forma:

𝑉ℎ𝑗
= 𝑓(𝐶ℎ𝑗 , 𝑆ℎ , 𝐴𝑗𝑘 , 𝑒ℎ𝑗
𝑃ℎ

En la que: Vhj es la cantidad de visitas al lugar j desde la zona h; Ph es la población de la


zona h; Chj representa el costo de llegar al espacio j desde la zona h; Sh constituye un
conjunto de características socioeconómicas (nivel de ingreso, promedio de edad, cantidad
y tipo de vehículos, etc.) de la población de la zona h; Ajk corresponde a un grupo de
características del sitio j (limpieza, congestión, facilidades para acampar, calidad del agua,
etc.); y por último, ehj es el término de error estocástico.

A continuación, referenciamos la ecuación de:

𝑉𝑖𝑗 = 𝑓(𝐶𝑖𝑗 , 𝑀𝑖 , 𝐹𝑖 , 𝐺𝑖 , 𝑁𝑖 , 𝑃𝑖𝑗 , 𝐸𝑖𝑗 , 𝐿𝑖𝑗 , 𝐴𝑖 , 𝑄𝑖 , 𝑒𝑖𝑗

El costo de viaje individual:

Esta alternativa es preferida en términos teóricos, pues al parecer se utiliza con menor
frecuencia que el enfoque anterior de costo de viaje zonal y vamos a analizarla pues
presenta dificultades que presenta su aplicación por la cantidad de variables que usa:

𝑉𝑖𝑗 = 𝑓(𝐶𝑖𝑗 , 𝑀𝑖 , 𝐹𝑖 , 𝐺𝑖 , 𝑁𝑖 , 𝑃𝑖𝑗 , 𝐸𝑖𝑗 , 𝐿𝑖𝑗 , 𝐴𝑖 , 𝑄𝑖 , 𝑒𝑖𝑗

𝑉𝑖𝑗 representa la cantidad de visitas que el encuestado i realiza al área bajo estudio j; 𝐶𝑖𝑗
es el costo en el que incurre para llegar al sitio; 𝑀𝑖 es una variable dummy que permite
evaluar si la persona pertenece a alguna organización vinculada a la conservación del
medio ambiente; 𝐹𝑖 es también una variable dummy que determina si la persona es capaz
de identificar algún otro sitio del mismo tipo (por ejemplo, un bosque) que él considere
sustituto del sitio analizado; 𝐺𝑖 es otra variable dummy que establece si el encuestado
reconoce otro sitio pero perteneciente a un grupo distinto (siguiendo con el ejemplo anterior,
podría ser una laguna) que sirva de sustituto de la actividad que se desarrolla en el sitio y
no del sitio en sí mismo; 𝑁𝑖 es el tamaño del grupo que acompaña al encuestado i; 𝑃𝑖𝑗
constituye otra variable ficticia que indica si la visita al sitio particular fue el único motivo del
viaje; 𝐸𝑖𝑗 representa la proporción en que el encuestado considera que la visita al sitio
contribuyó al goce del paseo; 𝐿𝑖𝑗 es la cantidad de horas pasadas en j; 𝐴𝑖 representa la
edad del encuestado; 𝑄𝑖 su ingreso y 𝑒𝑖𝑗 constituye el término de error estocástico.
Al analizar la cantidad de variables que usa este modelo podemos darnos cuenta del porque
constituye de alguna manera un problema pues por la cantidad y complejidad de variables
que se requieren para poder recolectarlas, aun así, se deben obtener, para así mismo poder
definir cuál es el costo del viaje individual y de esta manera lograr monetizar los impactos
sociales de un proyecto de este tipo.

CASO DE APLICACIÓN

Aplicación del método del coste de viaje individual para la valoración recreacional del
parque regional el Valle y Carrascoy.

El caso que es materia de estudio en este trabajo, hace referencia al Parque Regional El
Valle y Carrascoy ya que este sitio que se encuentra como parque turístico y ha tenido una
gran demanda de visitantes por la cercanía que tiene a los centros donde se concentra la
mayor parte de la población. En este análisis se haya el beneficio (Excedente del
consumidor) obtenido por los individuos que visitan este parque, es decir se utilizó el método
individual, en donde se realizó una encuesta a una muestra de 215 individuos al azar que
visitaban el parque.

En esta en cuenta se tuvieron varios aspectos importantes antes de llevarla a cabo, ya que
las preguntas que se iban a realizar debían tener presente el tipo de población, edad, grupos
familiares, procedencia, sexo, entre otros. Asimismo, estas encuestas fueron realizadas en
diferentes puntos del parque con el fin de tratar de recopilar características de los visitantes
y así tratar de evitar cualquier tipo de segmentación a una sola zona parte del parque.

Una vez recogidos los datos, se realiza el análisis de datos acerca de las características de
los usuarios, número de visitas al parque, sitios del parque más visitados, actividades que
las personas más suelen hacen, rango de edades de los usuarios que más visitan el parque
y el medio de transporte. Este último factor fue uno de los más relevantes pues se pudo
evaluar que uno de los fundamentos del método del coste del viaje radica en que visitantes
de zonas más alejadas incurren en costes mayores, lo cual indica que cuanto mayor es el
coste de desplazamiento para acceder al Parque, menor es el número de viajes realizados.
La cercanía las poblaciones con mayores habitantes convierten en el Parque Regional más
visitado por lo cual sufre un mayor impacto humano en su territorio. Con el paso del tiempo
el Parque ha ido adquiriendo un perfil más recreativo para el disfrute de los ciudadanos con
un posible decremento del uso o calidad ambiental.

En general, este bien es un bien inferior a que a mayores gastos que el individuo tenga
menor será la cantidad de veces que iría al parque.

1.9. METODOLOGIA COSTO REPOSICIÓN

Corresponde al valor o precio del mercado para poder tener el precio de la mercancía o
materia prima inicial y disponible.

Es decir, que es la diferencia entre un precio actual de un bien, servicio, factor económico,
recurso productivo y el valor en el que este fue adquirido.

En otras áreas como en la contabilidad se utiliza, para valorizar la existencia o los


inventarios cuando existe la inflación, que es el aumento de los precios de bienes y servicios
en un periodo de tiempo, si este se analiza de forma real es tener menos dinero para adquirir
ese bien o servicio, sin tener en cuenta la depreciación sufrida.

Se entiende como el costo actual estimado de reemplazo de bienes existentes como si


fueran nuevos, ya que este precio se debe pagar a un producto, servicio y/o activo similar
al que ahora está evaluado.

Adicional, este precio corresponde al valor que tenía en tiempos atrás y por medio de la
revalorización, el mismo bien es evaluado en precio real al tiempo en que se desea adquirir.

Este costo de reposición se conoce como costo de reemplazo, que se utiliza para estimar
y valorar algún bien que fue dañado y que es necesario ser restaurado, siempre y cuando
se tenga la certeza que podrá ser adquirido y que cumple con las indicaciones para suplir
el anterior bien que debe ser similar.

Este costo se puede aplicar en los activos, cuentas por cobrar, edificios entre otros, en este
precio se deben de tener en cuenta variables como la variación del tipo de cambio, aumento
del IPC, inflación y cambios en el valor del mercado.
La fórmula matemática se utilizará con un tiempo de 20 años.

CAPITAL TOTAL INVERTIDO


COSTO DE REPOSICIÓN = 20 AÑOS

El capital total invertido es la unidad de producción obtenido mediante los procedimientos


de evalúos en un lapso de tiempo.

En este caso, podemos considerar que este factor se emplea para analizar el saldo de
mercancía que se tiene en existencia o en stock, es decir los mercados disponibles para la
venta, materias primas, productos en proceso de elaboración, productos terminados y todo
lo que se pueda comprar hoy y vender en otros años.

Se puede dividir en forma directa:

• Listas de precios de proveedores


• Precios de compras y órdenes de meses anteriores
• Conversión de tipo de cambio
• Cotizaciones en mercados públicos y privados
Forma Indirecta:

• Costos mediante índices específicos


• Presupuestos de gastos de producción
• Valores de salarios y cargos sociales
• Precios antiguos pactados vs precios vigentes

La parte negativa de este costo es que en las empresas puede ser negativo, debido a los
comportamientos anteriormente mencionados, ya que puede actuar de parte negativa sobre
el patrimonio de la empresa, sin embargo, se analiza si ese bien se puede sustituir ya que
la tecnología aumenta cada día y si se tiene mercancía en inventario por largo tiempo, este
puede ser ya no útil en un futuro y tendrá un costo similar al de su compra inicial.
Finalmente, en el caso de las materias primas, este puede no tener gran impacto ya que el
precio es tan variable que depende si se puede revalorizar al momento de su venta o
proceso de producción.

Ejemplo

Como ejemplo vamos a tomar el implemento del IPC que se tiene cada año.

Podemos evidenciar que el bien en 1954 tenía un valor de 1 peso y en 1998 su valor
aumentó, eso pasa con todos los bienes que se manejan en inventarios.

Otro ejemplo es el aumento de los niveles de ruido en los apartamentos cerca al aeropuerto,
cuando inició la ampliación del Aeropuerto de Bogotá, las empresas de vidrios ya tenían la
materia prima para poder abastecer la demanda de los apartamentos que se estaban
creando hacia la zona, ya que la solución fue colocar doble acristalamiento ya que ayuda a
evitar el ruido, por lo menos cuando se esté dentro de las edificaciones su valor inicial fue
menor al que hoy los empresarios podrán venderlo.

1.10. METODOLOGÍA PROYECTO SOMBRA

Este método se constituye como una variante de los métodos presentados anteriormente,
ya que, al igual que estos, busca estimar los gastos de prevenir, restaurar, reemplazar o
mitigar todo un conjunto de servicios ambientales que se vean afectados por el desarrollo
de actividades de origen antrópico. Su particularidad consiste en que la valoración de dichos
gastos se realiza mediante el costeo de un proyecto, real o hipotético, cuyo objetivo sea
adelantar las medidas de manejo respectivas.

De esta manera, a través del método de Proyectos Sombra se busca determinar los costos
totales de los potenciales proyectos que prevengan, restauren, reemplacen o mitiguen un
conjunto de recursos naturales y servicios ambientales, con el fin de utilizar dicho costo
como una aproximación al valor de la pérdida de bienestar generada por una afectación
sobre los Recursos Naturales o los Servicios Ecosistémicos.

Aplicación:

En una primera etapa se debe identificar el atributo o daño ambiental que se desea valorar,
enseguida, con el análisis de un panel de expertos, se estiman los requerimientos físicos y
servicios necesarios para prevenir, restaurar, reemplazar o mitigar el parámetro ambiental
afectado. En una segunda etapa, se presupuesta un proyecto, real o hipotético, que
contemple todas las actividades y productos necesarios, con lo cual se obtiene una
aproximación al costo social del daño ambiental provocado.

Mejores prácticas:

1- Debido a que este método es una variante de los métodos de gastos de prevención,
restauración, reemplazo y defensivos, las recomendaciones realizadas anteriormente
también son aplicables a este método.

2- Los precios o costos de referencia de los bienes y servicios utilizados para costear los
proyectos deben reflejar adecuadamente los precios de mercado en el momento en el
que se espera que se empiece a generar la afectación.

3- No en todos los escenarios de valoración resulta necesario que el proyecto sombra


realmente se ejecuten. En algunos casos, solo se desea estimar el valor económico de
las pérdidas de bienestar, al margen de las medidas de manejo que se efectúen.
Ejemplo de Ejercicio de precio sobra:

Una de las ventajas de la utilización del Método Simplex es que además de permitir
encontrar la solución óptima y valor óptimo de un modelo de Programación Lineal (cuando
existe) es que proporciona información valiosa para el Análisis de Sensibilidad o
Postoptimal.

En este artículo en particular nos enfocaremos en cómo utilizar los resultados de la tabla
final del Método Simplex para el análisis del Precio Sombra de una restricción. Para ello
consideremos el siguiente problema el cual se puede representar a través de un modelo
con dos variables de decisión.

Ejemplo del Cálculo del Precio Sombra con el Método Simplex:

Una empresa administradora de fondos dispone de 21 millones de pesos para invertir en


bolsa. El departamento de estudios de inversiones recomienda dos tipos de instrumentos
financieros, que llamaremos tipo A y tipo B. Los del tipo A tienen una rentabilidad del 10%
anual y los del tipo B del 8% anual. Por razones de políticas de gestión del directorio se
decide invertir un máximo de 13 millones de pesos en las del tipo A y como mínimo 6
millones de pesos en las del tipo B. Además, la inversión en los instrumentos del tipo A
debe ser menor o igual que el doble de la inversión destinada a los instrumentos tipo B.

Sea x e y los millones invertidos en los instrumentos A y B, respectivamente, el modelo


de Programación Lineal que permite maximizar la rentabilidad de la administradora sujeta
a las condiciones impuestas es el siguiente:

En particular el problema anterior puede ser resuelto a través del Método Simplex de Dos
Fases. Para ello se agregan variables de holgura para la primera, segunda y cuarta
restricción. En el caso de la tercera restricción se agrega una variable de exceso y una
variable auxiliar. Otra alternativa sería imponer un cambio de variables, definiendo por
ejemplo de modo que que evita la aplicación del Método
Simplex de Dos Fases y requiere reemplazar en el modelo anterior la variable por

Adicionalmente existen una serie de herramientas computacionales que permite resolver


online un problema de Programación Lineal a través del Método Simplex. Una de ellas se
encuentra en: Método Simplex Online Programación Lineal.

1.11. METODOLOGÍA TÉCNICA DELPHI

El método Delphi es una técnica de investigación, que busca la opinión de diferentes grupos
de expertos en un área o tema determinado. Lo que busca es reunir información y
ponderarla y con esto tomar la mejor decisión.

El método Delphi se engloba dentro de los métodos de prospectiva, que estudian el futuro,
en lo que se refiere a la evolución de los factores del entorno tecno-socioeconómico y sus
interacciones.

El primer estudio de Delphi fue realizado en 1950 por la Rand Corporation para la fuerza
aérea de Estados Unidos, y se le dio el nombre de Proyecto Delphi. Su objetivo era la
aplicación de la opinión de expertos a la selección de un sistema industrial norteamericano
óptimo y la estimación del número de bombas requeridas para reducir la producción de
municiones hasta un cierto monto.

Es un método de estructuración de un proceso de comunicación grupal que es efectivo a


la hora de permitir a un grupo de individuos, como un todo, tratar un problema complejo. La
capacidad de predicción de la Delphi se basa en la utilización sistemática de un juicio
intuitivo emitido por un grupo de expertos.

El objetivo de los cuestionarios sucesivos es “disminuir el espacio intercuartil, esto es cuanto


se desvía la opinión del experto de la opinión del conjunto, precisando la mediana”, de las
respuestas obtenidas.
Dentro de los métodos de pronóstico, habitualmente se clasifica para el método delphi
dentro de los métodos cualitativos o subjetivos.

La calidad de los resultados depende, sobre todo, del cuidado que se ponga en la
elaboración del cuestionario y en la elección de los expertos consultados.

Este método se emplea bajo las siguientes condiciones:

• No existen datos históricos con los que trabajar


• El impacto de los factores externos tiene más influencia en la evolución que el de los
internos
• Las consideraciones éticas y morales dominan sobre las económicas y tecnológicas
en un proceso evolutivo.
• Cuando el problema no se presta para el uso de una técnica analítica precisa.
• Cuando se desea mantener la heterogeneidad de los participantes a fin de asegurar
la validez de los resultados
• Cuando el tema en estudio requiere de la participación de individuos expertos en
distintas áreas del conocimiento.

Para la aplicación del método Delphi se utiliza la información de la siguiente manera, en


fases:

1. Se plantea la formulación del problema: Consiste en detectar factores relevantes que


pueden condicionar el futuro del objeto de investigación y definir los ejes de la discusión, se
debe tener en cuenta la hipótesis planteada.

2. Elección de los expertos: Esta selección es fundamental dar solución a dos factores
problemáticos: el tipo de experiencia requerida para formar parte del grupo y el tamaño de
la muestra. El experto es: “aquel individuo cuya situación y recursos personales le
posibiliten contribuir positivamente a la consecución del fin que ha motivado la iniciación del
trabajo Delphi”, y que puede a su vez aportar una perspectiva relevante a la investigación.
Respecto al número de expertos considerados, se considera que un grupo de 15 a 20
expertos es el ideal.
• Dimensión cualitativa: Se seleccionan en función del objetivo prefijado y atendiendo
a criterios de experiencia posición responsabilidad acceso a la información y
disponibilidad.
• Dimensión Cuantitativa: Elección del tamaño de la muestra en función de los recursos
medios y tiempo disponible.

3. Elaboración y lanzamiento de los cuestionarios: En esta etapa se remite el cuestionario


para que sea diligenciado por los expertos seleccionados.
Se suelen realizar preguntas cuantitativas y de fácil respuesta, pueden ser preguntas
abiertas o de selección de opciones.
Posteriormente se procede a seleccionar un grupo heterogéneo y significativo. Resultados
con conclusiones.

4. Explotación de los resultados: Se evalúa cada opinión y se obtiene una diferencia o media
cuantitativa del consenso grupal. Además, se pueden realizar tantas oleadas de
cuestionarios como se requieran hasta cumplir objetivos precisos. Y es que, a pesar de ser
un método que se incluya en la investigación cualitativa, también se usan técnicas
cuantitativas, además de los comentarios cualitativos de los expertos.

El ‘Delphi prospectivo’ o de dirección estratégica es una modalidad de análisis de expertos.


Permite definir escenarios (marcos prospectivos) y guiar en la toma de decisiones en el
diseño y la construcción del futuro (dirección estratégica).

Otras modalidades del método de expertos:

1. Delphi histórico. Indaga sobre el pasado a partir de la acumulación de conocimiento


histórico o del avance científico que se da entre un grupo de expertos.

2. Delphi de situación. Trata de consensuar la mejor respuesta ante un problema


sobrevenido para la toma de decisiones (en ocasiones se sustituye por un ‘Delphi’
presencial, grupo de discusión, etc.).
APLICACIÓN

Aplicación del método Delphi a las decisiones financieras en situaciones de incertidumbre.

Para el ejemplo de aplicación de la técnica se utilizó el método Delphi prospectivo.


Combinándolo con una de las herramientas que más ha demostrado su aplicabilidad en
cuestiones de administración de empresas, finanzas y economía y que son los números
borrosos triangulares (NBT).

Primera fase:

Planteamiento del problema: para el ejemplo el problema a analizar esta en la necesidad


que puede tener una organización privada o pública a la hora de efectuar su plan
estratégico, referido a planes de inversión, para los próximos años

Segunda fase:

Elección de los expertos: para el ejemplo de aplicación se seleccionaron 6 expertos en


economía que deben tener en cuenta que al trabajar con subconjuntos borrosos se
establece una correspondencia semántica para los diferentes grados de pertenencia. El
número de escalas semánticas, o niveles de confianza, que se necesiten depende de
cuántas graduaciones necesitemos para distinguir la posibilidad de los diferentes
resultados.

Tercera fase:

Elaboración y lanzamiento del cuestionario: Dado que las cuestiones a consultar a los
expertos son acotadas y están claramente definidas, el método Delphi Borroso partirá de
un cuestionario cerrado donde se forzará a los consultados a pensar en términos de un
NBT. Para alcanzar este fin, se solicitará a cada experto que piense un escenario pesimista,
un escenario base (o más posible) y un escenario optimista.

Cuarta fase:

Explotación de los resultados: según los realizadores de la investigación y la organización


que efectúa la consulta se da por satisfecha, no es necesario replicar el cuestionario a los
expertos. No obstante, se recomienda realizar al menos una segunda vuelta informando a
cada experto la relación o distancia entre su opinión y el NBT medio que resulta para el
grupo. De este modo cada uno de los expertos podrá revisar sus argumentos y modificar o
no su anterior respuesta.
CONCLUSIÓN

Como conclusión se obtiene que, de esta manera, se consigue representar mediante


números borrosos triangulares los hechos económicos y financieros inciertos que deberá
afrontar la organización, mejorando la calidad de la información brindada por el método
Delphi tradicional.

1.12. METODOLOGÍA JUEGOS DE LICITACIÓN

La Teoría de Juegos estudia de manera formal y abstracta las decisiones óptimas que deben
tomar diversos adversarios en conflicto, pudiendo definirse como el estudio de modelos
matemáticos que describen el conflicto y la cooperación entre entes inteligentes que toman
decisiones. Tales decisiones se consideran estratégicas, es decir, que los entes que
participan en el juego actúan teniendo en cuanta las acciones que tomarían los demás.
Como vemos, la teoría de juegos se usa en el plano académico para plantear las hipótesis
y probar su coherencia interna. Y aquí empieza un problema. La teoría, para ser reconocida
como válida, debe ser acorde con los hechos. Y no sólo ser acorde con los hechos, sino
también predecirlos y ayudar a resolver problemas prácticos. Para la teoría de Juegos este
test resulta difícil. Los que usan los juegos son los académicos.

Un número sustancial y creciente de transacciones, en todo el planeta, se realiza a través


de subastas y licitaciones. Tanto en el sector público como en el privado, el intercambio de
bienes y servicios ha encontrado en los procedimientos competitivos de presentación de
ofertas un instrumento de suma utilidad para realizar las compras y las ventas de una forma
más transparente y eficiente. Desde grandes privatizaciones y concesiones de licencias para
comunicaciones personales hasta las compras de insumos básicos, la variedad de bienes y
servicios que se intercambian de esta manera es muy significativa. Asimismo, las subastas
permiten en muchos casos que se “descubra” el precio de bienes que no cuentan con un
mercado desarrollado al que se pueda tomar como punto de referencia.

El empleo de plataformas electrónicas, que ha facilitado considerablemente la realización de


subastas y licitaciones, ha multiplicado las posibilidades y la utilización real de estos
procedimientos. Paralelamente al avance de su uso práctico, la teoría de subastas adquirió
también un desarrollo considerable.1 De hecho, muchos mecanismos efectivamente
empleados han resultado, en gran medida, adaptaciones de diseños teóricos previos.
Igualmente, la práctica de las subastas y licitaciones ha generado nuevos desafíos para la
teoría.

El mecanismo de la licitación pública es la herramienta comúnmente utilizada por los estados


para generar competencia en la contratación pública, y de esta manera el Estado garantiza
la obtención de bienes o servicios de alta calidad a precios competitivos, y libera recursos
económicos para la satisfacción de otras necesidades públicas. Es relevante añadir, que las
licitaciones deben dar respuesta a una serie de principios generales, basados principalmente
en la transparencia pública, y que se complemente con los principios rectores de la
contratación general.

Para el método de juegos de licitación los jugadores son entes decidores que se consideran
racionales, no necesariamente humanos, porque las nuevas tendencias de la Biología
explican la formación de los instintos o de numerosos mecanismos de cooperación animal
por medio de la Teoría de Juegos.

La teoría de licitaciones es un área donde la teoría de juegos ha sido fructífera. Se define el


valor Vi de un bien común como la utilidad para el agente i, expresada en pesos, del bien
que está siendo licitado. La valuación i del bien es la estimación del agente i de este valor,
donde se llamara una licitación de valuación común aquella en que los participantes
compiten por un bien con una valuación que es la misma para todos: un ejemplo es la
licitación de títulos de deuda por un banco central (Vi=Vj), una licitación es de valuación
privada cuando los agentes conocen sus propios valores, pero esta información es
confidencial y no la conocen los demás agentes (Vi=Vj*).

Clasificación de las licitaciones es:

a. Sistema inglés: cada comprador anuncia su postura y la puede subir. Cuando nadie quiere
subir más, la postura más alta se lleva el bien y paga su postura. La estrategia dominante
cuando la valuación es privada es siempre ofrecer épsilon más que la más alta postura
hasta que el agente llega a su valuación y entonces para las ofertas, el agente que se
queda con el bien paga solo un épsilon más que la segunda mayor valuación.

b. Sistema Holandés: el vendedor anuncia una postura inicial y la comienza a bajar hasta
que algún comprador lo detiene y se lleva el bien a esa postura. La estrategia óptima no
se conoce.
c. Sobre cerrado, mayor postura: cada participante entrega su postura sin conocer la de los
demás participantes. La mayor postura se lleva el bien y paga lo ofrecido, no se conoce
la estrategia óptima.

d. Sobre cerrado, segunda postura: cada participante entrega su postura sin conocer la de
los demás participantes, la mayor postura se lleva el bien y paga lo ofrecido por la
segunda oferta más alta. La estrategia optima es ofrecer una postura igual a la valuación,
ya que, si se ofrece menos, hay probabilidades de perder, pero si se gana se paga lo
mismo.

El favoritismo es usual en las compras y ventas realizadas mediante licitaciones y subastas,


y da lugar a diversas prácticas discriminatorias. El favoritismo puede justificar la
discriminación y cuál es el formato óptimo de subasta para un vendedor o comprador cuando
prefiere algunos participantes a otros.

La gestión del alcance en la presentación de licitaciones se enfoca en definir y controlar qué


se incluye y qué no se incluye en la presentación de la licitación

EJEMPLO

Decisión de los licitantes Una vez que se ha creado la subasta hasta el periodo en el que el
producto es adjudicado al licitador que ha presentado la puja única más baja, existen dos
fases de gran importancia en las subastas LUBA, que son:

La decisión de la inversión, en esta fase los diferentes oferentes tienen costes que van
aumentando por cada oferta que se presenta. Antes de la fase de licitación, estos pujadores
tienen que establecer un límite superior en la cantidad de dinero que están dispuestos a
invertir, determinando así el número máximo de ofertas que un jugador puede realizar.

En la elección de su máximo de inversión, el postor debe comparar la probabilidad de ganar


la subasta LUBA con las pérdidas que pueda tener en caso de que no ganara, este problema
lo soluciona maximizando la utilidad esperada E0 (ui). De forma ex ante cada postor tiene la
misma probabilidad de ganar el LUBA, pero un licitador que presente más ofertas 31 que
sus oponentes, tiene más posibilidades de conseguir la oferta ganadora y con ello ganar la
subasta, siempre teniendo en cuenta la cuota que hay que pagar por cada puja realizada y
la cantidad de dinero que un agente quiere invertir en el juego.
Por lo tanto, según la fase de licitación la probabilidad que tienen los jugadores a priori de
ganar la subasta depende principalmente de la inversión del jugador i y los niveles de
inversión del resto de jugadores. Cuando los jugadores en t=0 deciden su nivel óptimo de
inversión, no tienen en cuenta el pago que les supondrá, abonar su oferta ganadora en el
caso de que ganen la subasta, aunque en este caso hemos mencionado que se trata de una
cantidad insignificante.

La maximización de este problema plantea la decisión de inversión de una subasta LUBA,


como un juego de búsqueda de rentas, lo que viene a ser un juego de probabilidades en el
que los jugadores compiten por un premio realizando pujas que les suponen recursos
costosos. Para resolver este problema de forma explícita tenemos que especificar algunas
propiedades:

• Un agente que no participa, es decir que no presenta ninguna oferta, ηi max = 0, no


tiene ninguna posibilidad de ganar.
• Si solo existe un único participante, entonces es el ganador de forma segura.
• Si dos jugadores invierten la misma cantidad de dinero en la subasta, tienen las
mismas posibilidades de éxito.
• La probabilidad de ganar el juego va en aumento según la inversión realizada y hace
reducir débilmente la de los oponentes.

El número máximo de ofertas que un agente racional presenta va en función creciente de su


valoración por el bien subastado y en función decreciente por la cuota que hay que abonar
con cada una de las ofertas.

La fase de licitación se trata de un periodo en el que se seleccionan la adquisición de bienes


y servicios, en este caso mediante la subasta. Para ello vamos a estudiar las posibles pujas
realizadas por los postores, 32 siendo ηi ∈ N, la cantidad máxima de ofertas que puede
realizar cada pujador i de forma racional en la Subasta de Puja Única más Baja; siendo esta
cantidad diferentes entre los jugadores dependiendo del carácter de cada uno.

• Cuando ηi max = 0, el licitador no presenta ninguna oferta, lo que quiere decir que no
participa en la subasta.
• Cuando ηi max ≥ 1, en este caso los licitadores están en activo y presentan diferentes
ofertas en la subasta.
Los agentes que presentan las ofertas en el periodo t ∈ {1... T}, corresponden con esas
ofertas que no son las ganadoras; ya que el licitador que realiza la oferta ganadora en t-1
debe abstenerse de presentar ofertas a mayores porque requiere unos costes y haría
disminuir la rentabilidad del jugador.

Para el análisis de las estrategias de oferta con los agentes en equilibrio, se trata de un
equilibrio que mantenga el anonimato de los jugadores y un modelo en el que cada licitador
quiera anticiparse a sus rivales del juego. Sin embargo, una caracterización de este equilibrio
parece imposible debido a la complejidad de la naturaleza del juego, pero sí que se pueden
describir algunas características cualitativas de este equilibro mixto que caracteriza a la
licitación, como la realización de una oferta por parte de un postor en cualquier periodo de
forma aleatoria, siguiendo una distribución de probabilidad estrictamente decreciente y
delimitada superiormente.

- Si el postor solo realiza una puja, es decir, ηi max = 1, los agentes tienen que hacer coincidir
las posibilidades de elegir un número bajo con las posibilidades de elegir un número único,
ya que en equilibrio cada número debe de tener la misma recompensa esperada. Todo esto,
requiere pujas de números bajos para que se jueguen con mayor probabilidad y con ello ser
menos propensos a resultar pujas únicas. Además, en este caso, los 33 jugadores no tienen
pujas realizadas con anterioridad, por lo tanto, no pueden condicionar su comportamiento
por ello.

- Cuando el postor realiza más de una puja, es decir, ηi max ≥ 1; como las ofertas requieren
unos costes, cuando el agente ha realizado su primera oferta, tiene que ver si lo ha hecho
de forma óptima o no; si se diera el segundo caso, estará condicionado a presentar otras
pujas ya que su fin es maximizar las posibilidades que tienen de ganar; sin olvidar que la
rentabilidad estará disminuyendo según aumenten las pujas presentadas.

2. METODOLOGÍAS PARA MEDIR LOS IMPACTOS SOCIALES EN UN PROYECTO

2.1. METODOLOGÍA DISEÑOS ALEATORIOS O EVALUACIÓN EXPERIMENTAL

Este método el cual es experimental y su objetivo es el de medir relaciones causales entre


dos variables comparando los tratados con los no tratados cuando la participación fue
determinada aleatoriamente.
Las evaluaciones aleatorias (o evaluaciones experimentales) constituyen un grupo de
comparación de máxima calidad: la asignación aleatoria tiene como objetivo que no exista
ninguna diferencia entre los individuos del grupo de tratamiento y del grupo de control, salvo
el hecho que uno ha sido escogido al azar para participar en el programa y el otro no. Por
lo tanto, las evaluaciones aleatorias representan el caso ideal de una evaluación de
impacto. Es por esta razón que en la evaluación de nuevas medicinas y en las
investigaciones de ciencias naturales, se usa casi exclusivamente este método.

Sin embargo, la asignación aleatoria requiere que la evaluación se prepare antes de iniciar
el programa. Por esto, este método también se denomina evaluación prospectiva.
Normalmente, la asignación aleatoria se hace a través de un simple proceso en Excel o
Stata.

Representación del contrafactual:

El grupo de comparación es seleccionado de forma aleatoria antes del comienzo del


programa dentro de un grupo de participantes potenciales.

Supuestos claves:
La aleatorización es válida. Es decir, los dos grupos son estadísticamente idénticos (en
factores observables y no observables). No se le aplica ningún otro tratamiento diferente a
alguno de los grupos.

Pasos que seguir:

1. Escoger un programa y una población de interés, y las principales variables de interés.


2. Cálculos de poder estadístico: Determinar el tamaño requerido de los grupos de
tratamiento y de control, para tener una buena esperanza de medir los impactos en las
variables de interés.
3. Asignación aleatoria al tratamiento. Verificar que la asignación resultó equilibrada con
respeto a las principales variables de interés.
4. Piloto: implementación del programa a pequeña escala para evitar problemas
inesperados (si posible).
5. Implementación: Asegurarse no haya ninguna otra diferencia entre grupos de tratamiento
y de control.

¿Cómo se determina el número requerido de participantes a un estudio aleatorio?

Se recomienda hacer cálculos de poder estadístico para determinar cuál es el tamaño


necesario para tener una buena esperanza de poder medir los impactos en las principales
variables de interés.

Después de haber determinado el número de participantes requeridos, se puede proceder


al proceso de asignación aleatoria. Es importante verificar que los grupos estén
balanceados con respeto a las principales variables de interés. Los artículos académicos
con estudios experimentales normalmente incluyen una tabla de balance que muestra que
las principales características son parecidas en los dos grupos.

Finalmente se pasa a la implementación del programa o de la política a evaluar. Durante la


implementación es importante asegurarse que se respete la asignación aleatoria y que no
se cambien participantes de un grupo a otro. Lo más importante en este proceso es
asegurarse que no haya ninguna otra diferencia entre el grupo de tratamiento y el grupo de
control salvo la aplicación del programa. Por ejemplo, se perdería la validez del estudio si
se detienen las otras actividades fiscalizadoras en el grupo de control, pero se siguen
aplicando en el grupo de tratamiento o al revés.

Ventajas:

La estimación del impacto del programa es muy creíble cuando se diseñó e implementó
correctamente.

Desventajas:

Requiere la asignación aleatoria antes del programa por lo que usualmente no se pueden
hacer evaluaciones retrospectivas. El tamaño de la muestra debe ser lo suficientemente
grande para poder detectar un resultado significativo.
El estudio de las variables

Podemos definir una variable como cualquier atributo de los objetos, cosas o seres que sea
medible y cuyos valores varían, por ejemplo: color, magnitud, peso, etc.

De acuerdo con la naturaleza de las variables, vamos a considerar:

1. Variable cualitativa:

Es aquella compuesta de categorías o niveles que no pueden ser ordenadas con respecto
a magnitud, por ejemplo: sexo, religión, profesión y estado civil.

2. Variable cuantitativa:

Es aquella que puede ser ordenada con respecto a magnitud. Se refieren siempre a
atributos de objetos o cosas que incorporan la magnitud como una característica esencial.
Pueden responder a preguntas del tipo ¿cuánto? por ejemplo, número de hijos, edad,
número de ensayos en un experimento. Las variables cuantitativas pueden ser a su vez
continuas o discretas.

a) Continuas: Es aquella variable cuantitativa que puede ser medida con un grado de
precisión que suele depender del instrumento de medida. Los valores de la variable están
en número infinito y, a priori, son cualesquiera en un intervalo de valores, por ejemplo,
tiempo de reacción (22,547 sg.), temperatura de un cuerpo (36,22 ºC). La limitación se
encuentra en el instrumento de medida empleado.

b) Discretas: Su ordenamiento en magnitud viene predeterminado, no puede ser arbitrario.


Sus valores son aislados, puntuales y pueden obtenerse contando, por ejemplo: número de
hijos (no podemos tener un hijo y medio).

De acuerdo con los intereses u objetivos del investigador, se puede distinguir entre:

• Variable dependiente (V.D.): es cualquier aspecto de la conducta medido por el


experimentador para evaluar los efectos de la variable independiente manipulada. Es
experimentador para evaluar los efectos de la variable independiente manipulada. Es
cualquier aspecto de la conducta que interesa estudiar al investigador, por ejemplo:
atención, número de palabras recordadas. Normalmente en psicología los parámetros
de la V.D. son la exactitud de la respuesta, la latencia, la velocidad, la frecuencia, etc.

• Variable independiente (V.I.): es cualquier variable manipulada por el investigador,


bien directamente o por medio de selección para determinar su efecto en la V.D.

CASO DE APLICACIÓN

Evaluación experimental de un programa virtual de entrenamiento en lectura significativa


(e-PELS) (Brugerolles, Labra, López, Ponce, & Tirado, 2018)

El nuevo marco curricular para la Educación Básica, definido por el Ministerio de Educación
de Chile, señala como uno de sus principios orientadores focalizar el trabajo pedagógico en
el aprendizaje más que en la enseñanza, reorientando el trabajo actual, basado
principalmente en actividades lectivas e instruccionales a uno fundamentado en actividades
de exploración, búsqueda de información y construcción de nuevos conocimientos por parte
de los alumnos.

El Ministerio de Educación plantea que para avanzar hacia una enseñanza efectiva y poner
en práctica estos principios orientadores, “se requiere de recursos curriculares y didácticos
que sirvan de referentes y que modelan el cambio esperado”, estudios y mediciones tanto
nacionales como internacionales señalan las dificultades para hacer efectivos estos nuevos
principios orientadores y que redunden en un aumento en la calidad de la oferta educativa
en Chile.

Hipótesis:

Los estudiantes que participan (grupo experimental) del programa de lectura significativa e-
PELS (Programa Virtual de Entrenamiento en Lectura Significativa) adquirirán el dominio
de las estrategias de aprendizaje y mejorarán significativamente su capacidad de
comprensión lectora, en contraposición a los estudiantes que no participan de dicho
programa (grupo de control).

Método:

La evaluación se llevó a cabo a través de un diseño experimental con grupos de control y


experimental, ambos formados aleatoriamente. Estos grupos estuvieron constituidos por
alumnos de 4to año de enseñanza básica que presentaban problemas de comprensión
lectora. La hipótesis sometida a procedimiento experimental establecía que los alumnos
que participaban (grupo experimental) del programa e-PELS adquirirán un dominio de las
estrategias de aprendizaje y mejorarían significativamente su capacidad de comprensión
lectora asociada a tal dominio en contraste con los alumnos que no participaron de dicho
programa (grupo de control). El procedimiento experimental estuvo constituido por un
pretest y postest para medir el nivel de comprensión lectora de los alumnos, tanto del grupo
experimental como de control. Para ello, se utilizó la prueba CLP (Complejidad Lingüística
Progresiva), estandarizada para Chile. El tratamiento consistió en la participación de los
alumnos del grupo experimental en el programa de entrenamiento lector durante 11
sesiones con una duración de 2 horas cada una, dos veces por semana, en el laboratorio
de computación del Colegio.

Variables dependientes

a) Dominio estrategia de lectura significativa: Corresponde al nivel o grado de dominio en


la ejecución de las estrategias presentes en e-PELS y exhibidas por los estudiantes lectores
al ser expuestos a la lectura y expectativa de comprensión significativa de un texto.

b) Comprensión Lectora: La comprensión lectora, como variable dependiente, se definió


de acuerdo con lo establecido por la Prueba de Comprensión Lectora de Complejidad
Lingüística Progresiva (CLP), (Alliende, Condemarín y Milicic, 2004), la cual se encuentra
estandarizada para Chile.

Variable Independiente

1. Programa de entrenamiento en Lectura Significativa: Consiste en una secuencia


estructurada y programada de actividades instruccionales cuyo fin es la dotación,
apropiación, desarrollo y transferencia de estrategias de aprendizaje lector, que cristalizada
en el software e-PELS.
Procedimiento:

El procedimiento experimental consistió principalmente en tres fases:

1. Evaluación pretest

2. Aplicación e-PELS al grupo experimental

3. Evaluación postest

La primera fase incluyó la evaluación de la comprensión lectora a través de la “Prueba CLP


nivel 3 Forma A” a ambos grupos (control y experimental). En ella, se constató que ambos
grupos presentaban problemas de comprensión lectora y además que resultaban
equivalentes en relación a esta variable.

La segunda fase, consistió en la aplicación del tratamiento al grupo experimental,


correspondiente a la participación de los estudiantes de este grupo en el Programa Virtual
de Entrenamiento en Lectura Significativa, e-PELS.

Resultados:

Los resultados experimentales confirmaron la hipótesis; los alumnos que participaron en e-


PELS lograron el dominio de las estrategias de aprendizaje incluidas en este programa de
entrenamiento y mejoraron significativamente su nivel de comprensión lectora comparado
con el grupo de control. Discusión. Los resultados demuestran además que e-PELS
constituye una solución concreta, efectiva, replicable, escalable y de bajo costo de
implementación que asiste al principal actor del proceso formativo y de aprendizaje, el
alumno en los desafíos que conlleva su particular proceso de construcción de conocimiento

Resultados Pretest-Postest:

Los resultados del pretest (Prueba CLP Nivel 3 forma A) constituyen un diagnóstico sobre
el nivel de comprensión lectora y el perfil de ingreso al programa de entrenamiento.

Pretest:

Se observa en la tabla 1 que los alumnos del grupo experimental muestran deficiencias en
su nivel de comprensión lectora comparado con el grupo de referencia CLP
Los resultados de la aplicación de la prueba CLP, tanto al grupo experimental como al grupo
de control evidencian que los alumnos se encuentran significativamente bajo el promedio
comparado con el grupo de estandarización CLP (nivel 3). Para el grupo experimental, sólo
un estudiante se encuentra sobre el promedio (alumno 9, Z=0.39) y para el grupo de control,
dos estudiantes se encuentran en el promedio respecto al grupo de estandarización
(alumnos 3 y 9). El resto de los alumnos muestra rendimientos muy inferiores en relación
con el grupo de referencia CLP.

En definitiva, los datos del Pretest nos permiten establecer que ambos grupos son
homogéneos respecto al nivel de comprensión lectora antes de iniciar el programa de
entrenamiento.

De esta forma, la formación aleatoria de los grupos y los resultados obtenidos en el pretest
garantizan el diseño experimental de esta investigación.

2.2. METODOLOGÍA PRE – POST (ANTES DESPUÉS)

En este documento, se presenta una reseña general sobre la metodología para medir el
impacto social de un programa o proyecto, denominada PRE – POST (ANTES - DESPUÉS).

Una evaluación pre‐post mide el cambio en el tiempo tomando en cuenta el estado inicial
del grupo. En este caso, se mide el impacto como la diferencia entre la situación anterior y
la situación posterior a una intervención. En esta metodología, en vez de usar otro grupo
de personas como grupo del control, se usa el mismo grupo de personas teniendo en cuenta
su situación antes del comienzo del programa.

Su aplicación requiere disponer de información relativa a los beneficiarios participantes del


programa o proyecto, tanto antes como después de su puesta en marcha. La medida del
impacto se obtiene, simplemente, calculando la diferencia entre la situación del beneficiario
luego de la participación en el programa o proyecto, con la situación de dicho beneficiario
antes de su participación en el programa o proyecto.

Muchas veces este tipo de análisis retrospectivo parece conveniente si los datos de la
situación anterior al programa existen, por lo cual el análisis pre‐post es una manera muy
común de evaluar programas.

No obstante, el supuesto clave para que este método estime correctamente el impacto de
un programa o proyecto, es que no puede haber ningún otro factor, salvo el programa, que
haya podido afectar a los participantes de este. Lo anterior, toda vez que esta metodología
no tiene en cuenta ningún factor externo que pueda generar afectación sobre los
participantes o el resultado del proyecto evaluado.

La evaluación de impacto, al igual que cualquier otra evaluación, puede realizarse antes
(PRE) o después (POST) de la ejecución del proyecto. En términos generales es
conveniente realizar evaluaciones de impacto PRE cuando se quiere escoger el proyecto o
la combinación de los mismos que pueda contribuir de forma más efectiva a la reducción
de la pobreza; y para las evaluaciones POST, cuando la evaluación de impacto puede
retroalimentar la efectividad del proyecto en cuestión.
Tal como se muestra en el diagrama anterior, las evaluaciones de impacto ayudan al
proceso de toma decisiones de este ciclo. La evaluación PRE ayuda a tomar la decisión de
cuál es el proyecto o la combinación de proyectos que producirá un mayor impacto en la
pobreza u otro indicador acorde con la planificación establecida. Por otro lado, la evaluación
POST permitirá validar si efectivamente el programa está cumpliendo los objetivos para los
cuales fue creado y podrá retroalimentar la ejecución del mismo para mejorar aquellos
puntos sobre los cuales haya problemas.

Es así como, en conclusión, el método pre-post es el más simple para evaluar impactos y
el menos robusto, con lo cual, para una evaluación realmente cercana a la realidad no es
recomendable la aplicación de esta metodología.
Por ejemplo, se aplicó la evaluación pre-post a un programa de profesores gratuitos que se
brindó a una población de 10 niños durante 2 años, el resultado de dicha evaluación indica
que, en promedio, el nivel de las notas de los niños aumentó 4 puntos, de 3 a 7 sobre 10,
gracias al programa.

No obstante, la aplicación y sobretodo el resultado de la aplicación del método pre-post


presenta una falencia, pues ¿el grupo de personas antes del comienzo del programa es
una buena representación del contra actual (Sin Proyecto)? Es decir, si bien la evaluación
pre‐post permite tener en cuenta el nivel de educación original de los estudiantes, ¿es
correcto suponer que, sin el programa, durante este periodo no se hubiera dado ningún
cambio en los resultados del grupo objeto de evaluación? Con lo que, ¿Es creíble asumir
que, en 3 años de programa, los niños no hubieran mejorado sus notas sin dichos
profesores? En realidad, es probable que los estudiantes hubieran seguido aprendiendo y
mejorando sus conocimientos. En conclusión, la falencia de la metodología radica en que,
se atribuya este aprendizaje, normal del desarrollo del niño, al programa de profesores.

Lo anterior, sin tener en cuenta que la evolución de aprendizaje de los niños también se
presenta como resultado natural a través del tiempo. Además, puede haber eventos que
cambian el resultado, pero no tienen que ver con el programa, como por ejemplo la variación
en los niveles de dificultad de las evaluaciones a lo largo del tiempo.

2.3. METODOLOGÍA DIFERENCIA SIMPLE (TRATADOS V. NO TRATADOS).

El método de diferencia simple es uno de los más comunes. La metodología es simple:


comparar el grupo que recibió el programa con otro grupo que no lo recibió. Sin embargo,
para ser una buena representación del contra‐ factual el grupo de control debería
representar lo que hubiera pasado con el grupo de tratamiento sin el programa. ¿Esto es
un supuesto creíble? Lamentablemente, muchas veces la respuesta es no.

En muchos programas hay un proceso de selección de quién recibe el tratamiento. A veces


la selección es explícita; por ejemplo, un programa de fiscalización para el cual se
seleccionan sólo a los contribuyentes con un indicador de riesgo alto.

La selección también puede resultar de algo no explícito o no observable; por ejemplo, si


los fiscalizadores escogen a aquellos contribuyentes que presienten tienen algún
comportamiento irregular. En cualquier caso, esta asignación no aleatoria introduce un
sesgo de selección. Es decir, el grupo no tratado y el grupo tratado dejan de ser igual antes
de la implementación del programa.

La diferencia que se observa entre los grupos podría ser el resultado del impacto del
programa, o de la diferencia original entre los dos grupos o de una mezcla de los dos.

Descripción:

Mide las diferencias después del programa entre aquellos que participaron en el programa
y aquellos que no participaron.
Representación del contrafactual:

El grupo de comparación corresponde a los individuos que no participaron en el programa


(por alguna razón), y para los cuales tenemos datos después del programa.

Supuestos claves:

Los no participantes son idénticos a los participantes excepto por la intervención del
programa. No hay ninguna selección en el tipo de persona que entró al programa.

Ventajas:

Muchas veces ya existen datos administrativos que se pueden analizar retrospectivamente.


No requiere datos de la situación anterior al programa.

Desventajas:

Necesita un grupo no afectado por el programa. Si los grupos tratados y no tratados son
distintos antes del programa, el método puede subestimar o sobre estimar el impacto
verdadero de la política; es decir se introduce un sesgo de selección en la estimación.

CASO DE APLICACIÓN

Como ejemplo para el caso de Metodología Diferencia Simple podemos expresar el


siguiente.

Existe un programa de tutores gratis para niños con problemas escolares y se quiere medir
su impacto. Si se comparan simplemente las notas de los niños que recibieron la ayuda de
un tutor con los que no la recibieron es posible que se observe que los niños con tutores
tienen notas más bajas que los niños sin tutores. Concluir, con base a esta observación,
que los tutores hicieron daño al logro escolar de los niños muy probablemente sería erróneo.
Lo más probable es que hubo una selección inicial en la cual niños con notas más bajas
tenían mayor probabilidad de recibir la ayuda de un tutor. En este caso, el sesgo de
selección introduce una subestimación del impacto tan fuerte que el impacto parece
negativo en lugar de positivo.
2.4. METODOLOGÍA DE DIFERENCIA EN DIFERENCIA

Las diferencias en diferencias es una metodología de las más utilizadas en econometría


para analizar el efecto o impacto de un cambio o tratamiento sobre un grupo o sistema. Sus
aplicaciones se centran en casos donde se hace uso de grupos de tratamiento y control,
donde el grupo de tratamiento es afectado por la variable de tratamiento y el grupo de
control no se afectan por ella con el fin de identificar la diferencia entre el antes y el después
sobre el tiempo en los dos grupos y así determinar el impacto neto del cambio aislándolo
de los efectos de otros factores.
Para identificar dicho impacto se tiene que

Y(t)=D*Y1(t)+(1-D)*Y0(t)

Donde Y(t)es el resultado observado en el periodo t, Y1(t)es el resultado en el periodo t con


el cambio, Y0(t)es el resultado en el periodo t sin el cambio, t=0 es antes del cambio y t=1
después del cambio. Entonces se puede calcular la diferencia entre los dos grupos
(tratamiento y control) antes del cambio (D1), la diferencia después del cambio (D2) y luego
calcular la diferencia de diferencias. Además se puede observar el cambio observado para
el grupo de tratamiento (DT), el cambio para el grupo de control (DC) y la diferencia de
diferencia entre estos.

Tratamiento Control Diferencia


Antes E[Y0(0)|D=1] E[Y0(0)|D=0] D1
Después E[Y1(1)|D=1] E[Y0(1)|D=0] D2
Cambio DT DC DID

Donde
DID =D2-D1={E[Y1(1)|D=1]-E[Y0(1)|D=0]}-{E[Y0(0)|D=1]-E[Y0(0)|D=0]}
DID =DT-DC={E[Y1(1)|D=1]-E[Y0(0)|D=1]}-{E[Y0(1)|D=0]-E[Y0(0)|D=0]}

Esta metodología es una gran herramienta ya que por su interpretación intuitiva se pueden
obtener efectos causales haciendo simplemente observación de los datos si los
supuestos se cumplen, además de que se pueden hacer comparaciones en diferentes
niveles de la salida de datos. Pero se debe tener en cuenta que no se puede usar si la
tendencia de los grupos no es igual, si la composición de los grupos no es estable
antes/después del cambio, esto lleva a que se haga necesario utilizar otros métodos de
evaluación para encontrar un grupo de control más acertado.

Como otros métodos cuasi experimentales, el método de DD depende de que se cumplan


algunos supuestos clave para poder interpretar este cálculo como el efecto de la
intervención de manera válida. El principal supuesto de DD es el de tendencias paralelas.
Dicho supuesto estipula que la tendencia que se observa en la variable de interés o
resultado para el grupo de comparación es igual a la tendencia que se habría observado en
el grupo de tratamiento si no hubiera recibido la intervención. Es decir, que de no haber
recibido el tratamiento, la variable de interés en el grupo de tratamiento cambiaría a la
misma tasa de crecimiento que la variable de interés en el grupo de comparación.

Claramente, es imposible comprobar este supuesto dado que nunca se puede observar lo
que le habría pasado al grupo de tratamiento si no hubiera recibido la intervención. No
obstante, para verificar si es plausible que dicho supuesto se pudiera cumplir, generalmente
los investigadores explorar las tendencias de ambos grupos en años anteriores al inicio del
tratamiento. Si antes de dar el tratamiento las tendencias de ambos grupos eran idénticas
(como se muestra en el gráfico), y sólo a partir de la introducción del tratamiento comienzan
a diferir, es plausible suponer que en ausencia del tratamiento se habrían seguido
comportando igual. También es recomendable explorar que no haya cambios concurrentes
(o simultáneos) a la implementación del programa que hayan afectado la variable de interés
de manera distinta en el grupo de tratamiento que en el grupo de control. Por ejemplo, si
durante la implementación de la intervención sucede un choque exógeno que afecta
sistemáticamente a uno de los dos grupos de manera distinta que al otro grupo, no se
cumpliría el supuesto de tendencias paralelas y el cálculo de DD no sería válido (Gertler,
et. al, 2011).

Reseña caso de aplicación para metodología de Diferencia en Diferencia para salario


mínimo y Empleo: Caso de estudio de la industria de comida rápida en New Jersey y
Pennsylvania

Card y Krueger compararon el empleo en el sector de comidas rápidas en New Jersey y


Pennsylvania entre febrero de 1992 y noviembre de 1992, luego de que en New Jersey el
salario mínimo aumentará de $4.25 a $5.05 en abril de 1992. Observando un cambio en el
empleo en New Jersey antes y después del tratamiento haría que fallaran en controlar las
variables omitidas como las condiciones macroeconómicas de la región. Pero incluyendo a
Pennsylvania como grupo de control en el modelo de Diferencia de Diferencia se
controlaron las variables comunes a New Jersey y Pennsylvania incluso cuando estas no
fueran observadas.

Card y Krueger recolectaron datos de salario y empleo además de otras características de


más de 410 restaurantes de comidas rápidas en New Jersey y Pennsylvania, en dos
periodos de tiempo, primero entre febrero-marzo de 1992 (antes del incremento en el salario
mínimo) y luego en noviembre-diciembre de 1992 (ocho meses después del incremento de
salario). Con estos datos se estableció que la tendencia en el empleo entre New Jersey y
Pennsylvania era similar a través del tiempo, donde se puede interpretar que los cambios
en el empleo en Pennsylvania serían los mismo que experimenta New Jersey en el mismo
periodo de tiempo, si no hubiera hecho el incremento de salario mínimo y viceversa.

Los datos que encontraron Card y Krueger son los siguientes:

New Jersey Pennsylvania Diferencia


Febrero 20.44 23.33 -2.89
Noviembre 21.03 21.17 -0.14
Cambio 0.59 -2.16 2.75

Con esta evidencia se sugiere que el aumento en el salario mínimo no induce un incremento
en el desempleo en New Jersey, como la teoría económica de la época sugería, al contrario,
sugiere un leve incremento en el empleo. Card y Krueger estimaron que un incremento de
$0.80 en el salario mínimo en New Jersey lideró un aumento en el empleo de 2.75 FTE.

2.5. MÉTODO DE REGRESIÓN DISCONTINUA

El método de regresión discontinua es una metodología cuasi experimental. Es un método


de evaluación de impacto que puede usarse para programas con un índice continuo de
elegibilidad y una puntuación límite claramente definido para determinar quién tiene
derecho a participar y quién no. Este método se basa en cortes que surgen por ley o por
diseño y que implican una discontinuidad en alguna variable (X1).
Este método hará posible determinar la relación causal de cambios en esta variable sobre
alguna otra (la variable dependiente). La dificultad en medir el impacto está en que
solamente se puede observar lo que ocurrió, no lo que hubiera ocurrido sin el programa.
Esta situación imaginaria, lo que hubiera pasado sin el programa, se llama el contrafactual.
Entender el contrafactual es clave para entender el impacto de un programa.

Si existiera una representación correcta del contrafactual la estimación del impacto sería
fácil. El impacto del programa o de la política es la diferencia entre el resultado que
observamos con el programa y el resultado que hubiera ocurrido sin el programa el
contrafactual. Como en la realidad el contrafactual no existe, ya que es lo que hubiera
pasado en un escenario distinto, cada evaluación intenta de manera explícita o implícita
construir una estimación del contrafactual para compararlo con lo que ocurrió.

Normalmente, la estimación del contrafactual se representa con un grupo que se denomina


el grupo de control o de comparación. El grupo de control consiste de personas o empresas
que no participaron en el programa, mientras que el grupo de tratamiento es el grupo que
participó en el programa. Para estimar el impacto de la intervención se compara el grupo
de tratamiento con el grupo de control.

La regresión discontinua puede ser nítida o difusa. En la nítida, la probabilidad de


asignación cambia de cero a uno en el umbral. Por otra parte, en la difusa hay otros factores
en juego que hacen que en el umbral la probabilidad de asignación cambie, pero no de cero
a uno, sino que puede depender de otros factores añadidos. En el caso de la regresión
nítida se calcula el llamado efecto causal medio, según el cual los participantes son
asignados a la intervención con seguridad si traspasan el umbral. En el caso de la regresión
difusa, la asignación ya no se realiza según un modelo determinista, sino según uno
probabilístico.
CASO DE APLICACIÓN

Explorar el diseño de regresión discontinua para medir de manera precisa el impacto de las
campañas de vacunación masiva CVM sobre los servicios de inmunización de rutina SIR.
Se utiliza un diseño de regresión discontinua borrosa para evaluar el impacto de una CVM
realizada entre febrero 12 y 15, 2011. Los datos utilizados provienen de la encuesta del
2011 de demografía y salud de Bangladesh. La medición del impacto se hace por la
discontinuidad en el número de dosis de vacuna DPT recibida.

Para el desarrollo de esta evaluación de impacto sobre las vacunas que se deben aplicar
se llevó a cabo en seis pasos que se describen a continuación:

1. Regla de asignación al tratamiento: en el ejemplo la variable (X1) va de enero de 2011


a enero de 2012 y la variable independiente se da por los meses de vida de los niños
a ser tratados.
2. Se realiza histograma donde se refleja los niños nacidos antes de las campañas de
vacunación masiva, agrupándolos por cada 15 días de nacidos y se evidencia quienes
están durante el programa y después del programa.
3. Se realiza discusión de los supuestos donde se valoran la regla de decisión y el valor
de corte para la evaluación del impacto de la aplicación de la vacuna, se realizan
diferentes gráficos con los cortes de los supuestos con potenciales desenlaces.
4. Se realizan las pruebas de covariables balanceadas presentadas en tabla de diferentes
valores y comparaciones de los gráficos de discontinuidad de los datos recolectados.
5. Se realizan las pruebas de robustez o de confianza de los métodos utilizados para
evaluar el impacto de la aplicación de la vacuna.
6. Se realiza la asignación entre la causa y los efectos de la aplicación de la vacuna y dan
como conclusión que la metodología es confiable y con efectos positivos.
3. REFERENCIAS

REFERENCIAS – METODOLOGÍA VALOR CONTINGENTE

▪ Brugerolles, J.-P., Labra, J., López, M., Ponce, H., & Tirado, C. (2018). Evaluación
experimental de un programa virtual de entrenamiento en lectura significativa (e-PELS).
Electronic Journal of Research in Education Psychology, 5(12).
https://doi.org/10.25115/ejrep.v5i12.1268

▪ Contreras, E. (2009). alternativos para valorar recursos naturales (sin mercado) e


impactos ambientales, 1–52.

▪ Lleida, U. D. E., & Diploma, T. D. E. (2007). Universidad nacional agraria facultad de


recursos naturales y del ambiente universitat de lleida trabajo de diploma.

▪ Cambios en la productividad. (2019). Retrieved from


https://prezi.com/7xaf1cchbigr/cambios-en-la-productividad/

REFERENCIAS – METODOLOGÍA CAMBIO EN PRODUCTIVIDAD

▪ Brugerolles, J.-P., Labra, J., López, M., Ponce, H., & Tirado, C. (2018). Evaluación
experimental de un programa virtual de entrenamiento en lectura significativa (e-PELS).
Electronic Journal of Research in Education Psychology, 5(12).
https://doi.org/10.25115/ejrep.v5i12.1268

▪ Contreras, E. (2009). alternativos para valorar recursos naturales (sin mercado) e


impactos ambientales, 1–52.

▪ Lleida, U. D. E., & Diploma, T. D. E. (2007). Universidad nacional agraria facultad de


recursos naturales y del ambiente universitat de lleida trabajo de diploma.

▪ Cambios en la productividad. (2019). Retrieved from


https://prezi.com/7xaf1cchbigr/cambios-en-la-productividad/
REFERENCIAS – METODOLOGÍA COSTO EFECTIVIDAD

▪ Disponible en internet:
http://www.ciencias.holguin.cu/index.php/cienciasholguin/article/view/821/861

▪ Disponible en internet:

http://revistas.ces.edu.co/index.php/medicina/article/viewFile/1066/659

REFERENCIAS – METODOLOGÍA PRECIOS HEDONICOS

▪ Disponible en internet:

https://prezi.com/j7zhnkbho2mu/metodo-precios-hedonicos/

▪ Disponible en internet:

http://www.ucipfg.com/Repositorio/MAES/PED/Semana4/PreciosHedonicos.pdf

REFERENCIAS – METODOLOGÍA DIFERENCIA DE SALARIOS

▪ Disponible en internet:
https://scielo.conicyt.cl/scielo.php?script=sci_arttext&pid=S0718-88702010000200005.

REFERENCIAS – METODOLOGÍA COSTO DE VIAJE

▪ Disponible en internet:

http://repositorio.upct.es/bitstream/handle/10317/5686/tfm-men-apl.pdf?sequence=1

REFERENCIAS – METODOLOGÍA COSTO REPOSICIÓN

▪ Disponible en internet:
http://gerencia.unal.edu.co/fileadmin/user_upload/BIE_2_PC_calcular_valor_reposicion_p
erdida_bienes.pdf

▪ Disponible en internet:
https://www.uv.es/~ssaz/costes_reposicion.pdf

REFERENCIAS – METODOLOGÍA PROYECTO SOMBRA

▪ Disponible en internet:
https://www.metodosimplex.com/calculo-del-precio-sombra-con-el-metodo-simplex/

REFERENCIAS – METODOLOGÍA TÉCNICA DELPHI

▪ Disponible en internet:
https://www.eoi.es/blogs/nataliasuarez-bustamante/2012/02/11/%C2%BFque-es-el-
metodo-delphi/

▪ Disponible en internet:
http://nulan.mdp.edu.ar/913/1/00179.pdf

REFERENCIAS – METODOLOGÍA JUEGOS DE NEGOCIACIÓN

▪ Disponible en internet:
https://uvadoc.uva.es/bitstream/10324/15666/1/TFG-E-142.pdf

REFERENCIAS – METODOLOGÍA DISEÑOS ALEATORIOS O EVALUACIÓN


EXPERIMENTAL

▪ Brugerolles, J.-P., Labra, J., López, M., Ponce, H., & Tirado, C. (2018). Evaluación
experimental de un programa virtual de entrenamiento en lectura significativa (e-PELS).

▪ Electronic Journal of Research in Education Psychology, 5(12).


https://doi.org/10.25115/ejrep.v5i12.1268
REFERENCIAS – METODOLOGÍA DIFERENCIA SIMPLE

▪ Disponible en internet:
https://www.hbs.edu/faculty/Supplemental%20Files/Metodos-de-Evaluacion-de-
Impacto_50067.pdf

REFERENCIAS – METODOLOGÍA REGRESIÓN DISCONTINUA

▪ Disponible en internet:

https://rstudio-pubs-
static.s3.amazonaws.com/325354_97b1e3d5dc36413cb272422d774513ef.html

También podría gustarte