Está en la página 1de 66

PROYECCIÓN DE LA DEMANDA

Introducción

Un sistema productivo es eficaz en la medida en que logra entregar su


producto en condiciones de calidad, cantidad y oportunidad, sin embargo, no
basta con tener un sistema eficaz, se requiere que sea eficiente y para lograrlo
se hace imprescindible manejar la demanda, es decir, coordinar y controlar
todas las fuentes de la demanda, con el fin de poder usar con eficiencia el
sistema productivo y entregar el producto a tiempo.

Administrar la demanda supone un conocimiento de ésta y el punto crucial es


determinar las cantidades aproximadas que una economía puede y quiere
adquirir. Para ello existen diferentes métodos que permiten realizar estos
pronósticos, los cuales serán expuestos en este trabajo. Esencialmente son de
cuatro tipos: cualitativo, basados en juicios subjetivos y en opiniones; análisis
de series de tiempo, basados en la idea de que el historial de eventos a través
del tiempo se puede utilizar para proyectar el futuro; de relaciones causales,
que trata de entender el sistema subyacente y que rodea al elemento que se va
a pronosticar, por ejemplo, las ventas se pueden ver afectadas por la
publicidad, la calidad y los competidores; y la simulación que permite al
encargado de las proyecciones hacer suposiciones acerca de las variables
internas y el ambiente externo en el modelo.

ADMINISTRACIÓN DE LA DEMANDA

El propósito del manejo de la demanda es coordinar y controlar todas las


fuentes de la demanda, con el fin de poder usar con eficiencia el sistema
productivo y entregar el producto a tiempo. ¿De dónde proviene la demanda
del producto o servicio de una empresa? Y ¿qué puede hacer una compañía
para administrarla? Existen dos fuentes básicas de la demanda: dependiente e
independiente.

La demanda dependiente es la demanda de un producto o servicio provocada


por la demanda de otros productos o servicios.

1
Por ejemplo, si una empresa vende 1000 triciclos, entonces se van a necesitar
1000 ruedas delanteras y 2000 traseras. Este tipo de demanda interna no
necesita un pronóstico, sino sólo una tabulación. La cantidad de triciclos que la
empresa podría vender es la demanda independiente porque no se deriva
directamente de la demanda de otros productos.

Una empresa no puede hacer mucho respecto de la demanda dependiente, es


preciso cubrirla (aunque el producto o servicio se pueda comprar en lugar de
producirlo en forma interna). Pero sí hay mucho que una empresa puede hacer
en cuanto a la demanda independiente, si así lo desea. La compañía puede:

1. Adoptar un papel activo para influir en la demanda. La empresa puede


presionar a su fuerza de ventas, ofrecer incentivos tanto a los clientes
como a su personal, crear campañas para vender sus productos y bajar
precios. Estas acciones pueden incrementar la demanda. Por el
contrario, es posible disminuir la demanda mediante aumentos de
precios o la reducción de los esfuerzos de ventas.

2. Adoptar un papel pasivo y simplemente responder a la demanda.


Existen varias razones por las que una empresa no trata de cambiar la
demanda sino que la acepta tal como llega. Si una compañía funciona a
toda su capacidad, tal vez no quiera hacer nada en cuanto a la
demanda. Otras razones pueden ser que la compañía no tenga el poder
de cambiar la demanda debido al gasto en publicidad; es probable que el
mercado sea fijo y estático; o que la demanda esté fuera de su control
(como en el caso de un proveedor único). Existen otras razones
competitivas, legales, ambientales, éticas y morales por las que la
demanda del mercado se acepta de manera pasiva.

Es necesaria mucha coordinación para mejorar estas demandas dependientes,


independientes, activas y pasivas. Las demandas se originan tanto interna
como externamente en forma de ventas de productos nuevos por parte de
marketing, piezas de reparación para productos vendidos con anterioridad,
reabastecimiento de los almacenes de la fábrica y suministro de artículos para
manufactura.

2
MÉTODOS DE PROYECCIÓN

El pronóstico se puede clasificar en cuatro tipos básicos: cualitativo, análisis de


series de tiempo, de relaciones causales y simulación.

Uno de los factores críticos para el desarrollo de nuevos mercados y la


incursión con productos novedosos en estos, es la obtención y generación de
información idónea para tomar decisiones. Es aquí donde un estudio de
mercado aporta datos importantes que pueden favorecer la toma de
decisiones, dado que permite determinar las variables relevantes para realizar
una adecuada proyección de la demanda y entender su comportamiento. Existe
gran cantidad de métodos que ayudan a proyectar la demanda futura, algunos
de los cuales tienen mayor precisión que otros, debido a que su cálculo se
realiza tomando como base modelos estadísticos y datos históricos. A estos
métodos se les conoce como métodos cuantitativos. Sin embargo, en
determinadas ocasiones resulta imposible la obtención de datos históricos, por
lo que se utilizan los llamados métodos cualitativos en los que se aplican
técnicas subjetivas, basadas en la opinión de expertos, por lo que sus datos
carecen de la exactitud que se pretende conseguir con los modelos
matemáticos y estadísticos.

Adicionalmente, resulta imprescindible para cada empresa conocer a su


consumidor: sus características, su perfil demográfico, hábitos de consumo,
niveles de ingreso y demás determinantes. La mayoría de las estrategias y
decisiones en materia de precio, publicidad y promoción se enfocan en atender
las necesidades de los clientes.

Cuando una empresa no ha identificado con exactitud las características de su


mercado meta, se dificulta la tarea de proporcionarle un nivel de satisfacción
esperado. Como instrumentos de apoyo, se puede utilizar la aplicación de
encuestas a una población significativa o realizar Focus Groups en donde
participen clientes potenciales. Lo anterior permite obtener información de
fuentes primarias, para recabar información válida y relevante respecto al
fenómeno en particular que se desea estudiar, y determinar la percepción que
clientes potenciales tengan sobre el producto en cuestión. Adicionalmente, es
relevante conocer a la competencia directa. Esto no se refiere únicamente a

3
identificar los principales competidores y cuantificar su nivel de participación en
el mercado, sino a estudiar sus posibles estrategias de producción, mercadeo y
ventas, y analizar el impacto que dichos esfuerzos producen dentro de nuestra
organización.

Las empresas no se desarrollan en un ambiente cerrado. El dinamismo del


mercado provoca que un cambio realizado por la competencia tenga
repercusiones en nuestra empresa.

La estrategia de la competencia puede enfocar sus recursos en investigación y


desarrollo para diseñar productos innovadores; de igual forma es posible que
invierta en adquisición de maquinaria que le permita mejorar la calidad de sus
productos, reducir sus costos o alcanzar economías de escala. Adicionalmente,
los competidores pueden establecer variaciones en los precios o enfocar sus
esfuerzos en actividades de publicidad y promoción.

El impacto final que la estrategia desarrollada por la competencia tenga sobre


nuestras operaciones depende de muchos factores, uno de ellos es la reacción,
ya sea positiva o negativa, que el cliente pueda tener sobre los cambios
realizados. Ahí radica la importancia de conocer el mercado meta que se
atiende. Si nuestros clientes muestran susceptibilidad ante cambios en los
precios, una disminución en estos provocará consecuencias negativas en
nuestras ventas. Si, por el contrario, atendemos a un sector más interesado en
la calidad del producto final y en el estatus que la adquisición del bien o servicio
le otorga, una disminución en los niveles de precios de la competencia podría
impactar de manera positiva nuestra demanda, debido a que el cliente podría
llegar a percibir los productos de la competencia como bienes de calidad
inferior.

Si bien es cierto que el cliente y la competencia juegan un papel muy


importante en la estimación de la demanda, existen otros participantes que se
deben tomar en consideración a la hora de realizar un estudio de mercado: los
proveedores, líneas de distribución y otros actores relacionados.

La cadena de distribución es un elemento que no puede dejarse de lado, ya


que el precio de los insumos, su disponibilidad y la relación que se tenga con

4
los proveedores influyen en el proceso productivo del negocio, en la
comercialización del producto terminado y, por supuesto, en las estrategias de
mercadeo que se vayan a implementar.

Todos estos elementos anteriormente expuestos son necesarios para realizar


un adecuado estudio de mercado, el cual no solo permite proyectar la demanda
futura y las principales variables que influyen en ella, sino que representa la
base para las decisiones que se tomen en materia de producción y
administración y finanzas.Las técnicas cualitativas son subjetivas y se basan en
estimados y opiniones. El análisis de series de tiempo, se basa en la idea de
que es posible utilizar información relacionada con la demanda pasada para
predecir la demanda futura.

La información anterior puede incluir varios componentes, como influencias de


tendencias, estacionales o cíclicas. El pronóstico causal, que se analiza
utilizando la técnica de la regresión lineal, supone que la demanda se relaciona
con algún factor subyacente en el ambiente. Los modelos de simulación
permiten al encargado del pronóstico manejar varias suposiciones acerca de la
condición del pronóstico.

I. MÉTODOS SUBJETIVOS.

Su importancia resalta cuando los métodos cuantitativos basados en


información histórica no pueden explicar por sí solos el comportamiento futuro
esperado de alguna de sus variables o cuando no existen suficientes datos
históricos.

Se basa en la opinión de expertos

Son:

o Método Delphi
o Consenso de panel
o Pronósticos visionarios
o Analogía histórica

5
1. MÉTODO DELPHI.

El nombre Delphi se inspira del antiguo oráculo de Delphos, al parecer fue


ideado originalmente a comienzos de los años 50 en el Centro de Investigación
estadounidense RAND Corporation por Olaf Helmer y Theodore J. Gordon,
como un instrumento para realizar predicciones sobre un caso de catástrofe
nuclear.

Desde entonces, ha sido utilizado frecuentemente como sistema para obtener


información sobre el futuro. Algunos expertos como el matemático Linstone y el
maestro Turoff definen el método delphi como un método de estructuración de
un proceso de comunicación grupal que es efectivo a la hora de permitir a un
grupo de individuos como un todo, tratar un problema complejo; otros lo definen
como una técnica prospectiva para obtener información esencialmente
cualitativa, pero relativamente precisa, acerca del futuro. En sí, el método
Delphi consiste básicamente en solicitar de forma sistemática las opiniones de
un grupo de expertos, pero prescindiendo de la discusión abierta, lo que
permite evitar los inconvenientes de ésta como lo son la influencia de la
persuasión, la resistencia de las opiniones, el efecto de la opinión, entre otros.

Se realiza una a interrogación a expertos con la ayuda de cuestionarios


sucesivos, a fin de poner de manifiesto concordancias de opiniones y deducir
eventuales consensos. La encuesta se lleva a cabo de una manera anónima,
actualmente es habitual realizarla haciendo uso del correo electrónico o
mediante cuestionarios web establecidos al efecto, para evitar los efectos en
líderes, la calidad de los resultados depende, sobre todo, del cuidado que se
ponga en la elaboración del cuestionario y en la elección de los expertos
consultados.

Algunos pasos que se deben tener en cuenta al momento de analizar la Delphi


y garantizar la calidad de los resultados son: formulación del problema,
seleccionar los expertos, elaboración y aplicación de los cuestionarios,
desarrollo práctico y explotación de los resultados; con el pasar del tiempo y a
medida que el mundo avanza tanto tecnológicamente ya existen herramientas
online para desarrollar este método como por ejemplo la herramienta Surveylet
que facilita la participación colectiva y retroalimentación dinámica de resultados

6
mediante el uso de encuestas de opinión y consultas Delphi disponibles en
Internet, que admiten la posibilidad de reflexionar ante posibles cambios, y
procesar inmediatamente la información on-line.

A manera de conclusión podemos decir que el método Delphi es sin duda una
técnica que desde hace unos cuarenta años ha sido objeto de múltiples
aplicaciones en el mundo entero, aparentemente parece un procedimiento
simple, fácilmente aplicable en el marco de una consulta a expertos, sin
embargo existe el riesgo de que los fracasos y/o decepciones desanimen a los
"usuarios aficionados". El método viene bien para las aplicaciones decisivas,
pero debe estar adaptada en función del objetivo del estudio para la
prospectiva. En particular, no es necesario obtener a toda costa una opinión
consensuada mediana, pero es importante poner en evidencia varios grupos de
respuestas para el análisis de puntos de convergencia múltiples.

1.1 Características:

 Anonimato: no debe existir contacto entre los participantes, pero el


administrador/gestor de la encuesta sí puede identificar a cada
participante y sus respuestas. Durante el Delphi ningún experto conoce
la identidad de los otros que componen el grupo de debate.

 Iteración: se pueden manejar tantas rondas como sean necesarias. La


iteración se consigue al presentar varias veces el mismo cuestionario, lo
que permite disminuir el espacio intercuartil, ya que así se consigue que
los expertos vayan conociendo los diferentes puntos y puedan ir
modificando su opinión.

 Retroalimentación Controlada: los resultados totales de la ronda


previa no son entregados a los participantes, sólo una parte
seleccionada de la información circula.

 Resultados Estadísticos: la respuesta del grupo puede ser presentada


estadísticamente (promedios y grado de dispersión). La información que
se presenta a los expertos no es solo el punto de vista de la mayoría

7
sino que se presentan todas las opiniones indicando el grado de acuerdo
que se ha obtenido.

1.2 Ventajas:

 Permite la formación de un criterio con mayor grado de objetividad.

 El consenso logrado sobre la base de los criterios es muy confiable.

 La tarea de decisiones, sobre la base de los criterios de expertos,


obtenido por éste tiene altas probabilidades de ser eficiente.

 Permite valorar alternativas de decisión.

 Evita conflictos entre expertos al ser anónimo, lo que constituye un


requisito imprescindible para garantizar el éxito del método y crea un
clima favorable a la creatividad.

 El experto se siente involucrado plenamente en la solución del problema


y facilita su implantación. De ello es importante el principio de
voluntariedad del experto en participar en la investigación.

 Garantiza libertad de opiniones por ser anónimo y confidencial. Ningún


experto debe conocer que a su igual se le está solicitando opiniones.

1.3 Desventajas:

 Es muy laborioso y demanda tiempo su aplicación, debido a que se


requiere como mínimo de dos vueltas para obtener el consenso
necesario.

 Es costoso en comparación con otros, ya que requiere del empleo de


tiempo de los expertos, hojas, impresoras, teléfono, correo.

8
 Precisa de buenas comunicaciones para economizar tiempo de
búsqueda y recepción de respuestas.

 Debe ser llevado a cabo por un grupo de análisis, los expertos como
tales.

 Se emiten criterios subjetivos, por lo que el proceso puede estar cargado


de subjetividad, sometido a influencias externas.

 De aquí la necesidad de aplicar varias vueltas, buscar técnicas variadas


de análisis para obtener un consenso y pruebas estadísticas para
determinar su grado de contabilidad y pertinencia.

1.4 Fases:

 Fase 1: Formulación del problema.

 Fase 2: Elección de expertos.

 Fase 3: Elaboración y lanzamiento de los cuestionarios.

 Fase 4: Desarrollo práctico y explotación de resultados.

¿Cómo se seleccionan los expertos y qué instrumentos se aplican?

Para la aplicación práctica del método es necesario considerar


metodológicamente dos aspectos fundamentales: selección del grupo de
expertos a encuestar y la elaboración del cuestionario o los cuestionarios.

Pero ante todo: ¿A quiénes se pueden considerar expertos?

9
Se define como experto el individuo en sí, grupo de personas u organizaciones
capaces de ofrecer valoraciones conclusivas de un problema en cuestión y
hacer recomendaciones respecto a sus momentos fundamentales con un
máximo de competencia.

De esta definición se infiere, como requisito básico para la selección de un


experto, que éste tenga experiencia en el tema a consultar, dado por sus años
de trabajo (praxis), y que puedan ser complementados con: conocimientos
teóricos adquiridos a través de las distintas formas de superación, y grado
académico o científico alcanzado en relación al tema, entre otros.

¿Cómo se desarrolla el método?

Se confeccionó una “bolsa de posibles expertos” o relación de éstos, en función


de las características siguientes: experiencia, competencia, creatividad,
disposición a participar en la encuesta, capacidad de análisis y de
pensamiento, interés colectivista y autocrítico.

Al tener en cuenta las características anteriores, se aplicó el instrumento 1, que


solo fue utilizado con los posibles expertos.

Así se consideró una población de 50 probables candidatos de todo el país, por


estimación del autor y consultas a otros factibles expertos, de quiénes ellos
consideraron pudieran ser (la decisión de hacerlo o no se mantuvo en
anonimato con estos posibles expertos).

Al determinar el coeficiente de competencia se obtuvieron 30 personas que


integraron la bolsa de expertos a considerar en esta temática a partir del
coeficiente de competencia (K), en la que:

El coeficiente de competencia (K) del experto se determina como:

 Kc: coeficiente de conocimiento sobre el tema que se le pide opinión.


Este coeficiente se auto valora acorde con el valor de la escala. Este
valor, propuesto por el posible experto, se multiplica por 0,1 y se obtiene
una puntuación, v. g.: Si el posible experto marcó el número 8, éste se
multiplica por 0,1 y se obtiene 0,8; luego, Kc = 0,8.

10
 Ka: coeficiente de argumentación. Este coeficiente se autoevalúa en alto
(A), medio (M) o bajo (B) como el grado de influencia de las fuentes
siguientes: análisis teóricos realizados por el posible experto, su
experiencia obtenida, trabajos de autores nacionales, trabajos de
autores extranjeros, su propio conocimiento del estado del problema en
el extranjero y su intuición.

Grado de influencias de cada una de las fuentes


Fuentes de argumentación
A (alto) M (bajo) B (bajo)

Análisis teóricos realizados


(0.4) (0.3) (0.2)
por usted.

Su experiencia obtenida. (0.5) (0.4) (0.2)

(0.025) (0.025) (0.025)


Trabajos de autores
nacionales.
0.025 0.024 0.022

Trabajos de autores (0.025) (0.025) (0.025)

extranjeros. 0.025 0.024 0.022

Su propio conocimiento del (0.025) (0.025) (0.025)


estado del problema en el
extranjero. 0.025 0.024 0.022

(0.025) (0.025) (0.025)


Su intuición
0.025 0.024 0.022

Al observar la tabla, en el aspecto, no distinguen entre las categorías de Alto,


Medio y Bajo, a partir del indicador: trabajos con autores nacionales (observe
los valores que aparecen en la parte superior entre paréntesis y no marcados
en negrita, a partir del indicador trabajos de autores nacionales), adjudicándole
la misma puntuación a cada rubro; por lo que se propone su diferenciación a

11
partir de los valores que aparecen debajo de la barra en negrita, para que
queden bien diferenciadas cada una de las categorías de las fuentes de
argumentación.

De acuerdo con los puntos obtenidos, este coeficiente recibe el valor de 0.796.

Valores marcados con una `X´). Entonces el coeficiente de competencia de


este experto estará dado por: K = ½ (0,8 + 0,796) = 0, 798 ≈ 0,8, que en este
caso es alto, debido a que:

o Sí 0,8 £ K £ 1; entonces, el coeficiente de competencia es alto.

o Sí 0,5 £ K < 0,8: coeficiente de competencia medio

o Sí K < 0,5: coeficiente de competencia bajo

Es importante aclarar que los valores de cada uno de los rubros de la segunda
tabla del anexo 1 son de interés del investigador, por lo que no deben de
aparecer en la misma.

Para los efectos de esta encuesta se determinó excluir a 25 personas como


posibles expertos por alcanzar un bajo coeficiente de competencia (muchos
fueron profesores de la Educación Técnica y Profesional con mucha
experiencia, pero les faltaban otros requisitos). Por lo que quedaron 25
expertos.

12
Ejemplos: ¿En qué año el 40% de las ventas de vinos de calidad (crianzas,
reservas, grandes reservas) se realizarán por Internet en España?

Los cuartiles, vendrían a ayudar también en la visión del grado de dispersión de


las respuestas. Q1, Q (M), Q3.

La realización de una segunda o sucesivas vueltas en el estudio se plantea con


un doble objetivo:

a) Remitir y hacer partícipes de la información obtenida a todos aquellos que


han colaborado en el estudio con la aportación de su conocimiento y opiniones

b) Consolidar y refrendar los resultados obtenidos en la consulta inicial.

13
2. MÉTODO PANEL DE CONSENSO.

En este caso se toma el consenso de los expertos a efectos del pronostico,


similar al Delphi, se diferencia de esto en que la identidad de los integrantes del
panel es conocida por todos ellos.

Se basa en el supuesto de que varios expertos con capaces de establecer un


pronóstico mejor que el de una sola persona. Tiene el riesgo de que las
opiniones que se emiten pueden estar distorsionadas por efecto de la
existencia de una personalidad dominante, capaz de imponerse a la calidad de
los argumentos.

2.1 ¿Por qué utilizar esta herramienta en evaluación?

El panel de expertos puede definirse como un grupo de especialistas


independientes y reputados en al menos uno de los campos concernidos por el
programa que se va a evaluar, al que se reúne para que emita un juicio
colectivo y consensuado sobre dicho programa. Según se les solicite, el juicio
emitido puede hacer referencia a la puesta en práctica o a los efectos del
conjunto o de una parte del programa.

Este grupo de trabajo, que se constituye especialmente para la evaluación de


acuerdo con una serie de procedimientos estándar, sigue un método de trabajo
concreto para celebrar sus reuniones y elaborar su juicio.

En evaluaciones de país o región, se puede utilizar el panel de expertos en


diversas circunstancias:

• Para estudiar áreas extremadamente específicas que requieran una


formación de alto nivel (por ejemplo ayuda a la investigación, altas tecnologías,
etc.).

• Para estudiar temas en los que las otras herramientas sean de difícil
aplicación a un coste razonable.

• Para realizar evaluaciones de poca envergadura (por ejemplo ayuda a países


pequeños).

14
• Para apoyar el juicio de los evaluadores sobre un tema en concreto en
evaluaciones de mayor envergadura.

• Para formalizar los posibles efectos de un programa en evaluación ex ante.

2.2 ¿Cómo aplicar el panel de expertos?

2.2.1 ¿Qué criterios se aplican para la selección de los expertos?

La experiencia profesional en el campo de que se trate es un requisito


indispensable; el experto debe estar muy cualificado en el área objeto de
evaluación, y ser reconocido y respetado por sus pares.

La independencia del experto respecto del programa que se va a evaluar es de


vital importancia; el evaluador nunca puede ser juez y parte.

La capacidad de trabajo en equipo, de escuchar a los demás, así como una


mentalidad abierta, es también fundamental. En caso contrario, el clima de
trabajo en el panel puede enrarecerse y ello puede desembocar directamente
en el fracaso de la misión.

2.2.2 ¿Cómo seleccionar a los expertos?

15
En el caso de una selección rápida, los responsables de la evaluación tienen
acceso a una lista de expertos reconocidos en un campo determinado y basta
con que se aseguren de su independencia respecto del programa evaluado.

En el caso de una selección por etapas, es conveniente definir primero el perfil


de los expertos de acuerdo con los temas que se vayan a abordar en la
evaluación.

Para la definición de estos perfiles se tendrán en cuenta los siguientes puntos:

• El carácter del programa.

• El grado de controversia

• Los datos disponibles.

• Las incertidumbres

• El número de disciplinas necesarias.

2.2.3 ¿Cuáles son las normas de funcionamiento del panel?

No existe un método de trabajo único, el panel de expertos es libre de


organizarse como crea conveniente. Su labor puede centrarse en la lectura de
la documentación y en la celebración de reuniones de trabajo, o bien ampliarse
e incluir reuniones con los responsables de proyectos, visitas sobre el terreno,
envío de cuestionarios, etc.

La primera reunión del panel de expertos tiene como objetivo que éstos
entiendan perfectamente su papel en la evaluación.

Durante esta reunión también se debe discutir y aprobar el método que se


empleará para dirigir los trabajos. En esta discusión se tiene que tratar:

o La organización del panel y la función de cada uno de sus miembros.

16
o El tipo de investigación, el método de obtención de datos, la definición
de los trabajos que llevarán a cabo los distintos miembros del grupo (por
ejemplo visitas sobre el terreno).

o El calendario de intervención, la organización de las próximas reuniones


y su contenido.

Las reuniones posteriores (de 3 a 5 aproximadamente) estarán directamente


vinculadas a los trabajos del panel. En ellas se tratará sistemáticamente de:

o Los trabajos realizados desde la reunión anterior.

o Los resultados de las investigaciones ya terminadas o en curso.

o Los problemas con los que se haya tropezado.

o El estadio en que se encuentra la redacción de los diferentes


documentos y su proceso de revisión y control.
o Los trabajos que hay que realizar antes de la próxima reunión y
contenido de ésta.

Entre otras reglas aplicables a la labor del panel de expertos se encuentra la


confidencialidad de las discusiones y el compromiso de no divulgar los
resultados no definitivos.

2.2.4 ¿Qué papel desempeña el presidente del panel?

El presidente del panel desempeña un papel esencial. Es el encargado de


dirigir los trabajos, proponer la metodología, integrar resultados, impulsar la
participación, facilitar el debate y representar al panel en las reuniones. El
ambiente de trabajo en el panel depende a menudo de él.

17
 Su función como facilitador/coordinador: organiza el trabajo y la
producción de documentos de los equipos y vela por la búsqueda de
consenso.

 Su función como integrador: debe aportar una crítica constructiva


respecto del trabajo realizado por cada uno de los miembros del panel
para intentar perfeccionar las reflexiones realizadas.

 Su función como gestor: debe comprobar que los recursos disponibles


son suficientes y asegurarse de que se emplean correctamente.
Asimismo, debe asegurarse de que las reuniones se preparan
debidamente.

 Su función como representante: debe representar al panel ante


diferentes organismos e instituciones (comité de dirección, reuniones
con el servicio encargado de la asignación o con la prensa, etc.).

18
2.2.5 ¿Cómo presenta el panel el resultado de sus trabajos?

El informe es la única producción visible de sus trabajos y en el que se basará


el juicio de la parte de la evaluación confiada al grupo de expertos.

La estructura del informe debe incluir: un resumen, los términos de referencia,


la composición del panel, las pruebas recopiladas y las hipótesis establecidas,
los análisis realizados y el juicio de los expertos especificando los puntos de
consenso.

2.3 ¿Qué recursos se necesitan?

Fig. 3 – Recursos necesarios.

La rapidez de aplicación es una de las ventajas


principales de esta herramienta.
En tiempo Así, para una evaluación hay que calcular de 3 a 6 meses
de trabajo, e incluso menos si se busca una opinión sobre
un aspecto técnico concreto de la evaluación.

Las personas que integren el panel deben tener una


experiencia reconocida en el área que haya que evaluar,
ser independientes respecto del programa evaluado,
Humanos
tener capacidad para trabajar en equipo y disponibilidad
suficiente para garantizar su presencia a lo largo de toda
la evaluación.

19
Las principales partidas de gastos en las que hay que
pensar al realizar la estimación son:
 Los honorarios de los expertos, del/la secretario/a
y de los posibles subcontratistas que realicen los
estudios encargados por el panel.
Económicos

 Los costes de desplazamientos, comunicación, y


de edición, reproducción y difusión de los informes.

 Los costes de traducción, si procede.

2.4 ¿Cuáles son las ventajas y los límites de esta herramienta?

Fig. 4 – Ventajas y límites.

20
Las ventajas de esta herramienta radican
fundamentalmente en el profundo conocimiento que
tienen los expertos sobre los temas objeto de evaluación.
Ello comporta:
 Un ahorro de tiempo considerable.

Ventajas  Un coste reducido.

 Una gran credibilidad de las conclusiones.

 Una gran capacidad de adaptación a las diferentes


situaciones que puedan surgir durante la
evaluación.

El funcionamiento del panel puede tender por estructura a


omitir las opiniones minoritarias y a «suavizar» las
conclusiones.
La opinión de determinados expertos puede llegar a
primar sobre el resto, a costa de otras opiniones.
Límites
La pertenencia de los expertos al grupo de especialistas
del campo evaluado puede, por empatía, limitar la
independencia de su juicio.
La tendencia de los expertos a exceder el campo de sus
competencias reconocidas.

2.5 Desarrollo de un panel de consenso.

1. El coordinador o moderador inicia la sesión, presenta a los miembros del


panel, y formula la primera pregunta acerca del tema que se va a tratar.

21
2. Cualquiera de los miembros del panel inicia la conversación, aunque
puede estar previsto quien lo harta, y se entabla el diálogo que se
desarrollará según el plan flexible también previsto.

3. El coordinador interviene para efectuar nuevas preguntas sobre el tema,


orientar el dialogo hacia aspectos no tocados, centrar la conversación en
el tema cuando se desvía demasiado de él, superar una eventual
situación de tensión que pudiera producirse, etc. Habrá de estimular el
diálogo si éste decae, pero sin intervenir con sus propias opiniones.

4. Unos cinco minutos antes de la terminación del diálogo, el coordinador


invita a los miembros a que hagan un resumen muy breve de sus ideas.

5. Finalmente el propio coordinador, basándose en notas que habrá


tomado, destacará las conclusiones más importantes.

6. Si así se desea y el tiempo lo permite, el coordinador puede invitar al


auditorio a cambiar ideas sobre lo expuesto, de manera informal, al
estilo de un Foro. En esta etapa no es indispensable la presencia de los
miembros del panel, pero si éstos lo desean, pueden contestar
preguntas del auditorio, en cuyo caso el coordinador actuará como
"canalizador" de dichas preguntas, derivándolas al miembro que
corresponda.

2.6 Sugerencias prácticas.

Los miembros del panel y el coordinador deben estar ubicados de manera que
puedan verse entre sí para dialogar, y a la vez ser vistos por el auditorio. La

22
ubicación semicircular suele ser la más conveniente, ya sea detrás de una
mesa o sin ella pero con asientos cómodos.

 Puede designarse un secretario para tomar notas de las ideas más


importantes, las cuales pueden ser distribuidas luego entre los
interesados. También cabe la utilización de una grabadora de audio o
mucho mejor de vídeo.

 Se aconseja tener especial cuidado en la elección de los miembros del


Panel, pues una conversación de este tipo debe mantener despierto el
interés de un auditorio que permanece en pasividad expectante. Aparte
del conocimiento y autoridad sobre el tema, se requiere en los
interlocutores ciertas dotes de amenidad, facilidad de palabra, claridad
de exposición, serenidad, ingenio y alguna salida de buen humor.

2.7 TIPOS DE PANELES

Por su naturaleza, se pueden distinguir dos tipos de paneles de investigación:

1. Panel de expertos o profesionales: está formado por un grupo de


personas o expertos en una materia determinada. Los estudios que se
realizan utilizando un «panel de expertos» tienen por finalidad obtener
ideas o confirmar planteamientos por la experiencia de personas con un
gran bagaje profesional en el tema en cuestión. No son estudios de
investigación cuantitativa de mercados, propiamente dicha, sino más
bien una consulta o una técnica proyectiva.

2. Panel de clientes: formado por personas que son clientes actuales o


potenciales de una determinada empresa o marca. Los estudios que se
realizan con este tipo de paneles son variados y contemplan tanto el
diseño de la estrategia empresarial y de marketing (ej. posicionamiento
competitivo, auditorías de marca, segmentación y especialización), como
estudios de tendencias y estilos de vida, estudios para el lanzamiento de
nuevos productos o servicios o estudios ligados a iniciativas de
fidelización. Los paneles de clientes pueden ser de minoristas (obtiene
datos de compras, ventas y existencias de los establecimientos

23
comerciales), de consumidores (estudian el consumo doméstico, en
hostelería y en instituciones), o los paneles de audiencias (proporcionan
datos sobre el seguimiento del público a un determinado programa o
cadena de radio o televisión).

3. MÉTODO DE PRONÓSTICOS VISIONARIOS.

Se aplica principalmente en proyectos que se estudian para empresas


existentes y donde el personal interno demuestra experiencia y conocimiento
del mercado.

El caso más común es aquel de los vendedores que, con el conocimiento de


sus clientes adquiridos en años de experiencia, pueden opinar respectos a
reacciones y comportamientos que podrían resultar de la posible introducción
de un nuevo producto en el mercado.

Cuando se dispone personal interno de la empresa a la que se le evalúa el


proyecto y dicho personal tiene una experiencia y conocimiento de sus clientes
adquirido por años de experiencia, pueden emitir opiniones respecto a
reacciones y comportamientos posibles de esperar en el futuro. La proyección
del mercado se hará tomando el resultado de la estimación directa del personal
y corriéndola por antecedentes recopilados de una variable de fuentes
atinentes al comportamiento de la economía, la competencia, etc.

Este modelo representa algunas insuficiencias derivadas de la influencia


dominante de las experiencias más recientes y de la falta de unidades de
medida que den exactitud a la estimación.

¿Quiénes lo realizan?

24
 Lo realiza el personal interno de la empresa que tiene la experiencia y
conocimiento de sus clientes.

 Emiten opiniones respecto a reacciones y comportamientos posibles de


esperar en el futuro.

 La proyección del mercado se hace tomando el resultado de la


estimación directa del personal y corrigiéndola por antecedentes
recopilados.

 Es rápido y de bajo costo, pero se puede ver influida por las


experiencias más recientes. La estimación es muy inexacta por la falta
de unidades de medida.

3.1 Importancia.

o Disminuyen la incertidumbre sobre el futuro.

o Juegan un papel muy importante en el proceso de planificación de una


organización.

o Son la base para la planificación de presupuestos y control de costos.

o Apoya a la Mercadotecnia.

3.2 Características de los Pronósticos

Todas las situaciones en que se requiere un pronóstico, tratan con el futuro y el


tiempo.

Otro elemento siempre presente en situaciones de pronósticos es la


incertidumbre.

25
El tercer elemento, presente en grado variable en todas las situaciones
descritas es la confianza.

3.3 Etapas a seguir en un Pronóstico

1. Recopilación de Datos.

2. Reducción de Datos.

3. Construcción del Modelo.

4. Extrapolación del Modelo.

En el método cuantitativo el pronóstico utiliza estimaciones y opiniones de


personas relevantes como:

 Vendedores

 Consumidores

 Expertos

 Altos ejecutivos

Útil cuando faltan datos o cuando los datos anteriores no son buenos
indicadores del futuro

¿En que se basa?

Pronóstico que se basa en datos históricos o dependencias entre las variables


del entorno. Suposición básica: los datos anteriores y los patrones de los
mismos son predictores fiables del futuro.

Ejemplos de variables:

26
 Ventas mensuales realizadas a lo largo de los últimos años

 Índices bursátiles y económicos

 Compras de productos complementarios


II. MÉTODOS OBJETIVOS

1. CAUSALES.

Estos métodos buscan proyectar el mercado a partir de antecedentes


cuantitativos históricos. Dentro de ellos los más usados son los modelos de
regresión, el modelo econométrico y las encuestas de intención de compra.

Los modelos de regresión proyectan matemáticamente el comportamiento de


una variable dependiente, conociendo el comportamiento de una variable
independiente. En general son modelos complejos, lo que no siempre los hace
más confiables.

Los modelos econométricos, son considerados como una extensión de los de


regresión. Mediante un sistema de ecuaciones estadísticas que interrelacionan
las actividades de diferentes sectores de la economía, ayudan a evaluar la
repercusión que tienen en la demanda de un producto o servicio estos mismos
sectores. Aun considerando la superioridad que exhiben sobre los métodos de
regresión, deben emplearse con la misma cautela que aquellos.

Un modelo distinto, dentro de esta misma clasificación, lo constituye las


encuestas de intenciones de compra. Consiste en tomar como base de
predicción las respuestas de una muestra de la población, escogida
estadísticamente y considerarla representativa de toda la población. El peligro
de su aplicación radica en su dependencia de las variables del contexto, las
que si son dinámicas, pueden determinar que las condiciones imperantes
modifiquen la intencionalidad de compra del grupo encuestado.

2. ANÁLISIS DE REGRESIÓN SIMPLE Y MULTIPLE.

Regresión:

27
Se define como un procedimiento mediante el cual se trata de determinar si
existe o no relación de dependencia entre dos o más variables. Es decir,
conociendo los valores de una variable independiente, se trata de estimar los
valores, de una o más variables dependientes.

La regresión en forma gráfica, trata de lograr que una dispersión de las


frecuencias sea ajustada a una línea recta o curva.

Clases de Regresión

La regresión puede ser Lineal y Curvilínea o no lineal, ambos tipos de regresión


pueden ser a su vez:

a. Esta regresión se utiliza con mayor frecuencia en las ciencias


económicas, y sus disciplinas tecnológicas. Cualquier función no lineal, es
linealizada para su estudio y efectos prácticos en las ciencias económicas,
modelos no lineales y lineales multiecuacionales.

Objetivo: Se utiliza la regresión lineal simple para:

1.- Determinar la relación de dependencia que tiene una variable respecto


a otra.

2.- Ajustar la distribución de frecuencias de una línea, es decir, determinar


la forma de la línea de regresión.

3.- Predecir un dato desconocido de una variable partiendo de los datos


conocidos de otra variable.

Por ejemplo: Podría ser una regresión de tipo lineal:

En una empresa de servicio de Internet busca relacionar las ganancias


que obtiene cada computadora con el número de usuarios que ingresan a
dicha cabina diariamente. En la tabla representa Y (Ganancias S/.) e X
(Numero de usuarios)

28
Y 100 98 99 102 102 111 97 104 102 96

X 116 96 110 105 99 106 100 109 98 108

Coeficiente de Regresión

Indica el número de unidades en que se modifica la variable dependiente "Y"


por efecto del cambio de la variable independiente "X" o viceversa en una
unidad de medida.

Clases de coeficiente de Regresión:

El coeficiente de regresión puede ser: Positivo, Negativo y Nulo.

Es positivo cuando las variaciones de la variable independiente X son


directamente proporcionales a las variaciones de la variable dependiente "Y"

Es negativo, cuando las variaciones de la variable independiente "X" son


inversamente proporcionales a las variaciones de las variables dependientes
"Y"

Es nulo o cero, cuando entre las variables dependientes "Y" e independientes


"X" no existen relación alguna

30
20
10
0
0 2 4 6 8 10 12 14 16
Positivo

29
0.6
0.5
0.4
0.3
0.2
0.1
0
1 2 3 4 5 6 7
Negativo

25

20

15

10

0
0 5 10 15 20 25
Nulo

Procedimiento para hallar el Coeficiente de Regresión

Para determinar el valor del coeficiente de regresión de una manera fácil y


exacta es utilizando el método de los Mínimos Cuadrados de dos maneras:

1.- Forma Directa

De la ecuación de la recta:

Si
a0 y a1 , se obtienen a partir de las ecuaciones normales:

30
Aplicando normales Y sobre X tenemos:

El Coeficiente de Regresión es

De la misma manera la recta de regresión de “X” sobre “Y” será dada de la


siguiente manera:

Dónde:
b0 y b1 se obtienen a partir de las ecuaciones normales:

Aplicando normales X sobre Y tenemos:

31
2.- Forma Indirecta del Método de los Mínimos Cuadrados.

El fundamento de este método es de las desviaciones de X respecto a


su media aritmética. X

Ecuación de y sobre x Ecuación de y sobre x

Dónde:

x, y = desviaciones

X = media aritmética

Y = media aritmética

32
a) Regresión Múltiple: Este tipo se presenta cuando dos o más variables
independientes influyen sobre una variable dependiente. Ejemplo: Y = f(x,
w, z).

Por ejemplo: Podría ser una regresión de tipo múltiple:

Una Empresa de desarrollo de software establece relacionar sus Ventas en


función del numero de pedidos de los tipos de software que desarrolla
(Sistemas, Educativos y Automatizaciones Empresariales), para atender 10
proyectos en el presente año.

En la Tabla representa Y (Ventas miles de S/.) e X (Nº pedidos de


sistemas), W (Nº de pedidos de Aplicaciones Educativas) y Z (Nº de
pedidos de Automatizaciones empresariales).

Y 440 455 470 510 506 480 460 500 490 450

X 50 40 35 45 51 55 53 48 38 44

W 105 140 110 130 125 115 100 103 118 98

Z 75 68 70 64 67 72 70 73 69 74

Objetivo: Se presentara primero el análisis de regresión múltiple al


desarrollar y explicar el uso de la ecuación de regresión múltiple, así como
el error estándar múltiple de estimación. Después se medirá la fuerza de la
relación entre las variables independientes, utilizando los coeficientes
múltiples de determinación.

Análisis de Regresión Múltiple

Dispone de una ecuación con dos variables independientes adicionales:

33
Se puede ampliar para cualquier número “m” de variables independientes:

Para poder resolver y obtener a , b1 y b2 en una ecuación de regresión


múltiple el cálculo se presenta muy tediosa porque se tiene atender 3
ecuaciones que se generan por el método de mínimo de cuadrados:

Para poder resolver se puede utilizar programas informáticos como AD+,


SPSS y Minitab y Excel.

El error estándar de la regresión múltiple


(S xy )

Es una medida de dispersión la estimación se hace más precisa conforme


el grado de dispersión alrededor del plano de regresión se hace mas
pequeño.

Para medirla se utiliza la fórmula:

34
Y : Valores observados en la muestra
¿

Y : Valores estimados a partir a partir de la ecuación de regresión

n : Número de datos

m : Número de variables independientes

El coeficiente de determinación múltiple (r2 )


Mide la tasa porcentual de los cambios de Y que pueden ser

explicados por
x1 ,
x2 y
x3 simultáneamente.

APLICACION DE REGRESION MULTIPLE

Mediante el siguiente problema podremos ilustrar la aplicación de Regresión


Multiple: En la Facultad de Ingeniería de Sistemas y Computo de la Universidad
“Inca Garcilaso de la Vega” se quiere entender los factores de aprendizaje de
los alumnos que cursan la asignatura de PHP.

Para lo cual se escoge al azar una muestra de 15 alumnos y ellos registran


notas promedios en las asignaturas de Algoritmos, Base de Datos y
Programación como se muestran en el siguiente cuadro.

Base de
Alumno PHP Algoritmos Datos Programación

35
1 13 15 15 13

2 13 14 13 12

3 13 16 13 14

4 15 20 14 16

5 16 18 18 17

6 15 16 17 15

7 12 13 15 11

8 13 16 14 15

9 13 15 14 13

10 13 14 13 10

11 11 12 12 10

12 14 16 11 14

13 15 17 16 15

14 15 19 14 16

15 15 13 15 10

Lo que buscamos es construir un modelo para determinar la dependencia que


exista de aprendizaje reflejada en las notas de la asignatura de PHP,
conociendo las notas de las asignaturas Algoritmos, Base de Datos y
Programación.

Se presentara la siguiente ecuación a resolver:

Utilizando las fórmulas de las ecuaciones normales a los datos obtendremos


los coeficientes de regresión o utilizando Regresión de Análisis de datos, en la
Hoja de Cálculo de Excel podemos calcular también los coeficientes de
regresión:
36
Por lo tanto podemos construir la ecuación de regresión que buscamos:

El Error Estándar de Regresión Múltiple


(S x , y )

Mediante esta medida de dispersión se hace más preciso el grado de


dispersión alrededor del plano de regresión, se hace más pequeño.

Para calcularla se utiliza la formula siguiente:

En los resultados de Excel se llama error típico y para explicar la relación del
aprendizaje de PHP que se viene desarrollando es de 0.861

El coeficiente de determinación múltiple (r2)

Utilizaremos para determinar la tasa porcentual de Y para ser explicados las


variables múltiples, utilizando la si siguiente formula:

37
SCregresiòn
r2=
SCTotal
18 .7737874
r2= =0 . 69704656
26 . 9333333

3. MODELO DE SERIES DE TIEMPO.

Se refieren a la medición de valores de una variable en el tiempo a intervalos


espaciados uniformemente. El objetivo es determinar un patrón básico de
comportamiento, que posibilite la proyección futura de la variable deseada.

Pueden distinguirse cuatro componentes básicos que se refieren a una


tendencia, a un factor cíclico, a fluctuaciones estaciónales y a variaciones no
sistematizadas.

Puede definirse una tendencia de largo plazo para la variable, pueden darse
divergencias significativas entre la línea de tendencia proyectada y el valor real
que exhiba la variable. Esta divergencia se conoce como el componente cíclico
y se admite entre sus causas el comportamiento del efecto combinado de
fuerzas económicas, sociales, políticas, tecnológicas, culturales y otras
existentes en el mercado.

Existen diversos métodos que permiten estimar el comportamiento de una


variable y que aíslan, el efecto tendencia. Estos son: el método de los
promedios móviles, el de afinamiento exponencial y el de ajuste lineal por el

38
criterio de los mínimos cuadrados. La serie cronológica con fuerte efecto
estacional hace recomendable el uso de un promedio móvil simple de un
número determinado de periodos, que normalmente es de los cuatros últimos
trimestres.

El efecto estacional y algunas influencias no sistematizadas se determinan


mediante el índice estacional especifico, ejemplo; invierno, primavera, verano y
otoño.

En este tipo de metodología, se proyecta el valor de una variable determinando


el patrón básico de comportamiento en su información histórica, el que se usa
en la elaboración de un pronóstico. Para ello considera la tendencia general, el
comportamiento cíclico y las fluctuaciones estacionales.

Este modelo estima que el comportamiento histórico es un buen indicador de lo


que se puede esperar y no considera cambios en el medio que modifiquen el
peso relativo de las diversas variables que determinaron ese comportamiento
histórico. Como consideración de importancia, cabe mencionar la diferencia
entre los consumidores individuales y los de tipo institucional. Cuando se
analiza la proyección de la demanda para estos últimos, la estimación suele
verse simplificada, considerando que las compras institucionales tienen un
comportamiento racional, en que existen cotizaciones previas y comparación
de calidades, de precios y de oportunidad en la entrega, confiabilidad en los
suministros, etc. Si el producto a producir por el proyecto es capaz de ofrecer
mejores precios, igual calidad, condiciones de crédito más favorables,
oportunidad y confiabilidad en la entrega o con una menor tasa de devolución
por fallas, es posible confiar en una expedita entrada al mercado. Sin embargo,
es preciso considerar la reacción de los competidores que se verán afectados
por la puesta en operación del nuevo proyecto, que pueden diseñar nuevas
estrategias de comercialización de sus productos con la finalidad de bloquear o
entorpecer la entrada al mercado de nuevos oferentes.

Otra consideración a tener en cuenta, especialmente desde la óptica del


mercado de consumidores individuales, es analizar el impacto que
eventualmente puede tener en el volumen de ventas, un precio mayor que el

39
que ofrece la competencia, lo que posibilitaría el acceso a un segmento
diferenciado de los consumidores.

Como ejemplo de que un mayor precio puede de todas maneras ser preferido
por los consumidores se puede mencionar el caso de una fábrica de redes de
pesca a instalar en el país, para sustituir importación es desde otros mercados.
Se determinó que aun el mayor precio del producto, lo hacía preferible a la
mantención de inventarios de seguridad, por las demoras en llegar que
mostraba el producto importado, con las consecuentes disminuciones del
capital de trabajo, menores gastos en almacenamiento y mantención. El hecho
que la determinación de la demanda es uno de los aspectos claves de
cualquier estudio de factibilidad de un proyecto de inversión y ante la
imposibilidad de conocer anticipadamente el comportamiento del mercado
consumidor, hace que el cálculo de la rentabilidad tenga una marcada
incertidumbre, por lo que prácticamente en la totalidad de los casos es preciso
realizar análisis de sensibilidad del proyecto en cuanto al nivel de la demanda y
evaluar su comportamiento, buscando determinar el mínimo nivel de venta para
el cual el proyecto sigue siendo atractivo.

Una serie de tiempo proporciona un conjunto de observaciones que están


ordenadas en el tiempo, y que estas pueden representar el cambio de una
variable ya sea de tipo económica, física, química, biológica, etc., a lo largo esa
historia.

La finalidad del análisis de una serie de tiempo es el conocimiento de su patrón


de comportamiento, para así poder prever su evolución en el futuro cercano,
suponiendo por supuesto que las condiciones no variarán significativamente.

La predicción que se puedan realizar en base al análisis de este tipo de datos


servirá para el desarrollo de nuevos planes para inversiones en agricultura por
ejemplo, elaboración de nuevos productos por parte de las empresas,
prevención de desastres por cambios en el clima, o captar turistas para la
ciudad, etc.

Conceptos de Series de Tiempo.

40
Según Spiegel (1991): “Una serie en el tiempo es un conjunto de
observaciones tomadas en instantes específicos, generalmente a intervalos
iguales”.

Según Soto (2005): “Aquellas en que una de las variables intervinientes es el


tiempo. Se pueden definir como conjunto de observaciones de una variable
realizadas en sucesivos periodos (años, semestres, meses, etc.)”.

Las definiciones anteriormente citadas dan una idea clara de los que es el
concepto de una serie de tiempo, en el cual de sus variables es el mismo es
decir, las observaciones tomadas son registradas según una medida ya sea
día, año, meses, semestre, bimestre u otras unidades de tiempo.

Un ejemplo de series de tiempo es: La producción anual total de acero en


Venezuela durante un cierto número de años, las temperaturas anunciadas
cada hora por el instituto meteorológicos para un cuidad, las tasas de
desempleo de Venezuela estudiadas en funciones de años o de periodos
presidenciales, incluso el comportamiento de los precios del petróleo durante
las últimas dos décadas.

Según Spiegel (1991) “Matemáticamente, una serie de tiempo se define por los
valores Y1, Y2…, de una variable (temperaturas, cotización, etc.), en
tiempos T1, T2..., así de pues, (Y) es una función de (T), esto se denota por Y
= F (T)”. (pág. 440). Lo especificado por Spiegel anteriormente nos da una
clara idea de la aplicación matemática de una serie de tiempo donde se
trabajara con el factor tiempo y alguna otra variable.

3.1 Importancia

La importancia de su estudio reside, en que en base a los cambios y


movimientos que sufre un fenómeno cualquiera a través del tiempo, este puede
su ajustado mediante determinadas ecuaciones matemáticas, lo que permite
efectuar estimaciones, proyecciones extrapolaciones o pronósticos futuros, los
cuales facilitaron la toma de decisiones.

41
Una serie de tiempo es de vital interés ya que permite anticipar situaciones
futuras para tomar decisiones acertadas cuando se presente el mismo
fenómeno con características similares y en el mismo lapso de tiempo
estudiado, permitiendo como ya hemos dicho adelantarnos a los supuestos
resultados tomando la aptitud o decisión más acertada.

Una serie de tiempo proporciona un conjunto de observaciones que están


ordenadas en el tiempo, y que estas pueden representar el cambio de una
variable ya sea de tipo económica, física, química, biológica, etc., a lo largo esa
historia.

La finalidad del análisis de una serie de tiempo es el conocimiento de su patrón


de comportamiento, para así poder prever su evolución en el futuro cercano,
suponiendo por supuesto que las condiciones no variarán significativamente.

La predicción que se puedan realizar en base al análisis de este tipo de datos


servirá para el desarrollo de nuevos planes para inversiones en agricultura por
ejemplo, elaboración de nuevos productos por parte de las empresas,
prevención de desastres por cambios en el clima, o captar turistas para la
ciudad, etc.

Dependiendo del campo en el cual se utilizará la serie cronológica, se clasifican


en:

 Serie Continua: Una serie de tiempo es continua cuando las


observaciones son tomadas continuamente en el tiempo, aun cuando la
variable medida sólo tome un número de valores finitos.

 Serie Discreta: Una serie temporal es discreta cuando las observaciones


son tomadas en tiempos específicos, normalmente igualmente
espaciados. Se supondrán los datos en intervalos regulares de tiempo
(horas, días, meses, años,..). El término discreto es usado aun cuando la
variable medida sea continua. Las series discretas pueden surgir de
varias maneras:

42
 Muestral: Dada una serie de tipo continua es posible construir una serie
de tipo discreta, tomando los valores en intervalos de tiempo de igual
longitud. Un ejemplo de serie temporal de tipo continua es la
temperatura en un lugar dado, considerando la temperatura diaria a las
tres de la tarde, obtenemos una serie temporal discreta muestral.

 Agregada o Acumulada: Este tipo de series ocurre cuando una variable


no tiene valor en un instante (sólo tiene sentido en algunos instantes de
tiempo) pero se pueden acumular los valores en intervalos de tiempo
igualmente espaciados. Ejemplos: las lluvias torrenciales, los accidentes
de tráfico mensualmente, el número de pasajeros mensuales en las
líneas aéreas españolas. De hecho los accidentes de tráfico mensuales
son una agregación de sucesos discretos. Los valores tomados no se
observan en cada instante sino que se van acumulando en intervalos de
tiempo.

 Inherentes o Discretas: Las que realmente los datos se obtienen en


momentos discretos. Por ejemplo el salario mensual.

Teniendo en cuenta el número de variables que observamos en cada tiempo se


pueden diferenciar:

Series Temporales univariantes: Cuando interviene una sola variable.

Series Temporales multivariantes: Cuando intervienen varias variables.

3.2 Pasos para la realización de una serie de tiempo

El primer paso para estudiar una serie de tiempo es graficarla, esto


proporciona: identificar la tendencia, la estacionalidad, las variaciones
irregulares. Un modelo clásico para una serie de tiempo, puede ser expresada
como suma o producto de tres componentes: tendencia, estacional y un
término de error aleatorio.

43
El primer paso a llevar a cabo en cualquier análisis de una serie de tiempo es
realizar la representación gráfica de la serie. En el eje horizontal se representa
la escala del tiempo, y en el eje vertical, los valores asignados a los tiempos.
Es habitual observar que los datos aparentemente fluctúan a lo largo del tiempo
en torno a algún patrón. Desde un punto de vista formal, este hecho responde
al concepto de proceso estocástico, concepto matemático que hay subyacente
en una serie temporal. La representación gráfica de una serie de tiempo es la
representación de una trayectoria del proceso estocástico subyacente. En
dicha representación, podemos observar las principales fuentes de variación.

3.3 Análisis en la serie de tiempo.

El análisis en la serie de tiempo consiste en describir matemáticamente, en


general los movimientos componentes que están presentes. Para comprender
los procedimientos implicados en tal descripción que consideremos. Que
muestra serie de tiempos ideales.

La recta de tendencia a largo plazo con movimientos cíclicos añadió que se


supone periódico. También se muestra en las siguientes figuras muestra un
movimiento estacional añadido a la anterior. Si añadimos algunos movimientos
irregulares o aleatorios. El resultado tendría un aspecto mas parecido al de la
serie en el tiempo que aparece en las prácticas.

Y= T X C X S X I = TCSI

El análisis en el tiempo requiere investigar los factores T,C,S e I y se conoce a


menudo como una descomposición de una serie en el tiempo en movimientos
y componentes básicos.

3.4 Componentes de una serie de tiempo.

Las Series Históricas, Cronológicas o de Tiempo, presenta una serie de


movimientos características producidas por la combinación de diferentes

44
causas entre otras: económicas, sociales, políticas, aleatorias, las cuales
quedan comprendidas dentro de los siguientes componentes:

 Tendencia Celular: Definida como un movimiento o variación continua o


prolongada que sufre la correspondiente variable estudiada en una
determinada dirección, la cual puede ser ascendente o descendente y
durante el periodo relativamente largo, generalmente mayor de cinco
años.

La tendencia a largo plazo. Se describe el movimiento suave y regular de una


serie que refleja un crecimiento o un estancamiento continuo o una declinación
de un periodo de tiempo muy prolongado. Si bien no se define la longitud
exacta del periodo, se conviene que para una serie de economía el periodo ha
de ser suficientemente largo como para incluir dos o más ciclos económicos,
con el fin de obtener así algún resultado razonable. Lo que mide la tendencia
es la variación promedio de la variable por unidad de tiempo. Las tendencias a
largo plazo se presentan en una serie de tiempo debido al crecimiento
constante de la población, el producto nacional bruto, el efecto de la
competencia y otros factores que no llegan a producir cambios violentos en la
variable observada, pero producen un cambio gradual sobre el tiempo. Debido
a ese cambio gradual muy estable de los desarrollos, se suelen describir
mediante una recta o algún tipo de curva lisa.

 Variaciones o Fluctuaciones Cíclicas: Puede definirse como movimientos


o variaciones ondulatorias de la actividad económica alrededor de la
línea de tendencia secular, marcados por periodo de contracción (bajas)
y expansión (altas), generalmente mayores de un año y menores que
cinco, de los cuales son responsables obviamente los factores
económicos, los cuales inciden en la economía de un país para que se
pase en un momento dado de una situación económica normal a un
periodo de prosperidad, receso y depresión, continuando luego el ciclo
económico aunque sin seguir o ajustarse a un determinado modelo.

45
Los Efectos Cíclicos: Estos se caracterizan por movimientos recurrentes
ascendentes y descendentes que son distintos de los efectos estacionales por
cuanto se extienden por periodos de tiempo más largos, por lo general de 2 o
más años. Se atribuyen a factores variables y se ha hecho un gran esfuerzo
para identificar y evaluar estos factores. En consecuencia, se han propuestos
muchas teorías para explicar las fluctuaciones cíclicas, pero pocas de tales
teorías han recibido aceptación universal. En general, las fuerzas que resultan
en este tipo de fluctuaciones son de naturaleza económica y reflejan el estado
de las actividades comerciales de tiempo en tiempo. En los ciclos económicos
se pueden distinguir cuatro fases, la vuelta hacia abajo o prosperidad viene
seguida de un periodo de contracción que lleva a una recesión o depresión, a
la cual sigue luego la recuperación o expansión que finalmente lleva a un
periodo de prosperidad. Un ciclo se mide ya sea de vuelta hacia abajo a
vuelta hacia abajo, o bien de vuelta hacia arriba a vuelta hacia arriba. La
diferencia fundamental entre efectos cíclicos y estacionales puede radicar en
que estos pueden predecirse y ocurren en un intervalo de tiendo fijo de la
última ocurrencia, mientras que los efectos cíclicos son completamente
impredecibles.

 Variaciones o Fluctuaciones Estacionales: Son variaciones que se


producen en la actividad económica por el ritmo fijo de las estaciones,
caracterizándose porque ocurren dentro del lapso de un año (aumento
de las ventas en Navidad, incremento del turismo en vacaciones, auge
del uso del combustible en países de climas fríos, en invierno, entre
otros).

Los Efectos Estacionales: La palabra estacional, tal como aquí se emplea, tiene
una connotación más bien amplia. Por variaciones estacionales se entiende las
variaciones periódicas, que vuelven con cierta regularidad durante un periodo
de tiempo especificado de un año o menos. La variación periódica que más se
estudia es la que ocurre con periodos de 12 meses, como sucede en la
producción de vehículos, ventas de tarjetas de Navidad, etc. Como estas
variaciones están ligadas a las estaciones del año, se ha utilizado el nombre de
efecto o variación estacional. No obstante, el nombre se usa indicar toda clase

46
de movimiento periódico, diario, semanal u otro, con un año como periodo de
recurrencia máximo.

 Variaciones Aleatorias Accidentales o Irregulares: Son causadas por


sucesos fortuitos u ocasionales, los cuales pueden producir severos
cambios en la economía de un país (guerras, terremotos, inundaciones,
entre otros). Por su misma condición de aleatoria no son fáciles de
pronosticar.

Los Efectos Irregulares: Los movimientos irregulares de las series de tiempo


son bien aleatorios, o bien se deben a ciertas fuerzas esporádicas como la
guerra, los terremotos, las inundaciones, las sequias y otras calamidades
naturales. Tales fluctuaciones no son recurrentes y son, por tanto,
completamente impredecibles. No obstante, estos sucesos se pueden
reconocer e identificar fácilmente y así se pueden eliminar de los datos cuando
se trata de medir la tendencia a largo plazo, el efecto estacional y los efectos
cíclicos. En cuanto a las variaciones aleatorias o al azar, a menudo son
comparativamente poco importantes y se pueden considerar como prte de los
efectos estacionales o cíclicos o simplemente, se ignoran.

3.5 Movimientos particulares de series en el tiempo.

Es de gran interés pensar en el gráfico de una serie en el tiempo como un


gráfico que describe un punto moviéndose con el paso del tiempo análogo en
muchos aspectos a la trayectoria de una particular física que se mueve bajo la
influencia de la fuerza física. Claro está que en lugar de fuerzas físicas, aquí
cabe pensar en el resultado de una combinación de fuerzas económicas,
sociológicas, psicológicas o de otros tipos.

La experiencia con muchos ejemplos de series en el tiempo ha revelado ciertos


movimientos o variaciones características que aparecen a menudo, y cuyo
análisis es de gran interés por muchas razones, una de ellas el problema de
predicción de futuros movimientos. No puede sorprendernos en consecuencia,
que muchas empresas y gobiernos estén preocupados por este importante
tema.

47
3.6 Modelos clásicos de series de tiempo.

Los modelos clásicos de series de tiempo son:

Modelos de descomposición

Un modelo clásico para una serie de tiempo, supone que una serie x (1),..., x(n)
puede ser expresada como suma o producto de tres componentes: tendencia,
estacionalidad y un término de error aleatorio.

Existen tres modelos de series de tiempos, que generalmente se aceptan como


buenas aproximaciones a las verdaderas relaciones, entre los componentes de
los datos observados. Estos son:

1. Aditivo: X(t) = T(t) + E(t) + A(t)

2. Multiplicativo: X(t) = T(t) · E(t) · A(t)

3. Mixto: X(t) = T(t) · E(t) + A(t)

Dónde:

X (t) serie observada en instante t

T (t) componente de tendencia

E (t) componente estacional

A (t) componente aleatoria (accidental)

Una suposición usual es que A (t) sea una componente aleatoria o ruido blanco
con media cero y varianza constante.

Un modelo aditivo, es adecuado, por ejemplo, cuando E(t) no depende de otras


componentes, como T(t), sí por el contrario la estacionalidad varía con la
tendencia, el modelo más adecuado es un modelo multiplicativo (2). Es claro
que el modelo 2 puede ser transformado en aditivo, tomando logaritmos. El
problema que se presenta, es modelar adecuadamente las componentes de la
serie.

48
ESTIMACIÓN DE LA TENDENCIA

Supondremos aquí que la componente estacional E(t) no está presente y que el


modelo aditivo es adecuado, esto es:

X(t) = T(t) + A(t), donde A(t) es ruido blanco.

Hay varios métodos para estimar T (t). Los más utilizados consisten en:

1. Ajustar una función del tiempo, como un polinomio, una exponencial u


otra función suave de t.
2. Suavizar (o filtrar) los valores de la serie.
3. Utilizar diferencias.

Otros métodos para la Estimación de la Tendencia son:

Método de los mínimos cuadrados. Se puede utilizar para hallar la ecuación


de la recta o curva de tendencia adecuada. De esta ecuación se podrán
calcular los valores de tendencia T.

Método del promedio móvil. Usando promedios móviles de ordenes


apropiados, podemos eliminar esquemas clínicos, estacionales e irregulares,
dejando así tan solo el movimiento de tendencia.

Una desventaja de este método es que los datos al comienzo y al final de una
serie se pierden. Otra desventaja es que los promedios móviles pueden
generar ciclos u otros movimientos que no estaban presentes en los datos
originales. Una tercera desventaja es que los promedios móviles se ven muy
afectados por los valores extremos para obviar este último en cierta medida, se
usa a veces un promedio móvil ponderado con pesos adecuados; en tal caso,
al valor o valores centrales se les asigna peso máximo, y a los valores
extremos, pesos pequeños.

49
Método de Semipromedios. Consiste en separar los datos en 2 partes
(preferible que sean iguales) y promediar los datos de cada parte, obteniendo
con ello dos puntos en el gráfico de la serie en el tiempo. Entonces se traza
una recta de tendencia entre esos dos puntos, y los valores de tendencia se
determinan de esa recta de tendencia. Los valores de tendencia se pueden
determinar también directamente, sin gráfico.

Aunque el método es sencillo de aplicar, puede conducir a resultados pobres si


se usa indiscretamente. Además es solo aplicable cuando la tendencia es lineal
o aproximadamente lineal, si bien puede extenderse a casos en que los datos
pueden agruparse en varias partes, en cada una de las cuales la tendencia es
lineal.

Interpretación del método de los mínimos cuadrados.

El método de los mínimos cuadrados consiste en determinar de la infinidad de


líneas que existen en un plano, aquella línea optima o promedio que pase lo
más cerca posible de todos los puntos que se originan al representar
gráficamente las observaciones de una serie cronológica o de tiempo (eje
vertical o de las ordenadas: variables en estudio: eje horizontal o de las
abscisas: variable tiempo) de tal forma que los cuadrados de la distancia
entre tales puntos y decía línea, sean lo más pequeña posible.

Tengamos por ejemplo las siguientes series históricas, la cual representa las
ventanas en mil/Bs. Ocurridas en una empresa durante el lapso que abajo se
menciona.

Ecuaciones de ajuste más importantes:

Las ecuaciones de ajuste mínimo cuadráticas de mayor aplicación y uso, así


como sus respectivas explicaciones

a) Ecuación de la línea recta ( y= a+bx)

b) Ecuación de la parábola de 2º grados (y= a+bx +cx2)

c) Ecuaciones exponencial (y= a.bx)

50
Método de Porcentaje

Medio. En este método expresamos los datos de cada mes como porcentajes
del promedio anual. Los porcentajes para meses correspondientes en distintos
años se promedian entonces, usando una media o una mediana: si se usa la
media, es mejor evitar los valores extremos que puedan aparecer. Los 12
porcentajes resultantes dan el índice estacional. Si su media no es el 100% (o
sea, si su suma no es 1200%), deben ser ajustados lo que se logra
multiplicándolos por un factor adecuado.

Método del Porcentaje de Tendencia. En este método expresamos los datos


para cada mes como porcentajes de valores de tendencia mensuales. Un
promedio apropiado de los porcentajes para meses correspondientes da
entonces el índice requerido. Como en el método 1, los ajustamos si no tienen
promedio 100%.

Método del Promedio Móvil en Porcentaje. En este método calculamos un


promedio móvil de 12 meses. Como los resultados obtenidos así caen entre
meses sucesivos en lugar de en el centro del mes (que es donde caen los
datos originales), calculamos un promedio móvil de 2 meses de ese promedio
móvil de 12 meses. El resultado se llama a veces un promedio móvil de 12
meses centrado.

Tras hacer eso, expresamos los datos originales de cada mes como un
porcentaje del promedio móvil centrado de 12 meses que corresponde a los
datos originales. Los porcentajes de los meses correspondientes se promedian
a continuación, dando el índice buscado. Como antes, los ajustamos si no
promedian 100%

Método de la Relación de Enlace. En este método expresamos los datos para


cada mes como un porcentaje de los datos para los meses previos; estos
porcentajes mensuales se llaman relaciones de enlace porque relacionan cada
mes con el procedente. Entonces tomamos un promedio adecuado de los
enlaces relativos para los meses correspondientes. De estas 12 relaciones de

51
enlace promedio obtenemos los porcentajes relativos de cada mes respecto a
enero; que se adopta como el 100%.

Tras hacer eso, encontraremos que el siguiente enero tiene un porcentaje


asociado que es mayor o menor que 100%, según haya habido un crecimiento
o decrecimiento en la tendencia usando este porcentaje del próximo enero,
ajustamos los diversos porcentajes relativos mensuales (antes obtenidos) para
esta tendencia. Estos porcentajes finales, ajustados de modo que promedien
100%, dan el índice estacional requerido.

Predicciones.

Predecir, es estimar el futuro utilizando información del presente y del pasado.


El conocimiento del futuro nos capacita para planificar, prever o prevenir. Los
métodos y principios anteriores se usan en la importante tarea de predecir
series en el tiempo. Hay que ser conscientes de que, naturalmente, el
tratamiento matemático de los datos no resuelve por si mismo todos los
problemas. No obstante, acoplando al sentido común de la experiencia, su
ingenio y buen juicio, el análisis matemático ha demostrado su utilidad tanto en
predicciones de largo como de corto alcance.

La idea es estimar X(t) en un instante n + k posterior al último dato observado


en t =n, k = 1,2,3,4,... (Trimestre, mes, etc.).

Una vez estimada la tendencia y la estacionalidad las fórmulas de predicción


quedarán determinadas por Modelo Mixto y Modelo Aditivo

4. MODELO ECONOMÉTRICO

A) Modelos Admisibles

B) Modelos Esféricos

52
C) Modelo Óptimo

Valores de los coeficientes de regresión lineales para las funciones:


 Y = A + B * X1
 Y = A + B * X1 + C * X2
      
1. El coeficiente de determinación R2 , porcentaje de la varianza de la
variable Y que es explicada por las variables X1 y X2.

2. El coeficiente de determinación que mide la asociación estadística entre


las variables X1 y X2, indicador de la existencia de Multicolinealidad en
el modelo.

3. Estimación de la desviación típica de la variable endógena.

4. Valores de los estadísticos D(A) y D(B) tales que (A-a) / D(A) y (B-b) /
D(B) siguen distribuciones t-Student de n-3 grados de libertad, (n-2 para
el caso del modelo con una sola variable explicativa).
El cociente entre el valor del coeficiente de correlación y el estadístico D
permite contrastar la hipótesis de igualdad del parámetro del modelo a
cero.

5. Valor del contraste de Durbin-Watson, indicador de la existencia de


autocorrelación, incumplimiento de la hipótesis inicial de independencia
en las perturbaciones E UtUt-i  = 0 , es decir, no nulidad de las
covarianzas de las perturbaciones.
6. El estadístico de Durbin-Watson detecta la autocorrelación del tipo Ut =
k*Ut-1 + Et  donde Et cumple las hipótesis clásicas. Se presume que cada
observación es influida por la perturbación de la observación anterior,
situación frecuente en los modelos de series temporales.

53
7. Valores del contraste de Goldfeld-Quandt tanto si se clasifican las
ternas de datos de acuerdo a X1 como a X2.

Este contraste está diseñado para detectar la existencia de heterocedasticidad,


desigualdad de las varianzas de las perturbaciones.

El applet clasifica las ternas o pares de datos aplicando regresiones lineales a


los subconjuntos de datos de tamaño (n*2)/5. El primer subconjunto se forma
con los valores más bajos de la variable independiente y el segundo con los
más altos.

El cociente de las sumas de los cuadrados de los residuos sigue una


distribución F de Snedecor con los mismos grados de libertad para el
numerador y denominador: ((n+2)/5)-3).

La clasificación se efectúa para cada una de las dos variables explicativas.

El applet permite elegir entre diversas transformaciones de los datos, las dos
últimas posibilidades de transformación aplican el procedimiento de mínimos
cuadrados ponderados. Deflactando los datos por una de las variables
explicativas intentaremos corregir la existencia de heterocedasticidad.

y = a + b*ln(x)                                                  ln(y) = a + b*ln(x)

y = a - b/x                                                          ln(y) = a - b/x

54
I Modelos Financiero-Econométricos Empleados

1) Modelos regresivos

Un modelo regresivo (Aznar, 1989) trata de explicar el comportamiento de


una variable exógena en función de diversas variables explicativas
(exógenas) o de valores anteriores de ella misma (endógena). En modelos
más complejos se pueden determinar conjuntamente varias variables
endógenas a través de un sistema de ecuaciones resuelto de forma
simultánea.

A lo largo de estos capítulos se emplearán modelos más o menos complejos


pero en cualquier caso uniecuacionales, en los que sólo existirá una variable
endógena, pudiendo existir varias explicativas. Todo este tipo de modelización
parte a priori con un handicap la existencia de factores reales explicativos
de la variable endógena, es bien conocido que en estadística siempre es
posible incrementar el grado de explicación por el aumento de variables
exógenas en el modelo.

Conviene aclarar, que no se ha tomado ningún partido en cuanto a la mayor o


menor validez de los modelos regresivos o de cualquier otro, antes al
contrario, se ha tratado de testear todos y cada uno de los modelos que los
autores creían podían aportar buenos resultados. Las conclusiones son en
muchos casos sorprendentes, y avalan que en muchas ocasiones ideas
apriorísticas como por ejemplo la necesidad de modelizaciones distintas de la
lineal para la volatilidad, no son ciertas en todas las ocasiones, sino más bien
lo contrario.

En este estudio se ha pretendido en todo momento un exhaustivo


seguimiento de las posibles correlaciones cruzadas entre variables
explicativas para evitar redundancias y por supuesto de rechazar, mediante
el empleo sistemático de test estadísticos de no significatividad, las variables
que no fueran claramente relevantes en la explicación de la volatilidad.

Para la utilización de estos modelos debemos partir de una idea ex-ante sobre
la relación entre una o varias variables y tratar de verificar que ésta relamente
55
exista, pero el problema no sólo reside en la existencia de relaciones
perdurables en el tiempo sino en la forma funcional que éstas adopten, por ello
en este trabajo se emplearan diversos modelos, que a priori eran
susceptibles de dar buenos resultados:

- Relaciones lineales univariantes.

Dónde:

y es la variable dependiente. beta es la variable explicativa. Las alphas los


parámetros especificados por el modelo es el término de error.

- Relaciones lineales multivariantes.

Dónde:

y es la variable dependiente. betas son las variables explicativas. Las alphas


los parámetros especificados por el modelo es el término de error.

- Modelos de crecimiento exponencial.

Dónde:

y es la variable dependiente. x son las variables explicativas. Las alphas los


parámetros especificados por el modelo. es el término de error

56
- Modelos con punto de ruptura.

Dónde:

y es la variable dependiente. x son las variables explicativas. Las alphas los


parámetros especificados por el modelo. es el término de error. el número e.
Siendo beta el punto de ruptura.

Otros modelos como el estudio de eventuales relaciones logarítmicas entre


precio y volatilidad, dieron escasos o nulos resultados por los que no se
reseñan en el apartado anterior. Los ya mencionados modelos con punto de
ruptura ("piecewise models") si se muestran muy útiles en la superación
de algunos problemas ya reseñados de la base de datos, especialmente el
inusitado incremento sufrido por la volatilidad implícita en los peores
momentos de la crisis monetaria y apuntar a un cambio de la relación
precio- volatilidad implícita en diversos momentos del ciclo bursátil.

2) Modelos SARIMA

Este tipo de modelización permite soslayar en parte dos problemas de los


modelos regresivos, por un lado no es necesaria la identificación de
variables susceptibles de explicar la variable endógena al aplicarse sobre
una serie de datos correlativos de la propia variable, y además toda una serie
de pautas de actuación preestablecidas hacen más sencillo obtener la forma
funcional adecuada del modelo.

Hay que explicar que el gran problema de estos modelos, lo constituye


precisamente el cálculo del citado punto de ruptura, en estos capítulos sólo
se especificará uno de los puntos más relevantes de ruptura, que se produjo
en la ruptura del 3000 por parte del Ibex, comienza a existir evidencia empírica
de que puede haber un nuevo punto de ruptura en el año 99 cuando se

57
produce una evidente falta de capacidad explicativa de los modelos regresivos
empleados hasta ese momento.

El paso previo al empleo de la metodología SARIMA es la obtención de


series estacionarias, es decir, bases de datos que cumplan los siguientes
criterios

i) Media constante en el tiempo.

ii) Varianza constante en el tiempo.

Para ello se procede a una serie de diferenciaciones y ajustes que quedan


explicados paso a paso en el momento en que se utilicen a lo largo del trabajo.

A la hora de especificar un modelo ARIMA son necesarios 3 parámetros:

i) El retardo de la parte autorregresiva (AR) que viene explicitado por el


subíndice p en la siguiente fórmula:

Dónde:

y es la variable dependiente Las phi representan en este caso, a los


parámetros especificados por el modelo. es el término de error.

En realidad la relación matemática no hace sino poner en evidencia que la


observación de la variable y en el período t depende de las misma variable y
en t-1, t-2,... y t-p.

ii) El retardo de la parte de medias móviles (MA), q en la fórmula siguiente:

Dónde:

58
y es la variable dependiente Las sigma representan en este caso, a los
parámetros especificados por el modelo. son los términos de error.

La significación de este tipo de modelos es también bastante clara, se trata en


suma de explicar la variable y en t en función de una constante y de una
corrección de q errores del modelo en los períodos anteriores.

iii) Número de veces que hemos de diferenciar (I) la serie para hacerla
estacionaria.

Se entenderá por diferencial de yt, la diferencia entre la volatilidad en t y t-1,


es decir:

Dónde:

d indica que se trata de la diferencial de la variable de que se trate y es la


variable dependiente En ocasiones se emplea la diferenciación logarítmica
para obtener un mayor alisado de la serie, sin embargo, este tipo de
diferenciación no dió excesivos buenos resultados a la hora de modelizar las
series de datos empleadas en este estudio.

La utilización de estos modelos permite constatar un hecho que no deja de


ser preocupante, la volatilidad en t no es independiente de la manifestada
en otros períodos inmediatamente anteriores, poniendo en tela de juicio las
propias fórmulas valorativas de opciones, empleadas por la práctica totalidad
de los participantes en el mercado.

Antes de entrar en el siguiente apartado, sería conveniente explicar las


principales diferencias entre los modelos ARIMA y los de la familia
ARCH, mientras que los ARIMA se aplican sobre series homocedásticas,
es decir, de varianza constante, los ARCH se caracterizan por tratar de
modelizar precisamente la heterocedasticidad de la serie. Por lo tanto
mientras que en los modelos ARIMA se debe de alisar la serie como paso

59
previo a la modelización de la misma, ésto no es necesario en los ARCH, lo
que no es por si mismo una ventaja al obligar a elegir una de las múltiples
posibilidades de modelización ofrecidos por los ARCH que se tratarán en el
apartado posterior.

Los resultados del trabajo de Poon y Taylor (1991) hacen intuir que los
modelos ARIMA y cualquiera de los ARCH no son en principio excluyentes,
mientras los ARIMA son válidos para identificar los cambios de tendencia
en volatilidad, en el caso de los heterocedásticos se observa una mayor
inestabilidad en el resultado, aunque la serie prevista se ajuste más a los
frecuentes cambios en la volatilidad real. En resumen, la serie, en este caso
generada por un GARCH (1,1), prevista por el modelo heterocedástico se
ajustaba mejor, pero era más volátil en la cuantía de los errores.

Un tema que no se trata en este trabajo es el análisis de la posible


existencia de estacionalidad (la S de los modelos SARIMA) en la series de
volatilidad, se ha de reconocer que existen períodos concretos en los que se
producen cambios de una manera casi sistemática en la volatilidad implícita.
Se puede citar el fenómeno de reducción de la volatilidad los días
inmediatamente anteriores a puentes festivos (en los días inmediatamente
anteriores a la festividad de semana santa de 1996, la volatilidad implícita se
redujo desde el 17% a niveles cercanos al 13% en las series "at-the-money")
pero sería muy difícil llegar más lejos en el análisis por la relativa limitación de
la base de datos.

Hay sin embargo una excepción a esta afirmación anterior, se podrá


constatar a lo largo de la presentación de los resultados de los modelos que
recurrentemente aparece un efecto estacional (que será denominado
pseudoestacional en este trabajo) que coincide con el período de cálculo de la
volatilidad histórica homocedástica que se esté modelizando.

3) Modelos heterocedasticos

A modo de introducción sería conveniente recordar que estos modelos son


relativamente novedosos, su desarrollo comienza con los trabajos de Engle

60
(1982, op. citada) y se muestran especialmente útiles según Crouhy y
Rockinger (op. citada) para:

- La modelización de una volatilidad no constante en el tiempo.

- Recoger en modelos teóricos la evidencia empírica de que la volatilidad se


manifiesta en olas.

- Identificar la existencia de una memoria importante en el proceso.

- Predicción de la volatilidad futura

A) ARCH

El modelo ARCH fue desarrollado por Egle en 1982 y se basa en la


explicación de la volatilidad condicional como una función lineal de q
errores pasados de predicción elevados al cuadrado (los epsilon de la
fórmula).

Dónde:

sigma es la variable condicional Los alpha son los parámetros especificados


por el modelo Epsilón son los términos de error

Tanto este modelo como el resto de los que se tratará a continuación, que no
son sino desarrollos más o menos complejos del mismo, definen la volatilidad
condicional, que es la única que se puede predecir por las hipótesis del
modelo, como la volatilidad condicionada a la información existente en ese
periodo (denotada por Phi en la formula siguiente).

Dónde:

61
Epsilón en t es el "shock" o error de predicción Phi representa la información
existente en t y que no existía en t-1.

Los modelos tradicionales trataban sólo la volatilidad incondicional, es decir:

Si se piensa en el caso de la volatilidad implícita, ésta viene condicionada


por toda la información existente hasta el período considerado, por lo que el
concepto de "shock" de volatilidad podría ajustársele sin excesivos problemas.
Es tal vez por esta razón por la que es posible llegar a una conexión de las
volatilidades implícita y condicional sin excesivos problemas, a pesar de que
no exista relación funcional alguna entre ellas

En cuanto a la memoria del proceso, se corresponde con la suma de todos


los coeficientes alfa, en concreto:

Siendo r el número de coeficientes alpha distintos de 0.

De acuerdo con un modelo ARCH(1) se puede prever la volatilidad s períodos


más adelante como sigue:

Siendo sigma cuadrado la volatilidad incondicional, es decir, aquella que no


depende del período en que nos encontremos. En el largo plazo es destacable
que la volatilidad condicional e incondicional tienden a aproximarse en
cualquier caso, como veremos más tarde es muy raro que alpha1 sea mayor
que la unidad, ésto no es así necesariamente en los modelos GARCH.

B) GARCH

62
Este modelo fue desarrollado por Bollerslev (1987), extendiendo el modelo
ARCH para incluir retardos en la varianza condicional. En definittiva un
GARCH es un modelo ARCH infinito, un GARCH (p,q) se define como:

Dónde:

sigma es la variable condicional Los alpha y beta son los parámetros


especificados por el modelo Epsilón son los términos de error

Si p es cero el proceso se reduce a un ARCH(q). Si tuviésemos por ejemplo


un GARCH de reducida p, que son los más comunes en los estudios de
mercado, sus propiedades vendrían a ser equivalentes a un ARCH con una q
elevada, en general con q mayor o igual a 20.

Como quiera que por las hipótesis propias al modelo:

Se puede reformular un GARCH(p,q) como sigue:

Donde m es el máximo entre p y q, y mu no manifiesta correlación con las


otras series.

La previsión en un modelo GARCH(1,1) se efectúa como sigue:

Sólo en el caso de que alpha1 más beta1 sea inferior a 1 la volatilidad prevista
decrecerá hacia la incondicional, en ese caso se dice que el modelo es
integrado.

63
C) EGARCH o "exponential GARCH"

Este modelo surge para paliar un problema de los modelos GARCH


consistente en que los efectos de una "sorpresa", entendida como
información inesperada por el mercado, son los mismos se trate de una noticia
negativa o positiva. Sin embargo parece empíricamente demostrado que los
picos en volatilidad coinciden con caidas de mercado, por lo que una mayor
asimetría de la distribución de volatilidad sería conveniente. Este modelo a
pesar de su complejidad teórica permite estudiar desde otro punto de vista
la asimetría precio-volatilidad que ya se estudia en la parte regresiva, pues
no es necesario acudir a la serie de precios para la modelización.

En un modelo EGARCH(1,1) la varianza condicional se escribiría como


sigue:

Dónde:

sigma es la variable condicional Los alpha son los parámetros especificados


por el modelo Epsilón son los términos de error Delta el parámetro de
asimetría Pi es el número pi

Un coeficiente delta estimado negativo confirmaría la presencia de un


sobreimpacto de las noticias negativas, la contribución de un "shock"
positivo en la volitilidad condicionada es:

Por el contrario un "shock" negativo:

64
La asimetría de la volatilidad condicionada la mediría el siguiente ratio:

D) Non-Linear Assymmetric ARCH (AGARCH)

Desarrollado por Engle(1990) y Sentana (1991). Un AGARCH (1,1) :

Dónde:

sigma es la variable condicional w es la variable incondicional alpha y beta


son los parámetros especificados por el modelo Epsilón son los términos de
error Lambda el coeficiente de asimetría

Se formulan a continuación algunos modelos susceptibles de ser probados


en nuestro mercado, que no han sido probados en el presente trabajo.

E) Otros modelos Heterocedásticos

La lista de modelos heterocedásticos es muy amplia, de hecho una gran parte


de la innovación de la ciencia econométrica se ha centrado en los últimos
años en el desarrollo de modelos que se ajusten cada vez más a las series de
volatilidades.

- Glosten, Jagannathan y Runkle desarrollan el GJR-ARCH en 1989. Un GJR-


ARCH(1,1) se expresaría como sigue:

65
Donde:

sigma es la variable condicional Los alpha, beta, delta son los parámetros
especificados por el modelo D es una variable binaria que toma el valor 0 o 1.
Epsilón son los términos de error

D es una variable que toma el valor 1 en t, si el error en t-1 es negativo y 0 si


el error en t-1 es positivo.

- TGARCH

Dónde:

sigma es la variable condicional Los alpha y beta son los parámetros


especificados por el modelo Epsilón son los términos de error que se definen
como doble variable tal y como se expresa en la fórmula

66

También podría gustarte