Está en la página 1de 460

LIBRO DE ACTAS

V SIMPOSIO INTERNACIONAL de
SISTEMAS DE INFORMACIÓN E INGENIERÍA DE SOFTWARE EN LA SOCIEDAD DEL CONOCIMIENTO

30 de septiembre y 1 de octubre de 2010,


Santa Fe de Bogotá, Colombia

Editor: Luis Joyanes Aguilar


Asistentes del editor: Jayguer Vásquez Torres
John Delgado Barroso
Pablo García Gundín
Reservados los derechos para todos los países de lengua española. De conformidad
con lo dispuesto en el artículo 270 y siguientes del código penal vigente, podrán ser
castigados con penas de multa y privaci6n de libertad quienes reprodujeren o
plagiaren, en todo o en parte, una obra literaria, artística o científica fijada en
cualquier tipo de soporte sin la preceptiva autorización. Ninguna parte de esta
publicación, incluido el diseño de la cubierta, puede ser reproducida, almacenada o
trasmitida de ninguna forma, ni por ningún medio, sea éste electrónico, químico,
mecánico, e1ectroóptico, grabación, fotocopia o cualquier otro, sin la previa
autorización escrita por parte de la editorial. Diríjase a CEDRO (Centro Español de
Derechos Reprográficos), www.cedro.org, si necesita fotocopiar o escanear algún
fragmento de esta obra.

COPYRIGHT © 2010 LibroTex.


COPYRIGHT © 2010 Los Autores.
info@garceta.es
Proceedings V SIMPOSIO INTERNACIONAL de SISTEMAS DE
INFORMACIÓN E INGENIERÍA DE SOFTWARE EN LA SOCIEDAD DEL
CONOCIMIENTO.
Derechos reservados ©2010 respecto a la primera edición en español, por LOS
AUTORES
1ª Edición, 1ª Impresión
ISBN:
Depósito legal: Maquetación:
Los Editores
Coordinación del proyecto: @LIBROTEX
Editor: Luis Joyanes Aguilar.
Portada: Jayguer Vásquez.
Asistentes editoriales:
Jayguer Vásquez
John Delgado
Pablo Garcia.
Diseño, maquetación e impresión: Grupo GSIC.
IMPRESO EN ESPAÑA -PRINTED IN SPAIN
Nota sobre enlaces a páginas web ajenas: Este libro puede incluir referencias a sitios
web gestionados por terceros y ajenos a LibroTex, que se incluyen sólo con finalidad
informativa.
LibroTex, no asume ningún tipo de responsabilidad por los daños y perjuicios
derivados del uso de los datos personales que pueda hacer un tercero encargado del
mantenimiento de las páginas web ajenas a LibroTex., y del funcionamiento,
accesibilidad y mantenimiento de los sitios web no gestionados por LibroTex.,
directamente. Las referencias se proporcionan en el estado en que se encuentran

ii
Contenido

Parte I:
Tecnologías Informáticas y Gestión del Conocimiento en la Educación:
Congruencia Epistémica y Pertinencia Social. ........................................... 15
Currículo coherence model knowledge based a case for industrial
engineering. ................................................................................................. 37
La inteligencia emocional y la neurociencia elementos fundamentales de la
construcción integral del ciudadano. .......................................................... 49
Marco Normativo de Investigación Científica, Tics Desarrollo
Tecnológico y Procesos de Innovación, I+D+I en Colombia ................ 61
Prototipo metamodelo de integración de modelos de procesos de negocio.
..................................................................................................................... 75
Algoritmos Matemáticos para fusión de imágenes satelitales. ................... 93
Sistema Integrado de Información para el Régimen Subsidiado de Salud
en Colombia .............................................................................................. 105
Producto software para simular líneas de espera ...................................... 117
Diseño y Desarrollo de una Aplicación de Generación Automática de
Componentes Bajo la Especificación SCA............................................... 123
Metaproceso para el desarrollo de Software ............................................. 135
Análisis, Diseño y Desarrollo de un sistema de identificación dactilar
basado en Redes Neuronales Artificiales ................................................. 149
Educación Virtual: Entornos Colaborativos Interinstitucionales ............. 163
Complejidad de información en fuentes de datos RSS, un nuevo enfoque:
RSS2SOM ................................................................................................. 173
Tecnologías de información y terminología asociadas al área de desastres.
................................................................................................................... 181
Servicios de Geolocalización, el enfoque de las Redes Sociales ............. 191
Modelo de Gestión del Conocimiento en Docencia Universitaria: Caso
Universidad Distrital ................................................................................. 201
Evolución de los códigos de barras a redes wireless NGN ― RFID‖,
computación ágil, inteligente y móvil....................................................... 213
Cloud Computing en redes sociales de telefonía móvil ¿En dónde está el
límite entre las relaciones sociales tradicionales y virtuales? .................. 219
Ontología de la composición geométrica 3D para la web con el estándar
X3D. .......................................................................................................... 231
Implementación de Plataformas Virtuales basadas en Cloud Computing
................................................................................................................... 247
Cálculo del Esfuerzo en el Desarrollo de Proyectos Software a Partir de
Puntos de Función ..................................................................................... 257
Descripción del software para la configuración de un tranceiver. ........... 271
Conocimiento para toso: La inclusión social hacia la competitividad
educativa mediante un modelo de gobernabilidad basado en conocimientos
para la educación superior en Colombia por ciclos propedeuticos .......... 281
Modelo de Inteligencia de Negocio utilizando Datos Textuales No
Estructurados ............................................................................................. 303

PARTE II

Modelo de interoperabilidad para e_learning sobre malla computacional


utilizando SAKAI...................................................................................... 313
Diseño Asistido por Computador (CAD): Enseñanza en Ingeniería
Industrial ................................................................................................... 323
Factores a tener en cuenta antes de migrar a cloud computing. ............... 329
Interacción digital: El origen del camino ................................................. 341
BPM y la calidad del software. ................................................................. 349
Modelo de evaluación de software y desarrollo de herramienta CASE para
ingeniería de requisitos. ............................................................................ 365
Un modelo preliminar de gobierno de tecnologías de información para
universidades colombianas ....................................................................... 375
Modelo para la Industrialización de Software en el Triángulo del Café:Una
Apuesta Productiva de Región .................................................................. 383
Comunidades de práctica y Web 2.0, estratégias para la democratización
del conocimiento en la empresa. ............................................................... 393
Inclusión Digital: Más allá del acceso y el uso de TIC ............................ 401
Modelo de curso virtual WIMAX por medio de Web 2.0 para ingeniería.
................................................................................................................... 407
El proceso de testing y la implementación de la herramienta MANTIS
BUGTRACKER en el proceso ................................................................. 417
Aproximación de un modelo unificado para la integración de herramientas
de Gestión de Configuración de Software ................................................ 425
Modelo de aprendizaje organizacional para la gestión del conocimiento:
MAO-G ..................................................................................................... 433
Ecosistema de Conocimiento Regional para la Ciudad-Región de
Manizales y Caldas, Colombia ................................................................. 445
Tecnologias Web 2.0 integradas al modelo organizacional de creación de
conocimiento. ............................................................................................ 449

v
PRESIDENTE DEL COMITÉ DEL PROGRAMA:

Dr. Luis Joyanes Aguilar (Universidad Pontificia de Salamanca, España)

DIRECTOR GENERAL:

Dr. Victor-Hugo Medina García (Universidad Distrital Francisco José de Caldas, Bogotá, Colombia)

COMITÉ PERMANENTE DE PROGRAMA

Dr. Luis Joyanes Aguilar (Presidente). UPSA (España)


Dr. Victor Hugo Medina-García. U Distrital (Colombia)
Dr. Mateo Valero Cortés, BSC (España)
Dr. Manuel González Rodriguez. ULPGC (España)
Dr. Juan Manuel Cueva Lovelle. UOviedo (España)
Dr. Juan Manuel Lombardo Enriquez. Fundación Fidesol (España)
Dr. Vidal Alonso Secades. UPSA (España)
Dr. Alfonso Lopez Rivero. UPSA (España)
Dr. Nelson Pérez. UDistrital (Colombia)
Dr. Javier Parra Fuente. UPSA (España)
Dr. Oscar Sanjuan Martínez. UOviedo (España)
Dr. José Antonio Moreiro. UC3M (España)

COMITÉ DE ORGANIZACIÓN LOCAL (COLOMBIA - AMÉRICA LATINA Y CARIBE)

Dr. Víctor Hugo Medina García (Director). UDistrital (Colombia)


Dr. Nelson Pérez Castillo. UDistrital (Colombia)
Dr. Germán Méndez Giraldo. UDistrital (Colombia)
Dr. Jairo Torres Acosta. UDistrital (Colombia)
DEA. Ing. Giovanni Tarazona. UDistrital (Colombia)
DEA. Sandro Javier Bolaños Castro. UDistrital (Colombia)
DEA. Msc. Carlos Montenegro. UDistrital (Colombia)
Msc. Alfonso Pérez Gama. USan José (Colombia)

COMITÉ DE ORGANIZACIÓN LOCAL (ESPAÑA - EUROPA)

Dr. Luis Joyanes Aguilar (Presidente). UPSA (España)


Dr. Vidal Alonso Secades (Vicepresidente). UPSA (España)
Dr. Alfonso López Rivero. UPSA (España)
Dr. Javier Parra Fuente. UPSA (España)
Dr. Oscar Sanjuan Martínez. UOviedo (España)
Dr. Ruben González. UPSA (España)
Ing. DEA. Sergio Ríos Aguilar, UPSA (España)
Ing. DEA Daniel Zapico, UPSA (España)
Ing. DEA. Jayguer Vázquez Torres, (WebMaster), UPSA (España)
Ing. DEA. Antonio Román, UPSA (España)
Ing. DEA. Sandra Yanet, UPSA (España)
Ing. DEA. Pablo García Gundín, UPSA (España)
Ing. DEA. John Delgado, UPSA (España)
Prólogo
Cuando en 2001 iniciamos la andadura de SISOFT la Facultad de
Informática de la Universidad Pontificia de Salamancas (España) y la
Universidad Distrital Francisco José de Caldas de Bogotá (Colombia)
con el impulso de profesores e investigadores de ambas universidades,
a las que se unieron también otros investigadores de las universidades
de Oviedo y Las Palmas de Gran Canaria en España, posiblemente no
vislumbramos la gran revolución social y tecnológica que se estaba
fraguando con el comienzo de la nueva década del siglo XXI. Entonces
teníamos una informática o computación muy tradicional que salía del,
por suerte, “ fallido efecto 2000” y que avanzaba hacia una nueva
generación más interactiva, abierta y colaborativa.
En aquel entonces el término Web 2.0 no había salido a la luz
pública. Tim O´Reilly lanzó el término en 2004 y tal vez no llegó a
prever el enorme impacto que tendrían sus tecnologías y aplicaciones.
La supercomputación comenzaba a formar parte de nuestras vidas y
escasos centros de investigación se atrevían a sumergirse en, por aquel
entonces, el efecto disruptivo que estaba suponiendo en la ciencia y en
la investigación, en áreas tales como el genoma humano, la ciencia
geoespacial, la inteligencia artificial y los agentes inteligentes,… La
ingeniería de software se consolidaba como una ingeniería al estilo de
las tradicionales, industriales, caminos, obras públicas, electrónica, …
y los sistemas de información, con sus aplicaciones más novedosas,
CRM, ERP, SCM, … comenzaban a ser de uso masivo en las
organizaciones y empresas tanto grandes como medianas y pequeñas.
A la evolución de Sisoft se fueron uniendo sucesivamente otras
ciudades como sede, Lima en Perú, Santo Domingo en República
Dominicana y el último celebrado en Cartagena de Indias en
Colombia, todas ellas ciudades históricas y con una gran tradición

9
universitaria e investigadora. En concreto, la Pontificia Universidad
Católica de Perú, el Instituto Tecnológico de Las Américas (ITLA) y la
histórica Universidad de Cartagena en el Caribe colombiano. Al
camino de Sisoft se han ido uniendo otras instituciones europeas como
el prestigioso Barcelona Supercomputing Center (BSC) o Centro de
Supercomputación de Barcelona y en esta edición el Instituto de
investigación en Documentación “Agustin Millares” de la joven pero
ya muy prestigiosa a nivel internacional Universidad Carlos III de
Madrid, la Fundación de I+D de Software Libre de España, un
referente en la investigación y desarrollo de código abierto o software
libre y el Centro Iberoamericano de Ciencia, Tecnología y Sociedad
que con sede en la Facultad de Filosofía de la Universidad
Complutense de Madrid es un foco difusor de la cultura en América
Latina, Caribe, Brasil, España y Portugal. Así mismo es de destacar la
labor en el campo investigador de los Grupos de Investigación GISSIC
de la Universidad Pontificia de Salamanca y GICOGE de la
Universidad Distrital de Bogotá.
La edición de este año ha regresado a su sede inicial en Bogotá y
se ha configurado en dos grandes ejes: la emergente tecnología y
plataforma Computación en Nube (Cloud Computing) base de la nueva
informática que se está configurando para la actual década, y la
Supercomputación, ya una realidad palpable en la industria, la ciencia
y la sociedad. Dentro del Simposio Sisoft se inaugurará el Centro de
Computación de Alto Desempeño de la Universidad Distrital de
Bogotá. En el Simposio se analizarán y estudiarán los avances y
desarrollos en las tecnologías punteras hoy día: Web 2.0, Web
Semántica, Bioingeniería, Sistemas geoespaciales, Inteligencia de
Negocios, Gestión del Conocimiento 2.0, Social Media y otras áreas de
investigación en las que se conforma la nueva computación o
informática.
Sisoft se configura desde esta edición como un Centro de Ideas y
de Pensamiento en torno a la Sociedad del Conocimiento tanto desde el
punto de vista tecnológico como en los aspectos sociales, económicos y
de negocios que impactaran en la vida futura y en la forma de trabajar,
investigar y vivir. Nos preparamos para cumplir el 10º aniversario el
próximo año con un edición especial que pretende tener impacto en
todos los países de habla española y portuguesa, pero que pretende
extenderse a otros países de influencia latina como Italia, Portugal y

10
Grecia, y en la medida que nos sea posible actuar de puente con la
cultura tecnológica del resto de Europa y Gran Bretaña, además de
países iberoamericanos.
Confiamos que las aportaciones y conclusiones de esta edición de
Sisoft sean de gran interés para la comunidad universitaria y científica,
y nos sirva de puente para el VI Sisoft al que os convocamos desde este
momento y que celebraremos en el año 2011 coincidiendo con la
celebración de nuestro X Aniversario.
Gracias a los comités de programa, de organización y todos
cuantos han contribuido de una u otra forma al éxito del evento, y de
modo especial a conferenciantes y ponentes que con sus conferencias,
mesas redonda (paneles) y comunicaciones han hecho posible que este
libro de actas sea una realidad como reflejo del desarrollo del
Simposio en la ciudad de Bogotá.

En Bogotá (Colombia) y Madrid (España), septiembre de 2010


Luis Joyanes Aguilar
Presidente de Sisoft y Editor del Libro de Actas

11
PARTE I

Web 2.0
Sistema de Información y Comunicaciones.
Innovación tecnológica.
Inteligencia de negocios
Gestión del Conocimiento 2.0
Cloud Computing.
Sistema Geoposicionales.

13
14
Tecnologías Informáticas y Gestión del Conocimiento
en la Educación: Congruencia Epistémica y Pertinencia
Social.

Edgar Jacinto Rincón Rojas , Víctor Martín


1 2

1 Universidad Distrital Francisco José de Caldas,


2 Universidad Pontificia de Salamanca Campus de Madrid,
edgar.rincon.rojas@gmail.com;erincon@udistrital.edu.covictor.martin@upsam.net.

Resumen. El artículo que se presenta describe algunos elementos


conceptuales tenidos en cuenta dentro del proyecto de tesis doctoral que
inicialmente se denominó ―Modelo de gestión del conocimiento (G.C)
para el diseño e implementación de un ambiente virtual de aprendizaje
(A.V.A) en el ámbito de la educación superior‖; el cual posteriormente
y gracias a las pautas criticas aquí consignadas, se revaluó
categóricamente desde perspectivas epistemológicas, reflexivas,
conceptuales e incluso semánticas.La lectura que se desarrolla sobre la
Gestión del Conocimiento aborda elementos paradigmáticos que
permiten una clara delimitación de este discurso administrativo y
gerencial, precisamente al interior de su cuna: la organización. Esto
indicando que no necesariamente por ser de gran eficacia en este
contexto, podría ser aplicado acríticamente en la escena educativa.El
abordaje de los (A.V.A) se presenta a partir de los elementos
tecnológicos que sustentan su desarrollo, el ―software educativo‖ y la
red virtual internet, ofreciendo al lector una visión crítica frente la
articulación de estos elementos de base, con el contexto
pedagógico.Finalmente se elabora la abstracción final, la cual dirige a
una necesidad argumentada de replantear los términos en los cuales se
pretendía hablar de Gestión del Conocimiento y Ambientes Virtuales en
el ámbito de la Educación y el aprendizaje.

Palabras Clave: Gestión del Conocimiento, Tecnologías de la


Información y las Comunicaciones, Ambientes Virtuales de
Aprendizaje, Academia, Educación, Crítica y Transformación Social.

Abstract. The present article describes some conceptual elements taken


into account in the doctoral thesis which was initially named ―Model of
knowledge management (KM) for the design and implementation of a
virtual learning environment (VLE) in the field of higher education‖;
which later and thanks to the critical patterns reported here, was

15
revalued categorically epistemological perspectives, reflective,
conceptual and even semantics. Reading takes place on the Knowledge
Management deals with paradigmatic elements that allow a clear
delimitation of this administrative and managerial discourse, just inside
the crib: organization. This indicates that not necessarily be highly
effective in this context could be applied uncritically in the educational
scene.

The approach of (VLE) is presented from the technological elements


that support its development, ―educational software‖ and virtual
network internet, offering the reader a critical look at the articulation of
these basic elements, with the pedagogical context.Finally we made the
final abstraction, which leads to a reasoned need to rethink the terms in
which it was intended to talk about Knowledge Management and
Virtual Environments in the field of education and learning.

Keywords: Knowledge Management, Information Technology and


Communications, Virtual Learning Environments, Academy, Education,
Criticism and Social Transformation.Resumen.

1 Introducción

En el reciente devenir de las TICs en la educación, resulta bastante cuestionable el


bajo nivel de crítica que se suscita frente a distintos tópicos que se presentan como
incuestionables. Por ejemplo: El uso de TICs hace más participativo el proceso
educativo, las TICs democratizan la educación, la consulta en INTERNET incentiva
procesos de investigación, la formación en competencias operativas-tecnológicas hace
de la educación un ejercicio realmente congruente con las necesidades sociales. Más
que realidades objetivamente comprobadas, son ―pensamientos con el deseo‖ pero sin
preocupación por su validez o cómo realmente podrían lograrse.
Es bien sabido que en su ámbito de mayor afluencia, el organizacional, el uso de las
nuevas tecnologías informáticas y la aplicación de los discursos que de estas
subyacen, han redundado en considerables incrementos productivos y elevadas
ganancias económicas. Sin embargo resultaría osado y sobretodo pretencioso, utilizar
los mismos términos y prever los mismos resultados para procesos tan distintos a las
nuevas inclinaciones gerenciales, como lo son la interacción académica y la acción
educativa.
No obstante, tendencias actuales como la ―informatización de la Educación‖ y la
―gestión del conocimiento en el ámbito educativo‖ así lo han expuesto. Proponiendo
una academia, llámese escuela, colegio o universidad, entendida como un centro de
acopio en donde confluye y se capacita a la futura mano de obra especializada. El
promisorio ―capital humano‖ se pretende sea ―iniciado‖ mediante la educación, para
su inserción pronta, eficiente y eficaz al mecano productivo, el cual en la actualidad
gira en torno a la informatización de las organizaciones, por ende requiere

16
especialistas informáticos. Esto es: el ser humano, el estudiante, entendido como otro
recurso, otro activo más de la organización.
De esta manera se orienta en los albores del siglo XXI, una lectura instrumental de
la esfera educativa, en donde el fin último de esta se lapidaría en lograr una
intersección ideológica, estructural y funcional; con la dimensión productiva,
comercial y mercantil y la supuesta revolución informática que hoy determina su
esencia. Es en este punto en donde resulta osada y pretenciosa la visión tecnocrática
de la educación.
Con lo hasta ahora expuesto surge el objetivo del presente artículo. Cuando se
equiparan y se pretenden transponer acríticamente, los condicionados y
parcializadamente definidos métodos y estrategias de producción de capital; sobre las
indeterminadas e ilimitadas visiones propias del desarrollo del conocimiento
académico, subyace una grave crisis. Crisis de deshumanización de la educación.
Crisis de una academia a riesgo de sucumbir ante el adiestramiento y la capacitación
empresarial.
No se pretende con lo anterior elaborar un análisis destructivo acerca del
protagonismo global de la presunta revolución informática, representada mediante la
lógica organizacional de las TICs y su incursión en la educación, entre otros
escenarios. Se busca más bien, someter a cuestión profunda los supuestos que guían
discursos aún en estado de gestación como el de la ―gestión del conocimiento en la
educación‖ y las ―tecnologías informáticas implementadas en la educación‖ mediante
aplicaciones como los (A.V.A) .
Se pretende mediante este artículo analizar detenidamente algunos de los
argumentos, hasta ahora inescrutables, que han institucionalizado, con el beneplácito
de la comunidad académica, la articulación de las TICs, y de prácticas empresariales,
como la (G.C), en el ámbito educativo. Esto indicando que su validez en la escena
organizacional e industrial global, no necesariamente conlleva un acierto ni una
revolución en el ámbito educativo.

2 Gestión del Conocimiento: un Necesario Abordaje


Epistemológico

Apegándose a los planteamientos introductorios expuestos, se hace necesario


contextualizar algunos presupuestos teóricos y prácticos inherentes a la G.C. Estos
permiten una formalización de la hipótesis que sin más preámbulos se presenta: La
G.C es una elaboración discursiva hecha en y para las organizaciones, por tanto como
campo del saber hay que ubicarla en las teorías organizacionales [1]. En términos del
propósito de este artículo, las consecuencias de lo anterior son decisivas: la G.C no
podría aplicarse mecánica y acríticamente en otros ámbitos, más concretamente en el
educativo. Al respecto vale destacar que ya en otras ocasiones han fracasado por la
falta de reconceptualización y simple aplicación mecánica, otras elaboraciones del
pensamiento administrativo y organizacional al intentar ser llevadas a otros entornos.
Basta señalar como ejemplo lo que hoy se conoce como Taylorización de la
educación; el Taylorismo más rigurosamente conocido como ―la administración

17
científica‖ fue una teoría que contribuyó significativamente al desarrollo de las teorías
organizacionales; formalizó el pensamiento administrativo, le dio rigor metodológico
y en su momento histórico aportó criterios, conceptos y métodos para el desarrollo de
la sociedad industrial [2]. Cuando se llevó al sistema educativo y a las prácticas
pedagógicas, el fracaso fue ostensible; la lógica del quehacer académico no podía ser
pensada con elementos y métodos propios de la lógica de la industrialización. Al
respecto causa bastante desconcierto o mejor no es pertinente pensar que, la
estandarización de procesos, los tiempos y movimientos, la eficiencia y optimización
de costos, sean los principales criterios en el aprendizaje y la educación, no obstante,
demostraron validez en la industrialización. A continuación se presentan algunos
aspectos inherentes a la G.C y se destaca cómo cada uno de ellos tiene pertinencia en
lo organizacional, pero puede no tenerla en la educación.

2.1 Conocimiento Organizacional

Un primer supuesto a destacar es la idea de conocimiento que fundamenta y a la vez


surge de la G.C. El conocimiento pasa de los seres humanos (se comparte, se
socializa) a ser de la organización y de ahí debe convertirse en capital intelectual y un
activo intangible de la empresa; por lo tanto se traducirá en ganancias [3]. Escapa a
las posibilidades de este artículo evaluar la validez de dichos planteamientos, sin
embargo se dejan dos inquietudes para la reflexión: la idea de conocimiento no
humano (las empresas están conformadas por personas y otros componentes pero no
son una persona), es ajena a la epistemología y extraña a la educación y a la
pedagogía. Es legítimo, en cuanto al quehacer de las empresas como agentes de
riqueza y crecimiento económico, que aspiren a que sus recursos les produzcan
rentabilidad. Y aquí el conocimiento finalmente se entiende como recurso.
Analizando el planteamiento en la perspectiva de usar G.C en ambientes de
aprendizaje, es decir partir de esa idea de conocimiento en la educación, se detectan
contradicciones y limitaciones. En las organizaciones un determinado conocimiento es
válido cuando contribuye al logro de los objetivos, podría decirse más aun, a
fortalecer el desempeño en los factores claves de éxito que ha establecido la empresa
y por tanto constituyen su ventaja estratégica [4]. Si el conocimiento mejora la forma
de actuar de la organización, principalmente en áreas en las que aspira a ser
reconocida en el entorno (especialmente los clientes) es un conocimiento importante.
Y aquí se aplican los criterios de G.C, ese conocimiento no se puede quedar tácito en
la mente de uno u otro empleado, debe convertirse en algo explícito y parte del capital
intelectual; debe ser de la organización y accesible a sus miembros.
Conviene mencionar a Peter Senge y su teoría de las cinco disciplinas para la
gestión de organizaciones inteligentes [5]. Se destacan dos: la primera disciplina hace
referencia al dominio personal; en el contexto del cual se está hablando, significaría
conocimiento de las personas que forman parte de la organización; la cuarta
disciplina hace referencia al aprendizaje en equipo, es decir los saberes individuales
deben contribuir a la formación sinérgica de un saber colectivo de la organización que
a su vez mejore y haga más eficaz a la misma. Las disciplinas deben ser interactuantes

18
e interrelacionadas. Podría estarse o no de acuerdo, pero debe reconocerse que es un
planteamiento que puede aportar al rol educativo; en el caso empresarial ha
demostrado su validez y contribuido a crear una idea de lo que son y deben ser las
organizaciones en el mundo contemporáneo. Cuando el desarrollo social requiere,
más que saberes especializados y campos de la ciencia inconexos,
interdisciplinariedad y transdisciplinariedad para la solución creativa, innovadora,
participativa e incluyente de los problemas; no tiene sentido y se caería en el
dogmatismo, abordar una posición ―purista‖ y decir que desde la pedagogía pensar el
conocimiento en función de hacer mejoras a las empresas a través de elaboraciones
colectivas, es un desenfoque y deshumanización del hacer pedagógico. Los teóricos
mas humanizantes de la educación afirmarían que es un envilecer, empobrecimiento e
idea precaria del conocimiento.
A pesar de las anteriores consideraciones y aceptando que la educación debe prestar
atención a las contribuciones que le podría dar la G.C para enriquecer su propio
discurso, es evidente que ésta no es la idea de conocimiento en el aprendizaje.
Obviamente en la teoría pedagógica y dados sus distintos y en algunos casos
antagónicos modelos, no hay una definición única, consensuada y aceptada de
conocimiento y cuál es su relación o su participación en el proceso de aprendizaje.
Podría establecerse como algo generalizado que el conocimiento es para la formación
del que aprende (y aún del que enseña) y está orientado al sujeto. Véanse algunos
casos que sustentan lo anterior.
En el aprendizaje significativo de la propuesta constructivista, se construye
conocimiento en tanto cada estudiante articula el saber de la escuela con sus saberes
previos y esto le permite enriquecer, comprender y aun reconstruir sus propias
vivencias. Así, el conocimiento es una construcción permanente de cada individuo
para su propio crecimiento [6]. Debe destacarse que aquí lo principal es que
individualmente la persona de acuerdo con sus intereses, sus pre-saberes y sus
posibilidades cognitivas, desarrolle y crezca en su conocimiento; con estos criterios
los resultados no pueden ser iguales para el grupo. En las estrategias evaluativas del
proceso de aprendizaje no tiene pertinencia establecer logros, competencias u
objetivos que todo el grupo debe conseguir. Cada estudiante es un ser único e
irrepetible y se le evalúa el proceso según su propio desarrollo.
En el caso de la escuela nueva o activismo, el estudiante convierte la experiencia y
el contacto directo con los objetos en conocimiento. La función principal de la
escuela, más que el aprendizaje, es la misma vida real y objetiva, preparar al
estudiante para esa vida. En el futuro el hombre hará parte del mundo real; por ahora
el niño debe tener un micro mundo dónde capacitarse experiencialmente y estar
preparado para ese futuro. Ese micro mundo es la escuela y sus procesos de
aprendizaje [7].
Para la pedagogía tradicional, aquella de la ―letra con sangre entra‖ y centrada en la
transmisión, el conocimiento está constituido por un conjunto de saberes específicos
y valoraciones aceptadas socialmente. Está definido oficialmente el conjunto de
conocimientos que los ciudadanos deben aprender; la función de la escuela es
transmitirlos e imprimirlos en los cerebros de los estudiantes. El objetivo es que al
final del proceso sean ciudadanos ―educados‖ con valores y saberes iguales a los del
resto de la sociedad [8].

19
Puede observarse que a pesar de las diferencias entre las teorías pedagógicas
mencionadas, existen elementos comunes: la pedagogía estudia a la educación y en
ésta se dan procesos de aprendizaje para formar al estudiante. Es el conocimiento que
tendrá el ser humano el objetivo de la educación. Frente a esto se pueden dar varios
enfoques; algunos se diferenciarán por su posición frente al proceso mental y
cognitivo que implica conocer, la psicología del aprendizaje; otros por sus estrategias
metodológicas y didácticas; otros por la postura política e ideológica con la cual se
concibe el rol de la educación en la sociedad. No obstante, el marco de referencia es
el mismo: la formación del estudiante. Se puede inferir una generalización; en las
teorías pedagógicas y por tanto en la educación, el conocimiento es el objetivo en sí y
debe, a través de procesos de aprendizaje, estar en la mente del estudiante. Es esa la
razón de la educación.
En consecuencia y sin pretender ser descalificativo, queda establecido que el
concepto de conocimiento inherente a lo educativo tiene una racionalidad,
contextualización y propósito notoriamente diferente a la idea de conocimiento
organizacional que está en la base conceptual de la G.C; surge aquí el primer
elemento a destacar en la idea de la presentación de este artículo. La posibilidad
hipotética de modelos de G.C para el ambiente educativo, conlleva al siguiente
imperativo: reconceptualizar la idea de conocimiento que subyace actualmente a dicha
teoría.
Debe destacarse que se diferencia pedagogía, educación y en general el ámbito del
aprendizaje, de entidad educativa; esta última es una organización y el estudio que
debe hacerse para aplicar en ella un modelo G.C debe tener un enfoque y base teórica
distinta al que se emplea en este análisis. Las universidades o colegios en tanto
organizaciones que son, se gestionan, deben planearse empresarialmente, tienen áreas
administrativas, deben optimizar sus recursos, llevar registros financieros, hacer
mercadeo. Este quehacer debe estar articulado con la docencia y la investigación. Pero
el conocimiento que se genera o sobre el cual se trabaja en estas últimas y que es su
razón de ser, es distinto al conocimiento organizacional del área administrativa, el
cual a su vez puede entenderse cabalmente como afín al que se gestiona en los
modelos de G.C.

2.2 Ciencia y Conocimiento

Se resaltan algunos aspectos inherentes al concepto de conocimiento que forman parte


integral del discurso epistemológico, para contrastarlos con los conceptos de G.C y
continuar detectando directrices para evaluar la viabilidad de utilizar o crear modelos
de G.C en el aprendizaje.
Se está ante una teoría en la cual no hay definiciones últimas, ni verdades
universalmente aceptadas. En la teoría de la ciencia, que viene a ser una elaboración
de la filosofía desde los clásicos griegos, existen múltiples hipótesis y conceptos
divergentes y antagónicos como también búsqueda de consensos. Este tema es quizá
uno de los problemas conceptuales que más ha suscitado debates e interés en la
historia del pensamiento que no es otra cosa que la historia de la humanidad. No hace

20
parte de las posibilidades de este artículo siquiera hacer una mínima relación de
dichas teorías o posturas frente a una teoría de la ciencia; se busca establecer los
lineamientos generales señalados al iniciar el numeral.
Se dice que el conocimiento es científico si ha sido elaborado a través del método
científico [9]. El método (acerca del cual existen distintos criterios) se caracteriza en
general por la rigurosidad en la comprobación del saber que se está creando. Por
ejemplo formulando hipótesis y validándolas en un proceso racional, coherente y
sólidamente sustentado en una teoría y comprobado mediante ―praxis‖ a las que el
mismo saber científico ha dotado de rigurosidad. El resultado es conocimiento
pertinente ya no en una situación específica sino con un grado mayor de generalidad,
se crea una teoría. De lo anterior se destacan algunos aspectos: el conocimiento
científico es el resultado de procesos más complejos y rigurosos, tanto en la teoría
como en la práctica, que el proceso asociado a la G.C. En este último, pueden darse
casos en donde saberes obtenidos a través de la intuición o lo sensible, llevan a
exitosas prácticas de las empresas y deben convertirse en ventajas estratégicas y
capital intelectual.
Por ejemplo en el área de ventas cierto vendedor, a través de su experiencia, ha
encontrado la forma de crear ambientes de diálogo especialmente atractivos para los
clientes y su práctica lo ha convertido en el funcionario del área con mejores
resultados en los indicadores de gestión. Se da aquí un caso en el cual la organización
aspirará a que el conocimiento no se quede en la mente de un único funcionario sino
sea una práctica de común uso en la empresa; son las condiciones típicas a partir de
las cuales se aplican modelos de G.C. No interesa si tiene validez para generar una
teoría o si se le han practicado rigurosos métodos de comprobación, lo importante es
que se trata de conocimiento que empresarialmente está demostrando utilidad y se
convierte en capital intelectual.
No es entonces comparable el método de investigación científica con los modelos
de G.C. El objetivo de la ciencia es el conocimiento en sí mismo, crear conocimiento;
con esta premisa se da alto valor a la antropología del hombre como saber; razón
importante y vital de lo humano: el conocimiento [10]. En la tradición filosófica
griega puede plantearse en los siguientes términos: el principal desafío cognitivo del
ser humano es conocerse como ser, conocer el mundo que lo rodea y conocer para qué
el ser humano en el mundo.
En los aportes que históricamente se han hecho a la teoría de la ciencia han
aparecido diversos enfoques para hacer clasificaciones de la misma. En algunos se ha
hecho énfasis en separar el saber conceptual y el saber instrumental o que también se
conoce como el saber qué y el saber cómo. Es decir que en algunos campos el énfasis
es conocer el concepto, la teoría; mientras en otros, lo importante de conocer es
aplicar los métodos que surgen a partir de ese conocimiento [11].
En la teoría de la G.C hay una fuerte tendencia a pensar que el conocimiento
relevante para una empresa es aquel que conduce a las buenas prácticas; algo así como
entender que el conocimiento es información en acción, es tener habilidades [12].
Aunque en el conocimiento científico se presentan tendencias dadas a enfatizar en lo
aplicativo, en general para la ciencia el interés principal es la creación de nuevo
conocimiento, de nuevas teorías. En el conocimiento organizacional se pretende que
la empresa cuente con procesos, experiencias, habilidades, que le permitan mayor

21
calidad, imagen y rentabilidad.
Para ilustrar la diferencia entre conocimiento científico y organizacional se
menciona un ejemplo. Algunos ingenieros han pensado que la G.C es aplicable no
sólo en empresas sino en otros ámbitos, el caso es en la educación; citan como
ejemplo de aplicación el caso de un profesor universitario de reconocido prestigio y
trayectoria por sus habilidades pedagógico-didácticas. El profesor se encuentra
próximo a jubilarse y la Universidad no puede admitir que se vaya sin previamente
haber compartido con los profesores jóvenes su exitosa experiencia y hacer de ella
una práctica común. Según los ingenieros este es un caso en el cual sería totalmente
pertinente la aplicación de la G.C en la educación [13].
Esta es una descontextualización; el conocimiento del cual se está hablando no es
solamente una buena práctica organizacional que debe convertirse en conocimiento de
la empresa y el método ideal para ello es la G.C. Se está hablando de conocimiento
pedagógico, de conocimiento científico y el proceder para que sea socializado,
compartido y reconocido debe ser a través de los métodos de la investigación
científica.
La práctica exitosa del profesor próximo a jubilarse debe convertirse o estar
articulada en una teoría y comprobada y validada a través de los métodos científicos
de la pedagogía. A menos que ―en casa de herrero azadón de palo‖ y la Universidad
del ejemplo opte porque los procesos de enseñanza-aprendizaje no estén sustentados
en una teoría pedagógica y a cambio las prácticas educativas sean resultado de haber
compartido mediante sistemas de G.C, experiencias exitosas de casos particulares.
Con las tendencias mundiales y las exigencias de calidad y pertinencia que la sociedad
está haciendo al sistema educativo, tal hecho tendría poca presentación en los
procesos de acreditación tan comunes hoy día en la educación.
El ejemplo ubica la idea central del artículo, pero podría no ser de amplia
aceptación dado el relativo y escaso reconocimiento de la pedagogía como ciencia.
Para algunas personas seguramente lo importante de la profesión docente no es su
formación científica, es su praxis en la enseñanza y ésta bien puede ser el resultado de
compartir experiencias exitosas.
Para ilustrar con mayor claridad, se da el ejemplo en un área que, como científica,
tiene mayor reconocimiento y trayectoria: las ciencias de la salud. Siguiendo la idea
de los ingenieros, la hipotética situación podría ser la siguiente: en un hospital un
médico cardiólogo es reconocido por sus incontables éxitos en tratamientos con
pacientes. Al hospital como empresa no le interesa la fundamentación científica del
conocimiento del médico, le interesa que hay un prestigio reconocido, pero
desafortunadamente es conocimiento de un empleado. Interesado el hospital en que el
saber no sea individual decide utilizar un modelo de G.C para hacer de la práctica de
dicho médico, el conocimiento y la práctica colectiva de los cardiólogos de la
institución. Quizá funcione, pero quizá no y aquí se estaría no sólo ante cierto fracaso
de la práctica organizacional conocida como G.C; se estaría ante la pérdida de vidas
humanas. Cualquier persona vinculada a las ciencias de la salud entenderá que ante tal
situación (un éxito individual convertirlo en conocimiento colectivo) lo aplicable es
utilizar los métodos de investigación científica de dichas ciencias.
Como un comentario un poco aparte, pero que ilustra la posibilidad de que el caso
anterior sea real, recuérdese la situación de las empresas de salud en Colombia (EPS)

22
Los médicos, desde su óptica de las ciencias de la salud, quisieran poder establecer su
relación con los pacientes según su formación científica: calidad en tiempo y
consultas, exámenes de laboratorio, remisión a especialistas y todo lo necesario para
su objetivo: la calidad de vida y salud del paciente. Las EPS desde su óptica gerencial,
de optimización de recursos y rentabilidad, establecen normas para las consultas:
tiempo máximo, 15 minutos; remitir a especialistas únicamente en casos
completamente extremos; ordenar menor número de exámenes de laboratorio,
preferiblemente ninguno; formulaciones de medicamentos teniendo como criterio
principal el costo mínimo. Y las normas no se quedan en escritos. A los profesionales
que mejor las cumplan se les dan bonificaciones, viajes y toda clase de incentivos.
Quienes no cumplan (y se manejan límites) no siguen siendo contratados [14].
En resumen, no es lo mismo, ni atienden a la misma racionalidad; el conocimiento
científico y el organizacional, corresponden a enfoques, metodologías,
fundamentaciones teóricas e intereses divergentes ¿Podrían o deberían buscarse
convergencias? En apariencia desde la G.C no; en los planteamientos teóricos
subyacentes a dichos modelos se hace referencia tangencial a la teoría del
conocimiento pero se hace explícito que allí no es relevante el qué del conocimiento,
sino la posibilidad de utilizar procesos y tecnologías para convertirlo en capital
intelectual.

2.3 ¿Gestión del Conocimiento?

En la teoría organizacional son de uso común los términos administración, gestión y


gerencia. Buena parte del esfuerzo se dirige a caracterizar cómo se deben ejercer
dichas funciones. Por ejemplo una de las teorías clásicas de la organización, la
doctrina administrativa del Ingeniero francés Henry Fayol, parte del referente de la
empresa pero se centra en proponer cómo ejercer la administración de la misma [15].
Este sesgo, desde los albores de la teoría de las organizaciones, ha hecho que los
esfuerzos teóricos por comprender las empresas, aunque éstas implican más que ser
administradas, se concentren en este aspecto de lo empresarial. Se escucha hablar de
facultades de Administración de Empresas; no es común escuchar ofertas educativas
acerca de estudios generales de la organización. Esto ha llevado a que en el
imaginario contemporáneo los términos (administración, gestión…) se circunscriban a
lo económico y empresarial.
Los términos administración y gestión no tienen, en esta área del saber, una
diferencia conceptual categóricamente establecida, de hecho varias empresas en sus
prácticas los identifican como sinónimos. Algunos autores le han dado a la gestión
cierta connotación más holística que a la administración; la primera tiene una visión
general y prospectiva, mientras la segunda se refiere al ahora, al accionar diario. En
G.C no se incluyen esas diferencias y se asume que básicamente es lo mismo.
La gestión hace referencia a la organización y planeación de la actividad de la
empresa en términos del logro de los objetivos y haciendo uso eficiente de los
recursos. El hecho de los recursos ser limitados es un problema crítico para la
supervivencia de la organización y ha implicado que el uso eficiente, racional y en lo
posible a menor costo de ellos, sea un desafío de primer orden para la gestión. Debido

23
a ello se han desarrollado teorías más específicas: Gestión financiera, Gestión de
Recursos Humanos, Gestión de la producción y ahora Gestión del Conocimiento. Lo
común es que hacen parte de la gestión en términos organizacionales y dan especial
énfasis a la optimización y eficiencia en el manejo del recurso que les corresponde.
Como el término se ha venido generalizando y aplicando en diversas esferas se han
presentado discusiones acerca de la conveniencia y pertinencia de utilizarlo en ciertos
campos. Por ejemplo se ha hablado de gestión cultural; quienes entienden la idea de
cultura en dimensiones que trascienden lo organizacional han evidenciado lo
inadecuado de la idea; ¿Se puede gestionar la creación artística? Es obvio que no. Se
ha llegado entonces al consenso, el concepto no hace referencia a los procesos de
creación cultural sino al manejo de los recursos de las organizaciones que se dedican a
la cultura y el logro de sus objetivos.
Especialmente polémico y sensible ha sido el término gestión del Recurso Humano.
En la teoría organizacional clásica fue normal ver a los trabajadores como uno más de
los recursos de la empresa; equiparable, en cuanto a la necesidad de ser gestionados,
con las finanzas o la maquinaria. En la evolución de dicha teoría se ha ido pasando de
la metáfora de la empresa como una máquina, a la metáfora de la empresa como
cultura o aún como organismo vivo [16]. En consecuencia se ha ido diluyendo la idea
de entender al ser humano como recurso que se debe gestionar; desde la ciencia
humana es un despropósito. La idea se ha ―suavizado‖ y se habla por ejemplo de
gestión del talento humano; no se gestiona la persona sino las capacidades que le
aporta a la organización.
Estos antecedentes para establecer que polemizar acerca de la pertinencia de
utilizar el término gestión, según el contexto, no es algo nuevo. Dependiendo del área
del conocimiento en el cual se esté utilizando cierto término, adquiere rigor
paradigmático. Evidentemente no es similar el concepto de hombre en ciencias
humanas al que se tiene en ciencias administrativas. En el caso de ―gestión‖ del
conocimiento es significativamente cuestionable.
No está en la intencionalidad de este artículo cuestionar la validez de gestionar el
conocimiento y la conceptualización y práctica que ha implicado para los modelo de
G.C organizacional. Si en esta teoría se admite que el conocimiento es un recurso y
que su importancia radica en el hecho de generar riqueza y capital intelectual, parece
válida la idea.
En lo educativo es más cuestionable. Si la educación es la formación del estudiante
y se realiza mediante procesos pedagógico-didácticos en los cuales el conocimiento es
parte vital tanto de la formación como del proceso, no es aplicable la idea de
―gestionar‖ el conocimiento. Aquí no es un recurso; su complejidad, su rigurosidad
conceptual y metodológica, su condición humana, no pueden ser sobre simplificadas
al nivel de elemento que se gestiona, se mide, se optimiza, se transfiere y se convierte
en capital. Antes de hablarse de G.C se hablaba de gestión educativa; anteriormente se
hizo referencia al tema, en este caso no se trata de gestionar el conocimiento en los
procesos de enseñanza y/o aprendizaje. Se aplica para gestionar la entidad educativa.
Tampoco tiene validez hablar de ―gestión‖ del conocimiento en la ciencia; la
epistemología a lo largo de siglos ha propuesto y crecido en elaboraciones milenarias
acerca de métodos para la investigación científica y por tanto elaboración del
conocimiento. Como en el caso de la educación, también se habla de gestión,

24
particularmente gestión de la investigación. Esta hace referencia a los aspectos
administrativos y financieros de apoyo a los proyectos de investigación o a la creación
de condiciones organizativas (grupos, semilleros) para favorecer la realización de
actividades investigativas. Lo que no es congruente es incluir el tipo de racionalidad
de la gerencia y la gestión en los métodos ya propios del quehacer investigativo.

2.4 Dato, Información y Conocimiento

Otro elemento que se propone en cuanto a diferencia de contextos, entre lo


organizacional y lo educativo, del concepto de conocimiento, es cómo se crea o de
dónde surge. En la G.C la premisa de uso más frecuente es que hay una
jerarquización cualitativa entre dato, información y conocimiento. La información es
más que el dato pero se obtiene a partir de él. Y a su vez la información es la materia
prima para que aplicando criterios elaborados se obtenga conocimiento. No es
explícito cuál componente interviene o cómo se hace algo adicional para obtener
conocimiento. El presupuesto primordial es el esquema: del dato a la información y de
ésta al conocimiento [17].
Algunos teóricos insinúan que se trata de algo actitudinal: el conocimiento es
información en acción. Otros lo entienden como habilidad gerencial: hay
conocimiento cuando se utiliza adecuadamente la información para la toma de
decisiones [18]. Pero lo sustantivo es que el elemento posibilitador del conocimiento
es la información. Incluso entre quienes desarrollan sistemas de gestión de
conocimiento no se delimita el asunto. Es frecuente escuchar que por parecer más
evolucionados, algunos técnicos a sus sistemas de gestión documental o de gestión de
información, los elevan a la categoría de gestión del conocimiento únicamente
cambiándoles el nombre. Esta práctica ha sido un snob y común en la comunidad de
las TIC, por ejemplo cuando empezó a popularizarse la tecnología de las bases de
datos como un enfoque cualitativamente superior a los tradicionales archivos, algunos
informáticos no se preocuparon por realmente introducir los cambios; a sus
organizaciones de archivos les cambiaron simplemente de nombre y ya con eso los
hacían aparecer como bases de datos
En los modelos pedagógicos también se utiliza la categorización (dato -
información- conocimiento), de hecho la teoría cognitiva utiliza como un elemento de
su propuesta de aprendizaje la teoría del procesamiento de información. Pero en
general en la pedagogía contemporánea no se entiende el conocimiento únicamente
como resultado de dicho procesamiento. Salvo en el modelo tradicional; allí la
educación es transmisión de informaciones (generalmente dispersas y
descontextualizadas) de uno que enseña a otro que aprende. Pero nótese que la crisis
de ese modelo se ha constituido en el principal desafío incluso a la misma existencia
de las instituciones educativas. Si los colegios o las universidades siguen pensando
que eso es educar no tienen razón de existir, se puede hacer en los libros y ahora con
acceso más amplio y dinámico con las TIC. Hay consenso, la educación y el
conocimiento deben ser objeto de otras elaboraciones. Para los cognitivistas el
componente informacional es apenas una entrada al proceso cerebral de distintos
niveles de abstracción y conceptualización que permite elaborar conocimiento . En el

25
caso del constructivismo el rol de la información es pasivo, importa más la
significación que el estudiante haga en su propia vivencia, esto permite construir
conocimiento. Para la escuela nueva el conocimiento es acción y experiencia, contacto
directo con la realidad.
No es posible, con las limitaciones del artículo, analizar exhaustivamente las
distintas posturas que en la teoría pedagógica existen acerca del rol de la información
como fuente de conocimiento, pero especialmente ahora que se pretende superar la
crisis y precariedad que el transmisionismo causó a la idea de conocimiento en la
educación, no es aceptable que los datos y la información sean el principal
componente del conocimiento en la práctica educativa. No se puede mencionar un
solo factor (dada la diversidad de teorías), pero se reconocen con mayor importancia
que lo informacional en el conocimiento educativo: la estructura mental cognitiva y
que evoluciona con la edad según la teoría de Piaget [19]; el proceso de estímulo –
respuesta – refuerzo, del conductismo ; la idea del aprendizaje significativo en
Ausubel [20]; la zona de desarrollo próximo ideada por Vigotski.
Se destaca que desde otras áreas e incluso desde el planteamiento organizacional,
surgen crecientes cuestionamientos acerca del rol tan protagónico de la información
en el conocimiento y aún en la sociedad. Se está empleando el término infocentrismo
[21] para hacer referencia al sobredimensionamiento, el cual ha permitido concluir
equivocadamente que si lo fundamental es la información, pues las tecnologías que
permiten su manejo más eficiente deben ser los factores de primer orden en el
conocimiento y ¿por qué no? en la educación.

3 Las TICs en la Educación

Conviene trazar una clara distinción entre lo que se entiende por tecnologías
educativas y el tema a tratar: tecnologías de la información y las comunicaciones
aplicadas a la educación. Si bien a simple vista podrían verse como fenómenos
estrechamente ligados, para efectos de una comprensión rigurosa, se hace necesario
diferenciarlos claramente.
Las tecnologías educativas se entienden como el inventario de aplicaciones
prácticas que a lo largo de la historia, desde Comenio o los sofistas griegos, se han
implementado en el ámbito de la educación, tomando como referente los hallazgos de
las distintas ciencias relacionadas con la pedagogía. Es en últimas, la praxis
pedagógica de los resultados teóricos de campos del conocimiento como la
Psicología, la Medicina, la Sociología, la Antropología o la Ingeniería entre muchas
más. Asumir su estudio, su comprensión y su reflexión, implicaría el desarrollo de
una iniciativa mucho más abarcadora y ambiciosa, por esta razón se considera
fundamental iniciar con esta claridad.
Por otro lado, se entienden las TICs inicialmente de una manera más bien genérica,
como aquellas tecnologías que permiten transmitir, procesar y difundir información de
manera instantánea. Fenómeno cuya ocurrencia desde la década de los 80, comenzó a
desarticular las antiguas cadenas industriales de montaje de las organizaciones, para
convertirse en el sustrato informático innovador sobre el cual en la actualidad

26
funcionan las mismas. Su aplicación en la educación mediante constructos como
(A.V.A) corresponde al objeto central que de aquí en adelante ocupará la atención del
autor.
Al hablar de una escaza historia de las TICs en el ámbito educativo , se pretende
recalcar que hasta el momento son el ordenador, a través del software educativo, y la
red virtual internet, las únicas herramientas a las que se puede asociar el hipotético
impacto revolucionario que ha traído consigo la ―ola cibernética‖, en las dinámicas
pedagógicas. O por lo menos en las de ocurrencia masiva, en las que insinúan una
educación democrática.
Es a partir de estas herramientas que ha surgido la posibilidad de pensar en (A.V.A)
como ―el espacio físico donde las nuevas tecnologías tales como los sistemas
satelitales, el Internet, los multimedia y la televisión interactiva entre otros, se han
potencializado rebasando al entorno escolar tradicional que favorece al conocimiento
y a la apropiación de contenidos, experiencias y procesos pedagógico-
comunicacionales‖ [22].
El análisis diferenciado de Internet y Software educativo como esencia de los
(A.V.A), será el eje posterior de análisis.

3.1 Neoliberalismo - Ordenadores - Software Educativo: Transposición


Acrítica de Términos

Desde la propuesta de Begoña Gross (2008) [23], los programas computacionales que
adquieren la connotación de ―educativos‖ deben estar articulados en un proceso
formal de aprendizaje; no es posible acudir a la liviandad propia de muchas
coyunturas o situaciones que sin tener un atisbo de sentido pedagógico se denominan
por sí mismas ―educativas‖.
Tal es el caso de las ―modas tecnológicas‖, en donde por incidencia directa de
acuerdos macropolíticos y transcomerciales y tímidamente por necesidades educativas
explícitas, problemáticas pedagógicas identificadas o sustentos curriculares
congruentes; se saturan de computadores a las instituciones. Esto bajo el amparo de
imperativos económicos globales. Luego de esto se denominan innovaciones
―educativas‖ o políticas públicas ―educativas‖.
Las ―necesarias políticas públicas educativas neoliberales‖ o las ―nuevas estrategias
educativas para el desarrollo en Latinoamérica‖, planteadas por los gurús de la
globalización en ―auténticos manifiestos para la reforma económica‖ [24], proponen
que el énfasis en las competencias operativas frente a las nuevas tecnologías
informáticas, ha de ensalzar la esencia del acto educativo y de la planeación
curricular.
El futuro ―capital humano‖ de las organizaciones: los estudiantes, ―tienen que hacer
uso adecuado de las nuevas tecnologías‖. Su sustento reposa en que son estas el
sustrato mediador de la productividad en el siglo XXI y por ende la educación debe
acoplarlos a su estructura. Ante esto cabe preguntarse ¿Es el fin último de la
educación la preparación de mano de obra calificada?, ¿No se estará confundiendo
capacitación, adiestramiento, tecnificación; con educación?.
En este punto valdría la pena invitar a Sarramona (2006) para ilustrar y advertir a

27
los tecnócratas neoliberales sobre el filosófico e irrenunciable significado crítico y
transformador de la educación y sobre todo para motivar al lector hacia el interrogante
sobre el rol y el protagonismo del computador frente a una educación entendida como:
―Un proceso esencialmente dinámico entre dos o más personas que proporciona las
herramientas y ayudas para alcanzar las metas del hombre, partiendo de la aceptación
consciente del sujeto. Que pretende la formación del individuo como persona libre,
que busca la inserción activa y consciente del individuo en el medio social, que
significa un proceso permanente e inacabado a lo largo de toda la vida humana, que el
estado resultante, aunque no definitivo, supone una situación duradera y distinta del
estado original del hombre‖. [25]
En lo anteriormente descrito se podría ubicar en un lugar secundario a todas las
acciones dirigidas a la enseñanza instructiva de procedimientos productivos y a la
apropiación de estos por parte del estudiante. Sarramona en su definición sobre
educación da prelación a la formación de seres humanos con anhelos y deseos, metas
libres y activas, no necesariamente acuñadas con el éxito productivo o la eficiencia y
la eficacia laboral que se espera del ―capital humano‖. Sujetos con disposición de
experimentar la vivencia del mundo en toda su magnitud, no exclusivamente dentro
de los linderos de la organización. Hombres con capacidad de escenificar un papel
protagónico en el ámbito social, alejándose progresivamente del rol operativo obrero
y avistando cada vez con más cercanía el papel de entes creadores y transformadores.
Personas con pleno entendimiento de un reto formativo interminable, inconstante y
variable. Sarramona sobre todo alienta una visión transformadora y revolucionaria
hacia la liberación del hombre, a la luz del acto pedagógico, la cual no se puede leer
ni escribir en los términos de la tecnocratización.
No obstante, hay que reconocer que en el campo de las tecnologías educativas se ha
logrado llevar a la praxis lo planteado por Gross en cuanto dotar de congruencia
pedagógica ciertas aplicaciones computacionales implementadas en algunos procesos
educativos. Esto ha dado lugar a lo que se conoce como ―software educativo‖. Esta
nueva categoría, siguiendo los parámetros fijados por Gros (2008), se ha considerado
como ―diseños informáticos específicos a través de los cuales se adquieran unos
conocimientos, una habilidad, unos procedimientos, en definitiva para que un
estudiante aprenda‖
El software educativo presenta directa e irrenunciablemente como gran innovación
al interior de las aulas, la inclusión del ordenador, en un rol protagónico en los
procesos enseñanza– aprendizaje, lo cual puede desembocar en una acción de tipo
educativo dependiendo del uso y direccionamiento adecuado por parte del docente.
Esto sin pretender que se magnifique la virtualidad ofrecida por el uso del
computador, hasta el punto de reducir el ambiente de aprendizaje a las interacciones
mediadas por los instrumentos tecnológicos.
No se ha de olvidar que la presencia del ordenador no sólo en las escuelas sino en
todos los ámbitos sociales, se constituye en el fenómeno tecnológico guiado
mercantilmente que ha definido las nuevas tendencias políticas, culturales y sociales
de la contemporaneidad, al mediar instrumentalmente la última gran revolución
industrial, aquel giro paradigmático que emerge de las nuevas tecnologías de la
información y las comunicaciones.
Esto conlleva a pensar que la presencia del ordenador en los escenarios educativos

28
obedece principalmente a una corriente global de orden económico que pretende la
implantación universal de ciertas prácticas del mercado, como la masificación de las
TICs básicamente, pero con repercusiones culturales, sociales y psicológicas.
De acuerdo a lo anterior, la plataforma comercial del software educativo
implementada en los (A.V.A) intenta incursionar en las necesidades educativas
tratando las diferentes materias, de formas ya milenariamente exploradas a partir de la
interacción humana docente-estudiante. A partir de cuestionarios, presentando una
información determinada a los estudiantes o a través de la simulación de fenómenos,
ofreciendo un entorno de trabajo poco sensible a las circunstancias de los alumnos
desde sus diferencias individuales y mucho menos provisto de posibilidades de
interacción. Sin embargo, desde el modelo que guía la tendencia económica neoliberal
que impulsa esta implementación tecnológica en la educación, se contemplan las
siguientes características que más se asemejan a metas ideales aún no alcanzadas en su
totalidad:

- Permite la interactividad de los maestros con los estudiantes, retroalimentándolos y


evaluando lo aprendido.
- Facilita las representaciones animadas.
- Incide en el desarrollo de las habilidades a través de la ejercitación.
- Permite simular procesos complejos.
- Reduce el tiempo de que se dispone para impartir gran cantidad de conocimientos
facilitando un trabajo diferenciado.
- Facilita el trabajo independiente y a la vez un tratamiento individual de las
diferencias.
- Permite al usuario (estudiante) introducirse en las técnicas más avanzadas.

Se puede apreciar que al igual que ocurre con muchos otros constructos propios de
la etapa actual que atraviesa la humanidad, guiada por la incidencia de la
globalización, el neoliberalismo y la masificación vertiginosa de TICs, las
características del software educativo se plantean más con el deseo y el afán
desmedido de autovalidación a toda costa, que con la razón y la información
proveniente de los hechos.
La interacción docente - estudiante, por el contrario a lo descrito, no se nutre ni se
acentúa a partir del uso del software educativo. El modelo transmisionista, implícito
en esta aplicación pedagógica, insinúa la irrelevancia de la presencia constante del
maestro en procesos educativos que se centran en la inserción lineal de cúmulos de
información en las mentes de los educandos, lo cual se logra fácilmente mediante el
uso de las tecnologías descritas. Las relaciones educativas de tipo crítico y que se
fundamentan en los procesos reflexivos del estudiante, no se puede construir en la
interacción con un aparato; éste no está en capacidad de accionar un ejercicio
dialéctico que someta a prueba de rigurosidad argumentativa y a escenario de
transformación conceptual el discurso del estudiante, ya que no puede hablar por sí
mismo desde su experiencia, ideales y sistema de pensamiento, tal y como hace un
maestro.
Por otra parte, las habilidades que desarrolla este tipo de material en los estudiantes
están limitadas a la manipulación tecnológica, lo cual se constituye como un serio

29
quebranto a los principios de individualidad, heterogeneidad y diferencia de
pensamiento. La estandarización y formación de las capacidades de los estudiantes de
acuerdo a las competencias evidenciadas al momento de hacer uso de los aparatos
tecnológicos no se puede confundir con la acción creadora, crítica y transformadora
que significa la educación y subsecuentemente la construcción de conocimiento. Tal
vez en una parte de los contenidos curriculares sea pertinente la evaluación de estas
competencias operativas, pero se ha de recordar: ésto no constituye la esencia de la
obra creadora que es la educación.
En cuanto a la reducción del tiempo destinado al desarrollo de tareas escolares que
significa el uso del software educativo, cabe mencionar que si la escuela fuera una
empresa o una organización destinada a optimizar recursos en pos de ganancias
tangibles, sería de gran ayuda. Afortunadamente aún el modelo económico
empresarial predominante no se ha logrado posar totalmente en la educación como lo
ha hecho en otros contextos como las artes o el costumbrismo típico regional entre
otros, imprimiendo su sello mercantil en toda acción humana. Aún la escuela no es un
escenario en donde confluyen los más veloces, los más aventajados y los mas
―competentes‖ devorando a los que no manifiestan estas disposiciones genéticas y
ambientales, aún no llega el momento en el que al estudiante se le limite o condicione
el tiempo para conocer, como a un empleado industrial se limita el tiempo de
alimentarse. El factor optimización y ahorro del tiempo no juega un papel protagónico
en la construcción ontológica que significa el conocimiento; por el contrario es la
dedicación significativa y en ocasiones exagerada, lo que desemboca en las grandes
creaciones del conocimiento crítico y transformador [26].
El uso del software por parte del docente y del estudiante, según los economistas
neoliberales que parecen tener fuero y potestades ilimitadas en todos los campos del
conocimiento, también proporciona numerosas ventajas, las cuales se someten a
análisis; entre ellas están:

Enriquece el campo de la pedagogía al incorporar la tecnología de punta que


revoluciona los métodos de enseñanza-aprendizaje, lo cual es algo poco verosimil,
pues si bien esta aplicación se constituye en parte de un método alternativo en la
enseñanza y tal vez enriquece las herramientas de las cuales dispone el maestro al
interior del aula, no se puede tildar como un hecho revolucionario; como lo afirma
Samir Amin (2002) [27] en aguda crítica al ―incuestionable‖ planteamiento de la
supuesta aldea global: ―la distinción entre los instrumentos y el uso que se haga de
ellos sigue siendo esencial. A pesar de las ingenuas creencias de Marshall McLuhan,
la historia no se desenvuelve al vaivén del progreso tecnológico‖.
El uso de software educativo en la escuela aún no se puede relacionar con un
incremento sustancial en la calidad de vida, particularmente en el ámbito pedagógico,
de las sociedades; tampoco con coyunturas que equilibren la balanza social que día a
día aumenta la desigualdad y la miseria en los países subdesarrollados y en vías de
desarrollo; por el contrario el uso de esta aplicación ubica en un lugar más aventajado
a las potencias del conocimiento y por ende de la economía, en las cuales el acceso a
las nuevas tecnologías, entre otros elementos de supervivencia, no es un lujo, es un
deber del mercado.
Constituye una nueva, atractiva y rica fuente de conocimientos. Sin embargo esta

30
novedad sólo opera en la fase de circulación del conocimiento en el ámbito
académico, pues irrebatiblemente es el sujeto de ciencia quien ―carga‖ o provee el
contenido de cada software educativo, éste no se actualiza o reevalúa sus contenidos
autónomamente. Siempre estará condicionado a la actualización y complementación
que el mismo ser humano tenga en su voluntad añadirle; adicionalmente, al igual que
siempre, estará supeditado a una serie de variables exógenas como las fuentes de
energía o el status aventajado tecnológicamente de determinada comunidad.
Se puede adaptar el software a las características y necesidades del grupo teniendo en
cuenta el diagnóstico en el proceso de enseñanza-aprendizaje. Lo cual supone un
estado estático e inerte intelectualmente de los grupos académicos, en el lapso de
tiempo comprendido entre el diagnóstico de necesidades académicas de determinada
comunidad y el momento de la puesta en circulación del software planeado a partir de
dicho diagnóstico, el cual puede modificarse considerablemente en proporción a las
variables exógenas arriba mencionadas.
Permite elevar la calidad del proceso docente-educativo. Lo cual está
condicionado ampliamente, al igual que toda la estructura computacional, por la
postura y dimensión ética que el ser humano, en este caso el maestro, esté en
disposición de escenificar. En muchas oportunidades se ha hecho evidente que el uso
de software en la escuela permite ―flexibilizar‖ la carga laboral del docente
permitiéndole así destinar más tiempo disponible a actividades no necesariamente
académicas, también personales, extralaborales e incluso administrativas; siendo esto
último muy deseable en la concepción neoliberal de la escuela como empresa.
Permite planear y controlar las actividades del docente de forma individual o
colectiva, lo cual no es ninguna novedad o consecuencia exclusiva del uso de
software, es uno de los pilares de la acción del educador.
Muestra la interdisciplinariedad de las asignaturas, lo cual, conservando las
proporciones -no es lo único que se necesita para ilustrar el carácter multi e
interdisciplinar de la educación-, se constituye en un aporte al representar la
asociación conceptual y la transversalidad necesaria en el abordaje complejo de los
fenómenos propios de la ciencia.
Marca las posibilidades para una nueva aula más participativa y democrática;
cuestión que es relativa e inclusive en muchas ocasiones opuesta, ya que en los países
subdesarrollados y en vías de desarrollo, el uso de software educativo,
antagónicamente a lo enunciado, lo que logra es aumentar la desigualdad y el
desequilibrio social. Cuando la tecnología es un lujo o un bien suntuoso, tal y como
sucede en países como Colombia, se limita su uso y alcance a las clases más
favorecidas, lo que pone en aguda situación de desventaja a quienes no tienen
igualdad de acceso a estos medios facilitados por la ciencia pero sobre todo por la
capacidad adquisitiva. Es lo que comúnmente se denomina ―la brecha digital.‖

3.2 Internet: la Red de Redes

La Internet es la mayor red de ordenadores del planeta. No es básicamente una red,


son centenares de miles de redes locales y de área amplia interconectadas entre sí,
que permiten compartir información, recursos y servicios. Inicialmente se pensó

31
como un proyecto militar en Norteamérica cuyo diseño y ejecución se delegó a la
Agencia de Investigación de Proyectos Avanzados (ARPA) del Departamento de
Defensa de los Estados Unidos a finales de los años sesenta. [28]
El objetivo principal de la red era configurarse como un sistema práctico,
sistemático y seguro de comunicaciones que siguiera funcionando en caso de que,
durante un conflicto bélico, fueran destruidos los canales de comunicación, amenaza
que ya históricamente había significado el debilitamiento de potencias militares muy
similares a los Estados Unidos como el utópico ―Tercer Reich‖que en la Alemania de
la primera mitad del siglo XX lideró el bien conocido Adolfo Hittler. El diseño de la
red bélica sería interconectado, de tal manera que si un canal de comunicación se caía,
en un bombardeo por ejemplo, los otros pudieran suplirlo. La información viajaría
digitalizada y dividida en remotas unidades bien camufladas en las que figuraría la
referencia del conjunto de datos. Al llegar a destino, las remotas unidades serían
comprobadas y organizadas para "decodificar" la totalidad del contenido.
Curiosa génesis para una aplicación que en su evolución actual es el escenario de
múltiples intercambios de datos e información, desde compras en línea hasta sexo
virtual.
El resultado fue ARPANET, una red extendida, sin un canal o centro estratégico -
descentralizada- y un conjunto de pasos sistemáticos que permitirían una
comunicación confiable utilizando gran variedad de medios poco confidenciales -
redes telefónicas y conmutadas, satélites, líneas privadas, enlaces de microondas.
En la década de los 80 se integran a la ARPANET la CSNET –la red del Computer
Science Network- y MILNET -la red militar de los EE.UU.-. Este momento, junto con
la posterior integración de NSFNET - la red de la National Science Fundation - que
contenía a los cinco más importantes centros de desarrollo computacional de los
Estados Unidos; se considera como el nacimiento de la verdadera internet o red de
redes. A este hilo vertebral comenzaron a unirse universidades y centros de
investigación que ya no dependían exclusivamente de la milicia y se incrementó
pandemicamente el número de usuarios. En 1995, la asociación nacional de ciencia
Norteamericana abandono la mediación entre sus usuarios y el acceso a la red y
comenzó la denominada "privatización" de internet, la universalización comercial y el
fenómeno mediático que hoy todo ciudadano del mundo occidentalizado conoce: la
Internet.
Se pretende que descritas las anteriores perspectivas históricas se logre aparte de
complementar los referentes conceptuales necesarios para la comprensión crítica de
las tecnologías informáticas aplicadas a la educación; acentuar la postura del autor en
lo referente a la posibilidad del uso de la red informática internet en el ámbito
educativo. La red de redes podría articularse en la educación, siempre y cuando exista
un profundo ejercicio multidisciplinar que convoque a la pedagogía y las demás
ciencias asociadas a un análisis exhaustivo, a la luz del conocimiento crítico-
reflexivo, de las infinitas posibilidades, no necesariamente educativas, que ofrece la
internet y sobre todo de sus constructos particulares susceptibles de incluir dentro de
las estrategias pedagógicas al interior del aula.
No es posible que una iniciativa de origen bélico, planeada para la guerra y la
hecatombe pueda integrarse mecánica y acríticamente a los procesos educativos. Se
insiste en que en una interacción de índole instructiva o de capacitación laboral podría

32
no ser de gran utilidad una compleja selectividad de los materiales a utilizar, pero en
la visión de la educación hacia la formación crítica transformadora ¿―funcionará‖ de
la misma manera?.
Un ejemplo de integración pertinente y de adecuación de las condiciones
tecnológicas provistas en la actualidad con las necesidades sociales de las
comunidades, que claramente se ejemplifica a través del uso de la Internet en (A.V.A),
se puede identificar en los programas de formación a distancia (e-learning) que cada
vez se hacen más accesibles y eficaces atendiendo a las potencialidades comunicativas
que ofrece la red. Esto sin duda alguna es un gran beneficio para aquellas iniciativas
instructivas que persiguen la apropiación de contenidos y el manejo de conceptos por
parte del estudiante, ejecutivo u operario. Sin embargo no cobija la posibilidad de
interacción reflexiva o debate constructivo frente a tales contenidos. No apunta a una
educación de orden reflexivo ni mucho menos revolucionario.
Tampoco hay que obviar que las formas comunicativas –multimedia e hipermedia-,
existentes anteriormente a la aparición del computador y las redes informáticas, se
facilitan y promueven sustancialmente gracias al uso de la ―red de redes‖ y del
software educativo. Esto se podría puntuar como un gran aporte de orden instrumental
para las estrategias docentes implementadas al interior del aula y fuera de esta.
La pregunta que aquí subyace es ¿tendrá la educación que sopesar la
impenetrabilidad y la soberanía indestructible de una iniciativa militar perfecta que se
salió de control por el carácter universal que adquirió; la cual aparte de las bondades
descritas en la cotidianidad, enfrenta a los maestros en el ámbito de la complejidad del
conocimiento, con el absoluto facilitarismo y la inerte iniciativa en materia de
esfuerzo e investigación-acción que implica en el estudiante la utilización de esta?
Como se planteó inicialmente el mayor atractivo de las redes informáticas como
internet es la inmediatez en cuanto consecución, teorización y praxis de cierta
información que su uso conlleva, enunciada empresarialmente en términos
organizacionales como optimización de tiempo, recursos y procesos. Pero ¿es esto lo
que se requiere en los procesos de pensamiento crítico, de la academia?. Tal vez
Copérnico, Voltaire, Einstein, Freud, Marx o Fleming entre muchos más podrían dar
una respuesta optativa al anterior interrogante.
Afortunadamente en sus sepulcros no pueden digerir mentalmente los
planteamientos de los tecnócratas de la educación y su ―global‖ acogida. Atendiendo a
la gran materialización de la ―Mcdonalización‖ [29] a la que ha sido sometido el
conocimiento científico a la luz de la lógica neoliberal, probablemente se lamentarían
de haber dedicado una vida al arte de conocer, para entregar este pilar de la
humanidad a herederos como los tecnócratas educativos, ―caballeros de la mesa
global‖. Estos particulares personajes en antagonismo sustancial a la labor del sabio,
buscan como a la piedra filosofal los alquimistas, minimizar recursos como tiempo,
esfuerzos docentes e infraestructura educativa en aras de optimizar la gestión de la
empresa que para la visión neoliberal significa el conocimiento científico, la academia
y en general toda iniciativa y acción humana.

33
4 Conclusiones y Trabajos Futuros

En cuanto la práctica organizacional de ―Gestión del Conocimiento‖ se plantea, a


partir de la reflexión suscitada, que debe continuar siendo un discurso netamente
empresarial, el cual en casos muy particulares podría llegar a articularse con las
necesidades y objetivos de la educación, sin que esto signifique un protagonismo
ostensible del mismo, en las dinámicas de la academia. Es necesario comenzar a trazar
límites radicales entre las necesidades productivas de las organizaciones y la visión
social, crítica y transformadora que debe guiar los procesos educativos, elementos
que, por razones obvias, difieren desde su esencia hasta su forma y contenido.
Las TICs, si bien han permitido ciertos beneficios en escenarios como las
organizaciones, llámense empresas locales o transnacionales globalizadas, e incluso
en contextos tan complejos como el de la política castrense; aún no han demostrado
sustancialmente su pertinencia, validez y sobretodo funcionalidad al interior de la
escena educativa. Lo que hoy se denomina en muchos gremios académicos como
―revolución educativa‖ venida de las herramientas informáticas, no pasa de ser una
trasposición acrítica y aventurada de elementos tecnológicos. Tal vez con el paso del
tiempo y a partir de abordajes realmente complejos en materia de educación, estos
podrían constituirse como mediadores de una pedagogía acorde con las necesidades
no solo organizacionales, sino también psicológicas y sociales, para las cuales esta
llamada la educación crítica transformadora.
No es posible negar la incidencia de estas herramientas tecnológicas en aspectos
relacionados con cobertura poblacional y fácil acceso a procesos formativos por parte
del ciudadano del común. Sin embargo la pregunta que aquí subyace es ¿Tendrá la
educación que adaptarse a los criterios mercantiles de masificación y banalización del
producto que en la sociedad neoliberal significa la educación?
A partir de lo anterior se expresa la iniciativa de articular conocimiento y TICs en
la educación superior, ya no en los términos de la gestión y los ambientes virtuales de
aprendizaje. Ahora se hace alusión a una categoría mucho más pertinente, congruente
y acuñada por el mismo autor, la cual se desarrolla a cabalidad en el contenido de la
tesis doctoral: ―Procesos Educativos Formales Apoyados en Tecnologías
Informáticas‖ (PEFAT).

Referencias

1. Davenport, Th. (2001) Conocimiento en Acción: Cómo las Organizaciones Manejan


lo que Saben. Buenos Aires. Ed. Pearson Educación.
2. Gonzales, Pablo. (2005). "La Taylorización de la Universidad y la Doble
Mercantilización del Estudiante Proto-trabajador". [consulta: 25 de septiembre de
2008]. Disponible en Web: http://firgoa.usc.es>
3. Viedma, José María. (1999). "La Gestión del Conocimiento y del Capital
Intelectual". [consulta: 15 de septiembre de 2008]. Disponible en Web: http://www.e-
lecting.com/uploads
4. Codina, Alexis. (2004) "Los Factores Críticos de Exito y las Areas de Resultado
Clave".[consulta: 20 de agosto de 2008]. Disponible en Web:

34
http://degerencia.com/articulo
5. Senge, Peter. (1994). La Quinta Disciplina. Buenos Aires. Ed. Granica.
6. Rodriguez, María Luz. (2004). "La Teoría del Aprendizaje Significativo." [consulta:
25 de agosto de 2008]. Disponible en Web: http://cmc./hmc.us/papers
7. De Zubiria, Julián. (2008). De la Escuela Nueva al Constructivismo: un Análisis
Crítico. Bogotá. Editorial Cooperativa Magisterio.
8. Durkheim, Emile. (1991) Educación y Sociología. México. Ed. Colofon.
9. Popper, Karl. (1994) Desarrollo del Conocimiento Científico. Buenos Aires. Ed.
Paidós.
10. Berthier, Antonio. (2005). "El Pensamiento Sociológico de Jürgen Habermas".
[Consulta: 15 de julio de 2008]. Disponible en Web:
http://conocimientoysociedad.com/habermas
11. Foucault, Michel. (1996) La arqueología del saber. México. Ed. Siglo XXI.
12. Ongallo, Carlos. (2005). "La Gestión del Conocimiento y la Normalización de sus
Buenas Prácticas". Revista económica de Castilla-La Mancha. N°7. p 183-208
13. Vicario, Claudia. (2002). "Gestión de Conocimiento, Desafío de la Educación".
[consulta: 14 de septiembre de 2008]. Disponible en Web:
http://www.somece.org.mx/memorias
14. Munar, Mabel. (2002) "Acreditación de las EPS y el Sistema de Calidad de Salud en
Colombia y su Relación Beneficio-Costo desde el Punto de Vista de los Usuarios".
[consulta: 10 de noviembre de 2008]. Disponible en Web:
http://monografias.com/trabajos
15. Dávila, Carlos. (2001). Teorías Organizacionales y Administración. Bogotá. Ed.
McGraw Hill. Capitulo3
16. Ganhao, María Teresa. (1997). "Las Metáforas Organizacionales" p. 183-189
[consulta: 23 de septiembre de 2008]. Disponible en Web:
<http://ddd.uab.es/pub/papers>
17. Lopez, Daniel. (2004). "Del Conocimiento Tácito al Dato Explícito". [consulta: 10
de octubre de 2008]. Disponible en Web: http://www.redcientifica.com/doc
18. Roque, Silvia. (2001). La Inteligencia de Negocios. [consulta: 25 de octubre de
2008]. Disponible en Web: http://www.gestiopolis.com/recursos/documentos
19. Bendersky, Betina (2004). La Teoría Genética de Piaget. Buenos Aires. Errepar.
20. Suarez, Cristóbal. (2004). ―La Zona de Desarrollo Próximo, Categoría Pedagógica
para el Análisis de la Interacción en Contextos de Virtualidad‖. Revista de medios y
educación. N°24 p 5-10
21. Brown, John. (2001). La Vida Social de la Información. Buenos Aires. Ed. Prentice
Hall.
22. Cabero, J. (2007). Nuevas Tecnologías Aplicadas a la Educación. Madrid. Mc Graw
Hill.
23. Gros, Begoña (2008). Aprendizajes, Conexiones y Artefactos. Barcelona. Ed Gedisa.
24. Chomsky, N. (2006). Ambiciones Imperiales. Barcelona. Península.
25. Sarramona, J. (2006). Debate sobre la Educación: Dos Posiciones Enfrentadas. (1ª
Ed). Barcelona. Ibérica.
26. Barbero, J. M. (2002). Ciudadanía, Democracia y Diálogos Sociales en América
Latina. Conferencia en ocasión a la apertura del programa de Maestría en Educación.
Universidad Distrital Francisco José de Caldas. Bogotá.
27. Amin, Samir. (2002). El Capitalismo en la Era de la Globalización.
Barcelona. Paidos Ibérica
28. Dreyfus, H. (2003). Acerca de Internet. Barcelona: UOC.
29. De Moraes, Denis. Cultura Mediática y Poder Mundial. Bogotá: Norma

35
36
Currículo coherence model knowledge based a case for
industrial engineering.

Alfonso PÉREZ-GAMA1, Guillermo HOYOS-GOMEZ2, Nancy RIVERA-


GUERRERO3 Byron PEREZ-GUTIERREZ4
1Life Senior IEEE Member- Dean Engineering Faculty; Fundación de Educación
Superior San Jose - BOGOTA COLOMBIA
2 Principal - Fundación de Educacion Superior San
Jose - BOGOTA COLOMBIA
3 Industrial Engineering Head - Fundación de Educacion Superior San Jose -
BOGOTA COLOMBIA
4IEEEMember, Universidad Militar Nueva Granada- BOGOTA COLOMBIA
1japerezg@ieee.org 2rectoria@fessanjose.edu.co; 3 rivnan@fessanjose.edu.co; 4
byron.perez@ieee.org
Abstract— These initiatives are centered in R & D activities in the
FESSANJOSE applying Information and ICT architectures to face the digital
growth of the university data. Also a Knowledge based system model to face
the new methodological strategy on Higher Education in Colombia is
presented: the propaedeutic cycles.: first with a set of analytical and
mathematical tools that allow quantification of management and curricular
knowledge: FESSJ-PROP © model, which is a structural system for analyzing
and structuring cohesion and consistency between these cycles. Among the
purposes and scope of the linear model of consistency in curricular knowledge
are the de-complexified understanding of the methodological strategy for
propaedeutical cycles and college resource optimization. We illustrate its
application in the area of INDUSTRIAL ENGINEERING to the propaedeutical
cycles: Technical Professional in Sustainable Production Process) and
Technology in MANAGEMENT of LOGISTICS of PRODUCTION.
Curricular coherence matrix is an analytical tool of the large academic
information as a linear mathematical structure, enabling the justification of
curriculum and making sense as a whole organized and complex. Academic
coherence and consistency refers to logical-cognitive relations between the
parts of the architecture of an educational system. It is both an instrument of
analysis as a linear mathematical structure it provides, enabling the justification
of a curriculum industrial engineering by propaedeutical cycles and weaves the
coherence and consistency in internal and external.

Keywords- Propaedeutic cycles, media and Higher education, model, matrix of


curricular coherence, student‘s model, expertise, knowledge management,
intelligent knowledge based system, information and Communications
Technology - ICT.

37
1. 1 BRIEF BACKGROUND

Industrial Engineering in Colombia first program was organized by the Industrial


University of Santander more than one half century ago. Nowadays there are close to
200 programs of this specialty. Afterwards Technology programs were established at
the Francisco Jose de Caldas District University of Bogotá. FESSANJOSE started the
Professional Technician in Industrial Engineering, 20 years ago. Nowadays this
program has grown to Technology and Professional inside the Propaedeutical Strategy
in Engineering.
This paper displays the application of our model FESSJ-PROP© (Institutional
Initiative of a Model for Higher Education in cycles propaedeutic) to this effect in the
case of the industrial engineering. Recently the MEN (Ministry of National Education,
Colombia) has recognized our model as a case of success included in the Bank of
Significant Experiences in higher education in Colombia.

2. Rationale: Knowledge as a Model Constructor

The system model of higher education for propaedeutical cycles has been called
FESSJ-PROP© is a complex curricular architecture for analysis and implementation
in all institutions of higher education. The architecture is built the COHERENT
CURRICULUM and cohesion of the three propaedeutic cycles, TECHNICAL
PROFESSIONAL, TECHNOLOGY and ENGINEERING. The model is based on
three dialogic components: the structural component or curricular coherence matrix
sub-model, the knowledge management system for flexibility and the intelligent and
preliminary component of STUDENT and LECTURER PRODUCTIVITY.
The testing and validation of the model, initially supported the rational use of
mathematical tools and computer and then in the degree of approximation (quality of
data) of the measurement system, the same rationale for the theoretical frameworks of
study, contrasting with the actual implementation of curricular coherence matrix
during the visit of assurance of the quality requirements of academic peers to
FESSANJOSE in Bogota (March and April 2009) in all tested programs. This study
revealed the possibility of the model and predictive power with the development of a
computer construct called iCOACH© (Intelligent knowledge-based systems for
individual student and lecturer productivity), working prototype, which is operating at
the level of experiential learning. (Experiential learning) iCOACH is a knowledge-
based intelligent system as a component that ensures the coupling propaedeutic cycles
of higher education but mainly as a tool for individual student productivity. This
realization led us finally the engineering design iCOACH and FESSJ-PROP with a
Professional Development.
The objectives include:

• To manage allowing morphological analysis skills curriculum in Higher


Education.
• To clean and eliminate inconsistencies and make feasible the optimization of
the curriculum-

38
• To improve the prospective scope of PEI-TICs.
• To quantify the production of the university in terms of knowledge
development in the student (culture of competence) per cycle propaedeutic.
• To quantify the contribution of each subject cognitive propaedeutic cycle.
• To re-model the expertise areas in each cycle and the Know-How.
• To prioritize and classify the areas of competence.
• To contribute to develop a curriculum free of errors and ambiguities.
• To build the input-output matrix as the basis of structural analysis and
optimization.
Among the purposes and scope of the linear model of consistency in curricular
knowledge are: The understanding de-complexified methodological strategy in cycles
propaedeutic and also the optimization of university resources.
The curricular coherence matrix is both an instrument of analysis as a linear
mathematical structure, enabling the justification of curriculum and making sense as a
whole organized and complex. Curricular coherence refers to the logical relations
between the cognitive parts of the architecture of an educational system
The internal coherence: is the strategic alignment between a study plan
(curriculum) with its objectives, justification, given the mission and vision and
properly articulated with PEI-ICT (Institutional Education and ICT Strategic Plans).
The external coherence refers to the alignment of the educational style of
FESSANJOSE to the professional profiles and intellectual capital which demand the
industry, the government, science, and technology in a global society. The model
based on educational processes according to the industrial curriculum study plan,
where an assignment (including classes, workshops, tutorials, laboratories etc.) is
associated to an expertise unit. The matrix method is of morphological type to obtain a
system contradictions free without the unwanted entropy. The coherence also implies
harmony, and articulation between teaching and apprenticeship, alignment, and
synchronization.
The system diagram of the model is expressed in the Figure 1

KNOWLEDGE SUPPLY
Competences DEMANDING

EXPERTISE CULTIVATED

KNOWLEDGE
MANAGEMENT

SUBJECT COGNITIVE CONTRIBUTION

Fig 1. Knowledge System of the Curriculun Coherence Matrix

The Coherence additionally implies:


• Characteristic: Holistic and integral view i.e. the entire complexity of the
curricular system transcends knowledge in all its conceptual administrative,
methodological, educational, normative dimensions.
• Academy management is coherent with the PEI-TICs when the difference

39
between the achieved in face to the wanted is null, curricular coherence.
• The PEI-TICs is the expression of the proper philosophical comprehension
of the educational task and it acts as definition of identity, exercising the university
autonomy, recognized by the Constitution and Law.

3 Matrix Hyperspace Generation for Analysis


We identified several matrices during the investigation. These were grouped into two
classes: the longitudinal and transverse matrix. Firstly regarding columns: the
longitudinal one in time of the study plan (academic semesters); secondly the cross
one grouped by curriculum subjects according to their applicability; additionally each
cell of each matrix can be expressed as fuzzy values. The groups are:
(1) Basic Fundamentals,
(2) Scientific and technical fundamentals,
(3) Professional Basic,
(4) Socio-humanistic and business,
(5) Professional components,
(6) Experimentation Scientific/Technical and
(7) Advanced Topics, and thirdly regarding the structure: the input/output for
optimization and structural analysis purposes.
3.1 Basic Coherence Matrix
In general this matrix A is of MxN for knowledge management, is of the fuzzy
type Buckley [13] where:
M rows represent the levels of the competence expertise of the curricular
organization.
N columns represent the assignment subjects (knowledge offering) as functional
and unitary areas educational processes involving classes, workshops, tutorials,
laboratories ,etc of knowledge of the plan.
Each coefficient (cell), is of the binary type, e.g can be ai,j = { yes, not}
It is Yes or 1, if exists direct implication between the expertise area and each
assignment of the cycle study plan. It is 0 otherwise: values fuzzy dashboard in the
basic matrix.
Applying the desfuzzification method and weighted by academic credit of each
subject, by the relation (1) we obtain:

a
i
i, j nj  d j        

Where nj is the corresponding subject academic credits, dj is the cognitive


contribution of the ja subject for each propedaeutic cycle (columns).
Similarly
a
j
i, j n j  bi        

Where bi is the ia production expressed as cultivated expertise for each


competence unit (rows). For each cycle see below the corresponding values obtained.

40
3.2 Fuzzy Matriz
On the other hand, each coefficient (cell) representing the cohesion and coherence of
each assignment with the competence, can have other qualitative values / fuzzy logics,
i.e.:
Ai,j = (null, middle, high) represented by colors in the matrix: [blank, red, blue],
as displayed in equation 3.
This type of Matrix can be of two classes: the longitudinal in time (i.e. by academic
semesters of the study plan and the transversal knowledge, where the curriculum
knowledge of the subject is grouped as mentioned above.
3.3 Input / Output Matrix
In this matrix each cell is expressed in equation 1 as a technical coefficient of the
input fraction by production unit.

d
a~i , j  j       
bi

Where each element ai,j is the ratio of cognitive inputs by unit of cultivated
competence production. With this matrix it can be performed the optimization
analysis, adding quality objectives, capacity restrictions as costs, academic objectives,
scholars population, lecturers, university resources and many others related.
The Coherence Matrix for the FESSANJOSE INDUSTRIAL ENGINEERING, the
first two propaedeutic cycles is shown in Figure 2. It should be noted for each row of
expertise establishing equivalence with the Latin America TUNING Competences,
published by the Policy MEN Document (yellow).

Fig 2. Industrial Engineering Coherence Matriz

Weight of Competence: The next column, in blue, possible to assign weights or


weighting of each unit of expertise to respond to the academic style of an institution,

41
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.

3.4 Quantitation of Curricular Knowledge Curriculum

Another chart shows the metric for how well the industrial courses and subjects within
each cycle propaedeutic features are integrated to provide specific expertise of the
skills deployed in the cross-coherence curricular matrix consistency: from the
quantified matrix can be obtain for each cycle the industry productions, namely in
terms of industrial expertise cultivated by the engineering educational process.

3.5 Industrial Engineering Skills by Cycles, Expertise and Know-How

In the diagram you can see how they develop skills throughout student academic life.
It is noted that development of basic skills is permanent Salthouse [1] or continous
backed by numerous studies in which skill or expertise has a behavior of someone
who continually learns, throughout his life: a Normal Distribution as shown in Figure
3
Weight of Competence: The next column, in blue, possible to assign weights or
weighting of each unit of expertise to respond to the academic style of an institution,
or due to the demands of the industries. In the case of FESSANJOSE, was left with
unit values.
With the above matrix, referred to in economics interindustry of the technical
coefficients, which initially was called in Wassily Leontief Matrix, it can be perform
the analysis of academic governability, finance sustainability, educational
competitiveness and optimize university institutions, with the addition of multiple
objective functions, capacity constraints, unit costs for academic credit, the target
student population, limited college resources and many other related. In several
previous works we did this analysis for the Colombian cases.

42
Fig 3. Skills Student Continuity

This may be associated with the occupational skills of the three cycles preliminary
in Industrial Engineering.
The industrial professional expertise requires the definition of specialized skills or
outstanding tasks i.e SUPERIOR PERFORMANCE or represented in a domain that
are described as KNOW HOW. The cognitive processes associated with learning
mechanisms are of more complex.
EXPERTISE approach involves the development of skills as a dynamic continuum
and is associated with learning processes throughout life that are affected by change
and social practices, industry behavior, science and technology. As a result, the
structure of competence is variable in itself, change usually associated with a
requirement of living space in which it is used.
The Industrial Engineering curriculum design based in propaedeutical cycles and
also in EXPERTISE have cognitive and structural features distinctive, the first of
which is an academic structure articulated, sequential, complementary and flexible,
whose cornerstone is the development of professional and occupational engineering
skills. This assumption allows defining:
The Feedback Sub-matrix corresponding to the cycle objective, which can be
quantified knowledge articulation processes subsequent courses to strengthen the
competencies implied.
The Feedforward Sub-matrix, to quantify the knowledge articulation of the
processes of the current cycle and feeding skills training for senior cycle (upper). The
Figure 4 these sub-matrices are displayed.

Fig 4 Feedback and Feedforward

There are many possibilities for analysis, to meet the socio-economics demands in
terms of such competences.
 Are they balanced?

43
 Is there any bias?
 What if a new competence is included due to the industry demand?
 What is the effect of restructuring a subject or a course or a subset of them in
missionary terms?
 How is the University answer in front to new demands given by additional
regulations?
 How is the finance sustainability given the raise in education costs

4 Inputs Skills / Expertise in In dustrial Engineering


For each of the cycles shows the quantification of the lecturing services, extension,
research, mentoring, support, laboratories, experiment, practice and other which is
acquired or is receptioned by every competence in the cognitive process of each
student.
In these plots, the row number refers to the number of credits each course feeding
the competence offered in this cycle: Professional Technician in Sustainable
Production Process.
Each value allows us to visualize the relative importance of a subject. If zero or very
low one, tells us that is isolated or de-contextualized and deserves a critical review.
The model of the first cycle of the FESSANJOSE provides five semesters, has been
successful in the national context, obtaining several years in the top ECAES
(professional examinations of official national wide). The technology cycle visualize
the design possibilities and advantages of this cycle. Applying the formulas (1) and (2)
we obtain the corresponding values for competences cultivated for each propaedeutic
cycle and the valued added of the courses. See Figures 5, 6, 7 and 8

CULTIVATED EXPERTISE 83 43
1. T o describe the stages of the life cycle of sustainable production processes 78 88
from the study, analysis and design, product, to delivery to the customer with
Professional Technician in Sustainable Production Process

satisfaction of the requirements and business needs and market.


2.Foundations for developing an awareness that allows problematize and
96 114
analyze the difficulties of production processes and thus enable the
implementation of viable solutions through knowledge of the art and science, to
the production of goods and services aimed at sustainable development.
3. T o have social and communication skills through the development of 90 112
intelligence, enabling it to interact with every person in the technical
environment, cultural and labor.
4. Possessing a broad vision with respect to the variables that must be taken
86 96
into account to organize operations and implementing processes
MAINT ENANCE PLANS. Likewise understand the operating environment and
productive, providing you with real knowledge and applicable in the Colombian
industry,
5. T o use giving it strength
knowledge in the
of basic labor market.
sciences and engineering elements necessary for
80 92
understanding a problem situation at work: T o proposes solutions to unforeseen
events and needs identified.

6. Develop entrepreneurship skills, business development of production of 100 92


goods and services and understanding of the markets for industrial products.

7. T o describe the methodologies QUALIT Y modern industrial processes and 80 90


production, giving satisfaction to the needs of the company, with the
preservation of the environment and market needs.

8. T o describe the methods of modern sustainable development processes 78 88


towards the optimization of resources and distribution in plant giving
satisfaction to the needs of the company and the market.

9. Understanding how to do research and other cognitive elements to internalize,


96 118
absorb and generate knowledge.

44
Fig 5. Industrial Engineering Professional Technician Expertise Values

Fig 6 Industrial Engineering Professional Technicians Subjects Contribution

Technology in MANAGEMENT of LOGISTICS of PRODUCTION

Sixth Semester Seventh Semester Eighth Semester


ADMON TALENTO HUMANO
CONTROL DE INVENTARIOS

CONTROL DE LA CALIDAD
PROGRAMACION LINEAL

Economía Para Ingenieros

GESTION DE LA CALIDAD

GESTION DE MERCADOS
INGENIERIA ECONOMICA

EXPERTISE CULTIVADO
GESTION PRODUCCION
SALUD OCUPACIONAL

LOGISTICA INDUSTRIAL

EVAL. PROY INDUSTR Y


GESTION AMBIENTAL
PRODUCCION LIMPIA

INVESTIGACION DE

PRAC. EMPRESA
Diseño de Planta

Proyecto Grado
OPERACIONES

ECODISEÑO

ELECTIVA III
ELECTIVA II

LOGISTICA

3 3 2 2 2 3 2 2 3 2 2 2 2 2 2 2 2 2 2 2 2 43

78 78 40 44 40 45 24 44 87 46 46 40 44 36 56 42 32 42 6 44 56

Fig 7 Industrial Engineering Technology Subject Contribution


TP T

CULTIVATED EXPERTISE 83 43
1. Develop thinking to deal with the complexity of the current company,
63 121
encourages awareness, sense of ethics, analysis of organizational
problems, implementing solutions to their profession. Industrial diagnose
and propose solutions to identified needs.

2. T o examine and reflect on the most important areas of activities of 51 119


human talent to identify techniques of recruitment, selection, staff costs,
incentives, motivation and human behavior within a plant.
Technology in MANAGEMENT of LOGISTICS of PRODUCTION

3. T o design and build production operations associated with efficient 55 131


supply chain management, storage, and good relationships with suppliers
of raw materials to meet customer expectations.

4. T o understand how research and other elements to internalize, 53 119


appropriate, and generate knowledge, with innovation and creativity.

5. T o identify and understand the automatic industrial production, electrical 53 119


machinery and electronic models to improve process efficiency by
avoiding downtime due to a bad alignment of electrical installations.

6. T o develop strategies to improve the management of the company, using 53 119


financial tools, which applied to create value in organizations by making
them more competitive in a global environment.

7. Analyze and design from his training in logistics management, 53 119


strategies to optimize the flow of resources in the supply chain. Its
management is included.
8. Develop and manage strategies for planning and logistical control in the
53 123
company's functional areas including the creation and optimization of
logistic systems with strategic perspective. T he organizational design and
plant layout is included-

9. Appraisal, Analysis and design of quality systems in companies, 54 122


including quality assurance and audit

10. T o develop strategies and implement technologies for the development 44 110
of industrial processes as efficiently and preserving the environment.

45
Fig 8 Technology Expertise Values

5 CONCLUSIONS
 This study has indicated the Leontief Model resituation towards a social
sector as Education, from the economy to the academic world of knowledge
of an institution of higher education in Colombia.
 The Coherence Matrix is a kind of macroscopic of great quantity of
curriculum information and competences, allowing the corresponding
knowledge management. We have shown an implementation for Industrial
Engineering at the FESSANJOSE.
 This initiative sets up a way toward the architectural of information of IES
(Higher Education Institution) on account of Colombia Education Law 1188
which is explicit about the curriculum complexity.
 The model seeks to be an institutional learning instrument in the community
and handles knowledge, thereby from these experiences is expected that IES
go beyond of the simple management of the ICTs.
 It is seen that is entirely feasible an ethos for research and knowledge in the
technical and technology institutions. Likewise it is also seen that this policy
based on propaedeutic cycles far from being an utopia really enables the
democratic way to knowledge as proclaimed in the World Summits on
Information Society: Geneva and Tunisia.

6 FUTURE WORK
 As part of the Convocation of the European Community, FESSANJOSE is
being presented and the mentioned convocation requires the formation of
partnerships and strategic alliances to produce knowledge and the product
marketing. In this sense we have initiated discussions with the Pontifical
University of Salamanca in Spain with Professor LUIS JOYANES
AGUILAR.
 To develop the Professional Software with international standards to
strengthen the matrix analysis of curricular coherence, so widespread and
friendly management, involves Study Plans Management for each cycle,
Competency Management, Content Management, Multimedia and Digital
Reality Virtual and the extended.
 Develop the maturity model for the formation of Lecturer-Authors for
Content Generation and Verification of knowledge for Student Learning.
 To develop the corresponding Leontief Dynamic Matrix for curricular
coherence analysis including Academic Governability and economic
sustainability.
ACKNOWLEDGEMENTS
To ―FUNDACION DE EDUCACIÓN SUPERIOR DE SAN JOSE‖, to Lecturers and Officers,
especially to SAN JOSE EIDOS RESEARCH TEAM including Carlos Pareja, Alexis Mena,
Giovanni Rozo, Leyini Parra and Miguel R. Ortegón Gutierrez, to all of them a debt of
gratitude.

46
References
1. Salthouse Timothy A.: EXPERTISE AS THE CIRCUMVENTION OF HUMAN
PROCESSING LIMITATIONS; in Toward a General Theory of Expertise Prospects and
Limits. Edited by K. Anders Ericsson and Jacqui Smith – Published 1991-
2. Ministerio de Educación Nacional Banco de Experiencias Significativas: FUNDACION
DE EDUCACION SUPERIOR SAN JOSE: Modelo Analitico de Coherencia Curricular
de los Ciclos Propedéuticos con Articulación desde la Educación Básica a la Educación
Superior. www.colombiaaprende.edu.co.
3. Perez Gama Alfonso, Guillermo Hoyos Gómez, Leyini Parra Espitia, Miguel R. Ortegón
G, Giovanni Rozo Pardo, Byron Alfonso Perez Gutiérrez: EDUCATION SOFTWARE
ARCHITECTURE: FACING STUDENT DESERTION IN COLOMBIA HIGHER
EDUCATION WITH AN INTELLIGENT KNOWLEDGE BASED COACHING
SYSTEM: in ANDESCON 2010 IEEE; Bogotá Colombia
4. [4] Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena: ANALYTICAL
MODEL OF PROPAEDEUTIC CYCLES FOR HIGHER EDUCATION IN
COLOMBIA; 40 Reunión ISTEC (October 27/28- 2009) Ibero-American Conference on
Trends in Engineering Education and Collaboration, University of New Mexico
Albuquerque, NM - USA. Memorias ISBN 978-0-9842912-1-2-
6. Perez Gama Alfonso, Guillermo Hoyos Gomez, Ing. Mena Mena; Byron Alfonso Pérez
Gutiérrez.; A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES FOR HIGHER EDUCATION IN COLOMBIA; The IEEE /ACM
INTERNATIONAL CONFERENCE ON ENGINEERING EDUCATION -; ICEED
2009, Kuala Lumpur, Malaysia. IEEE Catalog Number: CFP0968H ISBN: 978-1-4244-
4844-9 Library of Congress: 2009905648.
7. Perez Gama Alfonso, Guillermo Hoyos Gomez, Alexis Mena Mena, Byron Alfonso Pérez
Gutiérrez: A KNOWLEDGE BASED ANALYTICAL MODEL OF PROPAEDEUTIC
CYCLES: LINKING MEDIA EDUCATION TO HIGHER EDUCATION IN
COLOMBIA; IEEE EDUCON 2010 Conferencia Mundial de Educación Madrid España
Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG
CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
10. Ministerio de Educacion Nacional: MARCO DE REFERENCIA PARA POLÍTICA
PÚBLICA SOBRE EDUCACIÓN SUPERIOR POR CICLOS Y POR
COMPETENCIAS MEN: www.mineducacion.gov.co.
11. [11] Joosung J Lee et al: Business and Management Competences of Engineers; IEEE
EDUCON 2010 Conferencia Mundial de Educación Madrid España Abril 2010.
Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE CATALOG CFP10 EDU-
CDR ISBN 978-1-4244-6569-9.
12. Hoffman Michael HW et al: Knowledge, Skills and Competences: Descriptors for
Engineering Education; IEEE EDUCON 2010 Conferencia Mundial de Educación-
Madrid España Abril 2010. Conference Book ISBN 978-84-96737-70-9. CD ROM IEEE
CATALOG CFP10 EDU-CDR ISBN 978-1-4244-6569-9.
13. Buckley J.J. (1992). Solving fuzzy equations in economics and finance Fuzzy Sets and
Systems 48. North-Holland , pp. 289-296 15th International Conference on Input Output
Techniques. Renmin University of China Beijing 2005.

47
La inteligencia emocional y la neurociencia elementos
fundamentales de la construcción integral del ciudadano.

Alvaro Sanmiguel Mosquera1, Sonia Sanmiguel Mosquera2


1
Dpto. de Ciencias Basicas, Universidad Libre de Colombia,
Cra 57 23 a 70 Bogotá, Colombia
2
Facultad de Ingenieria Industrial, Universidad Libre de Colombia
, Cra 57 23 a 70 Bogotá, Colombia
1
alsalmo@yahoo.es, 2 sonisanm @yahoo.com

Resumen. Las emociones están involucradas en la cotidianidad, en una


relación permanente con el entorno familiar, escolar, laboral y en todo
tipo de interrelaciones que penetran a nuestra vida y la modifican en la
parte afectiva y emocional. Todo, este proceso nos da una integridad
sinérgica, en donde el cerebro se va adaptando a cada nueva
experiencia. Este papper ofrece abiertamente una mejor forma de
explorar en como la neurociencia influye en la construcción del
ciudadano.

Palabras Clave: Aptitudes Personales, Autoconocimiento,


Autoregulación, Motivación, Aptitudes Sociales, Empatía, Habilidades
Sociales.

Abstract. All we know that emotions are involved in our daily life
experience, mainly in our family, at school, at work, and all kind of
relationships that gets in our lives and modify the affective part, all this
process give us a total integrity. Forming and educating citizens all of it
even handed, without mispricing aspects that also should be form as
academic, emotional, psychological, ecological and the whole
discernment-comprehensive mind development. This paper openly
offers a better way to learn how to construct yourselves by giving
concepts and exploring brain behavior.

Keywords: Personal skills, self-knowledge, self-regulation, motivation,


Aptitude skills, empathy, social skills

49
3. Introducción

La construcción de una sociedad con mayor empatía le permite al ser humano un


conocimiento de su yo y a la vez entender los deseos, las angustias y los sufrimientos
de sus semejantes, permitiendo un trato con consideración respeto y dignidad
De las prestaciones universales como la justicia, la seguridad ciudadana, la salud, la
recreación, la movilidad, el cuidado del adulto mayor es hoy el sistema educativo el
que atraviesa por una de las peores crisis sin responder a una sociedad basada en el
conocimiento.
La educación siempre ha puesto el énfasis en lo cognitivo, es decir se ha limitado
solamente a la transmisión del conocimiento dejando a un lado la educación de las
emociones, las cuales desempeñan un papel fundamental en lo que se puede
denominar una educación integral como son los procesos cognitivos y el desarrollo de
la personalidad.
Las emociones participan en todas las actividades de nuestra vida, en la familia,
en la escuela, en el trabajo, en nuestras relaciones sociales introduciendo la parte
afectiva en nuestra vida y dándonos una total integridad encaminada a la educación de
ciudadanos ecuánimes, compasivos, sabios considerados, con descernimiento,
dialogantes e dialógicos es decir formándonos académicamente emocionalmente
socialmente y ecológicamente.
La empatía y la gestión de nuestras emociones son fundamentales en el mundo
del trabajo.
Una educación integral protege al niño, al joven y al adulto de la intolerancia, de
las drogas y a la vez mejora su rendimiento académico.

4. Sociedad y Complejidad.

El sistema educativo actual construye el futuro con base en el pasado bajo los
principios Newtonianos y Cartesianos, nuestro pensamiento está determinado por el
determinismo el simplismo desconociendo el azar y la complejidad de un mundo que
se va construyendo segundo a segundo
El sistema educativo es el llamado a liderar las grandes transformaciones y la
adaptación a los cambios generados por los procesos evolutivos y no quedarse
encorsetado en el siglo quince, estas transformaciones radicales deben comenzar por
una reforma de la profesión docente. Profesión que debe ser multidisciplinaria y de
una alta complejidad más que cualquier otra, la misión del sistema educativo debe
proyectar la educación de las emociones, la inteligencia emocional, la inteligencia
social y la inteligencia ecológica.
Estas inteligencias se conocían desde hace mucho tiempo pero lo nuevo es que hoy
sabemos que se pueden enseñar, una mente que sepa gestionar las emociones es una
mente más tranquila, más atenta, más creativa e innovadora y a la vez más saludable,
como también generando una vida más feliz o con el menor número de perturbaciones
ya que la felicidad es el motor de la evolución y uno de los fines de todos los seres
humanos y porque no decirlo de los animales.
Pero la sociedad en que hoy vivimos más interdependientes somete a nuestras

50
mentes a un bombardeo permanente de información generándonos más dudas,
mayores grados de indeterminismos y a la vez mayores angustias.

4.1 Stress y Educación

El stress ocasionado por esta situación inyecta a nuestro sistema nervioso altas dosis
de cortisol y a la vez volviendo más activas las emociones negativas como el miedo, la
angustia y actitudes egocéntricas, la familia, las comunidades también reciben estos
impactos los cuales contribuyen a su descomposición incrementando la violencia, la
inseguridad, y una sociedad cada vez más infeliz.
Una educación emocional nos va a permitir educar las emociones positivas,
potenciarlas, apaciguar nuestras mentes y espíritus y gestionar las emociones
negativas de tal forma que no afecte nuestra salud mental y física. [1]
Una mente educada emocionalmente es mucho más receptiva a los procesos de
aprendizaje y a la construcción de conocimiento.

2.2 Aprendizaje Integral

Se debe entender como aprendizaje la construcción de nuevo conocimiento, un ser


humano puede aprender pero para generar nuevo conocimiento deben estar presentes
las emociones, porque son estas las que le dan una significación al conocimiento
basado en la empatía. [2]
Hoy para acceder a un trabajo permanecer en él o ser despedido, el énfasis no se da
en la preparación experiencia o sagacidad, hoy se tiene en cuenta como nos
comportamos con nosotros mismos o como nos relacionamos con los demás pues
estas son condiciones que pueden garantizar en gran medida el éxito o el fracaso en la
vida social. Estas son las características fundamentales que van a determinar si somos
actos para desempeñar un empleo o trabajo, las cuales están mediadas por la
iniciativa, la empatía, la adaptabilidad y la persuasión, todas ellas actitudes humanas
que tienden a la excelencia laboral y al liderazgo. Son estos los parámetros con los
cuales las empresas están evaluando a sus trabajadores.
El desarrollo y cultivo de estas actitudes suelen ser hoy en día esenciales para
lograr el éxito en nuestra profesión y nuestra felicidad como personas.
Una organización como la escuela, la universidad, la empresa o comunidad que
fomente estas actitudes será más eficiente, productiva, empática y feliz lográndose
altos niveles de inteligencia producto de la empatía que alimenta un excelente clima
laboral y se trabajamos por cuenta propia también estamos llamados a potenciar estas
actitudes que van a contribuir a ser más exitosos y a la vez ser más saludables.

4.2 Integración sinergica laboral

Si la empresa en que usted trabaja es una gran organización, quizá en este mismo
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que lo examine a través de esta óptica.
Si la empresa en que usted trabaja es una gran organización, quizá en este mismo

51
momento lo estén evaluando en función de esas actitudes aunque usted no lo sepa. Si
va a solicitar un empleo es probable que se le examine a través de esta óptica.

No se trata de una moda pasajera de la panacea gerencial del momento. Los datos que
inducen a tomarla en serio se basan en estudios hechos sobre millares de personas que
trabajan en actividades de todo tipo. La investigación destila con insucitada precisión
que cualidades identifican a un sol en el trabajo. Y demuestran que actitudes humanas
constituyen la mayor parte de los ingredientes que llevan a la excelencia laboral y muy
especialmente al liderazgo.
Si usted es miembro de gestión, es fundamental que su organización fomente esas
actitudes que permiten un excelente clima laboral para una mayor eficiencia y
productividad. Maximizando la inteligencia del grupo la integración sinérgica de los
mejores talentos de cada uno y si trabaja por cuenta propia estas actitudes le
permitirán lograr un desempeño óptimo, actitudes que desafortunadamente no se han
enseñado nunca en la escuela o en la universidad. Así, nuestro éxito va a depender en
mayor o menor medida de nuestro nivel de dominio de estas actitudes. Por varias
décadas se habla de las personalidades, del carácter de actitudes positivas. Hoy el
talento humano se conoce por el IE ―Inteligencia Emocional‖ que es una contribución
importante para la gestión efectiva y por la aplicabilidad de normatividad para ala
optimización de resultados. [3]
Con el estudio de la neurociencia tenemos un conocimiento más exacto de este
talento humano, que permite generar y fomentar habilidades desde el carácter, la
personalidad, las habilidades suaves y actitudes Estas actitudes generan un concepto
nuevo del empleo el cual ha sido remplazado por el de actitudes portátiles condición
esencial para hacernos buenos candidatos para obtener y conservar un empleo. [4]
Obedece a procesos evolutivos del ser humano y al desarrollo científico de la
neurociencia las investigaciones llevadas a cabo, asi lo confirma mostrándonos cuales
son las actitudes emocionales que conducen a la excelencia y por ende al liderazgo
laboral y social.
Todo ser humano hoy se le debe enseñar a aprender y cultivar dichas actitudes, las
cuales le son esenciales para lograr el éxito y la felicidad.

4.3 2.4 Salud y Mente

Es importante señalar que la salud y la educación están íntimamente relacionadas, ya


que una mente estable emocionalmente genera un organismo equilibrado, más
receptivo, más compasivo, ecuánime y con un mayor grado de discernimiento.
Hoy tenemos un conocimiento más exacto de estas actitudes con base en los
desarrollos científicos de la neurociencia, a estas actitudes se les conoce como la
inteligencia emocional y su carencia ha acarreado altos costos en la vida social,
comercial, afectiva y laboral.
La inteligencia emocional se puede considerar como el desarrollo dialógico de las
emociones frente al cociente intelectual que fue considerado por muchos años como el
determinante y la garantía de éxito en nuestra vida. El cual ocupa hoy un segundo

52
lugar frente a la inteligencia emocional y ha dejado de ser el determinante que
fundamente el éxito en nuestra vida social y laboral.

4.4 Empatía

La inteligencia emocional se fundamenta en el desarrollo de la empatía entendiendo la


empatía como el conocimiento de un mismo y a la vez el conocimiento de nuestros
semejantes, tanto en su parte positiva como en sus aspectos negativos pero si caer en
algunos errores como:

 La inteligencia emocional no significa ser simpático en algunos momentos es


necesario enfrentar a alguien para serle ver su error o su molesta actitud, así
sea una causa de inconformidad.
 La inteligencia emocional no consiste en dar rienda suelta a todos los
sentimientos, más bien por el contrario en un manejo ecuánime de
expresarlos en forma efectiva y compasiva que permita a las personas que
trabajan juntas unificarse hacia una meta común.
 Es importante aclarar que no existe diferencia de género frente a la
inteligencia emocional, cada uno tiene un perfil personal de puntos fuertes y
débiles en estas actitudes, algunos pueden ser sumamente empáticos pero
carecer de alguna capacidad necesaria para manejar sus propios nervios;
otros pueden captar el cambio más sutil en su propio yo y no obstante ser
socialmente ineptos.

En las investigaciones efectuadas sobre millares de personas de ambos sexos se


descubrió que las mujeres tienen mayor conciencia de sus emociones y demuestran
más empatía, y por ende son más aptas para las relaciones interpersonales, mientras
que los hombres son más optimistas y seguros adaptándose con mayor facilidad y
teniendo un mejor manejo del stress. [5]
Pero son mucho más las similitudes que las diferencias encontrándose algunos
hombres más simpáticos como las más sensibles de las mujeres, mientras hay mujeres
tan capaces de soportar el stress como el hombre más flexible, es decir que
estadísticamente en función de la inteligencia emocional total no se encuentra
diferencia entre los sexos. [6]
La inteligencia emocional no está determinada por la lotería genética, tampoco se
desarrolla en la infancia a diferencia del consiente intelectual que después de la
adolescencia cambia muy poco.
La inteligencia emocional parece ser aprendida en gran parte en la infancia y
continúa desarrollándose en la medida que avanza por la vida aprendiendo de nuestras
experiencias, nuestras actitudes y en que se encuentra en permanente cambio. Algunos
estudios demuestran que la inteligencia emocional mejora a la gente cada vez más en
sus aptitudes en la medida que adquieren un mejor manejo para sus destrezas y sus
emociones e impulsos, afinando y motivando sus habilidades empáticas y sociales.
Este crecimiento de la inteligencia emocional se denomina como madurez

53
4.5 Actitudes

De acuerdo Goleman, Daniel en su libro de Inteligencia emocional, cada vez son más
los empleadores que se quejan por la falta de habilidades sociales de los nuevos
contratados, son demasiado los jóvenes que no pueden aceptar una crítica cuando se
les hace un comentario constructivo sobre lo que están haciendo, se ponen a la
defensiva o se muestran hostiles reaccionando como si fuera un ataque personal. Este
problema no solamente lo presentan los jóvenes sino también algunos ejecutivos
curtidos, muchos de ellos formados en la década de los 60 y 70 en donde la manera de
progresar estaba determinada por una buena escuela de excelente preparación
cognitiva pero de muy baja empatía, pero de excelentes actitudes técnicas especificas
las cuales son ahora menos importantes que las capacidades subyacentes de aprender
en el puesto tales como:
 Saber escuchar y comunicarse oralmente.
 Adaptabilidad y respuesta creativa ante los obstáculos y reveses.
 Dominio personal, confianza en uno mismo, motivación para trabajar en pos
de un objetivo, deseo de desarrollar la carrera y enorgullecerse de lo
alcanzado.
 Efectividad grupal e interpersonal, espíritu de colaboración y de equipo,
habilidad para negociar desacuerdos.
 Efectividad en la organización, deseo de contribuir, potencial para el
liderazgo.
 Eficiencia en la lectura, escritura y matemática.

5. Pericia técnica y experencial

La inteligencia practica combinada con la pericia técnica y experencial habían sido


consideradas como determinantes de la calidad de nuestro desempeño en la vida
cotidiana.
La pericia es una actitud básica, hay que tenerla para obtener le empleo y ejecutar
el trabajo, pero es la manera de hacerlo (las otras aptitudes que se aportan a la pericia)
lo que determina el desempeño es la capacidad de traducir la pericia en algo
comerciable, en algo destacable, sino de poco nos vale.
Los supervisores de trabajadores técnicos o profesionales necesitan cierto grado
de pericia en su especialidad; sin un conocimiento razonable de lo que la gente está
haciendo sería casi imposible desempañarse en ese puesto, pero esa pericia es un
requisito esencial, las habilidades que distinguen a los supervisores sobresalientes en
los campos técnicos no son las técnicas, antes bien se relacionan con el manejo de la
gente, de modo que hasta cierto punto la experiencia y la pericia tienen su importancia
como el cociente intelectual, pero cuando se trata de la excelencia es la inteligencia
emocional la determinante.
Las facultades de la inteligencia emocional son sinérgicas con las cognitivas, los
trabajadores excelentes poseen las dos, cuanto más complejo es el trabajo más
importante es la inteligencia emocional, aunque solo sea porque la deficiencia de estas
facultades puedan dificultar la aplicación de la pericia técnica y el intelecto que se

54
tenga. Siendo estas las actitudes que se necesitan para triunfar pero también
necesitamos aptitudes emocionales para aprovechar a fondo el talento, sino obtenemos
todo el potencial de la gente es por ineptitud emocional. [7]

5.1 Academia y Desempeño

Cada vez son más los empleadores que de los rasgos deseados por las empresas
solamente el último es académico los otros tienen que ver con la inteligencia
emocional, siendo la comunicación, las relaciones interpersonales y la iniciativa las
más deseadas por los empresarios como también la empatía, la posibilidad de ver las
cosas en perspectiva, la afinidad y la cooperación.
Los exámenes de ingreso a las universidades ponen el énfasis en el cociente
intelectual, es asombroso el poco peso que este tiene en el éxito laboral y en la vida.
Cuando las puntuaciones de las pruebas de inteligencia de una persona se comparan
con el desempeño de una persona en su carrera el cálculo más generoso atribuye al
cociente intelectual una incidencia del 25%, no obstante un análisis cuidadoso permite
pensar que sería más adecuado reducir esta cifra a no más de un 10% o 4%, esto
significa que el consiente intelectual por si solo deja sin explicación en el mejor de los
casos, un 75% del éxito laboral en el peor, un 96% ; en otras palabras no permite
determinar quién va a triunfar y quien fracasara. [8]
Muchas veces estos exámenes de ingreso tienen una correlación de 0 o negativa
con el posterior éxito profesional, paradójicamente, el consiente intelectual tiene
menos efectividad para pronosticar el éxito para aquellas personas con inteligencia
suficiente para manejarse en los campos de mayor inteligencia cognitiva, el valor de la
inteligencia emocional como instrumento del éxito se hace más poderoso cuando más
alto son las barreras de inteligencia para ingresar.
En aquellas carreras como medicina e ingenierías en donde la selección profesional
se concentra exclusivamente en aptitudes intelectuales la inteligencia emocional tiene
más peso que el cociente intelectual en cuanto a determinar quien surgirá como
líder.[9]

5.2 Aptitudes

La gran división en aptitudes reside entre la mente y el corazón o más técnicamente


entre la cognición y la emoción, algunas aptitudes son puramente cognitivas tales
como el razonamiento analítico o la pericia técnica. .[10]
Otras combinan el pensamiento y el sentimiento; son las que denominamos
aptitudes emocionales, todas las aptitudes emocionales involucran algún grado de
habilidades en el renio del sentimiento, junto con los elementos cognitivos que estén
en juego. Estos presentan un agudo contraste con las aptitudes puramente cognitivas,
que una computadora debidamente programada pueda ejecutar también como una
persona ejemplo una voz digitalizada puede leer las noticias del día pero su tono
embarado de su voz computarizada jamás podrá lograr el afecto y el sentimiento que
transmite la emoción de un ser humano, algo que ni la cognición humana por si sola ni

55
la computadora puede hacer al menos por ahora, pues nunca podrá darle a sus
palabras una potencia emocional pasión ni la posibilidad de interesar al televidente y
mucho menos influir sobre ellos, pues todo va ha depender de su capacidad emocional
para tener realmente un impacto significativo, pues por más fuerte poderosos y
convincente que sea el argumento no solamente le habla a la mente sino también al
corazón. Esta ajustada orquestación de pensamiento y sentimiento es posible gracias a
lo que equivale a una supercarretera dentro del cerebro, un manojo de neuronas que
conecta los lóbulos prefrontales detrás de la mente al centro de decisiones ejecutivas
del cerebro con una zona profunda del cerebro que alberga nuestras emociones.
Cualquier daño causado a estas conexiones cruciales torna emocionalmente inepta a
una persona, aunque sus facultades puramente intelectuales sigan intactas en otras
palabras esa persona aun obtendría una buena puntuación en los test de coeficiente
intelectual y otras medicines de capacidad cognitiva. Pero en el trabajo en la vida
social y emocional fracasaría en las artes emocionales que tornan tan efectivas a las
personas de éxito.
Por lo tanto la división ante las aptitudes puramente cognitivas y las que dependen
también de la inteligencia emocional reflejan una división paralela en el cerebro
humano.
Una actitud emocional es una capacitad aprendida basada en la inteligencia
emocional que originan un desempeño emocional sobresaliente que tiende a lograr
que otros respondan de manera deseada. En el fondo de esta aptitud hay dos
facultades la empatía que incluye la captación de los sentimientos ajenos y la
habilidad social que permiten manejar con habilidad esos sentimientos.
La inteligencia emocional determina nuestro potencial para aprender las
habilidades pre cognitivas que se basan en sus cinco elementos conocimiento de uno
mismo, motivación, autorregulación, empatía y destrezas para las relaciones. La
aptitud emocional muestra que porción de ese potencial hemos traducido a las
facultades que aplicamos a nuestro conocimiento y al trabajo por ejemplo ser hábiles
para servir a los clientes es una aptitud emocional basada en la empatía de igual modo
la confiabilidad es una aptitud que se basa en la autorregulación o en la capacitada de
manejar bien los impulsos y las emociones. Tanto el servicio a los clientes como la
confiabilidad son aptitudes por las que una persona puede destacarse en el trabajo.
Una elevada inteligencia emocional por si sola no garantiza que alguien haya
aprendido las aptitudes emocionales que interesan para el trabajo o su educación;
significa solo que tiene un excelente potencial para adquirirlas. Una persona puedes
ser sumamente empática, per ejemplo pero no haber adquirido las habilidades basadas
en la empatía que se traducen en la posibilidad de brindar un excelente servicio al
cliente y un alto grado de afectividad al conocimiento, ser un docente de primer nivel
o lograr que un grupo caracterizado por la diversidad se trabaje en equipo. Sería como
si alguien tuviera un registro perfecto y tomara lecciones de canto para convertirse en
un magnifico cantante de ópera. Sin las lesiones habría carrera en la música a pesar de
su potencial. [11]

56
5.3 Aptitud Emocional

Las aptitudes emocionales se arraciman en grupos cada uno basado en una facultad de
inteligencia emocional subyacente, esas facultades de inteligencia emocional
subyacente son vitales para que alguien adquiera efectivamente las aptitudes
necesarias para triunfar en el lugar de trabajo o en su vida académica. [12]
Si es deficiente en habilidades sociales será inepto en cuanto a persuadir e inspirar
a otros, dirigir equipos o catalizar el cambio. Si tiene poco conocimiento de si mismo
ignorara sus propias debilidades y carecerá de seguridad que brinda el tener
conciencia de sus propias fuerzas.
No será posible que alguien posea toda una serie de aptitudes emocionales pero
para tener un desempeño destacado solo se requiere que seamos duchos en un número
dado de estas aptitudes (al menos seis) y que esos puntos fuertes se extiendan a las
otras zonas de la inteligencia emocional.
Es decir hay muchos caminos que nos pueden llevar a la excelencia, estas
facultades de la inteligencia emocional son:
 Independiente, cada una efectúa una contribución inigualable al desempeño
laboral o académico.
 Interdependiente, cada una requiere hasta cierto punto de otra determinada
con muchas interacciones fuertes.
 Jerarquía plana, una facultad de la inteligencia emocional sirve de base a otra
e interactúan mutuamente, el autoconocimiento es crucial para la
autorregulación y la empatía; la autorregulación y el autoconocimiento
contribuyen a la motivación. Estas facultades operan en las habilidades
sociales.
 Necesarias, pero no suficientes poseer una facultad de inteligencia emocional
subyacente no garantiza que alguien escriba las actitudes asociadas tales
como la colaboración o el liderazgo. Factores tales como el clima de una
organización o el interés de una persona por su trabajo determinaran también
que la actitud se manifiesto o no.
 Genérica, la lista general es aplicable hasta cierto punto, a todos los trabajos,
sin embargo, en trabajos diferentes se requieren aptitudes diferentes.

Las firmas de alta tecnología siempre mantienen a la mano a estos brillantes


resolvedores de problemas, para que rescaten a los proyectos que corren peligro de
descarrilarsen, son tan valiosos que en las listas de informe anual figuran junto a los
funcionarios de las corporaciones y lo que los diferencia no es su potencial cerebral,
puesto que en estas compañías casi todos son muy inteligentes, sino su aptitud
emocional, su capacidad de escuchar, de influir, de colaborar y motivar a la gente para
que trabajen en un buen acuerdo.
Algunas personas pudieron haber llegado a la cima de una corporación pese a su
falencia de inteligencia emocional pero en la medida de que las relaciones y el trabajo
se tornan más complejas y colaborativo las compañías que trabajan bajo la
inteligencia emocional tienen mejores ventajas competitivas, en el nuevo mundo de
relaciones sociales, personales y laborales en donde se ha venido acentuando la

57
flexibilidad los equipos y una fuerte orientación hacia el servicio y el cliente, esta
crucial serie de aptitudes emocionales se van tornando cada vez más esenciales para la
excelencia y relaciones sociales en este mundo. [13]

6. Neuronas espejo

Las neuronas espejo son los órganos fundamentales en nuestra empatía y el


aprendizaje. Desde como aprendemos a hablar a conducir, desde cómo se nos
revuelve el interior cuando vemos el sufrimiento de otra persona siempre están detrás
las neuronas espejo. Este ha sido uno de los grandes descubrimiento de las últimas dos
décadas. Lo que nos permitiría llegar a considerarlas como la red invisible que une a
todos los seres humanos y sus precesores permitiendo la conexión entre las mentes y
la trasmisión de conocimiento y cultura mediante el aprendizaje.
Las neuronas espejo son el fundamento de la empatía, son las que nos permiten
intuir lo que esta cavilando el cerebro de quien tenemos al frente, situación que nos da
una ventaja comparativa, nos demoramos cincuenta mil años para saber porque
mecanismo podemos intuir lo que otro está pensando, lo que otro va hacer y lo que
otro está sintiendo, y esto gracias a las neuronas espejos.
Cuando observamos a otra persona se nos activa las neuronas espejo que tiene
como fundamento intuir lo que va hacer, lo que está sintiendo, o lo que posiblemente
está pensando, se sabía que el cerebro se divide en varios compartimentos unos para el
control motor otro para la visión, otro para escuchar y otro para pensar.
Pero hoy sabernos que cuando alguien agarra un objeto se activa en su cerebro y en el
nuestro una neurona semejante y a esto se debe el nombre de neurona espejo. Porque
para el observador es como si estuviera contemplando su propia acción en un espejo.
Así nos volvemos espejos de los demás mediante este mecanismo especular tan
sencillo, porque cada acción que hacemos ya sea el tomar un libro o un bolígrafo,
existe siempre una intención subyacente un estado mental tras esa acción así nos
convertimos en espejos de los demás y se nos permite acceder a su mente y al estado
mental que los condujo a actuar.
Las neuronas espejo son fundamentales en los procesos de aprendizaje y adquisición
de conocimiento ya que son estas las que nos permiten la generación y aprensión de
conocimiento y la interacción con nuestros semejantes y con el medio. [14]

7. Conclusiones

La sociedad tiene un hacer por alcanzar protagonismo en la toma de conciencia, en


generar una cultura de cooperación, de unidad, de convivencia, por que se han
modificado los papeles, naciendo una revolución para mejorar la calidad de vida, con
culturas más que compartidas comprendidas, posibilitando estrategias en valores,
integrando culturas y razas, con una educación intercultural, con sociedades
multiculturales ante la influencia temprana de la neurociencia en el desarrollo de la
inteligencia social, ecológica y emocional del individuo, siendo esta de mayor eficacia
si es aplicada en la infancia , teniendo como objetivo principal una convivencia

58
pacífica, contribuyendo a formar el marco de la globalización de la comunidad en el
nuevo entorno de cultura compartida a través una mayor participación en el desarrollo
integral del ciudadano de Colombia e ir más allá para abrir puertas a los nuevos
planteamientos de un ciudadano integral con marco extraterritorial.
Generar espacios organizacionales en donde se fomente la influencia de la
neurociencia en ambientes laborales en nuestro país, con tendencias hacia crear una
cultura organizacional, en donde nos posibilite un nuevo horizonte económico,
teniendo presente que no son las maquinas, las que nos van a ayudar, sino que el valor
fundamental se encuentra en nuestro capital humano, para solucionar los problemas
económicos, sociales, y de migración para no incrementar mas la pobreza de nuestro
país
La importancia que tienen los medios de comunicación y más aun en estos tiempos
multimediales con un lenguaje visual o grafico, en los que estos interfieren
plenamente en el pensamiento y actúan en diferente medida, en la sensación, la
intuición y el sentimiento, es por esto tan importante la aplicación de la neurociencia
en los medios de comunicación para la transferencia del conocimiento y en compartir
experiencias, para promover una sociedad más tecnológica pero más humana, con una
mayor inversión en desarrollo educativo, es lo único que nos podría ayudar a salir de
la problemática actual de violencia, intolerancia, inseguridad.
La importancia de la inteligencia emocional en los procesos educativos, en los
desarrollos sociales como la paz y convivencia entre los pueblos haciendo necesario y
fundamental una educación basada en la inteligencia emocional como único camino a
la paz y al bienestar y la felicidad de los colombianos.

References
1. Fernández Villegas, Miguel : Como agua entre los dedos. (eds)Aljibe 100—120. España
(2010).
2. Vivas Mireya, Gallego Domingo, Gonzalez Belkis pp.142 20—40 (2007)
3. Yañez Carlo M: Sistema de Gestión de calidad en base a la Norma ISO 9001.
http://www.internacionaleventos.com/Articulos/ArticuloISO.pdf Carlo M.Yañez. Accedido
el 05 de Septiembre de 2010
4. Evans Dylan : Emocion la ciencia del sentimiento. (eds) Editorial Taurus. pp 200 130—160
(2002)
5. Mora Francisco : El cerebro sintiente pp 224 180-190 Barcelona (2000)
6. Grande del Brio, Ramon : Las bases Ecológicas del comportamiento humano pp 212 35—
80 Valencia (2008).
7. Ledoux, Joseph : El cerebro emocional (eds) Planeta pp 440 325—337 Barcelona (1999)
8.Codina Alexis: Inteligencia emocional para el trabajo gerencial.
http://www.degerencia.com/articulo/inteligencia_emocional_para_el_trabajo_gerencial
Accedido el 20 de Agosto de 2010
9. Goleman, Daniel. Inteligencia emocional en la Empresa. (eds) Vergara 250—340
10. http://www.slideshare.net/jcfdezmx6/inteligencia-emocional-1626264 Diferencia entre el
coeficiente intelectual y emocional Enrique Benjamin Franklin
11. Purves, Dale: Neurociencia. (eds.) Medica Panamericana 2006. 912 pp. 148--158.
12. Goleman, D. (2008). La inteligencia emocional. Por qué es más importante que el cociente
intelectual. Uruguay. Editorial Zeta.

59
13.Rodriguez Dario, Majluf Nureya Nicolas, Abarca Majluf,: El nuevo mundo de las relaciones
laborales http://www.uc.cl/laucmiraachile/pdf/19_nuevo_%20mundo_laboral.pdf. Accedido
el 3 de Septiembre de 2010
14. Iacoboni,Marco : Las neuronas Espejo. 270, 195--197 (2009)

60
Marco Normativo de Investigación Científica, Tics
Desarrollo Tecnológico y Procesos de Innovación, I+D+I
en Colombia

Giovanny M. Tarazona 1, Víctor H. Medina 2, Jose I. Palacios 3

1
Dea Ingeniería Informática UPSAM Docente Universidad Distrital
Bogotá D.C., Colombia
2
Dr. Ingeniería Informática UPSAM, Docente Universidad Distrital
Bogotá D.C., Colombia
3
Dea. En Dirección y Administración de Empresas Universidad Pablo de Olavide
Sevilla España, Docente Universidad Distrital
Bogotá D.C., Colombia

1
gtarazona@udistrital.edu.co, 2vmedina@udistrital.edu.co
3
jpalacios@udistrital.edu.co

Abstract. Colombia is sanctioned in the Law of Science Technology and


Innovation amending Act 29 of 1990 and the 1341 Act, "which is
defined by principles and concepts of Information Society and
organizing Technologies Information and Communication Technology
(ICT), establishing the National Agency for Spectrum and other
purposes "by opening a planning horizon for the country in relation to
technological development based on scientific research and innovation
processes, with clear commitments State for the promotion and
investment in science and technology with goals, targets and strategies
defined, within which scientific and technological training for human
resource is the game that encourages research in the country, as a
culture according to the call knowledge society, where the vision
focuses not only on the topics of telecommunications, but geared to the
Information Technology and Communications, which implies a more
comprehensive and integrated concept of development. This article
presents the essential elements of the new regulatory framework that
would enable research and development in Colombia and the mediation
of ICT in such purpose.

Resumen. Durante el 2009 se sanciono en Colombia la Ley de Ciencia,


Tecnología e Innovación que modifica la ley 29 de 1990 y la Ley 1341,
"Por la cual se definen principios y conceptos sobre la Sociedad de la
Información y la organización de las Tecnologías de la Información y
las Comunicaciones (TIC), se crea la Agencia Nacional de Espectro y se
dictan otras disposiciones" abriendo un horizonte de planeación para el

61
país en relación al Desarrollo Tecnológico con base en la Investigación
Científica y los Procesos de Innovación, con claros compromisos del
Estado para el fomento y la inversión en ciencia y tecnología, con
objetivos, metas y estrategias definidas, dentro de las cuales la
formación científica y tecnológica para el recurso humano es la partida
que incentiva la investigación en el país, como cultura acorde a la
llamada sociedad del conocimiento, donde la visión enfoca no sólo a las
temáticas de las telecomunicaciones, sino orientada a las Tecnologías de
la Información y las Comunicaciones, lo que implica un concepto más
amplio e integrado de desarrollo. Este artículo presenta los elementos
esenciales del nuevo marco normativo que posibilitara la investigación
y el desarrollo en Colombia y la mediación de las TIC en tal propósito.

Palabras Clave: Desarrollo tecnológico, investigación científica,


innovación.

1 Introducción

La transformación de Colciencias de un organismo de dirección y coordinación del


Sistema Nacional de Ciencia y Tecnología a un Departamento Administrativo de
Ciencia, Tecnología e Innovación establecido en la ley 1286 de 2009, define no solo
una nueva estructura organizacional sino una serie de funciones especificas que
permiten como objeto fundamental utilizar la investigación para dar valor agregado a
los productos y servicios del país y facilitar la creación de una nueva industria
nacional recurriendo a la tecnológica como eje fundamental, que permita un
crecimiento sostenido de la economía con estabilidad laboral y mayor seguridad social
dado que además de invertir en ciencia, tecnología e innovación se tiene que ofrecer
empleo seguro y bien remunerado.

2 Marco Normativo

La Ley sobre Ciencia, Tecnología e Innovación fue creada con el fin de establecer
unos parámetros legales genera el ambiente de consolidar una cultura investigativa
que sustente el desarrollo social, económico, político y cultural en Colombia.
Ley 29 de1990 inicia generado con pocos artículos, lo cual se puede justificar
porque es la primera Ley de esta índole que se establece. Con el pasar de los años esta
Ley viene a ser modificada y sustituida por la Ley 1286 de 2009, la cual es más
específica y robusta respecto a la anterior, donde mantiene el compromiso del
gobierno y de entidades privadas, y además plantea los objetivos a cumplir en caso de
implementarla.

62
Tabla 1. Comparativo estructura de las leyes de ciencia y tecnología (ley 1990 - ley 1286 2009).

LEY 29 de 1990 LEY 2009


Art. 1: Promoción y Capitulo 1: Capitulo 4:
Orientación. DISPOSICIONES FINANCIAMIENTO
Art. 2: Desarrollo de GENERALES Art. 22: Fondo nacional
condiciones favorables Art. 1: Objetivo general. Art. 23: Régimen
para el desarrollo. Art. 2: Objetivos contractual y
Art. 3: Presupuesto. específicos. presupuestal.
Art. 4: Vigencia Fiscal Art. 3: Base de Art. 24: Recursos del
Art. 5: medios consolidación de políticas. fondo.
conducentes a la Art. 4: Principios y Art. 25: Rendición de
transferencia de la criterios. cuentas y seguimiento.
tecnología. Capitulo 2: Art. 26: De los recursos.
Art. 6: Ventajas de COLCIENCIAS Art. 27: Aporte de
Orden Fiscal. Art. 5: Transformación. entidades territoriales.
Art. 7: Apropiaciones Art. 6: Objetivos generales. Art. 28: Proyectos
presupuestarias Art. 7: Funciones. regionales de inversión.
Art. 8: Autorización a Art. 8: Estructura orgánica. A29: Operaciones
Colciencias. Art. 9: Bienes, derechos y autorizadas al fondo.
Art. 9: Contribución del obligaciones. Art. 30: Publicidad de
exterior. Art. 10: Continuidad de trasparencia.
Art. 10: Espacios de relación. Art. 31: Consejo nacional
divulgación. Art. 11: Presupuesto. de beneficios tributarios.
Art. 11: Pautas Para el Art. 12: Consejo asesor. Art. 32: Sistema de
Estado. Art. 13: Funciones del información.
Art. 12: Regirá desde la consejo asesor. Capitulo 5:
fecha de su Art. 14: Participación. DISPOSICIONES
promulgación. Art. 15: Régimen de VARIAS
transición. Art. 33: Actividades,
Capitulo 3: contratos y convenios.
INSTITUCIONALIDAD Art. 34: Ámbito social.
Art. 16: Sistema nacional. Art. 35: Vigencia y
Art. 17: Objetivos del derogatorias.
sistema nacional.
Art. 18: Actividades.
Art. 19: Coordinación.
Art. 20: Componentes del
sistema.
Art. 21: Marco de
inversión.

Se puede observar, en proporción, que la densidad de la nueva Ley es mayor con


base a cantidad y especificaciones de la ley, para que cumpla con más objetivos y
restricciones, y sea una norma más verídica y obligatoria, por sus pautas, tanto para el

63
estado como para las demás entidades. Al tener esta Ley nuevas más específica,
establece roles en diferentes entidades del gobierno, a quienes les asigna unos
objetivos a cumplir a cabalidad, y de los cuales depende el desarrollo de la ciencia y
tecnología, y el cumplimiento de la misma ley. Ahora bien, no solo es un problema de
más normatividad, sino de mecanismos que buscan institucionalizar y generar
apropiación de los procesos de Innovación y Desarrollo en las políticas estatales de
Colombia. Tal como se aprecia, la Ley 1286, define no solo una estructura
organizacional de Colciencias, sino también define otros mecanismos de
funcionamiento, que garantiza el cumplimiento de la misma.
Con base a lo dicho por Jaime Restrepo Cuartas [1], autor de la iniciativa
legislativa ―la nueva ley eleva a Colciencias a la categoría de un departamento
administrativo de orden nacional. Aumenta los recursos para investigación al uno por
ciento del Producto Interno Bruto, PIB, cuando estábamos en el 0.19 por ciento.
Busca la regionalización de la ciencia, en los departamentos de menor desarrollo y
apoya la unión con el sector productivo. Crea los consejos regionales de tecnología,
autoriza a los gobiernos locales y regionales a crear instancias que manejen el tema; y
todos los departamentos tendrán representación en el Consejo Nacional‖
Se muestra el crecimiento de la importancia de la Ciencia, de la tecnología y de la
innovación, no solo en los departamentos del país más desarrollados, sino también en
aquellas regiones y poblaciones rurales, que tiene la oportunidad de demostrar su
conocimiento en este ámbito.
En términos de Pérez [2] la nueva Ley orienta la educación superior, dando
importancia a la educación por excelencia que direcciona procesos de investigación,
donde desde la enseñanza se estimula la investigación, la generación de conocimiento
y el acceso a las tecnologías de la Información, como medio de integración de saberes.
Igualmente, para este autor, se observa un incremento en el número de profesionales
que contribuyen a la generación de conocimientos, lo que permite que tanto
académicos como empresarios accedan a nuevas ―rutinas tecnológicas‖.
La nueva ley cambiará el modelo productivo colombiano, pues se generan más
recursos para la investigación, fortalecerá el proceso de regionalización de la ciencia y
dará solución a los constantes problemas que existen en la relación entre el sector
empresarial y científico del país. “Esta ley busca darle un valor agregado a todos los
productos y servicios en el país y crear una nueva industria nacional de base
tecnológica, que posibilite el desarrollo productivo a largo plazo y ofrezca empleos
más estables a los colombianos”. [3]

2.1 Ley 1341 De 2009

Con la expedición de la Ley 1341, "Por la cual se definen principios y conceptos


sobre la Sociedad de la Información y la organización de las Tecnologías de la
Información y las Comunicaciones (TIC), se crea la Agencia Nacional de Espectro y
se dictan otras disposiciones", se modifica la estructura en la prestación de los
servicios de telecomunicaciones del país, migrando del esquema normativo inspirado
en la clasificación de los servicios de la UIT que se plasmó en la ley 72 de 1989 y el
decreto ley 1900 de 1990, a un modelo de título habilitante convergente, que incluye

64
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, el más importante en el sector en los últimos 20 años, recoge los
principios de política que ya había plasmado el entonces Ministerio de
Comunicaciones en el decreto 2870 de 2007.
Uno de los puntos más importantes, es la visión enfocada no sólo a las temáticas de
las telecomunicaciones, sino orientada a las Tecnologías de la Información y las
Comunicaciones, lo que de suyo implica un concepto más amplio e integrado. Durante
más de diez años, el sector discutió y esperó una ley que entendiera los fenómenos
convergentes que estaban transformando el sector de las telecomunicaciones, y que de
alguna manera no permitían una claridad en las reglas del juego para todos los
operadores.
Esta Ley 1341 de 2009 tiene un significado muy importante, pues después de 10
años de debates sectoriales se materializa esta iniciativa, en una ley que no sólo abarca
el sector de las telecomunicaciones, sino que lo integra como uno solo en el sector de
las Tecnologías de la Información y las Telecomunicaciones, generando así un marco
normativo convergente y con condiciones equilibradas para todos los operadores. De
tal forma, que se garantiza el derecho a la comunicación, la información y el acceso a
las TIC en un marco de inclusión social, con diferentes proyectos [4].
Desde el Ministerio de TIC, deberá desarrollarse la reglamentación que permita el
cumplimiento de los fines de incorporación de todos los colombianos, a la sociedad de
la información, mandato supremo de la ley.

2.2 Principios orientadores

La investigación, el fomento, la promoción y el desarrollo de las Tecnologías de la


Información y las Comunicaciones son una política de Estado que involucra a todos
los sectores y niveles de la administración pública y de la sociedad, para contribuir al
desarrollo educativo, cultural, económico, social y político e incrementar la
productividad, la competitividad, el respeto a los Derechos Humanos inherentes y la
inclusión social:

Prioridad al acceso y uso de las Tecnologías de la Información y las Comunicaciones.


Libre competencia.
Uso eficiente de la infraestructura y de los recursos escasos.
Protección de los derechos de los usuarios.
Promoción de la Inversión.
Neutralidad Tecnológica.
El derecho a la comunicación, la información y la educación y los servicios básicos de
las TIC.
Masificación del Gobierno en Línea.

Creación de la Agencia Nacional de Espectro

La Agencia Nacional del Espectro estará representada, dirigida y administrada por un

65
Director General, quien será nombrado por el Ministro de Tecnologías de la
Información y las Comunicaciones, por un período de cuatro (4) años, reelegible por
una vez. El Gobierno Nacional a través del Ministerio de Tecnologías de la
Información y las Comunicaciones reglamentará la materia.

Resumen de las funciones del Director de la Agencia Nacional de Espectro

Administrar en forma eficaz y eficiente los recursos financieros, tomar decisiones


establecidas en la ley, inherentes a sus funciones.
Ejecutar el presupuesto, nombrar y remover funcionarios de acuerdo con la
normatividad vigente.
Prepara el manual de funciones y requisitos de los empleados de la planta de personal
y velar por su cumplimiento.
Fijar las políticas y procedimientos para la atención de peticiones, consultas, quejas,
reclamos, sugerencias y recepción de información que los ciudadanos formulen en
relación con la misión y desempeño de la Agencia.
Asesorar y acompañar al Ministerio de Tecnologías de la Información y las
Comunicaciones en las negociaciones internacionales, cuando se requiera.

3 Oportunidades y retos del nuevo marco normativo

3.1 Oportunidades

El interés que se muestra por parte del gobierno nacional por apoyar la actividad
investigativa en ciencia y tecnología, como una vía para generar competitividad en la
industria colombiana. Al implementar un nuevo mecanismo de financiación basado en
recursos provenientes del Fondo Nacional de Regalías, es posible crear un mayor
nivel de desarrollo en las regiones, y disminuir en cierta manera la inequidad que en la
actualidad se vive en relación con la repartición de los recursos públicos.La propuesta
de hacer que el desarrollo del conocimiento no sea exclusivo de los entes académicos
del país sino también del sector productivo nacional. La generación del nexo entre la
academia, el Estado y la empresa debería resultar muy productiva, tal y como ocurre
en países industrializados. Su cumplimiento conllevaría a la competitividad de la
industria que en últimas lleva al mejoramiento de la calidad de vida de la sociedad y
estos réditos son bien distribuidos y no quedan en pocas manos. La creación de
unidades regionales de investigación científica e innovación permite que en realidad
exista un lineamiento de desarrollo regional y descentralización, lo cual se ha
discutido durante mucho tiempo pero no se ha materializado en acciones
concretas.Una mayor sinergia entre los entes relacionados con la labor de impulsar el
desarrollo de la ciencia y la tecnología, pues al darle a COLCIENCIAS el carácter de
Departamento Administrativo, y permitir que asista a los CONPES, existe una mayor
interlocución con instituciones de sector político así como educativo. Esta

66
participación más activa permite que se le dé una mayor relevancia a las actividades
relacionadas con el impulso de la ciencia y la tecnología, además que se puede influir
en la orientación que tengan las políticas gubernamentales.
La creación del Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e
Innovación se convierte en un mecanismo importante para estimular la inversión en
tecnología al interior de las empresas e instituciones educativas.

3.2 Retos

La nueva Ley de Ciencia y Tecnología soporta toda una estructura que puede ser
totalmente ineficaz sino es apoyada con los recursos necesarios para implementar la
infraestructura adecuada para lograr todo lo propuesto, o si no se cumple a cabalidad
con ello. Esto afectaría negativamente al país por las expectativas generadas con su
creación, que de por sí era urgente fuese efectuada.
Con la nueva potestad que se le otorga a las Asambleas departamentales y Concejos
municipales para ordenar la creación de unidades regionales de investigación
científica e innovación, existe el riesgo de que se levanten barreras contra ello pues
los recursos para su realización deben provenir de sus fondos regionales de fomento.
A menos que el Gobierno entregue una mayor cantidad de partidas por este concepto,
los departamentos y municipios pueden encontrarse con limitaciones para cumplir con
la creación de dichas instituciones.
La concepción de los empresarios colombianos de ver a la investigación, desarrollo e
innovación como un gasto, o una inversión con rendimientos mínimos, y no como un
mecanismo para la elaboración de productos y prestación de servicios con valor
agregado, que únicamente se logra a través de la generación de conocimiento. Lo
anterior se convierte en una limitante a la ley, que contempla al sector empresarial
como uno de los pilares fundamentales para el desarrollo del modelo productivo
sostenible que se busca establecer en el país.
Se encuentra una deficiencia en el alcance que tiene la nueva Ley y es que no existe
una posición clara en términos de la destinación que se haga del PIB a Ciencia y
Tecnología, lo cual no se comenta en el texto aprobado por el Congreso.
Consideramos que esta situación puede generar dificultades en el largo plazo, pues se
convertiría en una política del gobierno de turno, y no de Estado, como debería ser.

4 Sostenibilidad del Desarrollo Socio-Económico Apoyado por


las tics

En la actualidad, se reconoce el impacto de las TIC en la competitividad, su potencial


para apoyar su inserción en la economía globalizada e impulsar el desarrollo
económico y social de los países. Estos beneficios sólo pueden convertirse en
resultados concretos a medida que la sociedad se apropie de estas tecnologías y las
haga parte de su desempeño cotidiano. Es decir, con comunidades o usuarios o

67
beneficiarios preparados que utilicen las TIC, se puede lograr una verdadera
transformación económica y social. [5]
Un dominio amplio de estas tecnologías en el sector público y privado es una
condición necesaria para reducir la pobreza, elevar la competitividad y alcanzar el tan
ansiado desarrollo sostenido de los países. De ahí que es necesario adoptar una serie
de acciones y estrategias que permitan la expansión y adecuación del uso de las TIC
en los diferentes sectores de la comunidad y en particular la vinculación de las
personas quienes generaran nuevas formas de desarrollo. [6]
Muchos gobiernos de países desarrollados y emergentes han tratado de avanzar
durante los últimos años hacia un modelo de desarrollo que se ha denominado la
Sociedad del Conocimiento (SC) en concordancia con la Cumbre Mundial de la
Sociedad de la Información (http://www.itu.int/wsis/index-es.html) que involucra y
fortalece los sectores productivos, económico y social. Para ello, se han desplegado
diferentes planes y estrategias para impulsarlo.
Los países que han adoptado planes estratégicos de TIC han avanzado más
rápidamente en los ejes de acción establecidos como prioritarios. Ejemplo de ello son
la Unión Europea (Plan Avanza2) [7] y países como Finlandia, Corea, Singapur,
Estados Unidos, Canadá y en Latinoamérica [6] y Chile entre otros. Todos ellos han
implementado progresivamente planes de TIC exitosos que les han asegurado los
primeros lugares no solamente en los indicadores de preparación para el modelo de la
Sociedad de la Información y del Conocimiento (SIC), sino también en aquellos que
miden la competitividad.

4.1 Ejes de acción

Para lograr una mejor apropiación de TIC en la sociedad e involucrar a Colombia en


dicho marco, se requiere actuar en distintos campos que de acuerdo a las debilidades
detectadas en los indicadores internacionales en temas específicos de preparación, uso
y aprovechamiento de las TIC, se ha generado un modelo compuesto por ocho ejes
definidos en el Plan de TIC 2008 – 2019 [8], de los cuales cuatro son ejes
transversales (comunidad; gobierno en línea; investigación, desarrollo e innovación; y
marco normativo, regulatorio e incentivos) y cuatro ejes verticales (educación, salud,
justicia y competitividad empresarial).
Los ejes transversales contienen acciones que influyen en todos los sectores. Los
ejes verticales enmarcan las acciones de uso y apropiación de TIC en sectores
específicos considerados críticos.

4.2 Modelo institucional para el Plan de TIC

Hay que desarrollar mecanismos para que se pueda ejercer una coordinación
interinstitucional entre las distintas entidades del Gobierno que deben participar en él,
al igual que con el sector privado, la academia, los centros de investigación y la
sociedad civil.
Para ello se requiere un modelo institucional que asegure esa permanencia y

68
coordinación. Este modelo debe además tener un fuerte componente de participación
y responsabilidades regionales, tanto en el manejo de los programas y proyectos como
en los recursos que se destinen a ellos; y que desarrolle sus actividades en completa
alineación con el Sistema Nacional de Competitividad, coordinado por la Alta
Consejería para la Competitividad. Ejemplo de ello, es el programa PlanEsTIC del
Ministerio de Educación, el cual busca fortalecer el uso TIC en los procesos
educativos de las instituciones de Educación Superior
(http://comunidadplanestic.uniandes.edu.co/), caso similar ser observa con los
proyectos de la Corporación Colombia Digital (http://colombiadigital.net/) proyectos
orientados al sector educativo, productivo y gubernamental.

4.3 Programas y proyectos

Dentro de los principales programas y proyectos que se propone ejecutar el Plan


Nacional de TIC [8], se analiza en cada uno de ellos: objetivo, antecedentes, alcance,
estrategia de implementación, grupo que impacta, entidad(es) responsables, metas,
indicadores, presupuesto y financiación, estos son:

Eje Comunidad: Banco de Proyectos.


Acuerdo Público Privado por la Conectividad Digital. Pacto social digital.
Creación de una cultura nacional de uso de TIC.
Proyecto seguridad informática para el sector privado.
Eje de Gobierno en Línea
Servicios de Gobierno en Línea.
Intranet Gubernamental.

Eje de Investigación, desarrollo e innovación


Centro de formación de alto nivel en TIC.
Centro Nacional de Investigación, Desarrollo e Innovación en Bioinformática y
Biocomputación.
Centro de Investigación de Excelencia en Electrónica, Telecomunicaciones e
Informática (ETI).

Eje de Educación
Programa de Uso de Medios y Nuevas Tecnologías.
Componente uso de TIC.
Computadores para Educar.
Fortalecimiento de la Red Nacional Académica de Tecnología Avanzada
Innovación Educativa en e-learning.
Servicio Nacional de Aprendizaje.

Eje de Salud
Sistema Integral de Información de la Protección Social.
Telemedicina.

69
Eje de Justicia
Modernización Tecnológica de la Administración Judicial.

Eje de Competitividad empresarial


Observatorio de TIC.
Estrategia de MiPymes digitales.

Ahora bien, estos ejes definidos por el Plan TIC para Colombia, encuentra un
mayor soporte y respaldo con la Ley 1341 de TIC, en la medida que se fortalecerá la
puesta en marcha los diferentes ejes mencionados. Es así como desde la perspectiva
de la Ley se definen las TIC como ―conjunto de recursos, herramientas, equipos,
programas informáticos, aplicaciones, redes y medios que permiten la compilación,
procesamiento, almacenamiento, transmisión de información como: voz, datos, texto,
video e imágenes‖ (Articulo 6), de tal forma que estos ejes son considerados por la
Ley. Es de observar, que desde el gobierno Nacional, Colombia progresivamente se
ha involucrado en la llamada Sociedad de la Información, iniciando con el proyecto
de la Agenda de Conectividad, que hoy se enmarca en el proyecto de Gobierno en
Línea y por lo tanto en la nueva Ley.
De acuerdo con lo anterior las IES, debe iniciar y fortalecer programas y planes
estratégicos de TIC, con el firme propósito de generar proceso de inclusión social,
democratización en el acceso a la información y redes de conocimiento, así como
también, apoyar programas y proyecto de investigación que reduzca la brecha
tecnológica y ampliando cobertura de calidad mediada por las TIC.
De otra parte y como una característica propia de las TIC, la descentralización de
procesos y la ruptura de la relación tiempo - espacio, permite y facilitan el intercambio
de información, conocimientos, junto con la aparición de redes interorganizacionales,
de tal forma que se logra un mayor y más eficiente acercamiento de las IES con el
sector productivo y la sociedad. Ejemplo de ello, se observa con proyectos como:
PlanEsTIC, representado por la creación del Plan Estratégico en TIC para la IES
(http://comunidadplanestic.uniandes.edu.co/), o bien UDtecnovirtual
(http://www.udtecnovirtual.org/) proyecto de Universidad Distrital, igualmente para
las empresas está entre otros el proyecto de Colombia Digital
(http://colombiadigital.net), Colnodo (http://colnodo.org/index.shtml?apc=I1----
&s=s&m=I), proyectos que se orientan procesos de inclusión social.
Son solo estos un par de ejemplos del sin número de acciones que se están
desarrollando y que se deben desarrollar en el marco de la Ley y del Plan de TIC,
proyectos y programas que deben tener un visión integradora y convergente, con la
participación de la Universidad, la Industria y la Políticas Gubernamentales.
Las IES por su parte cuentan con un importante número y valiosos talento humano,
que está capacitado y en formación para procesos de Investigación, Desarrollo e
Innovación, por su parte del Industria demanda desarrollo de tecnología, aplicaciones
informáticas, gestión y almacenamiento de información, entre otras necesidades y por
su parte la Ley de TIC, fomenta precisamente este tipo de requerimientos y es aquí
donde se deben crear redes interorganizacionales e intersectoriales.

70
5 Investigación Desarrollo e Innovación

La preocupante carencia de una cultura de investigación en el país origina que la


inversión en este campo no se considere como una estrategia de desarrollo para las
empresas, siendo el problema no solo de fondos para la investigación científica sino
de políticas claras para su administración que se dispone y se aclara en la nueva ley de
ciencia, tecnología e innovación.
La ciencia, la tecnología y la innovación son cruciales para el desarrollo
tecnológico, aprovechadas adecuadamente, pueden impulsar el crecimiento y reducir
la pobreza, lo que propicia una Economía de Conocimiento [4]. Pero no son
suficientes por sí solas, deben estar combinadas con muchos otros factores que,
agrupados, determinan el proceso de innovación reconociendo la relevancia de
invertir en ciencia para construir la economía, sin olvidar la necesidad de la
cooperación de una sólida infraestructura de instituciones científicas, laboratorios y
hospitales que conlleven a la formación de profesionales capacitados para traducir los
avances científicos en avances económicos con acceso a investigación actualizada y a
fuentes de información.
Por lo que el trabajo en equipo del estado, el sector educativo y el productivo es
de gran valor para el desarrollo de un país. En este sentido se lanza por parte de
Colciencias el programa ―Generación del Bicentenario‖ [9], como estrategias
centrales en la formación de investigadores población que en la gran mayoría están en
las universidades, siendo entonces necesario el fomento de los grupos de investigación
en la instituciones de educación superior y que por lo tanto requieren de mayor
atención y apoyo a la formación avanzada de investigadores, así como mayor facilidad
de acceso a la educación para la población en general.
Dicho programa cuenta con las siguientes dimensiones: 1) Formación Doctoral
Francisco Jose de Caldas, al año 2009 se han apoyado 500 doctores; 2) Jóvenes
Investigadores Virginia Gutiérrez de Pineda que apoya a los pasantes a los grupos de
investigación reconocidos en Colciencias
Programa que tiene como meta apoyar 800 Jóvenes Investigadores al año para lograr
un acumulado de 8.000 beneficiarios al 2019 [9] y 3000 doctores graduados, lo que
muestra un claro compromiso no solo del estado sino de todo los participantes en
estos procesos de formación que no desean solo aumentar el número de personas con
doctorados si no a su vez el desarrollo tecnológico e innovación a través de un alto
nivel de investigación con aportes claves para la sociedad y el sector productivo.

5.1 Inversión

Se puede apreciar el crecimiento del nivel de inversión en Colciencias con picos en


los años 95 y 97 y disminuyendo al finalizar los 90 recordando la crisis económica
que sufrió el país para aquella época que puede ser una explicación, a partir del 2000
inicia una recuperación y crecimiento hasta lo calculado para el año 2008.
De esta reforma de la ley, se puede concluir que es necesario darle la importancia
que se requiere a los estudios de ciencia, tecnología e innovación, y facilitar los
recursos, tanto el estado como también lo pueden hacer empresas del sector privado,

71
para desarrollar avances en este ámbito a nivel nacional, regional y de parte las
poblaciones rurales, que demostraría un desarrollo en este aspecto sin importar las
condiciones de la persona que se interese por fomentar el conocimiento.
El presupuesto es un aspecto condicional, para que todos esos estudios y alcances
se hagan realidad, por eso es importante que Colciencias, como representante,
gestione el aumento de recursos económicos, tecnológicos y espaciales, para poder
levar a cabo el desarrollo de los proyectos y así mostrar las diferentes propuestas de
las personas dedicadas a este tipo de estudios.

6 Universidad –Empresa

La relación actual entre empresas y las universidades en el país es bastante distante,


pese que ―La colaboración entre la academia y el sector empresarial en Colombia es
una de las mejores de América Latina, según el informe del Foro Económico Mundial
(FEM)‖ [10], aunque a nivel latinoamericano, nada comparable con las experiencias
en países desarrollados, por lo que las universidades deben hacer un mayor esfuerzo
para gestionar las relaciones de mutuo beneficio entre la academia y los sectores
productivos, surgiendo la necesidad de un seguimiento sistemático de la inserción
laboral de sus egresados, hoy en día un graduado no goza de beneficios por convenios
institucionales en la gran mayoría de las empresas.
Además la gestión de la universidad no puede limitarse a solo la medición en la
cantidad de estudiantes o en lo impartido durante el periodo de formación, sino por la
repercusiones de sus egresados en los sectores económicos y productivos del país
[11] y se logra con la participación activa de las empresas en el establecimiento de los
planes de estudio, ya que se determinan las necesidades reales del mercado y las
competencias requeridas por los empleadores de un profesional, organizando de
manera efectiva por ejemplo las practicas de los estudiantes como alternativa a la
promoción de empleos y la aplicación de investigaciones que no pueden quedarse en
el archivo de las tesis y ser solo un requisito de grado sin valor de uso ni valor
comercial, en términos generales dado que no se puede olvidar los proyectos actuales
de algunas universidades.
Es importante que los planes de estudios y currículos articulen también sus
contenidos y syllabus considerando las exigencias del entorno y de la industria, Para
el investigador Bruner es necesaria un redefinición del rol de la universidad frente al
sector productivo argumentando que ―Las Universidades tienden todavía a definir sus
currículos nada más que desde el lado de la oferta y en términos de "contenidos", sin
preocuparse de la demanda ni de definir claros perfiles de competencias (genéricas y
específicas) requeridas por el mercado laboral. De allí la brecha‖ [12] la brecha que se
genera en la transferencia de conocimientos al entorno socioeconómico puesto que la
oferta difiere con la demanda, para ello se debe buscar establecer y fortalecer
convenios de colaboración entre empresa y la Universidad, creando estrategias para
ello. Uno ejemplo de ello es el modelo usados en México, reconocido como la tripe
hélice [11] (académica, industrial y estado, actores que integran grupos de trabajo
universidad - empresa; programas de emprendimiento y desarrollo de competencias y

72
habilidades que la empresas requieren, acciones realizada en conjunto)
La nueva ley no contempla la participación de las universidades públicas como los
entes académicos del estado para la administración de las actividades, los fondos y
demás de la ciencia, la tecnología y la innovación del país, que puede generar
preguntas a cerca de la imagen distorsionada actual de la universidad pública que
puede verse relegada a participaciones de peso como lo establecido en la Ley 1286 de
2009 en donde no se define ninguna responsabilidad para las universidades públicas,
solo las alianzas estratégicas de universidad - empresa como objetivo No 8 del
Sistema Nacional de Ciencia, Tecnología e Innovación - SNCTI-. Difiriendo con el
decreto 585 de 1991 en el que claramente se definió las responsabilidades del rector
de la Universidad Nacional, así como la asignación de responsabilidades a un rector
de la universidad privada.

Referencias

Restrepo C., "La Crisis Económica y la nueva Ley de Ciencia, Tecnología e Innovación Ley
1286 de 2009 - Debate Nacional - Desarrollo," Bogotá, D.C, 2009.
Pérez T. J, "Universidad y gerencia en el medio internacional," Universidad & Empresas,
Universidad del Rosario, vol. 17, pp. 156 - 182, 2009.
Universidad Nacional, "Ley de Ciencia, Tecnología e Innovación Cambiará modelo de
productividad colombiano." vol. 2009, 2008.
CINTEL, "Panorama de las Tecnologías de la Información y la Comunicaciones en Colombia,"
Bogotá D.C., Ed., 2010.
Mohsen K. Philippe D., "Visión General - Cap 1," Información y Comunicación para el
Desarrollo 2009 - Banco Mundial, 2009.
Pineda M., "Desafíos actuales de la sociedad del conocimiento para la inclusión digital en
América Latina," Anuario electrónico de estudios en Comunicación Social, vol. 2, 2009.
Gobierno de España, "Estrategias 2011 - 2015 Plan Avanza2," 2010.
Ministerio de Comunicaciones, "Plan Nacional de Tecnologías de la Información y las
Comunicaciones 2008 - 2019," 2008.
Colciencias, "Generación del Bicentenario," Bogotá, D.C., 2009.
Colciencias, "Colombia Construye y Siembra Futuro - Política Nacional de Fomento la
Investigación y la Innovación," Bogotá D.C., 2008.
Alvarado B. Aida, "Vinculación Universidad - Empresa y su Contribución al Desarrollo
Regional " Revista de Sociedad, Cultura y Desarrollo Sustentable, vol. 4, pp. 407 - 414,
2009.
J. Bruner, "Relación Empresa-Universidad: una grieta a sellar." vol. 2010, 2009.
CINTEL, "ESPECIAL: Ley 1341 de 2009: Una mirada a la nueva ley de TIC." vol. 2010,
2009.

Conclusiones y Trabajos Futuros

Colombia requiere de alianzas estratégicas entre las Instituciones de Educación


Superior y los sectores productivos y económicos, para generar una red de
conocimiento compartido en pro del avance científico, aprovechando el talento

73
humano, los recursos de biodiversidad material amplio estudio y aplicación, y ahora la
mayor asignación de recursos financieros que recrean el escenario perfecto dirigido
hacia cultura de la investigación en la era del conocimiento.
Promover la ciencia y la tecnología siempre será una necesidad crítica, y la
creación de esta ley debe convertirse en un instrumento que permita que la cultura de
la investigación se apropie al interior de las instituciones educativas y las
organizaciones productivas, motor del crecimiento y desarrollo de los países y que se
incluya en los planes estratégicos de cada institución
La nueva Ley de Ciencia y Tecnología genera muchas expectativas en todos los
ámbitos. Se esperaría que aspectos como la calidad de la educación, el fortalecimiento
de la capacidad científica, tecnológica y de innovación se impulsen de manera
importante, ya que en realidad éstos son unos de los principales indicadores de
medición que permitirían determinar si el impacto de esta Ley es el esperado.
Las Universidades son quienes prevalentemente están llamadas a vigilar el
cumplimiento de la Ley de Ciencia y Tecnología por todos los beneficios que puede
ello aportarle a sus grupos y centros de investigación. Además de ello, esta nueva Ley
permite articular de mejora manera la relación Universidad-Empresa, tan importante
para la formación integral de los estudiantes, e igualmente poco cultivada en la
actualidad.
Con la expedición de la Ley 1341, se modifica la estructura en la prestación de los
servicios de telecomunicaciones del país, migrando del esquema normativo inspirado
en la clasificación de los servicios de la UIT que se plasmó en la ley 72 de 1989 y el
decreto ley 1900 de 1990, a un modelo de título habilitante convergente, que incluye
la prestación de todos los servicios de telecomunicaciones indistintamente. Este
cambio normativo, recoge los principios de políticas que ya había plasmado el
entonces Ministerio de Comunicaciones en su decreto 2870 de 2007. [13]
Muchos son los cambios normativos, pero quizá uno de los puntos más importantes es
la visión enfocada no sólo a las temáticas de las telecomunicaciones, sino orientada a
las Tecnologías de la Información y las Comunicaciones, lo que de suyo implica un
concepto más amplio e integrado.
Es necesario plantear y discutir diferentes aspectos que permitan la sostenibilidad
del desarrollo socio-económico de un país y para lograrlo el mejor instrumento es tal
vez, la formulación y puesta en marcha de un Plan Nacional de TIC que se constituya
en una estrategia integrada, que busque obtener resultados de alto impacto, a corto,
mediano y largo plazo. Dicho Plan incluye definir y fortalecer los siguientes
elementos: Visión, misión y justificación, Políticas (Orientadas a la inclusión social,
Orientadas a la competitividad)

74
Prototipo metamodelo de integración de modelos de
procesos de negocio.

Aura Beatriz Alvarado Gaona 2, Luis Joyanes1 y Olga Najar Sánchez3


1 Universidad Libre – Colombia.
2
Universidad Pontificia Salamanca Campus Madrid
3
Universidad Pedagógica y Tecnológica de Colombia
{aura_beatriz,olnasa}@gmail.com; luis.joyanes@upsam.net

Resumen: Los procesos de negocio han adquirido importancia para las


empresas ya que se han convertido en un recurso que les permite
alcanzar ventajas competitivas en el mercado. También son importantes
para la ingeniería de software puesto que representan una fuente que
permitirá complementar las tareas que se llevan a cabo para la captura
de requisitos. Razones como competitividad, fusiones y nuevas
tecnologías, hacen que las empresas deban implementar Gestión de
Procesos en sus organizaciones. Para que una organización pueda
realizar una gestión integrada de sus procesos software es muy
importante que establezca una base rigurosa mediante un Metamodelo
que sea el marco de referencia para la creación de modelos específicos.
Para el desarrollo del Metamodelo es indispensable identificar los
componentes funcionales y parametrizar la información mínima que
debe ser aportada a los modelos para su correcta generación. Este
artículo presenta el resultado de la Investigación Metamodelo de
integración de Modelos de Procesos de Negocio.

Palabras clave: Proceso de Negocio, Modelado de Procesos de


Negocio, IDEF3, BPMN, Metamodelo,

Abstract:Business processes have been important for companies


because they have become a resource that enables them to achieve
competitive advantages in the market. They are also important for
software engineering as a source that will complement the work being
carried out to capture requirements. Reasons such as competitiveness,
mergers and new technologies make companies implement Process
Management in their organizations. In order to carry out integrated
management of software processes, it is very important for the company
to establish a rigorous basis by a Metamodel that could be the
framework for the creation of specific models. To develop the Meta
model, it is essential to identify the functional components and
parameterize the minimum information to be provided to the models for
their correct generation. This article presents the result of the

75
Investigation Metamodel of Process model integration of Business.

Keywords: Business Process, Business Process Models, IDEF3,


BPMN, Metamodel

1 Introducción

Una organización lleva a cabo su tarea mediante la realización de distintos tipos de


procesos y esos procesos generan datos que por supuesto deben ser procesados. Pero
son los procesos los que definen a la organización y por tanto se busca dar la máxima
importancia a los procesos de negocio y no a los datos que generan.
Los sistemas de información a lo largo del tiempo, han sufrido una gran evolución.
Esto ha facilitado que hayan comenzado a transformarse hacia una orientación
centrada en procesos, con modelado explicito de los procesos que controlan la
coordinación de las distintas aplicaciones del sistema.
Un nuevo paradigma para crear aplicaciones de gestión empresarial centradas en el
modelado, ejecución, administración y monitorización de los procesos de negocio, es
el llamado BPM1. Un proceso de negocio es una colección de actividades que,
tomando una o varias clases de entradas, crea una salida que tiene valor para un
cliente [1].
La siguiente sección describe brevemente la metodología seguida para el proceso
de investigación. La sección 3 presenta los resultados obtenidos. Finalmente, la
sección 4 presenta las conclusiones.

2 Metodología

Para el desarrollo de la investigación, se inicio con una primera fase consistente en


revisión de la literatura existente sobre Modelado de Procesos de negocio, para
identificar los estándares más utilizados en la notación de procesos de negocio. En una
segunda fase, se realizó una revisión sistemática para determinar las características
funcionales de los Modelos de Procesos de negocio y a partir de estas características,
plantear el prototipo del metamodelo propuesto.

2.1 Modelado de proceso de negocio

Un proceso de negocio es un conjunto estructurado de actividades, diseñado para


producir una salida determinada o lograr un objetivo [2]. Esto implica un fuerte
énfasis en cómo se realiza el trabajo dentro de una organización, en contraposición
con un enfoque del producto en qué se produce. Por lo tanto, el proceso es una

1
BPM – Business Process Management – Gestión de Procesos de Negocio

76
secuencia específica de actividades de trabajo a través del tiempo y del espacio, con
un inicio, un final y unas entradas y salidas claramente definidas: una estructura para
la acción. Los procesos describen cómo es realizado el trabajo en la empresa y se
caracterizan por ser observables, medibles, mejorables y repetitivos. La figura 1
describe elementos básicos que permiten conocer y entender cuál es el rol de cada
actividad dentro de un proceso de negocio.

Figura 1. Esquema de un Proceso de Negocio. Tomado de [2]

Un proceso de negocio está constituido por un conjunto de actividades [2]. La


actividad, como elemento básico, mediante relaciones o dependencias con otras
actividades conforma la estructura de un proceso de negocio. Un evento es el
elemento encargado de realizar la actividad. Pueden ser individuos, grupos de
personas o departamentos organizacionales. El objetivo de una actividad es una
característica propia que indica el propósito de su existencia dentro del proceso de
negocio al que pertenece. Un recurso es todo aquello que es usado o afectado por las
actividades. A menudo son considerados como entradas, salidas o resultados, o
herramientas.
A continuación se presentan algunos de los estándares existentes para abordar la
Notación del modelado de procesos de negocio.

2.2 Integration Definition for Function Modeling – IDEF.

Aun cuando la familia IDEF no es propiamente un estándar, se incluye en este


apartado, por cuanto junto con BPMN son las notaciones más utilizadas para el
Modelamiento de Procesos de Negocio. La familia IDEF comprende una serie de
técnicas, todas ellas independientes entre sí. Cada método es útil para describir una
perspectiva particular: IDEFØ (modelamiento funcional o actividades), IDEF1
(modelamiento de información), IDEF1x (modelamiento de datos), IDEF2 (captura la
dinámica de procesos), IDEF3 (captura la descripción de procesos), IDEF4 (diseño
orientado a objetos) e IDEF5 (captura de ontologías). De estas técnicas, la que más se
ajusta al paradigma BPM es IDEF3.
IDEF3, es una técnica de modelación para representar el flujo de trabajo de un

77
proceso, así como sus objetos participantes a partir de la descripción dada por un
experto. Permite documentar a nivel de detalle un proceso facilitando su análisis a
través de la identificación y captura del conocimiento crítico del mismo. Proporciona
un mecanismo para recoger y documentar los procesos, captura la precedencia y las
relaciones de causalidad entre las situaciones y acontecimientos, proporcionando un
método estructurado para expresar el conocimiento acerca de cómo un sistema,
proceso, o una organización funcionan.
Los componentes fundamentales que emplea IDEF3 en su representación son:
unidad de trabajo, ligas, conexiones y referencias. En la Tabla 1 se muestra una
descripción y representación gráfica de los Componentes básicos de este Modelo.

Tabla 1. Componentes Modelo IDEF3. Fuente: Los Autores

2.3 Business Process Modeling Notation - BPMN

Es una notación gráfica para modelar flujos de proceso de negocio. El objetivo


principal de BPMN es ofrecer una notación entendible por todos los participantes en
los procesos de negocio y su automatización, desde los analistas de negocio que crean
los primeros borradores de los procesos, hasta los desarrolladores responsables de
implementar la tecnología que lleva a cabo los procesos [3].
BPMN permite soportar la representación de conceptos que son aplicables al
modelado de procesos, es decir, que otros modelos que usan las organizaciones con
propósitos de negocios quedan excluidos del alcance de BPMN, como por ejemplo,

78
estructuras organizacionales y recursos, descomposiciones funcionales, datos y
modelos de información, estrategias y reglas de negocios [4].
En la Tabla 2 se muestra una descripción y representación gráfica de los
elementos de BPMN-BPD, la cual ha sido adaptada de [4].

Tabla 2. Conjunto de Elementos BPMN-BPD. Fuente: Los Autores.


ELEMENTO / DESCRIPCION NOTACION
Event - evento
Un evento es algo que "ocurre" durante el curso de un proceso de negocio. Estos
acontecimientos afectan el flujo del proceso y por lo general tienen una causa (de
activación) o un efecto (resultado).
Start
Indica el inicio de un proceso.

Intermediate
Eventos intermedios, se producen entre el inicio
y el término del evento. Indica que afectará el
flujo del proceso, pero no se iniciará o terminara
el proceso.
End
Indican donde finalizará el Proceso, el flujo de
secuencia del Proceso y por tanto no tienen
ningún Flujo de secuencia saliente.
Activity
Una Actividad es un término genérico para describir el trabajo que es ejecutado
dentro de un Proceso de Negocio. Una actividad puede ser atómica o compuesta.
Task (Atomic) - Tarea (Atómica)
Una tarea es una actividad atómica que se
incluye dentro de un proceso. Se usa cuando el
trabajo en el proceso no está roto a un mayor
nivel de detalle del Modelo de Procesos.
Process/Sub-Process (Proceso/Sub-proceso)
Un sub-proceso es una actividad compleja que
se incluye dentro de un proceso. Es complejo en
la medida en que puede dividirse en un mayor
nivel de detalles (un proceso) a través de un
conjunto de sub-actividades.
Gateway – Puerta de Enlace
Se utiliza para controlar la divergencia y
convergencia de múltiples secuencias de flujo.
Por lo tanto, determinará ramificación,
bifurcación, la fusión y unión de caminos.

Sequence Flow - Flujo de secuencia

79
ELEMENTO / DESCRIPCION NOTACION
Se utiliza para mostrar el orden en que las actividades se llevarán a cabo en un
proceso.
Normal Flow - flujo normal
Se refiere a la secuencia que proviene del inicio
del evento y continúa las actividades a través de
alternativas y caminos paralelos, hasta que
termina en un evento de finalización.
Conditional flow - Flujo Condicional
Puede tener condiciones que se evalúan en
tiempo de ejecución para determinar si el flujo
se va a usar. Si el flujo es condicional saliente
de una actividad, entonces la secuencia de flujo
tendrá un mini-diamante en el principio de la
línea.
Message Flow - Flujo de mensajes
Se utiliza para mostrar el flujo de mensajes
entre dos entidades que están preparados para
enviar y recibir. En BPMN, dos carriles en el
diagrama representan las dos entidades.

Swimlanes
El concepto de Swimlanes se utiliza para particionar y/o organizar actividades. Hay
dos principales tipos de swimlanes: Pools y Lane
Pool
Representa cada uno de los participantes en un
proceso.

Lanes
Es una subpartición dentro de pool, amplia la
longitud total, ya sea vertical u
horizontalmente.
Cada carril se utiliza para organizar y clasificar
las actividades.

3 Características funcionales de los modelos de procesos de


negocio.

Para obtener la información necesaria para desarrollar este aspecto, se llevó a cabo
una revisión sistemática de la literatura relacionada con las especificaciones de los
Modelos de Procesos de negocio, con el fin de identificar las características
funcionales a ser generalizadas, y parametrizar la información mínima que debe ser

80
aportada a los modelos para su correcta generación. El objetivo de esta revisión
sistemática es que a partir de investigaciones preliminares se pueda contar una base
conceptual para diseñar un Metamodelo que permita integrar modelos procesos de
negocio.
Aún cuando la mayoría de los documentos seleccionados no están directamente
relacionados con Procesos de Negocio, en Rolon [5] y Pessagno [6] se parte de la
premisa que los procesos de software y los procesos de negocio tienen ciertas
similitudes, ya que ambos tratan de capturar las principales características de un grupo
de actividades ordenadas que son llevadas a cabo para lograr una meta; de Acuña[7]
y Sharp [8] se determina que en ambos casos, el objetivo es obtener un producto para
los clientes o para otros implicados por el proceso.
En cuanto al modelado de los dos tipos de procesos, para Finkelstein [9], un
modelo de proceso software es una descripción abstracta de las actividades por las
cuales el software es desarrollado y para Dufresne [10], un modelo de procesos de
negocio describe las actividades involucradas en el negocio y la manera en que se
relacionan unas con otras e interactúan con los recursos necesarios para lograr la meta
del proceso. Wedemeijer [11], citado por Rolon [5], define al modelo conceptual del
proceso como un modelo abstracto del proceso de negocio cuyo propósito es perfilar
todas las acciones indispensables para producir los resultados esenciales.
La necesidad de una aproximación metodológica basada en el desarrollo dirigido por
modelos para la construcción de sistemas ubicuos que den soporte a procesos de
negocio, es planteada por [12], investigación en la que se llevaron a cabo estudios
sobre la repercusión que puede tener la introducción de la Computación Ubicua en
entornos gestionados por Procesos de Negocio. De estos estudios, Giner et al,
identificaron algunos beneficios de utilizar la computación ubicua, de los cuales para
el caso particular de este estudio se resaltan:
Adaptación al contexto, implica que un cambio del entorno puede disparar eventos
del Proceso de Negocio, obligando a que éste se adapte a la nueva situación. Esto
aporta un mayor dinamismo en los Procesos de Negocio, permitiendo su adaptación al
cambio sin necesidad de un rediseño completo.
Interoperabilidad entre sistemas, los Procesos de Negocio pueden involucrar a varias
organizaciones o sistemas distintos dentro de una misma organización. El Sistema
deberá ser capaz de integrar sistemas legados así como comunicarse con sistemas
externos de forma sencilla.
Por su parte, Nieto et al [13] proponen un conjunto de conceptos para evaluar
métodos de modelado para procesos de negocio utilizando tres niveles de
representación de una aplicación web organizacional, de integración y Web. El
aporte de esta investigación consiste en la identificación y clasificación de un
conjunto de conceptos los cuales son utilizados para determinar los conceptos que se
modelan en cada nivel de abstracción y para desarrollar un método de evaluación que
ayude a distinguir qué capacidades de modelado tiene un método particular en los tres
niveles de abstracción. Concluyen que considerado diferentes niveles de abstracción,
permite separar los servicios de los elementos que los proporcionan. Esta separación
permite tratar la evolución y la interoperabilidad de los sistemas de manera cómoda
Durante la evaluación y análisis de los estudios primarios se identificaron como
relevantes las siguientes características funcionales que puede servir de base para

81
diseñar un Metamodelo que integre diferentes modelos de procesos de Negocio:

Interoperabilidad
Mantenibilidad
Usabilidad

En la tabla 3 se resumen los trabajos que evalúan o estudian estas características.

Tabla 3. Resumen trabajos que evalúan cada una de las características,


fuente: Los autores

Característica
Referente
Funcional
Interoperabilidad [12][13][6][14][15][16][17][18][19]
Mantenibilidad [5][12][13][20][14][21][15][16]
Usabilidad [14][21][15][16]

De esta revisión, se toman como características funcionales para incorporar en el


diseño del Metamodelo, las siguientes, definiéndolas de acuerdo al estándar ISO 9126
[22]:
Funcionalidad: La capacidad del producto para proporcionar las funciones que un
modelo debe satisfacer para las actividades que el proceso de negocio establece.
Usabilidad - Facilidad de Uso. La capacidad del Metamodelo para ser
comprendido, aprendido, utilizado y que sea atractivo para el usuario, cuando es
utilizado bajo condiciones especificadas.
Mantenibilidad. La capacidad del producto software para ser modificado. Las
modificaciones pueden incluir correcciones, mejoras o adaptaciones del software a
cambios de ambiente y en requisitos y especificaciones funcionales.

4 Resultado

4.1 Estructura por niveles propuesta.

Tomando como referencia la estructura por niveles que define Pérez [17] y la que
propone la OMG2 [1], el Metamodelo para integrar modelos de procesos de negocio
también presenta una estructura basada en niveles de abstracción que van a permitir
distinguir entre los distintos niveles conceptuales que intervienen en el modelado de

2 OMG - Object Management Group, Grupo de Gestión de Objetos

82
un proceso de negocio.
En la tabla 4, se relacionan los niveles estructurales de estas dos arquitecturas y como
se relacionan con el Metamodelo Integrador propuesto, donde cada nivel representa el
grado de cooperación o compatibilidad entre actividades distintas:

Tabla 4. Niveles Estructurales de Arquitecturas


ESTRUCTURA ESTRUCTURA OMG ESTRUCTURA
PEREZ [17] [1] PROPUESTA

Nivel 1: Integración Nivel M0: Instancias de Nivel 0: Modelo de un


Punto a Punto Modelos M1 Proceso Especifico

Nivel 2: Integración Nivel 1: Middleware de


Nivel M1: Modelos
Estructural Funcionalidad

Nivel 3: Integración
Nivel M2: Metamodelo
de Procesos
Nivel 2: Servicios de
Integración
Nivel 4: Integración Nivel M3: Meta-
Externa Metamodelo

De acuerdo a esta estructura propuesta, la arquitectura del Metamodelo se


representaría en tres capas: capa de servicios, capa de integración y capa de
Repositorio de Modelos, representada en la figura 3.

Fig 2. Propuesta Estructurada por Capas

83
4.2 Capa de Servicios.

En la Capa de Servicios, se tienen las capacidades básicas aplicables a las


características de calidad relacionadas con la Usabilidad y Mantenibilidad.

En el paquete Usabilidad, se deben incorporar las rutinas que permitan una


comunicación eficiente entre el Metamodelo y el usuario final, es decir, que sea
comprendido, utilizado fácilmente y que sea atractivo para un usuario. La
herramienta de facilitar al usuario entender la forma en que se puede usar para
efectuar diferentes tareas. Es fundamental que las funciones asociadas a la
diagramación sean fáciles de comprender y ubicar por los diferentes tipos de usuarios.
Así mismo, debe contar con una interfaz gráfica que agrade visualmente al usuario,
además de presentar consistentemente la información y las acciones de que dispone la
herramienta.
En el paquete mantenibilidad, las rutinas deben estar orientadas a permitir que el
producto obtenido (el modelo resultante de integrar varios modelos) pueda ser
modificado. Las modificaciones pueden incluir correcciones, mejoras o adaptaciones
de acuerdo a cambios en los procesos de negocio definidos inicialmente.

4.3 Capa de Integración.

En esta capa, se encuentra el middleware, que permite la integración de modelos de


procesos de Negocio. Especifica los mecanismos de descripción de las
subcaracterísticas de calidad incluidas en la funcionalidad. El metamodelo debe
proveer la notación adecuada para la representación de los procesos que lo
conforman.
Paquete Exactitud, aquí se encuentran las especificaciones que permitan validar
que se obtienen modelos que se ajustan correctamente a las actividades definidas en
los procesos. Es necesario que los diagramas generados por la herramienta sean
completos y consistentes.
Paquete Interoperabilidad, contienen las rutinas para interactuar con uno o más
modelos de procesos existentes. Esto implica la definición de un lenguaje genérico
que interprete la simbología de los diferentes modelos. Incluye las clases, donde se
asocian el esquema del metamodelo a los modelos. La herramienta debe permitir
representar modelos de procesos de negocio y que estos pueden estar compuestos por
uno o más de ellos, hay que saber si el producto tiene funcionalidades utilizadas por
otro sistema o si otros sistemas utilizan sus funcionalidades para llevar a cabo el
modelado.
Paquete Seguridad, componentes para proteger los modelos, de modo que las
personas o los sistemas no autorizados no puedan leerlos o modificarlos, y a las
personas o los sistemas autorizados no se les niegue el acceso a ellos.

4.4 Capa de Repositorio de Modelos.

En la Capa Repositorio, se encuentran almacenados los modelos específicos a cada

84
uno de los procesos del Negocio. Por lo tanto debe implementar las rutinas necesarias
para acceder a los modelos inter-empresa y/o inter-empresas.

5 ARQUITECTURA PARA EL METAMODELO


INTEGRADOR

En el mercado se encuentran disponibles diversas herramientas de software para


realizar el Modelamiento de los Procesos de Negocio. Así mismo, esas herramientas
se ajustan a los dos estándares para la Notación de Procesos, descritos: estándar
BPMN y Estándar IDEF3.
Como la notación gráfica de estos dos estándares, son las más utilizadas, la
arquitectura del Metamodelo Propuesto integrará Modelos que se adapten a estos
estándares. En tal sentido, en la figura 4, se presenta la Arquitectura planteada para el
Metamodelo, consistente básicamente en la incorporación de cuatro paquetes
indispensables para realizar la integración: Paquete IDEF3, Paquete BPMN, Paquete
PARSER (Convertidor) y paquete HOMOLOG (Homologador), adicionalmente se
requiere el uso de una Interfaz que contendrá el Lenguaje de interpretación y
conversión de Modelos.

Fig 3. Arquitectura del Metamodelo Propuesto

El funcionamiento básico del Metamodelo radica desde el momento que se obtiene un


documento que contiene las especificaciones del Modelo. Dependiendo del lenguaje
utilizado para la ejecución del proceso, el Metamodelo hace uso del paquete
respectivo, sea BPMN o sea IDEF3. Cada uno de estos paquetes incorpora la
información contenida en el archivo y genera un archivo de Entrada XMI, el cual es
enviado al paquete HOMOLOG, para que se realice la Homologación respectiva y se

85
envíe esta información al paquete PARSER, para hacer la conversión respectiva, la
cual quedara almacenada en otro archivo de salida Homologado XMI. A
continuación se explica en detalle cada uno de estos paquetes.

7.1.1 Paquete Estándar IDEF3.

Fig 4. Metamodelo para Estándar IDEF3

Para el manejo de este paquete, se diseñó un metamodelo con base en la notación


gráfica que utiliza IDEF3. En este metamodelo, cada una de las clases representa cada
símbolo gráfico utilizados por el estándar IDEF3 para la modelación de los procesos
de negocio.
Un Modelo de Procesos de Negocio bajo el estándar IDEF3 está compuesto por
una serie de actividades, las cuales tienen conexión a otras actividades, esta conexión
se presenta por una liga o flujo y dependiendo el esquema de la liga indica que tipo de
actividad se debe realizar.
En este metamodelo, se parte de una clase principal denominada ActividadI3, y a
ella se asocian otras clases que representan el resto de símbolos que maneja el
estándar IDEF3. El objetivo primordial de este metamodelo, es interpretar un Modelo
especificado en uno lenguajes estándares para la ejecución de procesos en esta
notación.

5.1 Paquete Estándar BPMN

Al igual que en el caso anterior, el estándar BPMN define una serie de símbolos
que permiten especificar las actividades de un Proceso de Negocio, que se desea
modelar. La notación planteada por BPMN, se encuentra detallada en la Tabla 2.
En este estándar, las actividades se encuentran organizadas teniendo en cuenta el
participante encargado de ejecutarla. Por lo tanto, en BPMN, un proceso de negocio

86
se encuentra conformado por un conjunto de participantes, cada uno de los cuales
especifica las actividades o tareas que desarrolla. La secuencia de actividades está
determinada por un flujo que determina qué o quién continua con la ejecución de la
tarea.
En la figura 6, se plantea el Metamodelado encargado de interpretar un modelo
desarrollado con la notación específica de uno de los lenguajes estándar para la
ejecución de procesos BPMN.

Fig 5. Metamodelo para Estándar BPMN

5.2 Paquete HOMOLOG.

Hasta el momento lo que se ha planteado, son dos metamodelos que van a permitir
interpretar un modelo que ha sido diseñado previamente utilizando uno de los
estándares más ampliamente difundidos.
Ya se ha enunciado que el objetivo primordial del Metamodelo integrador, es
precisamente contar con un modelo que permita integrar diferentes modelos de
proceso de negocio. Vale la pena aclarar, que los modelos pueden utilizar el mismo o
diferente estándar. Para poder realizar esto, se plantea el Metamodelo Homolog,
figura 6, el cual tiene como objetivo, proporcionar un mecanismo de homologación de
los símbolos utilizados en el diseño original, el cual debe estar previamente
interpretado por el Metamodelo BPMN o por el Metamodelo IDEF3.

87
Fig 6. Metamodelo Homolog (Homologador)

Este Metamodelo debe contar con una tabla de Homologaciones, que informa que
símbolo de un estándar se homologa con qué símbolo del otro estándar. Los
metamodelos BPMN e IDEF3, fueron diseñados de tal forma que los nombres de las
clases fueran fácilmente homologables. Cuando existen símbolos específicos para
cada estándar, se plantea la incorporación de Interfaces, que facilitan el proceso de
Homologación.

5.3 Paquete PARSER (Convertidor)

Este paquete contiene el Metamodelo encargado de realizar la generación de un


Modelo de Procesos de Negocio Integrado. Para esto se plantea la clase Conversor,
encargada de recibir del Metamodelo Homolog, la respectiva tabla de
Homologaciones y generar un archivo XMI, que contiene la descripción del Modelo
Integrado. La especificación de este metamodelo, se aprecia en la Figura 6.

88
Fig 4. Metamodelo Parser (Convertidor)

6 Conclusiones

En este trabajo se presenta el diseño de un Metamodelo que permite integrar modelos


de procesos de negocio. El Modelado de Procesos, es un paso fundamental para la
comprensión y mejora continua de los procesos de una organización. La integración
de los Modelos es esencial para que las organizaciones satisfagan sus requerimientos
de interoperabilidad entre procesos de negocio.
El paradigma BPM relativamente es reciente, por lo que está abierto a muchas
investigaciones. Se ha mencionado en el capitulo anterior, algunas líneas de
investigación que se han derivado de este paradigma, por ejemplo el esfuerzo por
adaptar los estándares de Calidad de Procesos de Software para medir la calidad de
los procesos de Negocio. Así mismo, esta investigación permite obtener un Modelo
genérico que permita integrar diferentes modelos de procesos de Negocio.
El metamodelo presenta una definición precisa de las reglas necesarias para definir
la semántica de los modelos. Esta definición se basa en Metamodelos específicos para
permitir la interoperabilidad entre diferentes Estándares, en el caso de este estudio
para estándares BPMN e IDEF3, pero la misma estructura del Metamodelo Integrador
permite que se adapten nuevos estándares. Esto hace que el Metamodelo sea
dinámico y se ajuste a nuevos requerimientos de las Empresas o del medio.
Para investigaciones futuras, se plantea la posibilidad de validar la funcionalidad
del Metamodelo, diseñando una herramienta de software para incorporar la lógica del
Metamodelo e implementar una medida de evaluación de Modelos de Procesos de
Negocio en los aspectos de calidad que se le incorporan al Metamodelo, tales como la
usabilidad, mantenibilidad y funcionalidad.
Otra posibilidad es la de integrar el Metamodelo en una Arquitectura orientada a
Servicios (SOA), para determinar la interoperabilidad del Metamodelo en diversas
plataformas.

89
Referencias

1. OMG (2006). Business Process Modeling Notation Specification. Disponible en


http://www.omg.org/spec/BPMN/1.1/PDF
2. Jimenez, C. (2002). Indicadores de Alineamiento entre Procesos de Negocios y Sistemas
Informáticos. Tesis de Magíster, Universidad de Concepción, 2002.
3. BPMN (2005). BPMN Specification. http://www.bpmn.org/.
4. BPMN (2004). BPMN. Business Process Modeling Notation (BPMN), in Copyright
2004, BPMI.org. All Rights Reserved, Version 1.0 May 3 de 2004.
5. Rolon, E.,et al.(2005). Aplicación de Metricas de Software en la evaluacion de Modelos
de Procesos de Negocio. Revista Electrónica de la Sociedad Chilena de Ciencia de la
computación, Vol.6,1
6. Pessagno, L. et al. (2008a). El Modelado de los Procesos de Negocio a través de
Lenguajes, Notaciones y Herramientas de Software Libre, LVIII Convención Anual de
AsoVAC. Yaracuy, Venezuela.
7. Acuña, S. y Ferré, X. (2001). Software Process Modelling. Proceedings of the 5th.
World Multiconference on Systemics, Cybernetics and Informatics (SCI 2001).
8. Sharp, A., y McDermott, P. (2000). Workflow Modeling: Tools for Process
Improvement and Application Development. London: Artech House (Pub).
9. Finkelstein, A., et al. (1995). Process Modelling: a Critical Analysis. Information and
Software Technology, Volume 37, Issue 4.
10. Dufresne, T. y Martin, J. (2003). Process Modeling for E-Business. George Mason
University, Spring 2003, INFS 770 - Methods for Informations Systems Engineering:
Knowledge Management and E-Business.
11. Wedemeijer, L., y De Bruin, E. (2004). Conceptual Process Models: Using Process
Architecture in Practice. In Proceedings of the 15th International Workshop on Database
and Expert Systems Applications (DEXA´04). Zaragoza, España: IEEE Computer
Society.
12. Giner, P., y Torres, V. (2008). Building Ubiquitous Business Process following an
MDD approach. IEEE Latin America Transactions, vol. 6, no. 4.
13. Nieto, E., Ortiz, J., Rodríguez, G. (2006). Evaluación de herramientas para procesos de
negocio en tres niveles de abstracción. Looking Forward, Vol 13, Computer Society
IEEE.
14. QSOS (2006). QSOS Introduction, Disponible en http://www.qsos.org/
15. Marín, B., et al. (2007). Calidad en Modelos Conceptuales: Un Análisis
Multidimensional de Modelos Cuantitativos basados en la ISO 9126. RPM-AEMES,
VOL. 4, Nº Especial, ISSN: 1698-2029.
16. Pérez, M., et al (2008). Propuesta de Modelo para Especificar la Calidad de
Herramientas de Pruebas. Actas de los Talleres de las Jornadas de Ingeniería del
Software y Bases de Datos, Vol. 2, No. 4, ISSN 1988-3455.
17. Pérez, P., et al. (2006). Interoperabilidad de sistemas guiado por modelos de procesos de
negocio: Una aplicación en el sector sanitario. X Congreso de Ingeniería de
Organización, Valencia (España).
18. Boronat, A., et al (2005). Utilización de Maude desde Eclipse Modeling Framework para
la Gestión de Modelos. Actas del II Taller sobre Desarrollo de Software Dirigido por
Modelos, MDA y Aplicaciones (DSDM 2005), España.
19. Martínez, J. (2004). La Necesidad de Interoperabilidad de la Información en los servicios
de Administración Electrónica: XML, Una Posible Solución. Tecnim@p Comunicación,
Murcia.
20. Pessagno, L., et al. (2008b). Modelo de calidad para herramientas FLOSS que dan apoyo

90
al modelado de procesos del negocio. Revista Española de Innovación, Calidad e
Ingeniería del Software, Vol.4, No. 1.
21. Rolon, E., et al (2007). Familia de Experimentos para validar medidas para Modelos de
Procesos de Negocio con BPMN. Keynote Quality Metrics For Business Processes
PNIS‘07.
22. ISO (2001) . ISO/IEC 9126-1, Software Engineering. Product Quality. Part 1: Quality
Model.

91
Algoritmos Matemáticos para fusión de imágenes
satelitales.

Rubén Javier Medina Daza 1-2, Luis Joyanes 2, Carlos Pinilla 3, Sandra
Velazco 2
1) Universidad Distrital Francisco José Caldas, Bogotá D.C., Colombia, 2)
Universidad Pontificia de Salamanca, Madrid, España. 3) Universidad de Jaén. Jaén,
España.
1) rmedina@udistrital.edu.co, 2) luis.joyanes@upsam.net, 3) cpinilla@ujaen.es

Resumen: En lo que se refiere a las imágenes de satélite (fuentes de


datos), la fusión de imágenes es una respuesta a la frecuente necesidad
de tener una sola imagen con datos de alta resolución espectral y
espacial a partir de imágenes multiespectrales y pancromáticas de
diferentes resoluciones espaciales y habitualmente procedentes de
diferentes sensores remotos. Los procedimientos convencionales de
fusión de imágenes están basados en diferentes técnicas, tales como la
transformación RGB a IHS, la transformación de Brovey o la
transformación a componentes principales, entre otros. Estos métodos
no son completamente satisfactorios debido a la degradación de la
información espectral. En los últimos años se ha empezado a
experimentar un procedimiento que usa la transformada de Wavelet en
dos dimensiones y diversos autores han reportado que dicha
aproximación conserva la riqueza espectral de las imágenes originales.
En este artículo se presenta el estudio de los algoritmos matemáticos
necesarios para llevar a cabo la fusión de imágenes.

Palabras Claves: Sensores Remotos, Fusión de Imágenes,


Transformación RGB a IHS, Transformada de Brovey, Transformada
de Wavelet, Imágenes multiespectrales, imágenes pancromáticas,
IKONOS, Algoritmos matemáticos.

Abstract: In regard to satellite imagery (data sources), image fusion is


an answer to the frequent need of merging in a single image high
spectral and spatial resolution data from multispectral and panchromatic
images having different spectral resolution and coming from different
remote sensing applications. Conventional procedures for image fusion
include transformation from RGB to IHS, principal component analysis
(PCA) and Brovey method transfomormation, among others. These
methods are not satisfactory enough due to the distortions that result in
loss of the original spectral information. In the last years, experiments
using the bi-dimensional wavelet transform have been carried out in
image fusion and have demonstrated to preserve a lot of the spectral
information from the original images with the help of specialized

93
software. In this article one presents the study of the mathematical
algorithms for the merger of images.

Keywords: Remote sensing, image fusion, HIS transformation, Brovey


Transformation, wavelet transformation, multispectral image,
panchromatic image, IKONOS, mathematical algorithms.

1 Introducción

El principal objetivo de las técnicas digitales es procesar una imagen de forma que
resulte más adecuada que la original para una aplicación específica.
El procesamiento de los datos digitales se enfoca a lograr tres objetivos básicos:
Corrección de los datos, Realce de la información original y clasificación o extracción
de información. En una alta proporción, los datos suministrados por la agencias
distribuidoras de datos en forma digital, realizan las correcciones básicas tanto
geométricas como radiométricas; no obstante, algunos procesos requieren datos
brutos, para lo cual el usuario adquiere este tipo de producto, quedando a su cargo la
corrección del mismo.
La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una
sola imagen datos de alta resolución espectral y espacial a partir de imágenes
multiespectrales y pancromáticas de diferente resolución espacial y diferentes
sensores remotos. La fusión permite obtener información detallada sobre el medio
ambiente urbano y rural, útil para una aplicación especifica en estudio.
Los procedimientos convencionales de fusión de imágenes están basados en
diferentes técnicas, tales como la transformación RGB a IHS, la transformación de
Brovey, la transformación de componentes principales, entre otros. En los últimos
años se ha empezado a experimentar un procedimiento que usa la transformada de
Wavelet en dos dimensiones y diversos autores han reportado que dicha aproximación
conserva la riqueza espectral de las imágenes originales.
En este trabajo se realiza la revisión de los algoritmos matemáticos de los métodos
tradicionales de fusión de imágenes, los fundamentos matemáticos de la
descomposición de Wavelet, los conceptos básicos de las técnicas emergentes de
fusión, basada en Wavelet.

2 Fusión de imágenes

La fusión de imágenes es una técnica digital que tiene por objetivo mejorar una
imagen multiespectral y así potenciar su uso en diversas aplicaciones. Para ello se
combinan los datos de una imagen pancromática (o una imagen de radar o de otro
sensor no óptico) de alta resolución espacial con los de una imagen multiespectral de
alta resolución espectral. El resultado final es una nueva imagen en la cual se ha
conservado una buena parte de la riqueza espectral original y se ha ganado resolución
espacial.
La fusión de imágenes se puede usar para:

94
Mejorar la corrección geométrica de una imagen
Realzar elementos que no son visibles en una imagen
Complementar datos para mejorar una clasificación
Detectar cambios en una zona usando datos multitemporales
Reemplazar datos anómalos de una imagen
Adicionar datos faltantes en una imagen

La fusión de imágenes se puede realizar por diferentes métodos, según sea el lugar
donde se ejecuta, en la cadena de producción de información espacial:

A nivel de datos
A nivel de objetos
A nivel de decisiones

La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel de


pixel3. Las técnicas para realizar la fusión a este nivel pueden ocurrir en diferentes
dominios:

En el dominio de la frecuencia espacial4


En el dominio espectral
En un dominio mixto, espacial y espectral

3 METODOS TRADICIONALES DE FUSION DE IMÁGENES

La fusión de imágenes convencional, es decir aquella que está implementada en los


programas de procesamiento digital de imágenes, permite obtener resultados
aceptables y útiles. Los métodos convencionales son los siguientes:

3.1 En el dominio espectral

Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en el


cual una imagen representa el componente correlacionado, por ejemplo

 El componente principal 1 (CP1) en el espacio de Componentes Principales


 el componente de intensidad en el espacio de percepción de color IHS
(Intensidad, Matiz y Saturación)
 Aplicar una transformación a las bandas de la imagen
 Reemplazar el componente que representa el detalle espacial por la imagen
pancromática

3
Píxel es el elemento mínimo que conforma una imagen. Píxel es una contracción de picture
element.
4
La frecuencia espacial es una medida de la variación del nivel digital de una imagen en
función de la distancia.

95
 Transformar la imagen resultante en el dominio original de la imagen

Se analiza como ejemplo los métodos usando un recorte de tamaño 20 por 20 de la


zona de estudio, imagen Ikonos del Parque Simón Bolívar en Bogotá-Colombia. (Ver
imagen 7).

3.2 Método Tradicional RGB-IHS:

Registrar una composición a color RGB de la imagen multiespectral con una imagen
pancromática, usando el mismo tamaño de píxel de esta última.
Transformar los componentes RGB en componentes IHS (Intensidad Matiz y
Saturación)[1].
Ajustar el histograma de la imagen pancromática al histograma de la componente I.
Reemplazar el componente I por la imagen pancromática.
Realizar la transformación inversa IHS a RGB

3.3 Método tradicional RGB-Componentes Principales:

Este método incluye:

Obtener los componentes principales de una composición RGB de la imagen


multiespectral.
3
Usando las bandas B1, B2 y B3, se genera los vectores en cuyos componentes
serán NDij , se calcula las media para cada banda por separado, para hallar la matriz
de varianza y covarianza se usa la siguiente formula
1 n
V   NDi    NDi    , se resuelve la ecuación característica
t

n  1 i 1
V   I  0 , los valores propios de V son las soluciones de la ecuación
característica, para obtener el porcentaje de varianza por cada componente Principal
 %VCPi  . Para hallar los espacios propios asociados a cada valor propio se

resuelven sistemas homogéneos de la forma  A  i I  vi  0 . Se construye la matriz


ortogonal Q colocando como columnas a los vectores u1 , u2 ,..., un , para hallar el
determinante de Q , es decir det(Q)  1 , para calcular Q 1VQ . Los productos
NDij  Q1 NDij proporcionan las coordenada en los nuevos ejes, de esta manera se
obtiene los componentes principales CP1, CP2 y CP3.
Escalar la imagen pancromática dentro del rango de niveles digitales del
componente principal 1 y reemplazar este componente con dicha imagen.
Aplicar una transformación inversa de componentes principales para obtener una
nueva imagen RGB.
Para realizar la transformada inversa, la imagen final es redibujada utilizando una de
las siguientes técnicas:

96
Vecino más cercano.
Usa el valor del pixel más cercano para asignar al valor de pixel de salida, el cual deja
el valor del pixel igual al valor digital en cada posición.
Interpolación bilineal
Usa el valor de los niveles digitales de la ventana de 2x2, el promedio de los cuatro
pixel es el valor de salida.

Fig 6. Técnica de interpolación bilineal

Convolución cubica.
Usa los valores de los niveles digitales de la ventana de dieciséis pixel en 4x4, el
promedio de estos pixeles es el valor de salida para generar la nueva banda.

Fig 7. Técnica interpolación Cúbica

Método Tradicional Transformada de Brovey.

Este método se basa en obtener una nueva imagen RGB usando la Transformada
de Brovey que combina tres bandas originales de una imagen multiespectral con la
imagen pancromática.
El algoritmo usado es:

Rijk  ( M ijk / M ijk  M ijl  M ijm ) * H ij

97
Rijk Imagen fusionada
H ijijk Imagen pancromática
M
Para generar las nuevas imagenes fusionadas se usan las tecinas, vecino más
cercano, interpolación bilineal y convolución cubica.

Método Tradicional Multiplicación.


Este método aplica un algoritmo simple de multiplicación, para incorporar el
contenido de la imagen pancromática en la imagen multiespectral:

Rijk  M ijk * H ij
En donde,

Rijk Imagen fusionada


M ijk Imagen multiespectral - banda k
Para generar las nuevas imagenes fusionadas se usan las tecinas, vecino más
cercano, interpolación bilineal y convolución cubica.

4 LA TRANSFORMADA DE WAVELET

Una transformación wavelet permite descomponer una imagen en dos tipos de


coeficientes: aproximación, que representan la riqueza espectral, y detalle, que
representan la resolución espacial.
La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo
cual significa que los componentes de aproximación y detalle se pueden examinar en
diferentes tamaños de píxel.
En cada nivel de descomposición wavelet se tiene una resolución espacial igual a
la mitad de la resolución anterior. Por ello, la descomposición de la imagen
pancromática de nivel 2 de la Imagen 8 corresponde a un tamaño de píxel equivalente
al de la imagen multiespectral sin descomposición, considerando una imagen
pancromática de resolución espacial de 1m y una imagen multiespectral de resolución
espacial de 4m

Fig 8. Descomposición coeficientes de aproximación y detalle

98
La descomposición wavelet es un proceso iterativo, con sucesivas aproximaciones,
la cual recibe el nombre de descomposición de árbol.
La imagen original es descompuesta en coeficientes de aproximación (A1) y
coeficientes de detalle (D1). Los coeficientes de aproximación (A1) se descomponen
en nuevos coeficientes de aproximación (A2), y coeficientes de detalle (D2). Los
coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de
aproximación (A3) y detalle (D3) y así sucesivamente. Para recuperar la imagen
original se adiciona la última descomposición de los coeficientes de aproximación con
cada una de las descomposiciones de los coeficientes de detalle, tal como se muestra
en la Imagen 9.

Fig 9. Descomposición de árbol.

5 FUSION DE IMÁGENES USANDO WAVELET

Este método consiste en combinar los coeficientes de la Wavelet de la imagen


pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la
relación entre los tamaños de píxel de la imagen pancromática y de la imagen
multiespectral.
La fusión de imágenes basada en Wavelet puede ser realizada de dos formas:
1). Remplazando los coeficientes de detalle de la Wavelet de la imagen multiespectral
por los coeficientes correspondientes de la imagen pancromática.
2). Adicionando los coeficientes de detalle de la wavelet de la imagen pancromática a
los coeficientes correspondientes de la imagen multiespectral.
Este método de fusión se basa en el hecho que, en la descomposición de wavelet,
las imágenes pl ( l =o,...,n) son versiones sucesivas de la imagen original en escalas
decrecientes; así, los primeros planos de la wavelet de la imagen pancromática de alta
resolución tienen información espacial que no está presente en la imagen
multiespectral.
En el método de sustitución, los planos de wavelet correspondientes a la imagen
multiespectral son eliminados y sustituidos por los planos correspondientes de la
imagen pancromática. Sin embargo, en el método de adición toda la información

99
espacial de la imagen multiespectral es preservada. Así, la gran ventaja del método de
adición es que la información de detalle de ambos sensores es usada.

5.1 PROCEDIMIENTO METODOLOGICO

Como parte de esta investigación se tomo una zona de estudio, sobre la cual se
aplicaron los métodos anteriormente estudiados y posteriormente se realizo la
evaluación de los resultados obtenidos. Los pasos son los siguientes:

Adquisición de imágenes / lectura (Ikonos).


Análisis de información existente sobre la zona de estudio (Bogotá D. C. Parque
Simón Bolívar).
Calculo de estadísticas correcciones y realces.
Geo-referenciación (coordenadas).
Recorte y remuestreo.

Fusión por los métodos tradicionales:

Composición RGB (3), IKONOS


RGB-HIS.
Componentes principales.
Multiplicación.
Transformada de Brovey.
Imagen RGB Fusionada.

Fusión usando la Transformada de Wavelet:

Composición RGB (3), IKONOS


Transformación RGB-HIS
Generación de la Wavelet para la Manipulación de Coeficientes IHS – RGB
Imagen RGB Fusionada con las diferentes familias de Wavelets

A partir de los resultados de los dos procedimientos anteriormente descritos se realiza:

Comparación Imágenes Fusionadas obtenidas por los métodos tradicionales y con la


Transformada de Wavelet con RGB, Imagen original (Correlación espacial y
espectral).

ZONA DE ESTUDIO

La zona de estudio corresponde a una sub-escena de la imagen de Bogotá, localizada


sobre el Parque Metropolitano Simón Bolívar (Imagen 10).
El Parque Metropolitano Simón Bolívar, se encuentra ubicado en el centro de
Bogotá, (Colombia), en la localidad de Teusaquillo. Calle 63 y 53 entre carreras 48 y

100
685.

Fig 10. Imagen RGB (143) Izq. Imagen Pancromática Der. Corresponde al parque
metropolitano Simón Bolívar, 2048 de ancho por 2048 de alto

6 ANÁLISIS Y RESULTADOS de la fusión con los diferentes


métodos de imágenes RGB (143). Parque Simón Bolívar
Bogotá-Colombia.

Coeficiente de correlación de Pearson, mide la relación lineal, que nos sirve para
resumir dos variables cuantitativas de manera conjunta, es el cociente entre las
covarianzas de las dos imágenes entre las variabilidades de la dos imágenes de las
S AB
dos desviaciones típicas, es decir r , no tiene unidades y el rango está
S A SB
definido  1,1 , cuando es positive significa que a medida que crece una variable la
otra también, cuando es negativo significa que a medida que crece una variable la otra
decrece.
Una correlación de +1 significa que existe una relación lineal directa perfecta
(positiva) entre las dos variables. Es decir, las puntuaciones bajas de la primera
variable (X) se asocian con las puntuaciones bajas de la segunda variable (Y),
mientras las puntuaciones altas de X se asocian con los valores altos de la variable Y.
Una correlación de -1 significa que existe una relación lineal inversa perfecta
(negativa) entre las dos variables. Lo que significa que las puntuaciones bajas en X se
asocian con los valores altos en Y, mientras las puntuaciones altas en X se asocian con
los valores bajos en Y.
Una correlación de 0 se interpreta como la no existencia de una relación lineal
entre las dos variables estudiadas.
En la siguiente tabla se muestra la correlación entre las imágenes fusionadas por
métodos convencionales y transformada de wavelet realizado en Erdas y por el

http://www.bogota.gov.co/vis/public%20simon%20bolivar/parque%20simon%20bolivar.htm
l, fecha 03-03-2010

101
método wavelet respecto a las imágenes originales, Ikonos multiespectral y la Ikonos
pancromática usando Matlab.

Tabla 1. Análisis de correlación entre la imagen original multiespectral y las


diferentes imágenes obtenidas por los diferentes métodos de Fusión. (Resolución
espectral), y la imagen pancromática con las mismas imágenes (resolución espacial)

CORRELACION (Resolución Especial con


CORRELACION (Resolución Espectral con la Transformada de Wavelet y métodos
Transformada de Wavelet y métodos convencionales) convencionales)
Imágenes R G B Imágenes R G B
RGB/bior1.3 0.9164 0.9841 0.9888 PAN/bior1.3 0.2322 0.9592 0.9888
RGB/bior1.5 0.9039 0.9786 0.9834 PAN/bior1.5 0.2082 0.9549 0.9834
RGB/bior2.2 0.9095 0.9809 0.9858 PAN/bior2.2 0.2176 0.9575 0.9858
RGB/bior6.8 0.9248 0.9837 0.9874 PAN/bior6.8 0.1984 0.9564 0.9874
RGB/db9 0.9241 0.9836 0.9874 PAN/db9 0.1999 0.9565 0.9874
RGB/dmey 0.9189 0.9820 0.9862 PAN/dmey 0.2007 0.9565 0.9862
RGB/haar 0.8833 0.9788 0.9856 PAN/haar 0.2745 0.9603 0.9856
RGB/rbio3.1 0.8746 0.9392 0.9377 PAN/rbio3.1 -0.0935 0.8959 0.9377
RGB/rbio6.8 0.9245 0.9837 0.9876 PAN/rbio6.8 0.2003 0.9566 0.9876
RGB/sym2 0.9345 0.9809 0.9832 PAN/sym2 0.1309 0.9495 0.9832
RGB/ RGB a IHS -0.2912 0.1194 0.1796 PAN/ RGB a IHS 0.9424 0.2555 0.1796
RGB/ CP_NN 0.9980 -0.8686 -0.9849 PAN/ CP_NN 0.0132 -0.9864 -0.9849
RGB/ CP_IB 0.9980 -0.8686 -0.9849 PAN/ CP_IB 0.0132 -0.9864 -0.9849
RGB/ CP_CC 0.9980 -0.8686 -0.9849 PAN/ CP_CC 0.0132 -0.9864 -0.9849
RGB/ M_NN 0.6066 0.9509 0.9669 PAN/ M_NN 0.6468 0.9509 0.9669
RGB/ M_IB 0.6066 0.9509 0.9669 PAN/ M_IB 0.6468 0.9509 0.9669
RGB/ M_CC 0.6066 0.9509 0.9669 PAN/ M_CC 0.6468 0.9509 0.9669
RGB/ TB_NN 0.7603 0.9528 0.9627 PAN/ TB_NN 0.4755 0.9718 0.9627
RGB/ TB_IB 0.7603 0.9528 0.9627 PAN/ TB_IB 0.4755 0.9718 0.9627
RGB/ TB_CC 0.7603 0.9528 0.9627 PAN/ TB_CC 0.4755 0.9718 0.9627

102
Fig 11.Comparacion de un extracto de la imagen original con diferentes imágenes
fusionadas

Con el método tradicional RGB – IHS, la resolución espectral es muy baja


aproximadamente 0.03%, lo mismo pasa con la resolución espacial es baja excepto la
correlación de la imagen pancromática con la banda roja que corresponde a un 0.88%.
En el método de Componentes principales, con las tres técnicas, la resolución
espectral es muy alta aproximadamente 0.90%, sin embargo con las bandas verde y
azul es inversa ya que los valores son negativos, en cambio en la resolución espacial
las correlaciones tienen valores altos con las bandas verde y azul es una correlación
inversa ya que los valores son negativo, sin embargo con la banda roja la correlación
es muy baja.
En el método de Multiplicación y Transformada de Brovey con las tres técnicas
respectivas, Vecino más cercano, interpolación bilineal y Convolución cúbica, las
correlaciones tanto espectrales como espaciales los valores se mantienen muy
cercanos a 0.85, la mejora en la resolución espacial, es en detrimento de la resolución
espectral. lo que se gana en lo espacial se pierde en lo espectral.
Al analizar la resolución espectral y espacial usando la transformada de wavelet la
más baja correlación es la bior1.5.
La mejor resolución espectral y espacial se obtiene con la transformada de wavelet
db6, con respecto a la resolución espectral es muy buena comparándola con las
transformadas haar y bior1.1.
Las imágenes especialmente las obtenidas con base en las diferentes
transformaciones Wavelet tienen similares características visuales, con respecto a la
resolución espacial y espectral, es por esta razón que se realiza el análisis estadístico.
Las imágenes obtenidas con la transformada de wavelet tienen una mejor apariencia
visual que las obtenidas a los métodos convencionales.

103
7 Conclusion

De acuerdo con los resultados obtenidos en el presente trabajo se pueden realizar las
siguientes conclusiones:

En el método RGB – IHS, la resolución espectral se degrada en un 9.996% y la


ganancia en la resolución espacial es mínima, aproximadamente el 0.20%, se podría
decir que es insignificante.
En el método de Componentes Principales con las técnicas: Vecino más cercano,
Interpolación Bilineal y Convolución Cúbica, la resolución espacial es muy buena
(entre 86% y 99%), pero sacrifica la resolución espectral (entre 0.0017% y 0.98%).
En el método de Multiplicación con las técnicas: Vecino más cercano, Interpolación
Bilineal y Convolución Cúbica, las mejoras de la resolución espectral (entre 60% y
96%), pero sacrifica la resolución espacial (entre 0.5% y 40%).
El método de la Transformada de Brovey con las técnicas: Vecino más cercano,
Interpolación Bilineal y Convolución Cúbica, las correlaciones de la resolución
espectral (entre 76% y 96%), pero sacrifica la resolución espacial (entre 0.3% y 55%).
Usando la transformada de Wavelet, db6, bior 6.8, db9 y bior1.1, son las mejores en
fusión de imágenes. Ya que la ganancia de resolución espectral está entre 92% y 98%
y la resolución espacial en promedio de 71%. El método de fusión de imágenes
usando la transformada de Wavelet es mejor que las técnicas estándar dado que esté
método es capaz de mantener la calidad espectral de la imagen multiespectral,
mejorando la resolución espacial.

Referencias

1. GONZALEZ. Rafael,. Tratamiento Digital de Imágenes. Ed, Eddison-Wesley.


1996. EE.UU.
2. NUÑEZ. Javier., IEEE Transactions on Geoscience and Remote Sensing. Vol
37, Nº. 3. May 1999. Multiresolution-Based Image fusion with Additive Wavelet
Descomposition.
3. RIAÑO, Orlando., Nota de clase P.D.I., Universidad Distrital Francisco José de
Caldas.
4. MURRAY. R. Spiegel. Estadística, Segunda edición Mc Graw Hill. 1999
5. ERDAS\IMAGINE 9.1\help\html\image_interpreter\resolution_merge.htm
6. Image Processing. Toolbox For Use whit MATLAB. The Math Works Inc.
7. MICHEL, Misiti. Wavelet Toolbox For Use whit MATLAB. The Math Works
Inc.
8. Image Processing. Toolbox For Use whit MATLAB. Reference. The Math
Works Inc.
Procesamiento Digital de Imágenes. Introducción a ILWIS bajo Windows. Guía de
Usuario. (Traducción: Alberto Boada. Revisión y adaptación por Orlando Riaño M.)
SPOT IMAGE. The catalogue of SPOT products and services.

104
Sistema Integrado de Información para el Régimen
Subsidiado de Salud en Colombia

Camilo Alfonso Vargas 1, Mónica Basto Guevara1, Nathalie Jiménez Millán 1

Julio Barón Velandia 2, Alejandro Daza2

Ingeniería de Sistemas, Universidad Distrital Francisco José de Caldas


1
{camiloalfonso, monibasto, ing.nathalie.jimenez}@gmail.com
2
{jbaron, apdazac}@udistrital.edu.co

Resumen. Dado que el sector salud es uno de los más importantes en


cualquier economía, y una de las mayores industrias de servicios en los
países desarrollados, el proyecto busca brindar soporte desde las
tecnologías de información y las comunicaciones a la prestación de los
servicios de salud a cargo de las Empresas Promotoras de Salud
Subsidiadas (EPS-S), enfocándose principalmente en los procesos del
área administrativa, proporcionando información oportuna, actualizada,
exacta, completa y accesible a las diferentes áreas de la EPS-S, de
manera que se facilite la toma de decisiones mejorando así los procesos
de calidad e igualdad en la prestación de los servicios de salud, y la
calidad de vida de los afiliados.
Palabras Claves: Sistema de Salud, información, EPS-S, calidad de
procesos.

1 Introducción

En Colombia el Sistema de Salud se compone por dos regímenes a los cuales se


puede estar afiliado: el régimen contributivo, al cual se encuentra afiliada la población
con capacidad de pago y el régimen subsidiado dirigido a la población pobre o
vulnerable, este último será en el cual nos centraremos.
El régimen subsidiado es administrado por la Empresas Promotoras de Salud
Subsidiada también conocidas como EPS-S, encargadas de promover la calidad en la
atención a los afiliados, organizar los servicios de salud, afiliar a la población,
recopilar toda la información de los afiliados, realizar labores de promoción y
prevención, administrar eficientemente los recursos con el propósito de brindar
mejores servicios y de calidad al mejor precio, entre otros; constituyéndose en
entidades claves sin las cuales el sistema de salud no podría funcionar
Uno de los principales problemas manifestados por las EPS-S es la incapacidad
técnica de tener, una plataforma integrada, asequible para todos sus funcionarios,
generando la transparencia en todos los procesos que llevan al cumplimiento de
brindar una atención de calidad a la población, que generalmente, se encuentra en
zonas de poco acceso o aislados de los centros urbanos.
Teniendo en cuenta esta problemática constante y visible en todo el territorio

105
nacional, se decidió desarrollar un prototipo que ofreciera una solución a los
principales problemas del sistema administrativo de las EPS-S, ayudando a la toma
de decisiones y mejorando los tiempos de respuesta en cuanto a solicitudes
presentadas por los pacientes, buscando el acercamiento de las instituciones hacia las
diferentes zonas a través de una plataforma en línea.

2 Problemática

Entre los problemas que presenta el Sistema General de Seguridad Social en Salud
(SGSSS) en Colombia se encuentra la calidad de la información que manejan6, dada la
experiencia práctica que se presenta en entidades como Caprecom, Capresoca y
Emdisalud, se puede observar que los sistemas de información de salud en estas
entidades no cuentan con los datos necesarios para proveer apoyo a las necesidades a
nivel de gestión. Una gran parte de estos datos que son registrados y reportados por el
personal de los servicios de salud son poco útiles a la hora de tomar decisiones debido
a que en muchos casos estos son incompletos, obsoletos, de poca fiabilidad y no están
relacionados con las prioridades, tareas y funciones de los trabajadores de salud [1]7.
Por ejemplo, cuando se realizan las matrices de Promoción y Prevención 8 la
funcionalidad actual de los sistemas de información sólo se centra en la identificación
de la cantidad de personas a las cuales se les promueven dichas actividades, pero no
permite discriminar individualmente, ni hacer revisiones en cada ciclo de evaluación
para determinar si siempre es la misma población la que queda excluida.
De esta forma, la falta de consistencia y calidad de los datos de la población
afiliada que se presenta en los sistemas de información en salud dificulta la vigilancia
y el control y, facilita la proliferación de duplicados y multiafiliaciones en el Sistema 9,
causando traumatismos de toda clase tanto para la institución como para las personas.
A lo anterior se suma la falsificación de los documentos de afiliación a las EPS-S que
ocasiona a los prestadores, pérdidas, dado que no pueden hacer los cobros por los
servicios prestados hacia el supuesto responsable del pago.

Por otro lado, el Ministerio de Protección Social ha venido realizando grandes


esfuerzos mediante una serie de disposiciones o acuerdos que regulan las relaciones
entre prestadores y aseguradores para dar por terminado el denominado ―paseo de la

6 La información debe ser oportuna, actualizada, exacta, completa y accesible para que se
entienda como información de calidad.
7 En Colombia para la solicitud de autorizaciones en lo que se conoce como sistema de
referencia y contrarreferencia, digitar la información no es responsabilidad de los médicos ni
de un profesional de la salud, por lo que es posible que la información que se introduzca no
sea fiable o este incompleta por problemas de legibilidad y estructura.
8 Las matrices de promoción y prevención muestran la relación entre los servicios prestados y
la población atendida. Los servicios de promoción y prevención comprenden las actividades,
procedimientos e intervenciones que permiten identificar en forma oportuna enfermedades,
facilitando el tratamiento oportuno, evitando secuelas, incapacidades y muerte.
9 MINISTERIO DE LA PROTECCIÓN SOCIAL. Resolución 890 de 2002.
MINPROTECCION, 2002.

106
muerte‖ 10, que se produce por la negación de prestación de servicios ante el temor de
las IPS de la no remuneración de la atención prestada y por la ―tramitología‖ en la que
incurren los familiares, e inclusive el mismo paciente para la solicitud de
autorizaciones de los procedimientos, que incluye en muchos casos el desplazamiento
hacia los centros de atención al usuario de las EPS-S y que se agudiza cuando la
atención se presenta fuera de la zona de cobertura.
Otro aspecto importante que hay que tener en cuenta es que los sistemas de
información van mucho más allá que el diseño y desarrollo del subsistema
informático. Un sistema de información puede definirse como "un conjunto de
componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir
información para apoyar la toma de decisiones y el control de una institución" [2] por
lo que la calidad de los subsistemas informáticos deben permitir a los directivos y al
personal analizar problemas, visualizar cuestiones complejas, crear nuevos productos
en un ambiente intensivo de información, y brindar información que les faciliten la
toma de decisiones en cada uno de los procesos internos de una EPS-S, como el perfil
epidemiológico, costo por paciente y por municipio, entre otros.

3 Marco Teórico

Normatividad [3]

En Colombia, el sistema de seguridad social integral se diseñó a partir de la Ley 100


de 1993 cuyo objeto es ―garantizar los derechos irrenunciables de la persona y la
comunidad para obtener la calidad de vida acorde‖ 11, el sistema comprende las
obligaciones del Estado y la sociedad, las instituciones y los recursos destinados a
garantizar la cobertura de las prestaciones de carácter económico, de salud y servicios
complementarios estableciendo como principios la eficiencia, universalidad,
solidaridad, integralidad, unidad y participación; en el marco de los procesos y
objetivos de la ingeniería de software, es posible que a partir de esta se pueda cubrir el
principio de eficiencia tal como se establece en la ley al definirla como ―la mejor
utilización social y económica de los recursos administrativos, técnicos y financieros
disponibles para que los beneficios a que da derecho la seguridad social sean
prestados en forma adecuada, oportuna y suficiente‖12.

De igual forma, la Ley 100 establece dentro de la organización del Sistema


General de Seguridad Social en Salud (SGSSS) a las Entidades Promotoras de Salud
(EPS) como las entidades responsables de la afiliación y el registro de los afiliados
cuya función básica será organizar y garantizar, directa o indirectamente, la prestación
del Plan Obligatorio de Salud a los afiliados.
Posterior a la Ley 100 se produjeron una serie de decretos o resoluciones con el

10 Superintendencia Nacional de Salud. Boletín jurídico Bimensual número 6. Mayo – Abril,


2006.
11 CONGRESO DE LA REPÚBLICA DE COLOMBIA. Preámbulo: Ley 100 de diciembre de
1993. Bogotá: SNE, 2003.
12 Ibíd. Artículo 2.

107
fin de establecer la dinámica propia del SGSSS13; la normatividad vigente con
relación a los procesos sobre la prestación de servicios de salud está reglamentado
mediante la resolución 3374 de 2000 la cual reglamenta los datos básicos que deben
reportar los prestadores de servicios de salud y las entidades administradoras de
planes de beneficios sobre los servicios de salud prestados a sus afiliados en la que se
define básicamente la estructura del registro individual de prestación de servicios de
salud – RIPS - a partir de los cuales las EPS14, EPS-S15 y entidades del orden
territorial y nacional podrán obtener información acerca de su población y a su vez
gestionar el sistema de pagos en la relación EPS ó EPS-S y su red prestadora (IPS,
profesionales independientes o los grupos de práctica profesional), y define los
procesos informáticos16 que se deben ejecutar como son actualización, validación,
organización, administración de la base de datos, transferencia de datos y disposición
de información.
En cuanto al registro de afiliación y lo concerniente a requerimientos mínimos de
información de los afiliados se reglamentó mediante la resolución 812 de 2007 a
cargo del Ministerio de la Protección Social estableciendo la necesidad e importancia
de definir las estructuras de datos que permita la consolidación de la Base de Datos
Única de Afiliados (BDUA) con el fin de dar cumplimiento a lo dispuesto en el
artículo 8 del Decreto 2280 de 2004 y garantizar la calidad y oportunidad de la
información de los afiliados al SGSSS17, y que mediante el artículo 3 determina la
disposición, mantenimiento, soporte y reporte de información por parte de la EPS 18 y
que mediante el artículo 4 de la misma ley y posterior modificación mediante el
artículo 1 de la resolución 123 de 2008 19 en la que establece la conformación y
actualización de la Base de Datos Única de Afiliados (BDUA) establece la
responsabilidad del manejo y reporte de novedades de sus afiliados a los entes
territoriales para EPS-S20 o Fidufosyga (Administrador del fondo fiduciario del fondo
de solidaridad y garantía) para EPS ó EOC21, finalmente, mediante los artículos 10 y
1122 se establecen la reserva del manejo de los datos y disposición de la información
respectivamente.

13 SGSSS: Sistema General de Seguridad Social en Salud


14 EPS: Entidades Promotoras de Salud
15 EPS-S: Entidades Promotoras de Salud del Régimen Subsidiado.
16 MINISTERIO DE LA PROTECCIÓN SOCIAL. Artículo primero: Resolución 3374 de 2000.
MINPROTECCION, 2000.
17 MINISTERIO DE LA PROTECCIÓN SOCIAL. Preámbulo: Resolución 812 de 2007.
MINPROTECCION, 2007
18 EPS: Entidades Promotoras de Salud
19 MINISTERIO DE LA PROTECCIÓN SOCIAL. Resolución 123 de 2008.
MINPROTECCION, 2008.
20 EPS-S: Entidades Promotoras de Salud del Régimen Subsidiado.
21 EOC: Empresas Obligadas a Compensar
22 MINISTERIO DE LA PROTECCIÓN SOCIAL. Artículo 10 y 11: Resolución 812 de 2007.
MINPROTECCION, 2007.

108
4 Antecedentes

Expertos del mundo se manifiestan optimistas respecto a la adaptación de las


organizaciones de salud a la sociedad de la información, especialmente al hecho de
cómo van a asimilar el cambio que acompaña a las nuevas tecnologías, teniendo en
cuenta que la reingeniería de procesos, la resistencia al cambio, la calidad de los
contenidos que ofrece Internet, la accesibilidad a los Servicios de Salud y los cambios
en la relación médico-paciente siguen siendo los ejes alrededor de los cuales gira el
debate del futuro de las tecnologías de la información aplicadas a la Salud, en los
países desarrollados. [4]
Actualmente las diferentes Entidades Prestadoras de Salud se han ido
sistematizando para agilizar sus procesos internos, existen diferentes sistemas de
información en el mercado de software (Tabla 1).

Tabla 1. Comparación del sistema propuesto con sistemas existentes

En la tabla 1 se puede observar que los sistemas que se encuentran actualmente


facilitan algunos de los procesos de la entidad pero ninguno logra la integración de
todas las áreas funcionales de una EPS-S, sin embargo SIRESS si lo hace, ya que ha
sido diseñado especialmente para trabajar transversalmente con cada una de las áreas
funcionales de la entidad.

109
5 Metodología

La metodología utilizada para el Sistema de Información del Régimen Subsidiado en


Salud (SIRESS), es de tipo cualitativo-cuantitativo ya que se obtiene información a
través de aplicación de instrumentos como encuestas, entrevistas y revisión de
prototipos implementados obteniendo información de las variables sujeto de estudio
que permitan verificar la calidad del proceso.
En cuanto al tipo cualitativo se obtiene descripción de los datos a recolectar como
por ejemplo los datos de la población mínimos que se deben mantener para poder
cumplir con la completitud de la información que permita identificar inequívocamente
a una persona, datos de los prestadores de salud, datos de la información del registro
individual de prestación de servicios de salud, datos de procedimientos,
medicamentes, diagnósticos y su respectiva codificación, forma en la que se
administran los procesos administrativos de auditoría médica y de calidad, tipo de
restricciones de accesibilidad a la información y disponibilidad de la información. En
cuanto al tipo cuantitativo se hace referencia al tiempo de respuesta del sistema para la
ejecución de procesos y el tiempo requerido para ejecutar una tarea. De esta forma se
garantiza la calidad de la información, pues se establece claramente las metas o
indicadores susceptibles de ser alcanzados.
Dado el enfoque cuantitativo, es de notar, que la investigación es cuasi-
experimental en la medida que se decide comparar dos momentos en la investigación
de desarrollo, un grupo de control que exhibe las variables antes de la implementación
de un proceso de software y el comportamiento de las variables una vez hecho el
desarrollo del prototipo implementado en un ambiente de pruebas.
La metodología escogida para el desarrollo del sistema de información fue el
proceso unificado, el cual está basado en el lenguaje unificado de modelado, que es
iterativo, centrado en la arquitectura y dirigido por los casos de uso, además consta de
unas fases y flujos de trabajos definidos [5] (ver figura 1) .

Fig 5. Proceso Unificado (UP), relación entre las fases del proyecto y las disciplinas
técnicas que se abordan en cada una de las iteraciones.

110
6 Desarrollo

Comprendiendo el tamaño total del sistema, lo complicado de modelar el sistema de


manera única y la existencia de subsistemas, se dividió el Sistema de Información del
Régimen Subsidiado en Salud (SIRESS) para EPS-S en 7 subsistemas: Comprobador
de derechos, atención inicial de urgencias, atención al usuario, contratación, red
prestadora, cuentas y recobros FOSYGA. Para efectos de este artículo, explicaremos
el desarrollo del sistema en términos de un subsistema, el comprobador de derechos.

Fig 2. Diagrama de Contexto de SIRESS

6.1 Arquitectura del sistema

Los usuarios acceden a SIRESS a través de un Navegador Web 23 (se recomienda


Firefox24 3.5 o superior y/o Internet Explorer 25 8 o superior) que interpreta y controla
el contenido visual que provee el Servidor Web 26 (Apache Tomcat27 5.0) o
conceptualmente conocido como presentación (Hojas de Estilo CSS28, Páginas
HTML29, Java Scripts30, Archivos en formato PDF31).

23
Para mayor información visitar el sitio web http://www.cavsi.com/preguntasrespuestas/que-
es-un-navegador-web/.
24
Para mayor información visitar el sitio web http://www.mozilla.com/firefox/.
25
Para mayor información visitar el sitio web
http://www.microsoft.com/spain/windows/internet-explorer/.
26
Para mayor información visitar el sitio web
http://www.cibernetia.com/manuales/instalacion_servidor_web/1_conceptos_basicos.php.
27
Para mayor información visitar el sitio web http://tomcat.apache.org/.
28
Para mayor información visitar el sitio web http://www.w3.org/Style/CSS/.
29
Para mayor información visitar el sitio web http://www.w3schools.com/html/default.asp.
30
Para mayor información visitar el sitio web http://docs.sun.com/source/816-6408-
10/contents.htm.

111
Esta presentación es generada desde el núcleo de la aplicación (software de
SIRESS), que está desplegada en el Servidor de Aplicaciones 32 (Enhydra
Application33), el cual brinda seguridad, manejo de concurrencia y escalabilidad al
sistema.
La aplicación se rige por el estilo arquitectónico denominado Modelo-Vista-
Controlador34 para la implementación de la dinámica encontrada en la funcionalidad
del SGSSS; en cuanto a los componentes estáticos del SGSSS, estos están plasmados
en la Base de Datos (PostgreSQL35), y se manipulan usando la implementación del
Patrón DAO36; y así, ser coherentes con las buenas prácticas de Desarrollo Web. [6]

Fig 3. Arquitectura de SIRESS

6.2 Análisis y Diseño

Se procedió a modelar las relaciones del sistema en general por medio de la


herramienta i*[7]37 permitiendo visualizar los principales objetivos que se quieren
cumplir en el sistema, las actividades que pueden lograr un el cumplimiento del
objetivo, los recursos físicos que intervienen en dicho proceso y las intensiones que
tienen los actores sobre el desarrollo del objetivo.
Teniendo en cuenta la normatividad que rige al régimen subsidiado en salud se
levantaron los requerimientos del sistema, principalmente extraídos de las
resoluciones de Ministerio de Protección Social, para el subsistema Comprobador de

31
Para mayor información visitar el sitio web
http://www.adobe.com/es/products/acrobat/adobepdf.html.
32
Para mayor información visitar el sitio web
http://www.bestpricecomputers.co.uk/glossary/application-server.htm.
33
Para mayor información visitar el sitio web http://www.enhydra.org/.
34
Para mayor información visitar el sitio web http://heim.ifi.uio.no/~trygver/themes/mvc/mvc-
index.html.
35
Para mayor información visitar el sitio web http://www.postgresql.org/.
36
Para mayor información visitar el sitio web
http://java.sun.com/blueprints/corej2eepatterns/Patterns/DataAccessObject.html.
37 Para más información visitar la página de Eric Yu: http://www.cs.toronto.edu/~eric/

112
derechos aplica la resolución 812[8] y su posterior actualización mediante la
resolución 1982[9].

Las siguientes figuras se hacen con el lenguaje unificado de modelado UML [10].

6. 2. 1 Casos de Uso

Para el subsistema comprobador de derechos tenemos los casos de uso:


Comprobando estado de afiliación y datos personales
Revisando Novedades
Revisando Servicios
Registrando Novedades
Registrando Ingresos
Generando Reportes de aseguramiento

De los anteriores casos de uso, después de un análisis realizado por medio de una
matriz de casos de uso críticos, se encontró que el caso de uso Comprobando estado
de afiliación y datos personales es el de mayor criticidad; es decir que los otros
subsistemas de alguna forma necesitan de la realización de este caso de uso para llevar
a cabo con éxito.

Fig 4. Diagrama de Casos de Uso para el subsistema comprobador de derechos

Diagrama de Actividades

En la figura 5 se puede observar el paso a paso del flujo de trabajo para el caso de uso
antes descrito.

Diagrama de Despliegue

El diagrama de despliegue muestra tres componentes: la terminal cliente, representa

113
todos y cada uno de los equipos de computo por los cuales el usuario accede al
sistema; el servidor web, representa el dispositivo de hardware/software en donde se
concentra el núcleo del sistema; y el servidor de datos, que representa el dispositivo
hardware/software que tiene la responsabilidad de la persistencia de los datos.
Para SIRESS se genero toda la documentación técnica necesario para el posterior
crecimiento de la aplicación, ya sea complementando los demás módulos del sistema
o como base para el otro régimen de salud, el régimen contributivo.

Fig 4. Diagrama de Actividades para el comprobador de derechos

Fig 5. Diagrama de Despliegue para SIRESS

5 Conclusiones Y Trabajo Futuro

SIRESS se desarrolló con base en la metodología Proceso Unificado aprovechando


sus características de ser iterativo e incremental, lo cual permitió obtener subsistemas
funcionales mediante módulos, de los cuales se llegó al desarrollo y prueba de los
módulos correspondientes a la línea base, permitiendo una constante
retroalimentación y refinamiento de las distintas actividades mediante la aplicación
progresiva de los flujos de trabajo de ingeniería; con respecto a los flujos de trabajo
de gestión, esta metodología facilitó la construcción de la documentación de los

114
diseños y los manuales de instalación y de usuario.
Las debilidades presentadas por UP en cuanto a intencionalidad fueron superadas
mediante i*, logrando una mejor comprensión de los conceptos involucrados, ya que
permite hacer explícitas las intenciones inter e intra actores en una organización,
elemento fundamental para la definición holística del modelo de negocio, para lo cual
fue de gran ayuda la interacción con personas con alto grado de conocimiento y
experiencia en la gestión y ejecución de procesos; ya que permite navegar desde un
modelo general enmarcado en el régimen subsidiado de salud para después ser
detallado en un dominio particular con el apoyo de los gerentes de proceso, y de ésta
manera se logró obtener los requerimientos del sistema, siempre asociados al dominio
del negocio; para la especificación detallada de los requerimientos se contó con la
valiosa colaboración de las personas encargadas de ejecutar las tareas y actividades de
cada uno de los procesos.
El desarrollo del prototipo mediante subsistemas reduce la complejidad y facilita
la integración de funcionalidades, a medida que estas son desarrolladas (disponibles).
Con SIRESS se logró organizar los datos de manera visual y reestructurar los
procesos y la base de datos de la EPS-S brindando la capacidad de escalar en
funciones y necesidades, permitiendo su uso en el apoyo a los sistemas de calidad para
la prestación de servicios de salud, así como para el cumplimiento de la normatividad
y soporte ante los organismos de control.
La reducción de tiempo y esfuerzo que presenta el SIRESS en comparación con
los procesos actuales en las EPS-S, se pudo evidenciar al realizar las pruebas del
prototipo con datos reales y la interacción de funcionarios de la misma, estimando una
reducción entre el 25% y el 50% de los tiempos en el manejo de los procesos. El
impacto real sobre la población afiliada al régimen subsidiado de salud no se puede
ver sólo en términos de reducción de tiempos, se debe realizar un estudio estadístico
en el cual se determine el problema a estudiar, las variables aplicables, las hipótesis, el
modelo estadístico a utilizar, la población y la muestra; todo esto aplicable bajo un
SIRESS implementado completamente en una EPS-S.

Referencias

1. Lippeveld TJ, e. a: Transforming health facility base reporting systems into


management information system: lessons from the Chad experience: Harvard
Institute of International Development, Cambridge. (1992)
2. Claudon, K., & Laudon, J. : Administración de los sistemas de información.
Prentice Hall HispanoAmericana, México. (1996)
3. Ley 100 (Congreso de la República de Colombia 1993)
4. Cámpoli, M. Sistemas de Información en el Sector Salud: ―Utopía o realidad‖.
Argentina, Buenos Aires. (2005).
5. Jacobson, I., Booch, G., and Rumbaugh, J.: El proceso unificado de desarrollo de
software. Pearson Addison Wisley. (2005)
6. Pressman, R. S. (2005). Ingeniería de Software: Un enfoque prático. Mc. Graw
Hill.
7. I* Wiki. Tiki community. [En línea] 2002-2008 [Citado el 22 de Enero de 2010],
http://istar.rwth-aachen.de/tiki-view_articles.php
8. Resolución 812 (Ministerio de la Protección Social 2007).

115
9. Resolución 1982 (Ministerio de la Protección Social 2010).
10. Jacobson, I., Booch, G., & Rumbaugh, J. (2000). El Lenguaje Unificado de
Modelado UML. Pearson Addison Wisley.

116
Producto software para simular líneas de espera

Alba Zoraly Hernández Cárdenas, Mario Enrique Araoz Rojas,Jairo Arenas


Gómez, Julio Barón Velandia

Universidad Distrital Francisco José de Caldas, Bogotá, Colombia


{Alba Zoraly Hernández Cárdenas, Mario Enrique Araoz Rojas,Jairo Arenas Gómez,
Julio Barón Velandia} jbaron@udistrital.edu.co

Resumen. El presente artículo da a conocer a la comunidad científica y


académica el resultado del trabajo de tesis sustentado en la Teoría de
Colas y la Simulación, plasmado en un producto software denominado
OPTIMUS-UD, una herramienta de simulación gráfica de sistemas de
líneas de espera la cual se ha desarrollado en un marco interdisciplinario
soportado en técnicas, metodologías y procesos propios de la Ingeniería
Industrial y la Ingeniería de Sistemas

Palabras clave: simulación, lineas de espera, teoría de colas,


simulación gráfica

1 Introducción

Desde hace varios años, la técnica de la simulación se ha considerado como una


herramienta elemental para el estudio y análisis de sistemas reales, que hace posible
la experimentación, minimizando los riesgos y convirtiéndose en un instrumento de
generación de alternativas de acción.
Aprovechando las múltiples ventajas de la simulación, en este trabajo
investigativo se ha pretendido diseñar y desarrollar un prototipo software de
simulación que facilite el aprendizaje, modelado y análisis de sistemas de líneas de
espera, cuyo principal aporte será el diseño de la interfaz gráfica de usuario, que
facilita en gran medida la construcción del modelo virtual que representa el sistema
bajo estudio y permite que usuarios no expertos tanto en simulación como en
programación puedan llevar a cabo los pasos de construcción, validación y análisis del
modelo de líneas de espera en un proceso de simulación.
La implementación de este software fue realizada siguiendo las pautas definidas
en la metodología de desarrollo de software RUP (Racional Unified Process) y la
aplicación del estándar UML, patrones de diseño y estándares de codificación.
El prototipo software desarrollado, provee las funcionalidades y características
más comunes de los simuladores de este tipo y cuenta con todos los elementos
constitutivos de un sistema de líneas de espera. Como valor agregado, este simulador
incluye un entorno gráfico interactivo del sistema analizado que le permita al usuario
verificar que la visión que tiene del sistema es la correcta, una interfaz de usuario

117
amigable y de fácil uso que permite la construcción de modelos de forma rápida y
sencilla, y finalmente cuenta con su propio generador de variables aleatorias,
construido mediante el uso de algoritmos de generación de variables muy confiables
obtenidos en una amplia investigación estadística por parte de sus autores. Estos
algoritmos han sido validados y corregidos por medio de la aplicación de exhaustivas
rutinas de pruebas de bondad y ajuste utilizando diferentes herramientas software de
análisis estadístico.

2 Líneas de espera o colas

Todos los días estamos expuestos a hacer parte directa de una Cola, por ejemplo
automóviles que esperan en un semáforo en rojo, piezas que esperan su proceso de
manufactura en una máquina, entre muchas otras, se consideran líneas de espera. Nos
hemos acostumbrado a esperas largas, ―El tiempo que la población de un país pierde
en colas es un factor importante tanto en la calidad de vida como en la eficiencia de su
economía, se puede decir que las líneas de espera largas también son costosas en
cierto sentido, ya sea por un costo social, por un costo causado por la pérdida de
clientes, de insumos o por algún otro costo importante.‖ [2].
La Teoría de colas es el estudio matemático del comportamiento de las líneas de
espera, éstas se generan cuando el ―cliente‖ llega a una instalación demandando un
servicio al "servidor", el cual tiene cierta capacidad de atención. Si el servidor no está
disponible inmediatamente y el cliente decide esperar, entonces se forma en la "línea
de espera" (cola o fila). El servidor elige a un cliente de la línea de espera para
comenzar a prestarle el servicio. Al culminarse éste, se repite el proceso de elegir a un
nuevo cliente (en espera). [3]

3 Software de Simulación

Son aquellos que posibilitan la creación gráfica de modelos de simulación, la


planeación e implementación de proyectos complejos en los negocios, industrias y
gobierno requieren de grandes inversiones, razón por la que es indispensable realizar
estudios preliminares para asegurar resultados rápidos a un costo relativamente bajo,
éste proceso está basado en la modelación y se conoce como simulación.
Sus orígenes se remontan a la Segunda Guerra Mundial cuando se aplicó
a problemas relacionados con la bomba atómica.
Esta aplicación supuso la simulación directa del comportamiento sobre los
neutrones de carácter aleatorio, y su difusión en el material fisionable. Al poco
tiempo fue utilizada en los trabajos de Student para aproximar la distribución que
lleva su nombre, y en los métodos que Von Neumann y Ulam introdujeron para
resolver ecuaciones integrales. [3]. Desde entonces la Simulación se ha convertido en
una metodología de experimentación fundamental.
Anteriormente realizar un proceso de simulación resultaba terriblemente engorroso
debido a la gran cantidad de datos numéricos y tiempo de computador que consumía,
pero gracias a los avances exponenciales que ha tenido las tecnologías de información
en cuanto a su capacidad de procesamiento, de almacenamiento y facilidad en el

118
manejo de gráficas, la simulación se ha convertido en una de las ramas experimentales
de la Investigación de operaciones con mayor acogida‖. [1]
Una definición obtenida durante nuestro proceso de aprendizaje en la Universidad
indica que la simulación consiste en la representación, mediante un Modelo
Matemático, de un sistema de la vida real que se intenta reproducir a través del tiempo
con la ayuda de un sistema de cómputo. Para llevar a cabo una simulación se debe
partir del hecho que ésta es un proceso y como tal tiene una serie de pasos o
actividades a realizar, aunque en la literatura no se encuentra en sí una regla que
determine como se debe hacer este proceso, el autor Luís Ernesto Blanco en su libro
Simulación con Promodel nos brinda los siguientes pasos que nos dan una idea al
respecto.

 Haga plan de estudio


 Defina el sistema
 Construya el modelo
 Ejecute experimentos
 Analice y reporte resultados

4 Desarrollo del software

El desarrollo de una herramienta software de Simulación es un proceso, que como


todos los proyectos de ingeniería, requiere de cierta rigurosidad en su definición,
análisis, diseño e implementación. Cada una de éstas constituye a su vez un conjunto
de subprocesos y actividades que deben llevarse a cabo para tener una concepción
clara del grado de complejidad que conlleva el proyecto y así poder garantizar la
calidad del resultado, en todas sus fases de desarrollo. Es por ello que se consideró
necesario dividir el proyecto OPTIMUS-UD en fases, cada una de las cuales darían la
idea de qué es lo que se requiere, cómo se podría conseguir el objetivo para
finalmente plasmar estas definiciones que darían como resultado el producto software.

5 Modelado del negocio

Un proceso de negocio es un conjunto de tareas relacionadas lógicamente llevadas a


cabo para lograr un resultado de negocio definido. Cada proceso de negocio tiene sus
entradas, funciones y salidas. Las entradas son requisitos que deben tenerse antes de
que una función pueda ser aplicada. Cuando una función es aplicada a las entradas de
un método, tendremos ciertas salidas resultantes.
Partiendo de este concepto se identificaron los siguientes procesos de negocio;
gestión de modelo, del panel de diseño, del tipo de cliente, del tipo de recurso, de la
cola, de la estación de servicio, del servidor, de variables, de atributos, de la ruta de
procesamiento, del proceso por cliente, de la corrida de la simulación, de los
resultados y estadísticas.

119
6 Desarrollo del modelo funcional

6.1 Modelo de casos de uso

De acuerdo con el modelo de proceso RUP, el modelo funcional está basado en casos
de uso los cuales surgen a partir del análisis del problema y del análisis de los
requerimientos planteados.

Como ejemplo se muestra el diagrama de gestión de una estación de servicio

Fig 1. Diagrama de caso de uso gestión de la estación de servicio

7 Especificación de diseño

Considerando que este tipo de software presenta una constante interacción con el
usuario que requiere de una Interfaz de Usuario ágil, y teniendo en cuenta que las
mejores prácticas para el desarrollo de software resaltan la necesidad e importancia de
separar la Lógica de Negocio de la Presentación al usuario, OPTIMUS-UD se ha
definido esencialmente en dos componentes principales; una capa de lógica de
negocio y una capa de presentación. Por otra parte, se han definido cuatro módulos
adicionales que complementan las funcionalidades de la aplicación todo esto con el
único fin hacer la aplicación mantenible y escalable.
La figura siguiente presenta un diagrama genérico de la arquitectura definida para
OPTIMUS-UD mediante un diagrama de componentes de la aplicación.

120
id Components
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
OPTIMUS
LIB

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


presentaci on de reportes
iText-2.1.1.j ar ModuloDeResultados Presentacion
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


j common-1.0.13 «use» generaci on de presentaci on de datos modi fi caci on de datos
estadi sti cas
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••• • • • • • • • • • • • • • • • • LogsDeLaSimulacion
j freechart-1.0.9 • • • • • • • • • • •obtenci
••• on •
de• • • • • • • • •LogicaDelNegocio
datos •••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • • • •GRAFICOS
••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • • • • • •generaci
•• on •
de• •abl
vari •es• • • • • • • • • • • • • • • • • • • • •••••••••••••••••••••••••
al eatori as
«use»
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• • • • • • • • • • • • • • • • • • • • • • •Distribuciones
•••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • • • • • • • •Imagenes
•i caci
apl •• usadas por l a
on • • representar
para • • • • l• os • • • • • • • •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••
el ementos de l a Si mul aci on

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

••••••••••••••••••••••••••
Fig 2. Diagrama de componentes para OPTIMUS-UD
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

8 Diagramas De Paquetes
•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••


Con base en la arquitectura• •definida
••••••••••••••••••••••••••
y el enfoque en la utilización de patrones de
•••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

• • •diseño,
• • • • • • •se
• • ha
• • •definido
••••••••una
• • • estructura
• • • • • • • • general
• • • • • • • de
• • •paquetes
• • • • • • • •del
• • simulador.
•••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

•••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••• •••••••••••••••••••••••••

Fig 3. Diagrama de paquetes general

8.1 Módulo de generación de variables aleatorias.

OPTIMUS_UD cuenta con su propio generador de variables aleatorias y


determinísticas con 20 distribuciones de probabilidad entre distribuciones continuas,
discretas, empíricas y constante, este generador fue construido mediante el uso de
algoritmos de generación de variables muy confiables obtenidos en una amplia
investigación estadística por parte de sus autores. Estos algoritmos fueron validados y
corregidos por medio de la aplicación de exhaustivas rutinas de pruebas de bondad y
ajuste utilizando diferentes herramientas software de análisis estadístico.
OPTIMUS UD cuenta con un archivo de ayuda HTML desarrollado gracias a la
herramienta libre HelpMaker®, en el cual se describen claramente cada una de las

121
funciones y características del simulador, en este archivo de ayuda el usuario. Puede
encontrar toda la información que necesita para crear un modelo desde cero, y
también definiciones de todos y cada uno de los elementos que componen los sistemas
de líneas de espera.

8. Conclusiones

La simulación se ha convertido en una herramienta fundamental y necesaria a la hora


de evaluar sistemas en donde no existe una completa formulación matemática del
problema, los métodos analíticos para resolver el modelo matemático no se han
desarrollado aún, el costo de la implementación o la realización de experimentos es
demasiado elevado, se desea observar el trayecto histórico simulado del proceso sobre
un período, además de estimar ciertos parámetros o en donde se requiere la
aceleración del tiempo para sistemas o procesos que requieren de largo tiempo para
realizarse.
La simulación como herramienta interdisciplinaria provee muchas ventajas, entre
las cuales están, la posibilidad de otorgarle al usuario la definición del modelo del
sistema que quiere simular, el control del tiempo de simulación, la alteración o
modificación de las variables del sistema y las condiciones del modelo (Escenarios),
entre otras. De aquí que la simulación permite pronosticar cuál será el
comportamiento dinámico del sistema que se está simulando y asimismo ver cuando el
sistema pueda fallar en las condiciones adversas del ambiente donde funcionará. Todo
esto enmarcado en que la Simulación es cada vez más ―amigable‖ para el usuario, que
no tiene que ser un especialista en computación.

Referencias
1. Blanco Rivero, Luis Hernesto. Fajardo Piedrahita, Ivan Dario. Simulación con promodel,
Casos de producción y logística. Primera edición. Bogotá D.C.: Ed Escuela colombiana
de ingenieros 2001
2. Hillier, Frederick S. Lieberman, Gerald J. Introducción a la investigación de
operaciones. Sexta edición. Mejico D.F.: Mc Graw Hill Interamericana Editores S.A.
1997.
3. Taha, Hamdy A. Investigación de operaciones. Quinta Edición, Méjico D.F.: Alfa Omega
Grupo editor S.A. 1995.
Wiston Wayne L. Introducción a la investigación de operaciones, (Aplicaciones y
algoritmos); segunda edición; Grupo editorial Iberiamericana 1995.

122
Diseño y Desarrollo de una Aplicación de Generación
Automática de Componentes Bajo la Especificación SCA

1
Clara Ardila, 2Javier Fajardo, 3Julio Barón Velandia
Universidad Distrital Francisco José de Caldas, Bogotá, Colombia
{1lain2040@gmail.com, 2lordmkichavi@yahoo.es, 3jbaron@udistrital.edu.co}

Resumen. Actualmente, muchas herramientas para el diseño de


software han sido orientadas hacia personas con conocimientos en
computadores, limitando a expertos en un dominio de conocimiento, la
posibilidad de plantear modelos para un dominio de solución y con este
crear prototipos exploratorios. A partir de aquí las ontologías abren un
camino más libre de entendimiento a cualquier persona no experta en
términos técnicos, pero sí en un dominio específico. A través de la
propuesta del modelado ontológico se puede lograr una
conceptualización consensuada y que sea procesada por la máquina,
basada en la fabricación de componentes genéricos. A pesar de que el
concepto de componente no es nuevo, vale la pena hacer hincapié en
que la propuesta de OSOA permite crear componentes (especificación
SCA) con características de reutilización y orientarlo a servicios que
sean soportados en plataformas Web. Este documento describe la
propuesta en la que se desarrolla una aplicación que permite tomar
ontologías hechas por un experto en un dominio de conocimiento y
transformarlas en componentes SCA, facilitando la generación de
código en lenguajes como Java.

Palabras Claves: Ontología, Componente, Service Component


Architecture, Reutilización, Open Service Oriented Architecture.

1 Introducción

El desarrollo de software ha tenido un progreso significativo en la generación de


técnicas y herramientas ayudando a mejorar la generación de estructuras de código
que facilite el desarrollo de productos de software, sin embargo, estas herramientas se
han diseñado para usuarios con conocimientos específicos en diseño y desarrollo.
Además, existen inconvenientes para diseñar el modelo del dominio de solución
del problema. Por lo general, este modelo está ligado a un lenguaje de programación
específico, limitando las posibilidades a un experto en un dominio de problema para
desarrollar un prototipo ejecutable por un dispositivo computacional.
En este documento describe un proyecto en curso que tiene como objetivo
mostrar una propuesta en donde a partir de una ontología puede ser posible crear
componentes SCA, de esta manera un experto en el dominio del problema utiliza la
herramienta que le permita hacer su modelo del dominio de la solución y también que

123
realice la transformación de ese modelo a un lenguaje de programación, en este caso
Java. A continuación se describe la metodología, y luego se da una descripción de
cada uno de los conceptos involucrados y la representación gráfica de los elementos a
destacar, finalmente, se presentan las conclusiones.

2 Metodología y Diseño para Generación de Código

2.1 Marco Teórico

Ontología

Dependiendo del contexto. En la filosofía se define como la explicación sistemática


de ser. Sin embargo, para el contexto que nos interesa, una ontología es una
descripción formal de conceptos y las relaciones entre esos conceptos, que es una
definición simple e informal. Una definición más formal de lo que sería una ontología
"proporcionar una especificación formal y explícita de una conceptualización
compartida" [2], es decir, una representación declarativa de esos conceptos,
expresados en ontologías de dominio, que se caracterizan por hacer representaciones
explícitas de lo conceptual de modelo y de ella, hacer representaciones compartidas de
ese dominio.
Con las ontologías se establece una terminología común entre los conceptos
relacionados que se describen en un dominio, en donde llamamos dominio a un área
específica de interés, así como para un sociólogo el concepto de ser humano no es
igual al que podría tener un biólogo o un antropólogo, el dominio de interés es
diferente debido al entorno en que operan, por lo que hay un cambio de contexto entre
los conceptos generados por el área de conocimiento.
Para Nataly Noy y Deborah McGuinness, una ontología define los términos
utilizados para describir y representar un dominio determinado. Por lo tanto, las
ontologías describen el mundo de una manera particular y representan un dominio de
interes.
En general, una ontología describe conceptos o clases, las propiedades de cada
concepto en particular, las características y atributos, llamados slots, roles o
propiedades, y las restricciones sobre estas propiedades llamadas facetas o
restricciones de rol [6]. Por último, la ontología de un conjunto de individuos forma lo
que se denomina la base de conocimientos [6].

Lenguajes Ontológicos

Los lenguajes son utilizados para desarrollar herramientas y ontologías para


comunidades específicas y en el caso de OWL, ser compatible con la arquitectura de
la World Wide Web en general. Entre estos idiomas están:

124
Table 2. Algunos Lenguajes Ontológicos
Nombre Autor Descripción
Ontololing Permite definir clase, relaciones,
Thomas R Gruber
ua funciones, objetos y teorías.
Lenguaje de representación Ontológica.
University of Permite describir clasificaciones de
SHOE
Maryland objeto y sus relaciones, además de hacer
anotaciones en paginas HTML.
Es un lenguaje para modelar ontologías,
DAML DARPA Agent
fue creado como una extensión de RDF
Posee un modelo de datos para los
objetos y relaciones entre ellos,
RDF W3C proporcionar una semántica sencilla,
este tipo de modelo de datos se puede
representar en sintaxis XML [4].
Es un vocabulario usado para describir
propiedades y clases de recursos RDF,
RDFS W3C
con una semántica jerárquica de
propiedades y clases [4].

Service Component Architecture (SCA)

En marzo de 2007, la organización OSOA anunció que la tecnología de SCA se


encuentra en una etapa madura de desarrollo. La gestión de SCA, nos permite facilitar
la creación y ejecución de aplicaciones de negocios con una arquitectura orientadas a
servicios.
SCA es un conjunto de especificaciones, un modelo para construir aplicaciones y
sistemas basados en una arquitectura orientada a servicios (SOA). Básicamente, busca
definir un único modelo de componente de servicio tanto a proveedores como a
consumidores, estableciendo una forma única para el montaje de estos componentes.
SCA como especificación no se limita a Java, sin embargo tentativamente supone
estar abierto a componentes en diferentes lenguajes.
La figura 1 muestra un diagrama básico de la estructura de SCA, la cual tiene los
siguientes elementos:

 Composite: Un composite de SCA se compone de un conjunto de componentes,


servicios, Reference y Wire que están interconectados [8]
 Component: Es el elemento básico de la función de negocios en un grupo SCA, el
cual es entrelazado dentro de una solución completa de negocio dentro del
Composite SCA [8].
 Service: Es una interfaz de direccionamiento de la aplicación [8].
 Reference: Es un requerimiento de la aplicación dado por un service de otro
component [8]
 Wire: Elemento que conecta los reference con los service [8]
 Promote: Elemento que conecta los services o reference entre diferentes

125
composites

Fig. 1. Diagrama del Composite en SCA [8]

Estos son las diferentes herramientas que han implementado la especificación SCA:

Table 3. Algunas Herramientas que implementa la especificación SCA


Nombre Autor Descripción
Eclipse STP plug in Eclipse Facilita pasar de una interfaz de Java ™,
(SOA Tools Platform) comentar con servicio Web relacionados
con las propiedades, y generar el código
Java
SCA Tools SOA Proporciona un conjunto de
herramientas para la arquitectura de
componentes de servicio (SCA) a través
de un conjunto de normas.
Apache Tuscany SCA Apache En tiempo de ejecución permite dividir
en dos categorías de módulos: básico y
extensiones con las opciones de
implementación acogidas.
Oasis SCA Oasis Reúne a proveedores y usuarios a
(Composite Services colaborar en el desarrollo y la adopción
Architecture) de las especificaciones Service
Component Architecture (SCA) y
Service Data Objects (SDO)

126
3 METODOLOGÍA DE DISEÑO

El desarrollo del proyecto se basa en dos enfoques, la primera dedicada a la creación


de la ontología fundamental utilizada por el usuario para poder diseñar la propia,
además de diseñar un conjunto de ontologías de prueba, y el segundo enfoque es el
diseño de la aplicación y ejecución que llevan a cabo la transformación de la
ontología a componentes SCA.
En el primer enfoque se utiliza la metodología de Methontology, que fue
desarrollado por el grupo de ingeniería ontológica en la Facultad de Informática de la
UPM (Universidad Politécnica de Madrid).
Esta metodología consta de dos partes:
 Proceso de desarrollo de la Ontología: Este se centra en las actividades que se
desarrollan cuando la ontología es crear (Tomado del artículo Metodología).
Establece tres categorías de actividades:

─ Las actividades de gestión.


─ Las actividades orientadas al desarrollo.
─ Actividades de apoyo.
─ Con el fin de la meta del proyecto que sólo usará los dos primeros. Además, por
la naturaleza del documento, no se especifican los pasos intermedios que
componen cada categoría.

 Una vez que este proceso termine, se pasará a diseñar un álgebra que permita la
conversión de las ontologías desarrolladas con la estructura definida, en este caso,
conceptos, predicados y acciones, a componentes de la especificación SCA. Las
tareas en esta sección son:

─ Revisión de las álgebras desarrollada para la conversión de ontologías en código


Java.
─ Estudio y análisis de ambas tecnologías (ontologías y las especificaciones SCA)
para encontrar un punto de convergencia entre ellas.
─ Caracterización de los resultados en un ejemplo particular o la generalización
del modelo.
─ Probar el modelo establecido.
─ Asimismo, para el segundo enfoque, se llevará a cabo los siguientes pasos:

1. Determinar los tipos de la ontología válidos para el procesamiento a componentes


SCA.
2. Selección de una ontología base que permita determinar claramente: los conceptos,
predicados, acciones y sus respectivas propiedades.
3. Diseño del modelo estructural mediante el establecimiento de los elementos básicos
que lo constituyen.
4. Diseño del modelo dinámico de la aplicación mediante la definición de la
interacción de los componentes y sus comportamientos complejos.
5. Diseño del archivo XSD que permite la conversión a formato XML que se utiliza
para almacenar las ontologías desarrolladas por los usuarios.
6. Análisis, Diseño e Implementación de la aplicación para la generación de
componentes SCA.

127
7. Realización de pruebas para garantizar el buen funcionamiento de la aplicación.
La descripción de cada uno de los pasos queda fuera del alcance de este documento.

3.1 Generación de Componentes SCA a través de Ontologías

Esta es una propuesta que toma las características de una ontología, y las traduce en
cada uno de los elementos que caracterizan a SCA, esto significa, generar composite,
components, services y references.
La idea base y el objeto de estudio en el proceso de este proyecto es que a través de la
aplicación desarrollada, los conceptos definidos en el modelo ontológico por el
experto en el dominio del problema, se convertirán en clases Java en el dominio de
SCA, que son utilizados por los componentes para llevar a cabo un servicio
específico. Asimismo, las acciones definidas en Componentes de Servicio responsable
de hacer el servicio. A su vez, los predicados que será responsable de las restricciones
para permitir o no la llamada al servicio, según el experto. Y, por último, se definirá la
estructura del composite en XML que se invocará cada uno de los componentes, a fin
de ser procesados computacionalmente.

3.2 Diseño de la Ontología Básica

Una ontología consiste en dos partes, una es la definición del vocabulario que se
utiliza para la comunicación entre los elementos que se describen en SCA, la otra
parte consiste en la definición de las relaciones entre los conceptos y sus reglas,
finalmente se muestra la estructura y semántica de la ontología. En la tabla siguiente
hay algunos elementos descritos para crear la ontología genérica para el proyecto.

Table 4. Definición de términos para la ontología

Término Sinónimo Acrónim Descripción Tipo


o
Concepto Noción C Se encarga de agrupa Clase
conceptos específicos con los Abstracto
que se denominan las cosas
existentes en el dominio del
mundo real
Acción Actividad A Agrupa las actividades que Clase
según el dominio definido se Abstracta
pueden realizar basados en
los conceptos.
Predicado Expresión P Agrupo las sentencias de Clase
con relación que limitan la Abstracta
sentido utilización de los conceptos
completo para las acciones.
Propiedad Caracterís Pr Agrupa las propiedades Clase
tica definidas sobre los conceptos, Abstracta
predicados y acciones.

128
Atributo Propiedad At Agrupa los atributos de los Subclase de la
con valor conceptos predicados y clase
acciones. Propiedad
Relación Vínculo R Agrupa las relaciones que Subclase de la
existen entre los conceptos y clase
las acciones o los predicados Propiedad
Escalar Propiedad Es Agrupa las propiedad con Subclase de la
Cuantitati valor numérico de los clase Atributo
va conceptos, predicados y
acciones
Textual Propiedad Tx Agrupa las propiedades con Subclase de la
Cualitativ sentido literal contenidos en clase Atributo
a los conceptos, predicados y
acciones
Relación_A Vinculos_ VAC Agrupa las relaciones de tipo Subclase de la
cción_Conc Acción_C objetos encontradas entre las clase Relación
epto oncepto acciones y los conceptos.
Relación_P Vinculo_ VPC Agrupa las relaciones de tipo Subclase de la
redicado_C Predicado objeto encontradas entre los clase Relación
oncepto _Concept predicados y los conceptos
o

3.3 Tecnologías Involucradas para la Generación De Código

Para la generación de código se utilizan dos tecnologías principales, la primera es


Marshall y UnMarshall para el mapeo de documento XML en el que la información
añadida por el usuario es almacenada. Y la segunda es la tecnología Java Generics que
se utilizarán para crear los paquetes obtenidos durante la conversión.
Además, la transformación se realizará utilizando un diseño de modelo genérico para
nosotros, que está actualmente en desarrollo.

XML Marshall y Unmarshall

Para usar Marshall y Unmarshall con JAXB de Java 6 se creó un XSD que ha
obtenido la estructura del mapa de la ontología base (ver Tabla 4).

Table 5. Parte de la Estructura del XSD


Tag Nombre Tipo
elemento Thing TipoThing
tipoComplejo TipoThing
elemento Concepto TipoConcepto
elemento Action TipoAction
elemento Predicado TipoPredicado
TipoConcepto
tipoComplejo
elemento nombreConcepto xsd:string
elemento descripcionConcept xsd:string

129
o
TipoPropiedadConcept
elemento propiedadConcepto
o

Modelo de Conversión Ontológica

Es un modelo que está siendo desarrollado y probado. Básicamente, se realiza una


conversión a una estructura ontológica diseñada por el usuario, para ello se utilizará
un diagrama de clases en el que representan los casos de conversión principal.
Si el concepto A es un subconcepto de concepto en la ontología, su correspondencia
en Java sería:
interface ConceptoAService {}
class ConceptoAService implements ConceptoAService{}

Fig. 2. Conversión de un concepto

En el caso de los predicados, cada uno es una clase intermedia en el modelo UML
entre los conceptos y las acciones, además del componente central,
Interface PredicadoAService {
private void getPredicadoA(Concepto A conceptoA);
}
class PredicadoAService implements PredicadoAService {
private void getPredicadoA(Concepto A
conceptoA){}
}

130
Fig. 3. Conversión de un predicado

En el caso de las acciones:

Interface AccionAService {
private void getAccionA(Concepto A conceptoA);
}
class AccionAService implements AccionAService {
private void getAccionA(Concepto A conceptoA){}
}

Fig. 4. Conversión de una acción

Finalmente el modelo general sería:

131
Fig. 5. Diagrama de Clases hecho en Eclipse Ganymede

4 Conclusiones

Después de elaborar este documento, las conclusiones pueden resumirse en dos


aspectos fundamentales:
Se dan los primeros pasos para organizar y documentar parte del conocimiento que
está en torno al concepto de desarrollar componentes SCA basados en ontologías.
Hasta ahora la mayoría de las herramientas de diseño son complejas y están dirigidas
a expertos en ciencias de la computación.
El propósito de la primera y la segunda afirmación es que el uso de ontologías para
el desarrollo y diseño de dominios de solución sea posible para las personas con
conocimiento en un dominio específico, de tal forma que puedan representar los
conceptos en un lenguaje computacional. Además, la aplicación de SCA, promueve
que el proceso de desarrollo de software no está estrechamente relacionado con el tipo
de lenguaje de programación y permite la integración con productos de software
disponibles sin importar el lenguaje en el que sea desarrollado.
Para el uso de la especificación SCA no se está obligado a realizar cambios
tecnológicos importantes, por lo que cualquier empresa que decida adoptar SCA como
base para su sistema de desarrollo de software debe tener en cuenta que es un modelo
orientado a servicios y que proporciona una alternativa en la reutilización de
componentes de software.
Por último, poner en práctica este proyecto puede servir de inicio para obras más
complejas, donde la conversión a componentes SCA sea más estructurada a otros

132
lenguajes ontológicos, y generar los componentes de la especificación de SCA con un
mayor número de lenguajes de programación, ya que este proyecto sólo funciona con
Java.

Referencias

1. Casal Terreros J., Desarrollo De Software Basado En Componentes, Microsoft


Corporation, September 2006.
2. Cover R., () It Vendors Promote Service Component Architecture (SCA), OASIS
(Organization for the Advancement of Structured Information Standards). Marzo, 2007.
Extracted from Word Wide Web:
http://64.233.179.104/translate_c?hl=es&u=http://www.oasisopencsa.org/sca&prev=/sear
ch%3Fq%3Dservice%2Bcomponent%2Barchitect%26hl%3Des%26sa%3DG
3. Malhotra A., Karmarkar A. (Oracle) & Booz D. (IBM), (2006). Service Component
Architecture (SCA): Tutorial: Part 2, OASIS (Organization for the Advancement of
Structured Information Standards).
4. McGuinness D. L., & Harmelen F. Owl Web Ontology Language – Overview
[Homepage]. February, 2004. Extracted from Word Wide Web:
http://www.w3.org/2007/09/OWL-Overview-es.html
5. Methodology Extracted from Word Wide Web:
http://rhizomik.net/~roberto/thesis/html/Methodology.html
6. Noy N. F., & McGuinness D. L. Desarrollo De Ontologías-101: Guía Para Crear Tu
Primera Ontología, Stanford University, September , 2005.
7. Studer, R., Benjamins, V. R. & Fensel D., (1998). Knowledge Engineering: Principles
and Methods, Data & Knowledge Engineering, (vol. 25, no 1-2, pp. 161-197).
8. OSOA Consortium. SCA Service Component Architecture: Assembly Model
Specification [Guía en Línea]. Extraido del Word Wide Web:
http://www.osoa.org/display/Main/Service+Component+Architecture+Specifications,
2007.

133
Metaproceso para el desarrollo de Software

Sandro Javier Bolaños Castro1, Víctor Hugo Medina Garcia1, Jesús Soto2
1
Universidad Distrital Francisco José de Caldas, Cra 7 No 40-53 Piso 4°
Bogotá - Colombia
2
Universidad Pontificia de Salamanca, Juan XXII, 3 Madrid - España
{sbolanos@udistrital.edu.co, vmedina@udistrital.edu.co, Jesús.soto@upsam.net}

Resumen. El presente artículo plantea como resolver la problemática


de aplicar procesos de software o metodologías como herramientas
fundamentales en la realización de un proyecto de software, el enfoque
de dicha propuesta radica en tomar el proceso mismo como el objeto de
estudio, estableciendo una perspectiva que va mas allá de las
consideraciones que convencionalmente se hacen sobre los procesos, se
plantean además una serie de elementos que generan un marco de
conocimiento sobre el cual sustentar la propuesta.

Palabras claves: Proceso de software, metodología de software, marco


conceptual de proceso.

Abstract. This article proposes how resolve the problem to apply


software process or methodologies as a fundamental tool to realize one
software project, the approach is based on take process as a study
object, establishing a perspective that go beyond conventional
considerations made about process, it proposes elements to generate a
knowledge frame to support the proposal.

Keywords: Software process, software methodologies, process


conceptual frame.

1 Introducción

Los procesos de software son herramientas poderosas en el manejo de los proyectos


informáticos, pero infortunadamente se convierten en espadas de Damocles si no son
bien empleados. Clásicamente se recurre a practicas que en otros escenarios han
funcionado, se enumeran largas listas de propuestas que dicen tener el santo grial de
los procesos, sin embargo lo que si es cierto es que siguen presentándose fracasos en
proyectos mal concebidos, con presupuestos desfasados y excedidos en los tiempos.
El problema con los procesos y metodologías de software no radica en proponer
workflows, o practicas a seguir, el problema es formalizar principios, axiomas y
responsabilidades que puedan ser expresadas y empleadas en los procesos, la
discusión no se debe centrar en las formas de articulación de las actividades se debe

135
centrar mas bien en los conceptos rectores para estas y como pueden ser llevados a
cabo por unos roles con responsabilidades bien definidas. En la presente propuesta se
hace una reflexión que apunta a tales conceptos.

2 Antecedentes

Cuando se habla de proceso de software también emergen conceptos como


metodología de software, ciclo de vida del software y modelos de proceso. Es
necesario categorizar estas definiciones como punto de partida para la definición de
metaproceso.

2.1 2.1 Modelo de Proceso y Caracterizaciones de los Modelos

Cuando se hace referencia al concepto de modelo de proceso (ver Figura 1)


inmediatamente viene a la mente, modelos como el clásico modelo cascada, espiral,
V, prototipos, fases, entre otros. Estos tienen la particularidad de proponer no solo un
marco de actividades a resolver sino como éstas, están articuladas para ejecutar un
workflow. Un modelo de proceso no solo se preocupa por definir un conjunto de
actividades sino como estas se entretejen para asegurar un desarrollo eficaz. Estos
modelos de proceso tratan de definir el matiz con el cual se establezca el seguimiento
del proceso en si mismo, y así caracterizar la instancia de proceso concreta.

Fig. 1. Modelos de Proceso

El problema en cuanto a los modelos de proceso se refiere, está en tratar de establecer


una perspectiva diferente a la planteada en el modelo en cascada que podría
considerarse el punto inicial del gran big bang que se desencadena en la extensa gama
de procesos. El modelo de cascada propone un marco en el que se identifica de
manera clara un cuerpo de conocimiento, dado por el conjunto de actividades bien
definido y que permiten, entre otras cosas: definir disciplinas y roles. Estos dos
conceptos son vitales en la formalización de un proceso pues ello conlleva a una clara
definición de los recursos y las responsabilidades. El inconveniente del modelo en
cascada es que este conjunto de actividades están organizadas de manera lineal y
rígida, esto produce serios problemas en el momento en que se detectan defectos, que

136
generalmente es en fase avanzadas, ya que las correcciones son dispendiosas y
costosas, sobre este problema recaen las críticas dado los serios inconvenientes que le
produce esto a los proyectos de software. El modelo en cascada puede considerarse
como un modelo de proceso demasiado optimista al considerar que de actividad a
actividad los defectos producidos son mínimo y además que las correcciones pueden
hacerse en fases avanzadas de los proyectos, invirtiendo un esfuerzo con el que
generalmente la organización no cuenta. Es evidente que un proceso caracterizado por
una secuencia estricta es un problema, considerar el software como un producto
convencional que se va ensamblando de actividad en actividad es un craso error.
El desarrollo de software debe flexibilizar el proceso, retroalimentar
tempranamente, definir roles e integrarlos a un trabajo colectivo, con
responsabilidades claras y articuladas, estos roles deben estar íntimamente asociados a
las actividades que propone el proceso, que por su complejidad se convierten en
disciplinas que requieren un tratamiento mucho mas formal del que clásicamente se
hace. Al parecer el modelo lineal no estimaba estas consideraciones básicas. Hay que
tener en cuenta que prácticamente el modelo en cascada es el modelo inicial mas
importante y el precio que tuvo que pagar por ser utilizado en un disciplina emergente
fue alto y es quizá el modelo al que mas se le han asociados fracasos.
Lo preocupante es que después de un tiempo considerable, en el que se supone la
ingeniería de software a progresado se sigan cometiendo los mismos defectos [1].
Modelos como el V tratan de plantear soluciones proponiendo alternativas a la
linealidad el planteamiento de este modelo se centra en considerar la prueba como una
actividad paralela al proceso, el efecto que se produce es el de llevar de manera
simultánea la prueba junto con las actividades previas: requisitos, diseño e
implementación. La aportación fundamental, detrás de esta idea, es la de romper con
el mito, acerca de la realización de la prueba en fases avanzadas, generalmente
después de la implementación. Romper el paradigma de la prueba es fundamental, ya
que es posible detectar defectos en fases tempranas, desde luego poder resolverlos,
algunas otras propuestas sobre todo metodológicas como por ejemplo XP 38 [2],
también consideran la prueba como una fase central que debe estar presente
fuertemente en el procesos, los XP consideran que el objetivo fundamental del
software es el de pasar las pruebas
De la misma manera modelos como el espiral proponen un conjunto de iteraciones
que evolucionan en el tiempo, en este modelo se aprecia de manera evidente el
concepto de desarrollo valioso en el ámbito de la ingeniera de software. El modelo
espiral también introduce conceptos como el riesgo, la planeación y la liberación de
prototipos con cada iteración. La manera de escapar a la linealidad desde el punto de
vista de un espiral es conseguir realizar Iteraciones, el objetivo en cada pasada o
iteración es producir mejoras hasta tener un producto. Si suponemos el proceso de
desarrollo de software en espiral como el proceso de pintar una pared que esta en
color negro a que quede en color blanco. Podemos imaginar muchas situaciones al
respecto como por ejemplo, el tiempo, esfuerzo, pasadas entre otras tareas que son
necesarias para transformar dicha pared de un color a otro, un proceso espiral es muy
cercano a esta situación. El espiral nos plantea un interrogante importante: Que blanco
es el que deseamos? Los procesos deben evitar a toda costa ser iteraciones infinitas en

38
Extreme Programming http://www.programacionextrema.org/

137
las que no parece haber un punto de llegada, para corregir este tipo de defectos es
necesario un enfoque claro de requerimientos y unas especificaciones y contratos bien
establecidos.
Por su parte el modelo de proceso por fases enfatiza en un conjunto de actividades
bien definidas en donde se hacen corridas parciales del proceso, en el fondo el
planteamiento es el de llevar casi de manera simultanea pequeñas cascadas que a
diferencia de la iteración considera la aplicación del proceso de principio a fin
realizando requerimiento por requerimiento partiendo desde los independientes hasta
los mas complejos que necesiten de funcionalidades ya desarrolladas. Este modelo de
proceso puede evolucionar de requerimientos que son constantes a lo largo del
proyecto o admitir la introducción de características en el desarrollo mismo del
proceso.
Lo que es claro es que los modelos de proceso se preocupan por buscar una
caracterización con la que impriman su sello, a la realización del proceso. Al rescate
de la linealidad las consideraciones de paralelismo, iteración y fase son propuestas
robustas, no se trata de demoler el concepto lineal que es muy valioso se trata de
corregir sus defectos para proyectos que requieren posturas de pensamiento versátiles
como lo son los proyectos de software. Pensemos que contamos para resolver un
problema con los siguientes conjuntos:
A = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
B = {1, 3, 5, 7,9}
C = {2, 4, 6, 8, 10}
D = {2, 3, 5, 7}
A constituye el conjunto base lineal, secuencial y esencial para definir los demás,
sin embargo B es una posibilidad de resolver problemas pares, C problemas impares y
D problemas primos. Entre A, B, C y D ―modelos de proceso‖ hay coincidencia en la
secuencia de los números ―actividades‖ que constituyen los conjuntos definitivamente
es mas fácil contar en orden, ―ascendente‖. De la misma forma los modelos de
proceso son caracterizaciones del modelo lineal.

2.2 Metodología como herramienta para el desarrollo de software


La metodología en contraste a los modelos de proceso se ha preocupado más por
proponer, un conjunto de prácticas, valores y principios, asociadas al proceso. No es
que la metodología abandone el estudio del proceso, mas bien lo enfoca como el
objeto que necesita de unos aspectos claves alrededor de el, que lo empoderen y le
den un cuerpo mas robusto el que generalmente termina siendo personalizado, Estos
rasgos definen el enfoque del proceso, y están fundamentados en la emperia que se ha
alcanzado a través del desarrollo de proyectos en la praxis. Las prácticas son
recomendaciones de acciones ejecutadas y con las que se alcanzaron éxito, en tanto
que los valores y principios enuncian criterios producto de la experiencia y que
incluso resaltan conceptos más allá de la práctica formal de la disciplina.
Cuando se esta ante una metodología no se deja de sentir un cuerpo de
conocimiento dotado de experiencias acumuladas y sugeridas como formulas que
pueden conducir de manera mas segura las actividades de desarrollo de software; sin
embargo también se enfrenta la sensación ser propuestas pragmáticas y con una dosis
alta de ensayo error. Algunas metodologías especialmente las agilistas consideran

138
algunas estrategias poco ortodoxas. Por ejemplo la metodología ASD39 [3], considera
actividades como la especulación para incorporar conceptos flexibles de planeación;
sin embargo crean un rechazo entendible en su concepto aparentemente informal,
comparaciones como la de cerdos y gallinas hecho por Scrum40 [4], no son de fácil
aceptación aunque en el fondo sean bastante cercanas a la realidad.
Independientemente de lo criticas y mordaces de muchas metodologías, están
trazan un panorama real de aplicación en los proyectos de software que se deben tener
presente.
Las metodologías mas reconocidas son las derivadas del movimiento agilista 41
como son el caso de XP, Scrum, Crystal, ASD, entre otras, ellas mismas son una
declaración en contra de los métodos convencionales.

2.3 Ciclo de Vida del Software

El ciclo de vida del software hace alusión al uso disciplinado del proceso con una
característica relevante como es la retroalimentación, es decir las entradas al proceso
sufren una transformación que a su vez convertida en salida es la entrada de una nueva
pasada del proceso. El concepto de ciclo de vida clásico del software se ha acuñada de
manera simultanea al modelo en cascada o ciclo de vida clásico [5].

2.4 Proceso de Software

Los procesos por su parte pueden ser considerados como la materialización de un


modelo de proceso en el que expresa la característica del modelo o modelos de
proceso base y generalmente son esfuerzos de organizaciones con motivaciones a
implementaciones de proyectos empresariales podemos mencionar por ejemplo el
RUP42 [6], como esfuerzo empresarial de lo que inicialmente se llamara Rational
Corporation43. También hay esfuerzo gubernamentales y académicos. Un proceso en
si es una instancia especifica de modelo de procesos el proceso busca una aplicación
en la praxis. Algunos autores como Somerville [7] consideran el proceso como el
conjunto de actividades tendientes a la producción de software un proceso define:
 Especificación del software: donde los clientes e ingenieros definen el
software a resolver.
 Desarrollo del software: donde el software se diseña y se programa.
 Validación del software: donde el software se contrasta con las expectativas
del cliente.
 Evolución del software: en donde el software s modificado para adaptarlo a
los cambios requeridos por el cliente y el mercado.
 Para Pressman [5] un proceso es un marco común dotado de un conjunto de
reducido de actividades aplicables a todos los proyectos de software con

39
Adaptive Software Development
40
http://www.proyectosagiles.org/que-es-scrum
41
http://www.agilemanifesto.org/
42
Rational Unified Procces
43
http://www-01.ibm.com/software/rational/

139
independencia de su tamaño o complejidad.

3 Proceso como Concepto Convergente

Todos los conceptos antes presentados: modelo de proceso, metodología, ciclo de


viada y procesos, gira entorno a un concepto este es el de procesos. Cada concepto
matiza el hecho de tener un conjunto de actividades caracterizadas para resolver un
problema que se plantea en el dominio del software. Sin embargo el concepto de
proceso en si mismo introduce un problema que puede ser visto en tres dimensiones:
 Elección
 Utilización
 Creación.
La elección sitúa al problema en conocer una gran gama de ofertas en torno al
proceso que deben ajustarse a las necesidades del proyecto.
Una vez se ha elegido el proceso debe ser utilizado, procurando aplicarlo conforme
el proceso proponga sus actividades con sus caracterizaciones.
Pero cuando el problema no se ajusta al modelo empresarial es necesaria la
creación, esta puede ser un ensamble de actividades existentes, o una propuesta
innovadora que mezcle actividades creadas con actividades ya existentes o la
propuesta en la que las actividades son todas innovaciones.
Estas tres características en las que un proceso debería ser visto es lo que establece
un dominio más allá del proceso, o lo que se plantea como Metaproceso.

4 Más Allá del Proceso

Más allá de considerar que los procesos son conceptos preexistentes que pueden ser
tomados en el manantial de conocimiento, es necesario plantearse el interrogante de
cómo estos son el objeto mismo de estudio. El que una organización de por sentado
que un proceso es la formula salvificadora o the silver bullet [1] en sus proyectos de
software, y que ellos tal y como se proponen son el hilo conductor al éxito, es un
pensamiento demasiado optimista. Los proceso en si mismo como herramientas
primarias en los proyectos de software deben ser estudiados como parte del problema;
como se planteo anteriormente pueden caer en tres posibles escenarios: elección,
utilización y creación. Para los tres criterios de estudio de los procesos es necesario
conocer tanto de procesos como de los modelos empresariales, porque es la sinergia
entre el dominio del problema y el proceso, lo que ofrecerá una mayor probabilidad
de éxito. Los criterios de elección y utilización se centran en el dominio de lo
existente mientras el criterio de creación anima a buscar nuevas formulas de proceso,
sin tratar por supuesto de reinventar la rueda [8], se trata es de conceptualizar nuevos
métodos de enfrentar la problemática del software.
En si tanto la elección como la utilización y creación son a su vez procesos del
proceso, en este orden de ideas el nuevo proceso constituido es realmente un
metaproceso pues es el mismo el objeto de estudio de acuerdo a la Fig. 2.

140
Fig. 2. Metaproceso

4.1 Proceso de Elección

Escoger un proceso es una tarea que involucra conocer:


 Una amplia gama de procesos, especialmente casos probados de éxito.
 Los dominios sobre los que fueron utilizados, como medio comparativo.
 Los equipos que lo emplearon para determinar las características de los roles.
 Los recursos que utilizaron, y así determinar las posibilidades sobre todo
económicas de la organización.
 Los cronogramas logrados.
Las anteriores consideraciones son algunas de las más importantes que se podrían
estimar. La elección debe confrontar el proceso, la organización y la interfaz
constituida por el grupo humado, encargado de fusionar las caracterizaciones una a
otra. Contra la libre elección podría atentar la tendencia a utilizar procesos de moda,
este patrón es muy típico, o más bien este antipatrón es generalizado, y es evidencia
de poca madurez organizacional.

4.2 Proceso de Utilización

Utilizar un proceso implica gestionar cada una de las actividades que lo constituyen en
la utilización se debe:
 Definir el conjunto de actividades que se necesitaran en el proceso, así como
los objetivos y resultados que se esperan de ellas.
 Definir los roles que realizaran las funciones debidas a cada actividad del
proceso, esto permitirá definir con claridad responsabilidades y con ello
controlar el conjunto de resultados esperados y que contribuirán en el
desarrollo del proyecto.
 Proponer los cronogramas y presupuestos necesarios para el proceso y cada
una de sus actividades.
Las anteriores consideraciones apuntan a gestionar el proceso, y así realizar una

141
utilización eficiente de los recursos.

4.3 Proceso de Creación

Crear un proceso implica generar nuevas opciones para el proceso sean estas
totalmente novedosas o producto de una integración diferente de actividades de
proceso.
El primer caso que implica creación es el caso dado por una nueva disposición de
actividades preexistentes ante una nueva expectativa organizacional, y que
generalmente es conveniente para un proyecto específico, producto de la necesidad
que tiene la organización de enfrentar nuevas condiciones. En este primer escenario la
creación se centra en la disposición a conveniencia de las actividades del proceso,
debe asumirse una posición crítica y reflexiva en la organización que permita con
madurez constituir un proceso ajustado a la organización y al proyecto junta con sus
participantes.
El segundo caso que implica creación es el caso dado por la proposición de nuevas
actividades para el proceso. Este proceso es el más avezado de todos e implica un
conocimiento extenso de la disciplina. No es el camino mas sencillo pero de darse es
el mas prometedor si se tiene en cuenta que las soluciones estarían impactadas por
nuevas consideraciones técnicas y científicas.

5 Roles para el Metaproceso de Software

Los roles dentro de cualquier ámbito organizacional juegan el papel fundamental de


distinguir las responsabilidades que se deben cumplir. En procesos de software se
tienen varios roles conocidos como por ejemplo el de ingeniero de requerimientos, el
rol de diseñador el rol de arquitecto, el rol de probador, entre otros. Pero no es
frecuente escuchar roles propio para el proceso de software. Siendo el proceso de
software el objeto de estudio es necesario acuñar roles que puedan cumplir con las
responsabilidades que el manejo del proceso exige, en este orden de ideas se pueden
enumerar las siguientes roles claves para la gestión del proceso (Fig. 3):

Fig. 3. Roles del Metaproceso

142
Gestor del proceso: este rol tiene como objetivo definir el proceso que se debe
emplear en un proyecto de software, así como los roles que participaran dentro del
proceso y enfatizar en las practicas que sobre el proceso se deben realizar, en este rol
la tarea fundamental esta en el seguimiento disciplinado de un proceso asegurando el
cumplimiento de sus objetivos y apuntando a corregir incidentes históricos.
Arquitecto de Proceso: este rol tiene como objetivo armar el proceso de software
acondicionándolo a las exigencias del proyecto y la organización, el arquitecto es la
interfaz entre los deseos para el proyecto y lo que el proceso debe ofrecer, establece
fundamentalmente la contribución y la estrategia a seguir. Este rol compone nuevas
formas del proceso con el conjunto de disciplinas con las que se dispone para el
proceso de software, teniendo en cuente las condiciones no solo del proyecto sino
también de la organización, es posible en este rol descubrir nuevas formas del
proceso.
Innovador de Proceso: este rol se basa en un extenso conocimiento de procesos
para crear nuevas opciones, ya sea porque los procesos existentes no ofrecen el cuerpo
de conocimiento robusto para el proyecto de software o porque se quiere tener ventaja
substancial frente a los proceso convencionales. En este rol incluso se ofrecen nuevas
disciplinas de software producto de las actividades emergentes que se proponen.
Estos tres roles fundamentales apuntan respectivamente a la elección, utilización y
creación de procesos de software que como mínimo se deben tener en cuanto en el
proceso.

6 Principios del Metaproceso

El metaproceso de desarrollo de software como proceso tiene un conjunto de


principios que los caracterizan y le permiten formalizar su uso. Estos principios son:
 Principio de la no ausencia del proceso.
 Principio de la dualidad del proceso.
 Principio de la irrepetibilidad del proceso.
 Principio del continuum del proceso.
 Principio de la completitud del proceso.

143
Fig. 4. Principios del Metaproceso

Estos principios permiten conceptualizar los procesos que se elijan, utilicen o se


crean, y se representan como los pilares base del metaproceso, esquematizado de
acuerdo a la figura anterior.

6.1 Principio de la No Ausencia del Proceso

Siempre hay que tomar una decisión en los proyectos de software: cual es el proceso
que lo direccionará? Si el proceso es escogido de uno existente previamente o es un
proceso creado, se dispondrá en cualquiera de los casos un proceso. En el evento
extremo de no existir un modelo empresarial con el escenario mas es informal que se
pueda suponer, aun así ante la no existencia de un modelo aparentemente definido, se
esta ante la ausencia de un proceso?
La ausencia de un proceso en si es la aceptación de un no proceso que a su vez es
un proceso. Este el proceso caótico y extremista de la carencia de actividades del cual
existe una referencia que se puede situar el proceso big-bang [9]. Por otro lado si un
proceso en esencia es un conjunto de actividades por teoría de conjuntos el mismo
conjunto vacío es un conjunto por tanto soporta el hecho de que existe un proceso
incluso en el conjunto vacío de actividades que como se menciono es el big-bang.
La anterior demostración de la existencia de un proceso para cualquier escenario
es indispensable para corroborar la necesidad apremiante de considerar el proceso
como el objeto de estudio y no sumirlo únicamente como la herramienta ya existente
que usamos para guiar un proyecto de software. Y mas importante aun no caer en el
extremo de ignorar el proceso pues como se planteo esto nos conduciría al modelo
caótico

6.2 Principio de la Dualidad del Proceso

Un proceso como herramienta de apoyo en el direccionamiento de un proyecto, se


asume es un hilo conductor que aporta de manera positiva en la solución. Pero es
posible que el proceso se convierta en obstáculo del proyecto de software? No
parecería común ni siquiera hacer tal pregunta, pero quizá el hecho de que aun se
sigan citando un número importante de fracasos en proyectos de software sea un
índice importante que puede ser causado en gran parte por la utilización misma de un
proceso de software. Como un proceso puede convertirse en la espada de Damocles 44
del proyecto? Si se tiene en cuenta precisamente que el proceso direcciona el
proyecto, puede el mismo proceso producir los siguientes efectos:
 Retardar el tiempo del proyecto por la importancia que se den a unas tareas
sobre otras, es decir no se tiene un ritmo [10] controlado de ejecución de las
actividades.

44
http://es.wikipedia.org/wiki/Damocles

144
 No corresponder con la naturaleza del proyecto. Los procesos se desarrollan
bajo ciertos dominios y no es una buena estrategia utilizarlos sino apuntan a
contextos similares.
 Utilizarlo cuando este ha sido originado en campos diferentes al software y
por antonomasia se asume que debe ser exitoso para proyectos con
singularidades como las que propone el software y que lo hacen un producto
poco convencional, o si no pensemos en:
• Cuántos gramos pesa un algoritmo?.
• Qué resistencia al uso tiene un ciclo?
• A qué sabe un modulo?
El no poder aplicar de manera directa una disciplina fáctica limita enormemente el
uso de estrategias antes probadas y que generalmente son utilizadas con éxito en otras
disciplinas de ingeniería.
Tomar el conjunto de actividades propuestas como una formula a seguir y no
como un ejercicio de interiorización en el que la organización debe apropiarlo a sus
condiciones y como consecuencia de un conocimiento formal de las disciplinas que se
involucran.
Las anteriores consideraciones apuntan a la doble naturaleza que puede asumir el
proceso de software. Inicialmente se espera que su aporte sea hacia el desarrollo
exitoso del proyecto de software pero no se esta lejos de que se convierta en un
obstáculo.

6.3 Principio de la Irrepetibilidad del Proceso de Software.

Heráclito de Efeso45 afirma que el fundamento de todo está en el cambio incesante,


esta es la condición fundamental que se debe atribuir al proceso de software, estas
condiciones de movimiento nos permite asegurar que ―no ejecutamos el mismo
proceso dos veces‖ ni el ejecutante ni el proceso serán el mismo de un tiempo a otro.
Considerar el proceso como un fenómeno repetible, es un gran error si se tiene en
cuenta que es imposible tener las mismas condiciones de un proyecto a otro, a pesar
de que ―en teoría‖ se ejecute el mismo proceso habrán siempre recursos, condiciones
organizacionales y tiempos que serán diferentes, si excepcionalmente fueran iguales
de proyecto a proyecto situación bastante improbable queda por mencionar la
característica mas importante de la ejecución de un proyecto a otro y que hace la
diferencia, esta es la mejora, siempre se reconoce explicita o implícitamente como las
situaciones que han sido favorables o desfavorables pueden impactar el siguiente
proyecto desde la perspectiva del proceso, estas consideraciones son la que muchas
metodologías denominan como buenas practicas, otras principios u otros conceptos
que a puntan a afirmar que se tuvo ya una experiencia y que esta a enriquecido el
acervo organizacional en referencia al proceso de desarrollo de software.
Reconocer y apalancar condiciones mas favorables producto de la experiencia en
la ejecución de un proceso, es una virtud que debería atesorar la organización cuyo
objetivo no solo se la producción de software sino el desarrollo de aplicaciones
embebida en sus entornos, cuyo principal propósito sea el de impactar positivamente.

45
Diccionario Akal Filosofia, Cambridge University Press, 1.999.

145
6.4 Principio del Continuum del Proceso

El metaproceso es el conjunto de los procesos de selección, utilización y creación de


procesos:

MP = {PS, PU, PC}

La aplicación disciplinada del metaproceso crea un repositorio de experiencia


fundamental para la siguiente pasada del metaproceso, este repositorio es manejado
como el conocimiento y madurez que va alcanzando la organización y que le permite
establecer mejores procesos cada vez que se realizan proyectos de software. El
metaproceso se basa en el continuum para mejorar su propia práctica. Entre algunos
de elementos que este continuum estima son:
 Records de los cronogramas y presupuesto empleados en anteriores proyectos.
 Roles y actividades criticas para proyectos pasados.
 Practicas a empoderar y practicas para desechar.
 Riesgos para tener en cuenta.
 Artefactos valiosos para producir y artefactos inservibles para rechazar.
 Oportunidades para aprovechar y amenazas que evitar.

En términos generales el continuum pretende listar los aspectos positivos para


reforzar de los proyectos anteriores y los aspectos negativos para eliminar. Algunos de
los problemas con los que el continuum puede tropezar son:

Rotación del personal sin preparación del personal de reemplazo.


Contratación de terceros ―outsource‖ sin preocuparse por crear memoria
organizacional.
Utilización de filosofías y tecnologías sin apropiación a los procesos
organizacionales.

6.5 Principio de la Completitud del Proceso

El metaproceso en su propuesta conceptual es completo, el mismo propone la forma


de proveer los elementos necesarios para su elección, utilización o creación. Una vez
se emplee el metaproceso hay seguridad de tomar una buena decisión en el proceso a
emplear y las condiciones como será empleado. Siendo consiente el responsable del
proceso se es consiente del proceso y como este impacta el proyecto que soporta. El
metaproceso tiene como función hacer del proceso parte del problema y parte a la vez
de la solución, el procesos convive íntimamente con le proyecto y por tanto todo
esfuerzo debe ir dirigido a evitar que se convierta de aliado en enemigo, el proceso es
el facilitador del proyecto de software y sus practicas deben ser dirigidas a ello, si se
detectan causales de tropiezo en un proyecto motivadas por el procesos, el
metaproceso las debe identificar y advertir además propuestas de solución.

146
7 Aportación del Metaproceso en la Ingeniería de Software

En Ingeniería de software hace falta una propuesta que formalmente hable de la


problemática del proceso de desarrollo de software como el objeto de estudio. Hasta
ahora se ha limitado a establecer unas mínimas definiciones que incluso de autor a
autor defieren o incluso se fusionan sin ningún rigor. El problema de desarrollar
software se ha legado en gran medida al proceso, pero el mismo proceso necesita ser
revisado pues puede convertirse fácilmente de aliado a enemigo. El metaproceso
planteado en este artículo apunta a situar la discusión entorno al problema de hablar
mas halla del proceso. Como aportación se establece una definición del metaproceso,
estructura, roles y principios. Para otras discusiones se propone el lenguaje para el
metaproceso.

8 Conclusiones

De acuerdo a estos planteamientos y a la propuesta de una mejor alternativa al


desarrollo de software, podemos concluir que:
 El metaproceso de desarrollo de software es una nueva propuesta cuyo eje
fundamental es el tratamiento del proceso como objeto de estudio.
 El metaproceso tiene unos principios mínimos que le permiten formalizar su
tratamiento.
 El metaproceso también esta dotado de roles que muy seguramente después de
un tiempo oportuno originaran disciplinas como se ha visto ha sucedido con la
ingeniería de software.
 La necesidad de considerar el metaproceso apunta a proponer una herramienta
que apoye los problemas derivados directamente del proceso de software.
 El metaproceso se constituye como el marco referencial de estudio de los
procesos es necesario trabajar en el lenguaje que permita comunicar sus
propuestas.

Referencias

1. Brooks F. 1995. The mytthical Man Month, Anniversary Edition wiht tour new Chapters,.
Ed. Addison Wesley Longman.
2. Newkirk J, Martin R. 2002. La Programacion Extrema en la Práctica. Ed. Addison Wesley.
3. Highsmith J. 2000. Adaptive software development: A collaborative approach to managing
complex systems. Dorset House. Nueva York.
4. Schwaber K. 1995. The Scrum development process. OOPSLA ‘95 Workshop on Business
Object Design and Implementation, Austin,
5. Pressman R. 2006. Ingeniería del Software. Quinta edición. Ed. Mc Graw Hill.
6. Jacobson I., Booch G. and Rumbaugh J.. 2000. El Proceso Unificado de Desarrollo de
Software. Ed. Addison Wesley.
7. Somerville I. 2011. Software Engineering. 9th Edition. Addison Wesley.
8. Brown W.C. Malveau, Hays W. McCormick, and Thomas J. Mowbray. 1998. AntiPatterns:
Refactoring Software, Architectures, and Projects in Crisis. Ed. John Wiley & Son Inc.
9. Patton R. 2006. Software Testing. Ed. Sams.

147
10. David M. And Dikel D. 2001. Software Architecture: Organizational Principles and
Patterns.

148
Análisis, Diseño y Desarrollo de un sistema de
identificación dactilar basado en Redes Neuronales
Artificiales

Jamer Cuevas, Daniel Hernández, Christian Díaz


INTESEC / Julio Barón, José Soriano

jacuevass@correo.udistrital.edu.co, dfhernandezh@correo.udistrital.edu.co,
cfdiazm@correo.udistrital.edu.co, jbaron@udistrital.edu.co,
jsoriano@udistrital.edu,co.

Resumen. La identidad es la unidad principal que constituye lo que es


un ser humano y persona natural. El dilema es como estar seguro de la
identidad de las personas, para esto se han utilizado elementos que
intentan velar por esta condición. La inteligencia artificial, como área de
las ciencias computacionales, ha desarrollado herramientas que se han
empleado para ayudar a las personas en tareas que requieren de un
procesamiento con determinadas características de volumen o
complejidad y que por esas mismas características requerían de que una
persona revisara los resultados después o durante la ejecución de la
tarea.

Palabras Claves: Redes Neuronales Artificiales, Momentos Hu,


Principal Component Analysis, Huellas Dactilares, Reconocimiento.

Abstract. The identity is the mean unity that constitutes what are a
human being and natural person. The dilemma is how to be sure about
the people‘s identity; to this, have been used elements that try to ensure
this condition. The artificial intelligence, as an area of computer
science, has developed different tools that have been used to help
people in tasks that need a processing with certain characteristics of
huge volume and complexity, and for these reasons required a person
who checks the results after or while task is executing.

Key Words: Artificial Neural Networks, Hu Moments, Principal


Components Analysis, Fingerprints, Recognition.

1 Desarrollo Del Proyecto

1.1 Elección del Modelo de RNA

El estudio de características, ventajas, desventajas, así como de dificultades

149
encontradas en el desarrollo y entrenamiento de aplicaciones concretas, llevaron a la
selección de una RNA del tipo backpropagation (RNB). Entre las ventajas que nos
llevaron a esta elección se encuentra su capacidad de aprender a asociar patrones de
entrada a la red con las clases correspondientes propagando el error hacia atrás, es
decir, su capacidad de auto-adaptar los pesos de las neuronas de las capas intermedias
para aprender la relación que existe entre un conjunto de patrones dados como
ejemplo y sus salidas correspondientes.

1.2 Pre-procesamiento de los Datos

Mejoramiento Imagen Huella Dactilar


El desempeño de la extracción de las características y el algoritmo de coincidencia
depende considerablemente de la calidad de la imagen de entrada; una imagen de la
huella dactilar es de buena calidad donde están bien definidas las crestas y valles, pero
una imagen de poca calidad es aquella donde no está claramente definidos los límites
entre las crestas y valles, generando falsas minucias y la pérdida de las auténticas,
disminuyendo la exactitud de la coincidencia (SHARAT S. Chikkerur).

Mejorar Calidad Imagen


La frecuencia contenida en la mayoría de las señales actualmente cambia
constantemente, tales como señales biomédicas, señales de audio, índices de
almacenamiento, vibraciones y de contraste en los diferentes tonos de una imagen
Las funciones básicas usadas en el análisis clásico de Fourier no están asociadas con
algún instante de tiempo en particular, el resultado de una señal variante en el tiempo
no se refleja explícitamente, sin embargo la fase característica de la transformada de
Fourier contiene información del tiempo, es difícil establecer la relación punto a punto
entre la función en el tiempo y la transformada de Fourier basados en el análisis
convencional de Fourier.
Como resultado de aplicar el STFT sobre la huella dactilar se observa la mejora en la
calidad de la imagen, comparando con la imagen capturada por el lector de huellas
Figura 1, se observa la eliminación del ruido generado por el contraste de crestas y
valles.

Fig. 1. Huella capturada y Huella aplicada STFT

Calcular Punto de Referencia

150
El punto de referencia es definido como el punto de máxima curvatura de la
convergencia de las crestas, que usualmente está ubicado en el área central de la
huella.
El punto de referencia se determina de la imagen mejorada, como una
característica global para la coincidencia, los puntos singulares (CORE y DELTA) son
únicos en la superficie de la huella, estos son comúnmente usados en la clasificación
de huellas dactilares como puntos de referencia, sin embargo, a menudo tenemos una
imagen parcial de la huella dactilar sin los puntos deltas y arcos planos de la huella
dactilar que no tienen estos puntos singulares
Existen diferentes tipos de métodos para localizar los puntos singulares. Sin
embargo, los filtros complejos, aplicados a la orientación sobre la huella en múltiples
escalas, son usados para detectarlos con un gran desempeño.
Los filtros complejos de orden k, para la detección de patrones con simetría radial son
modelados por . Donde x y y denotan dos coordenadas en la imagen
analizada, el filtro complejo puede ser calculado como:

(6)

. (7)

La orientación local de los patrones de de segundo orden de simetría esta dada por
como es mostrado en la figura 6, los cuales son similares a las
huellas dactilares en la orientación de los patrones de los puntos core y delta.

Fig. 2. Orientación de los patrones de φ con filtro h1= exp{2iφ} (izquierda)


y el filtro h2= exp{-2iφ} (derecha)

Se define el punto core como de punto de referencia porque es más común que el
punto delta y se puede representar como único en la imagen de la huella dactilar. El
punto core es definido como ―el punto más al norte de la unión de las líneas de las
crestas‖. Esto es apropiado para todos y cada uno de los bloques de condiciones. Para
las huellas dactilares que no contienen lazos o alguna singularidad, el punto core es
usualmente asociado con el punto de máximo de curvatura de la cresta de líneas, el
filtro h1 satisface ambas de estas condiciones.
De esta forma se aplica el filtro h1 en la orientación de la huella dactilar
representado por el ángulo de fase para determinar el
punto de referencia. El tamaño de la ventana de filtrado es , el
filtro corresponde a cada bloque es calculado por:

151
. (8)

Donde denota el resultado del segmento del bloque


,y , indica que el bloque es segmentado en primer plano
válido para la extracción de las características. es calculada en la ecuación 7. Se
observa que la respuesta es un valor complejo, la magnitud de representa
que tan cerca la orientación de los patrones de la huella dactilar local son similares a
la orientación de los dos filtros, mientras que el ángulo de fase indica la rotación entre
la orientación de los patrones locales de la huella dactilar y los filtros [6].

Calcular Orientación de Huella Dactilar

La orientación de la huella dactilar se calcula aplicando la orientación


multidimensional [7] combinada con el PCA propuesta por [2], posteriormente con el
punto de referencia calculado previamente se obtiene la orientación del bloque al que
pertenece.
El trabajo realizado por [2], el cual tiene como base el gradiente local de cada
bloque y aplicando el PCA para computar el conjunto de vectores de los gradientes
contiguos para encontrar la orientación dominante y proveer un óptimo conjunto de
datos basado en el análisis de los mínimos cuadrados.

Anular rotación Huella Dactilar

Teniendo la orientación de la huella dactilar se rota la imagen para dejarla en un


ángulo con respecto al eje vertical.

Hallar Región de Interés

La región de interés es obtenida a partir del punto de referencia calculado


anteriormente, el cual es la guía para realizar la segmentación de la huella. El tamaño
de la (ROI) Región de Interés puede ser experimentalmente determinado. En este
proyecto el tamaño de la región de interés es de 64px, como aparece en [8]
Teniendo como referencia las coordenadas del punto de referencia, se calcula las
coordenadas del vértice superior izquierdo (basados en el sistema de coordenadas
utilizado). Para calcular las coordenadas se utiliza la siguiente ecuación:

. (9)

Para reducir el efecto del ruido y las distorsiones no lineales, la ROI es particionada
en 4 sub imágenes más pequeñas (en diferentes cuadrantes) en contra de las
manecillas del reloj como se describe en la Figura 7, donde cada sub imagen tiene un
tamaño de 32x32.

152
Fig. 3. ROI segmentada

Momentos HU

La geometría de una región plana se basa en el tamaño, la posición, la orientación y la


forma. Todas estas medidas están relacionadas en los parámetros denominados
momentos.
Mediante los momentos invariantes de Hu, se consigue una descripción
independiente a las posiciones, tamaños y ángulos del objeto. [1]
El momento geométrico de una imagen , donde p, q son enteros
positivos y es llamado orden de los momentos, es definido como

. (10)

El momento Central está definido como

. (11)

El momento normalizado es definido como

. (12)

Donde,
. (13)

Si es una imagen digital, entonces la el momento central se convierte en

. (14)

Donde las coordenadas denotan el centro de y


[3] [5]

Con el fin de extraer las características de la ROI de la imagen mejorada, se usa los
siete momentos invariantes de Hu[5].
El conjunto de los siete momentos invariantes pueden ser derivados del segundo y
tercer momento Hu[5]. El resultado es un conjunto de momentos ortogonales

153
absolutos, los cuales pueden ser usados en escala, posición y rotación invariantes en
patrones de identificación [6].

Fig. 4. Momentos HU

Gracias a la segmentación, la entrada de la cual se dispone información de la


huella digital para le red neuronal es un vector que contiene 28 elementos (7 por cada
segmento). Dichos valores funcionan como puntos para determinar aproximaciones al
comparar los diferentes valores de la huella almacenada contra la procesada.

1.3 Sistemas de Verificación de las Huellas Dactilares

Para hacer la comparación de dos huellas digitales se realizó el siguiente


procedimiento.
A cada una de las imágenes de las huellas se le aplicó un pre-procesamiento tal
como lo describimos en el Anexo # 3 del presente documento. Luego de haber
terminado este paso, se procede a hacer una comparación de los vectores obtenidos de
cada huella y dependiendo de esta comparación deducimos si las dos huellas
pertenecen a la misma persona o son de individuos diferentes.

Comparación de los vectores

Para realizar la comparación de los vectores resultantes del pre-procesamiento de las


huellas se utilizó una red neuronal del tipo backpropagation de tres capas (capa de
entrada, capa oculta y capa de salida), el número de neuronas en cada capa será
explicado a continuación.

Capa de Entrada

La Capa de entrada está conformada de 9 neuronas, el valor de las mismas se calculó


de la siguiente manera:
Siendo V1={a1, a2, …., a28} el vector de la Huella dactilar #1 y V1={b1, b2, ….,
b28} el vector de la Huella dactilar #2, se creó un tercer vector de diferencias de la
siguiente manera.

154
. (15)

Luego, de cada vector se sacó el valor máximo (vmax), el valor minimo (vmin), y el
valor promedio de los elementos del mismo (vpro), estos valores que en total son 9,
son los valores de las neuronas de la capa de entrada.

Capa de salida.

La capa de salida solo está conformada de una neurona, la cual contendrá el valor 1 si
las huellas corresponden al mismo individuo y 0 si no coinciden.

Capa oculta.

Para determinar el número de neuronas que conforman la capa oculta, se probarán


distintas configuraciones (4, 8, 12 y 16 neuronas), después de hacer el entrenamiento
y la prueba de cada configuración, se escogerá la que nos dé el menor FAR y el
menor FFR

Entrenamiento y prueba de la Red Neuronal

Se utilizaron 4 Bases de imágenes de Huellas dactilares (Tomadas de FVC2004,


http://biometrics.cse.msu.edu/fvc04db/index.html ), cada base se componen de las
huellas de 100 personas, cada persona provee 8 imágenes de sus huellas. Para los
conjuntos de entrenamiento se tomaron las primeras 6 huellas de cada persona y para
los conjuntos de pruebas se usaron las dos últimas huellas de cada persona.
Para formar los conjuntos de casos exitosos se formaron parejas de la primera
huella de cada persona combinada con las demás 6 (2000 parejas para entrenamiento
y 400 para pruebas), mientras que para los casos no exitosos se formaron parejas con
las primeras huellas de cada persona (2000 parejas para entrenamiento y 400 para
Pruebas). La rata de entrenamiento fue de 0.1, la época fue 5000 y el error absoluto se
estableció en 0,001, siguiendo las indicaciones de [6]

2 Resultados

Como anteriormente se dijo se reprodujeron las condiciones del experimento de [6]


con los siguientes resultados:
Al contar con los las características innatas de la huella dactilar se procede a
realizar el matching46 entre la huella dactilar ingresada y las almacenadas en la Base
de datos del sistema de información, para esto se cuenta con una red neuronal, de
topología BPNN47 que cuenta con 3 capas, una capa de entrada de 7 neuronas, una

46
Matching: Método en el que el conjunto de minucias ingresadas son mapeadas para
encontrar su correspondencia con el conjunto de minucias almacenadas en la Base de Datos.
47
BPNN: Back Propagation Neural Network (Red Neuronal de Retropropagación)

155
capa oculta de 4 neuronas y una capa de salida de 2 neuronas.
Los resultados obtenidos con este conjunto de datos son los siguientes:

2.1 Tasa Falsa de Rechazo (FRR48)

Esta medida nos indica el porcentaje de rechazo a una huella existente en el sistema
de información, es decir, cuando una huella almacenada en la base de datos da un
resultado negativo al procedimiento de comparación. El resultado obtenido es un
3.2%, a continuación se presenta los resultados obtenidos con diferentes umbrales de
aceptación:

Fig. 5. Tasa Falsa de Rechazo

2.2 Tasa Falsa de Aceptación (FAR49)

Esta medida nos indica el porcentaje de aceptación de una huella que no existente en
el sistema de información, el resultado obtenido es un 0.8%, a continuación se
presenta los resultados obtenidos con diferentes umbrales de aceptación:

Fig. 6. Tasa Falsa de Aceptación

Con un modelo metodológico establecido, se llevaron los experimentos a


condiciones reales a través de una aplicación que capturaba las huellas de entrada, con

48
FRR: False Reject Rate
49
FAR: False Acceptance Rate

156
un dispositivo de captura de huellas digitales, con respecto a una base de huellas
capturada con anterioridad con el dispositivo, es decir, una base compuesta por
imágenes de huellas de personas conocidas. Dicha aplicación arrojo comportamientos
no deseados, entonces, se decidió descomponer los procedimientos y buscar la
combinación de pasos con mayor efectividad en la base de pruebas. Mejorando el
procedimiento con los procedimientos descritos también en [9] . Los experimentos
arrojaron los siguientes resultados:

2.3 Imagen Procesada

Al realizar un procesamiento en los datos de entrada en un sistema, se está


minimizando el procesamiento de datos erróneos; un primer acercamiento al
procesamiento de los datos se realizó en el mejoramiento de la imagen de la huella
dactilar utilizando la STFT el cual permite reducir el ruido de la imagen de la huella
dactilar [6].
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:

1. Procesamiento de la imagen utilizando STFT


2. Ubicación punto de referencia
3. Extracción ROI .
4. Extracción momentos HU de ROI.
5. Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 7. Error obtenido FAR – FRR

Los resultados obtenidos únicamente procesando la imagen muestran que el error


obtenido en FAR y en FRR es demasiado alto tomando en cuenta los resultados
publicados en la FVC del año 200650.

50
Fingerprint Verification Competition http://bias.csr.unibo.it/fvc2006/results/l_res_db1_a.asp

157
2.4 Imagen Procesada Binarizada

Teniendo en cuenta los resultados anteriormente descritos se necesitaba un


procedimiento adicional para reducir el error, por lo cual se convirtió la imagen
procesada en una imagen binaria, evitando de esta forma valores erróneos debido a los
diferentes matices de la imagen de la huella por estar en escala de grises
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
 Procesamiento de la imagen utilizando STFT
 Binarización Imagen procesada.
 Ubicación punto de referencia
 Extracción ROI51.
 Extracción momentos HU de ROI.
 Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 8. Error obtenido FAR – FRR (Binarizando)

Los resultados obtenidos procesando la imagen y posteriormente binarizandola


muestran que el error en FAR y FRR es demasiado alto y comparativamente con el
error presentado previamente en donde únicamente se procesaba la huella no existe un
mejoramiento importante del error.

2.5 Rotación por Gradiente

En vista de los resultados obtenidos con los dos métodos anteriormente descritos
sugiere que existe una variable adicional que está causando que se genere un error tan
alto, basados inicialmente que los momentos HU son invariantes rotación[6] pero
teniendo en cuenta a donde se indica que dichos momentos no son invariantes en la
rotación [4] se realizó la rotación de la imagen de la huella dactilar con el método de

51
ROI: Region of Interest (Región de interés)

158
la rotación por gradiente [9].
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
1. Procesamiento de la imagen utilizando STFT
2. Binarización Imagen procesada.
3. Cálculo orientación por Gradiente y rotación de la imagen.
4. Ubicación punto de referencia
5. Extracción ROI .
6. Extracción momentos HU de ROI.
7. Matching.

Los resultados obtenidos fueron los siguientes.

Fig. 9. Error obtenido FAR – FRR (Binarizando y Rotando por Gradiente)

2.6 Rotación por Piramides

Al no lograr un resultado significativo con el método de rotación por gradiente se


procedió a intentar un método distinto para encontrar la orientación de la huella, el
método usado fue el de la rotación por pirámides.
El procesamiento y extracción de la información se realizó en los siguientes
procedimientos:
 Procesamiento de la imagen utilizando STFT
 Binarización Imagen procesada.
 Cálculo orientación por Pirámides y rotación de la imagen.
 Ubicación punto de referencia
 Extracción ROI52.
 Extracción momentos HU de ROI.
 Matching.

Los resultados obtenidos son los siguientes.

52
ROI: Region of Interest (Región de interés)

159
Fig. 10. Error obtenido FAR – FRR (Binarizando y Rotando por Piramides)

Los resultados obtenidos procesando la imagen y posteriormente rotándola por


pirámide muestran que el error en FAR y FRR es demasiado alto y comparativamente
con el error presentado previamente con la rotación por gradiente no existe un
mejoramiento importante del error.

3 Conclusiones

Se utilizaron 4 Bases de imágenes de Huellas dactilares, cada base se componen de


las huellas de 100 personas, cada persona provee 8 imágenes de sus huellas. Al sacar
el procedimiento descrito hasta los momentos Hu y sacarles un PCA (Principal
Component Analisis) se pudo graficar la dispersión de los datos a analizar.

Fig. 11. PCA de los Datos Tomados de 1 Imagen de la Base 1

Como se puede ver en la Imagen I los puntos de las huellas que deberían hacer
matching es de muy difícil selección dentro de los puntos a los cuales no deberían
concordar, y eso pensando que es solo una imagen comparando con las demás
imágenes. Entonces el procedimiento se hace mas engorroso debido a que no es una
sola imagen sino múltiples imágenes. Como podemos ver en la imagen II la dispersión
de puntos de las 8 imágenes de una huella hace que el procedimiento carezca de
cualquier sentido.

160
Fig. 12. PCA de los Datos Tomados de 1 Misma Huella, 8 Imagenes de la Base 1.

Analizando la teoría de que la imagen graficada pudo estar alterada o


fuera de los límites o valores que el procesamiento admite, se procedió
a graficar 1 imagen por base y 1 huella (8 imágenes por base en todas
la bases)

Fig. 13. Dispersión de Datos Tomados de 1 Imagen de Cada Base.

Es evidente que no importa le procedimiento que se siga, los resultados del


procedimiento siempre han sido los mismos porque la dispersión que generan los
datos no es suficiente para generar una función que las redes neuronales procesen para
determinar un caso de éxito con toda confianza. Es por eso que se ha determinado que
el procedimiento que se ha seguido no ha cumplido con los requerimientos del
proceso, sin embargo, este ha sido el mayor producto de este trabajo de grado. La
demostración que no es posible generar una sola función de aceptación para todos los
casos mientras se procesan los datos de las imágenes por Momento Hu.

Referencias

1. Alegre, E. (s.f.). Utilización de momentos estadísticos y redes neuronales en la


clasificación de cabezas de espermatozoides de verraco. Recuperado el 16 de Mayo de
2010, de http://www.cea-ifac.es/actividades/jornadas/XXV/documentos/27-nrtierrale.pdf
2. Feng, X. G. (s.f.). Multiscale Principal Components Analysis for Image Local Orientation
Estimation. Recuperado el 16 de Mayo de 2010, de
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.12.9013&rep=rep1&type=pd
3. Flusser, J. (s.f.). Moment Invariants in Image Analysis. Recuperado el 16 de Mayo de
2010, de http://dar.site.cas.cz/download.php?bd=289

161
4. Flusser, J. (2000). On the independence of rotation moment invariants. Pattern
Recognition (33), 1405-1410.
5. Hu, M. K. (1962). Visual pattern recognition by moment invariants. IRE Transformation
on Information Theory , 8 (6).
6. Ju Cheng Yang, J. W. (2006). Fingerprint Matching Using Invariant Moment Features.
Computational Intelligence and Security, International Conference, CIS 2006 (págs.
1029-1038). Guangzhou, China: Springuer.
7. Richard C. Wilson, H. N.-E. (s.f.). Probabilistic Population Coding of Multiple Edge
Orientation. Recuperado el 16 de Mayo de 2010, de
http://www.springerlink.com/content/0vpt72cxyj5jclwc/
8. Yang, J. C., & Park, D. S. (2008). Fingerprint Verification Based on Invariant Moment
Features and Nonlinear BPNN. International Journal of Control, Automation, and
Systems , 6 (6), 800-808.
9. Yang, J. C., Min, B., & Park, D. (2007). Fingerprint Verification Based on Absolute
Distance and Intelligent BPNN. International Conference Frontiers in the Convergence of
Bioscience and Information Technologies. Jeju Island, Korea: fbit.

162
Educación Virtual: Entornos Colaborativos
Interinstitucionales

Ronald S. Gutierrez R1, Lucas Sánchez2.

1Candidato a Doctor en Ingeniería Informática, Universidad Pontificia de


Salamanca, Campus Madrid, Profesor Universidad Distrital
2Doctor en Ingeniería Informática, Universidad Pontificia de Salamanca Campus
Madrid, Profesor Universidad Pontificia de Salamanca Campus Madrid,
rsgutierrezr@udistrital.edu.co, lucas.sanchez@upsam.net

Resumen. El ambiente colaborativo ha ganado un puesto principal en


las discusiones sobre educación a distancia gracias a su excelente
adaptación al modelo virtual. El avance en las Tecnologías de la
información y las telecomunicaciones TICs, ha permitido el desarrollo
de plataformas virtuales que generan cada vez una mayor integración
por parte de estudiantes que se encuentran en diferentes lugares y con
distintas disponibilidades de tiempo. Sobre estas plataformas de aulas
virtuales, se propone la creación de un nuevo modelo que permita llegar
aun más allá, permitiendo una integración colaborativa incluso de
estudiantes que sean de cursos diferentes.

Palabras Clave. Educación Virtual, Trabajo Colaborativo, Interacción,


Aulas Virtuales, Entornos de educación virtual, LMS.

1 Introducción

Mientras el mundo se hace cada vez más pequeño gracias a la globalización, nuevas
necesidades aparecen en la sociedad. Una sociedad que día por día se gana más el
nombre de Sociedad del Conocimiento. Dentro del amplio grupo de las nuevas
necesidades, aparece fuertemente el desapego del concepto Espacio y Tiempo, donde
las personas buscan tener reuniones que no requieran de un lugar, ni una hora; donde
cada individuo pueda asistir en el momento mas conveniente y que adicionalmente lo
pueda hacer desde cualquier lugar del planeta.
La educación no es ajena a esta explosiva realidad y abre las puertas a nuevos
modelos que se ajusten a las diferentes necesidades, buscando incrementar, o por lo
menos no disminuir la calidad actual.
Actualmente, los estudiantes de un centro educativo, deben asistir regularmente a
clase, lo cual implica un desplazamiento espacial desde su lugar de residencia hasta la
ubicación del plantel. Este transporte genera en el estudiante cansancio, pérdida de
tiempo y costos adicionales, los cuales son recursos desperdiciados que podrían ser

163
correctamente direccionados hacia otro tipo de actividades como artes, deportes, ocio,
etc.

2 Interacción

El problema de la interacción ha sido analizado por varios autores a través del


tiempo, fijando un modelo que se ajusta muy bien al comportamiento de un aula
virtual. Este modelo fue propuesto inicialmente por MOORE JENCI, D. y SALES,
J53 los cuales propusieron las siguientes interacciones

Estudiante - Profesor
Estudiante - Contenido
Estudiante – Estudiante

Donde se analiza una relación directa entre el estudiante y los otros tres
componentes. De esta manera se deja al estudiante como el protagonista del proceso
constructivo de conocimiento.

Relación Estudiante - Profesor


A partir de este modelo se puede analizar que el estudiante genera una relación
directa con el profesor, donde existe una comunicación análoga a la que habría en
cualquier entorno educativo tradicional. Sin embargo en el entorno de educación
virtual, el profesor no se comunicara de la misma forma como lo haría en una clase
magistral. En este modelo, el hecho de que el contenido se encuentre publicado libera
de tiempo al profesor para dar una atención más personalizada a cada estudiante y le
permite jugar un roll de asesor en el proceso de construcción de conocimiento.

Relación Estudiante - Contenido


También se observa la relación directa Estudiante con contenido, en la cual el
estudiante abordará directamente el contenido sin tener como intermediario obligado
al profesor. Esta es la primera diferencia fundamental que aparece frente al modelo
educativo tradicional. Aquí, el contenido está disponible para ser utilizado por el
estudiante en cualquier momento, así, si el estudiante esta indispuesto, no será forzado
a tomar una clase, simplemente podrá esperar un poco y cuando sea el momento
apropiado revisara el contenido de la lección. Esta es una ventaja que entrega
bastantes beneficios, ya que el estudiante podrá organizar mejor su tiempo y podrá
repetir cuantas veces quiera la lección en caso de no haberla entendido.

Relación Estudiante – Estudiante


La relación estudiante con estudiante que se observa en este modelo, enmarca un
vínculo profundo que viene desde el modelo tradicional donde se sabe que puede dar

53
ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998

164
mejor resultado un trabajo desarrollado por un grupo de personas que si fuera hecho
por una sola. En el método educativo tradicional, existe una componente de trabajo
colaborativo, en la cual los estudiantes desarrollan actividades en grupo, generando
excelentes resultados. En el esquema de educación virtual este componente no puede
perderse, no obstante el trabajo en grupo puede ser mas complejo de llevar a cabo si
no se usan las herramientas TICS adecuadas. En este punto, es importante observar
los requerimientos a nivel de sistema que sobresalen para establecer una mejor
comunicación. Si entre dos estudiantes deben realizar un dibujo, será muy fácil
hacerlo si los dos se encuentran en el mismo lugar, en el mismo tiempo. Pero si la
situación es un entorno virtual, donde se asume que cada estudiante asiste desde un
lugar y en tiempo diferente, entonces se necesitará de una herramienta adecuada para
poder desarrollar esta actividad con éxito. Ya no será tan fácil, sin embargo seguirá
siendo posible y de hecho significara un reto adicional para el proceso educativo del
estudiante.

La interacción
MOORE
JENCI, D.; SALES, J

Anderson e Garrison [ANDGAR98]


añaden además las interacciones
entre
profesor-profesor,
profesor-contenido
contedo-contenido.
Alumno interface
Hillman, Hills y
Gunawardena

Interación según Anderson y Garrison[1]


[1]ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles
and responsibilities. Atwood Publishing, 1998

Fig 1: LA INTEACCION, Tomada de ANDERSON, T., & GARRISON, D. R.,


Learning in a networked world: New roles and responsibilities. Atwood Publishing,
1998

Luego del Aporte de Moore y Sales, Anderson y Garrison propusieron tres


interacciones adicionales, las cuales muestran unas relaciones que no son visibles a
priori, pero que si se dan en un aula virtual. Las interacciones adicionales son las
siguientes:

Profesor – Profesor
La relación profesor a profesor supone una realimentación por parte del mismo
profesor sobre sus conocimientos. Aparece aquí el conocido concepto de capacitación
docente, en la cual el profesor hace estudios de profundización generando mayor
conocimiento sobre la asignatura impartida. Esta relación es importante en la
educación virtual ya que permite mostrar el proceso de mejoramiento continuo por
parte del docente.

165
Profesor – Contenido
La relación Profesor a contenido, es una relación importante, ya que muestra la
construcción de un contenido enfocado al estudiante. No se trata del mismo material
que un profesor tiene para impartir sus cátedras cotidianas. Este contenido tiene que
ser orientado y estructurado para el estudiante que no está observando al profesor,
para el estudiante que está en otro lugar del mundo y que está viendo el material sin la
guía ni las aclaraciones del profesor. Luego vendrá por supuesto la resolución de
dudas, pero entre más claro sea el material, más eficiente será la preparación por parte
del estudiante.

Contenido – Contenido
La relación Contenido a Contenido, tiene que ver directamente con la
realimentación que pueda generar el material en sí mismo. Muchas veces se podrá
observar que el contenido tendrá que ser cambiado debido a los cambios sociales,
culturales, etc. De esta forma, el docente se vera forzado a prepararse y tendrá que
acomodarse a los nuevos contenidos que pueda estar exigiendo el mundo académico y
el mundo laboral.

3 Modelo de Interacción de un Aula Virtual

Pese a que el modelo es bastante completo. Quedan algunas cosas fuera de contexto,
con lo cual se consideró necesario complementarlo para generar uno nuevo que
permitiera abordar el problema de las aulas virtuales interinstitucionales.
Se plantea a continuación un nuevo modelo que muestra lazos independientes de
relación unidireccional entre los diferentes entes. Adicionalmente se diferencia
claramente la relación Estudiante- Estudiante mostrando la relación interna que genera
cada estudiante con sí mismo y la relación independiente que se genera entre
diferentes estudiantes:

MODELO DE INTERACCION DE UN AULA VIRTUAL


Rel. P-P Rel. C-C
Profesor
Contenido
PROFESOR CONTENIDO
Contenido
Profesor

Estudiante Profesor Estudiante Contenido


Publicación y Contenido Estudiante
Profesor Estudiante
Realimentación
Asesoría Interactividad

Estudiante
Estudiante
Estudiante
ESTUDIANTE ESTUDIANTE
Estudiante
Estudiante
Rel. E-E Ambiente Rel. E-E
Colaborativo

Fig 2: Modelo de Interacción de un Aula Virtual (MIAV)

El modelo de Interacción al interior de un aula virtual se divide en 4 grandes


secciones:
Publicación y Realimentación

166
Relación Profesor – Contenido
En la relación Profesor a contenido es donde se genera la Publicación del material.
El profesor es responsable de crear los contenidos que serán utilizados por los
estudiantes. Es importante que el contenido no sea plano en ningún sentido y que
permita la interacción, se deben crear foros, Wikis y demás instrumentos que permitan
a los estudiantes agregar información que se genere como resultado de sus propias
investigaciones.
Relación Contenido – Profesor
En esta relación, la interactividad del curso genera nuevo contenido, el cual debe
ser aprovechado y canalizado por el profesor para dirigir el futuro del curso. Este
nuevo contenido es de alta importancia para el docente porque le permite estar en un
ambiente de aprendizaje continuo con los estudiantes
Interactividad
Relación Contenido – Estudiante
En esta relación, el estudiante sencillamente descarga los contenidos publicados
por el profesor y realiza las actividades propuestas.
Relación Estudiante – Contenido
La relación estudiante a contenido es la que permite al estudiante contribuir con
la construcción del mismo. Puede ser a través de foros, wikis, etc. El estudiante
desarrollara las actividades propuestas en el curso y los resultados relevantes que
encuentre, podrá publicarlos para que el profesor y los demás estudiantes puedan
acceder también a ellos.

Ambiente Colaborativo
Relación Estudiante – Estudiante
La relación estudiante a estudiante busca generar los espacios de colaboración,
donde se construya el conocimiento gracias al trabajo en equipo. Las actividades que
debe proponer el profesor deben estar acordes con los rolles que puede desempeñar
cada estudiante de acuerdo a sus aptitudes. Esta relación es de alta prioridad y exige el
buen uso de las Tics, eligiendo las adecuadas herramientas de teletrabajo.
Asesoría
Relación Profesor - Estudiante
Esta relación describe al profesor como un asesor, la cual es una figura más conocida
en la industria. El profesor deja la postura lejana del estudiante, para entrar a
asesorarlo en la construcción de su conocimiento. El profesor ya no será aquel
malvado que quiere ―rajar‖ al estudiante, sino aquel amigo que indica un mejor
camino hacia el logro de los objetivos
Relación Estudiante – Profesor
El estudiante se va dirigir al profesor como si fuera un asesor en su proyecto. Por
lo tanto hará las consultas adecuadas de modo que el profesor pueda guiarlo en un
tiempo adecuado. Como el estudiante primero tiene que tomar la lección, las dudas
que se pueden generar serán verdaderamente valiosas, tanto para la construcción del
conocimiento por parte del estudiante, como para la realimentación del proceso por
parte del profesor.
Las relaciones restantes hacen referencia a la participación de cada ente con sí
mismo:

 Profesor – Profesor (Rel. P - P)

167
 Contenido- Contenido (Rel. C – C)
 Estudiante - Estudiante (Rel. E - E)

Resulta importante aclarar que esta relación estudiante a estudiante se centra en


los procesos internos de cada persona y no en los procesos entre varios estudiantes
como si lo hace la que pertenece a la sección del Ambiente Colaborativo.

4 Modelo de Interacción de Aulas Virtuales Asociadas

MODELO DE INTERACCION DE AULAS VIRTUALES ASOCIADAS

Aula A Aula B

PROFESOR A PROFESOR B
Relaciones
Inmediatas

CONTENIDO A CONTENIDO B
Relaciones
que
requieren
estudio

ESTUDIANTE A ESTUDIANTE B

Fig 3: Modelo de Interacción de Aulas Virtuales Asociadas (MIAVA)

El modelo MIAVA se propone a partir el modelo MIAV, ya que cuenta con todo
lo necesario para modelar la interacción al interior de un aula virtual. Lo que se busca
con la creación del modelo MIAVA es obtener una interacción entre aulas virtuales
que tengan contenidos similares.
El modelo se basa en dos aulas virtuales del tipo MIAV, las cuales deben tener
un contenido temático muy similar.
Por lo tanto, se puede buscar una asociación entre las dos aulas de modo que se
puedan ejecutar los dos cursos paralelamente. No obstante, cada aula debe conservar
su independencia, ya que pueden ser aulas virtuales generadas por instituciones
diferentes.
En cada aula existe un profesor, se desarrolla un contenido y se tiene inscrito un
grupo de estudiantes. Con base en esto se plantearan las siguientes relaciones (Estas
relaciones son las correspondientes al modelo MIAVA, teniendo en cuanta que cada
aula presentara sus propias relaciones presentadas para el modelo MIAV):

4.1 Relaciones para el modelo MIAVA

Relación Estudiante A - Estudiante B


En esta relación, se puede observar una interacción entre estudiantes que no

168
pertenecen al mismo curso. Son estudiantes que están tomando cursos similares con
contenidos similares, pero con profesores diferentes. De esta forma, los estudiantes
pueden intercambiar información obtenida de fuentes diferentes la cual es expuesta
con otros puntos de vista. Esta interacción es de gran importancia para la formación
integral del estudiante, ya que le permite interactuar con estudiantes de otras
instituciones y construir un conocimiento con menos sesgos.

Relación Estudiante B – Estudiante A


Se comporta igual que la anterior
Relación Estudiante A – Contenido B
Los estudiantes del curso A, podrán acceder a los contenidos expuestos por el
profesor del curso B. Esto resulta muy enriquecedor para los estudiantes ya que
permite obtener otra visión del curso y seguramente encontrará más fuentes de
información que conduzcan a una mejor construcción de su conocimiento.

Relación Contenido B – Estudiante A


El contenido del curso B puede ser realimentado de forma directa por los
estudiantes del curso B. Sin embargo, para los estudiantes del curso A, se deberían
tener ciertas restricciones de acceso para modificación de contenido. El nivel de
acceso, dependerá del profesor A y del convenio realizado ente las dos instituciones
propietarias de los cursos.

Relación Estudiante A – Profesor B


El estudiante del curso A, podrá realizar preguntas al profesor del curso B. Es
común que algunos estudiantes realicen preguntas al profesor del curso y este no logre
aclarar la duda de forma satisfactoria. En este caso, sería de gran utilidad que los
estudiantes pudieran acudir a otro profesor para lograr satisfacer la duda.

Relación Profesor B – Estudiante A


El profesor del curso B, podrá eventualmente interactuar con estudiantes del
curso A, no solo para resolver sus dudas, sino también para poner a prueba nuevos
cuestionarios y en general actividades pedagógicas con el fin de mejorar su aula
virtual. También podrá dirigir actividades de investigación, etc. Sin embargo, todo
tipo de interacción grupal, debe ser autorizado por el profesor del curso A.

Relación Contenido A – Contenido B


Se podrían establecer convenios de colaboración, por medio de los cuales los
contenidos tuvieran espacio compartidos entre los dos cursos. Sería un espacio
definido que estaría abierto para la interacción de cualquier estudiante sin restricción
del curso al cual pertenezca.

Relación Contenido B – Contenido A


Se comporta igual que la anterior

Relación Profesor A – Contenido B


El profesor A, puede consultar el contenido B, con el fin de realimentar su
programa de formación. Sin embargo, el profesor B podrá restringir el acceso del
profesor A, para controlar la cantidad de contenido que desea compartir.

169
Relación Contenido B – Profesor A
El Contenido B puede ser realimentado por el profesor A, de acuerdo a las
restricciones de acceso que determine el profesor B

Relación Profesor A – Profesor B


Los profesores de ambos cursos estarán en permanente comunicación,
realimentando sus experiencias educativas para mejorar grupalmente sus
conocimientos en el área y optimizar sus métodos de enseñanza.

Relación Profesor B – Profesor A


Se comporta igual que la anterior

5 Entornos Colaborativos Interinstitucionales

Los diferentes programas educativos en las universidades de todo el mundo


exigen una serie de contenidos similares de acuerdo a la profesión. Por ejemplo, un
programa de ingeniería de construcción en la mayoría de los casos demanda los
conocimientos en el área de matemáticas. Los contenidos de esta materia, son muy
similares en la mayoría de instituciones educativas que dictan esta materia. Lo que se
busca con el modelo MIAVA, es que las diferentes instituciones que dictan materias
similares, puedan asociarse para generar una sinergia de conocimiento. Se puede
establecer un convenio interinstitucional, en el cual los estudiantes de la misma
materia en dos instituciones diferentes, puedan inscribirse en las aulas virtuales de
ambas de forma paralela. De esta forma se puede obtener mayor desempeño en cuanto
a los tres agentes principales del conocimiento en el aula: estudiantes, profesores y
contenidos. El modelo MIAVA aplicado al convenio interinstitucional permite que un
estudiante pueda obtener información y conocimiento de dos fuentes y no solo de una,
como es el modelo tradicional. Este hecho abre las puertas a debates de mayor
magnitud generando un entorno colaborativo más amplio y enriquecedor. Sera
necesario sin embargo establecer límites para que los profesores no pierdan la
soberanía sobre su curso. Cada estudiante podrá aprovechar los alcances que le dan
las diferentes relaciones, pero tendrá que seguir respondiendo de forma directa a las
exigencias individuales de su profesor.
Este modelo puede ser implementado sobre cualquier plataforma de educación
virtual sin ningún prejuicio. Se requiere algún desarrollo de software para establecer
de manera adecuada las relaciones aquí planteadas, de modo que sea posible obtener
el mayor provecho sin violar la privacidad de cada curso.
Para tener estas ventajas se hace necesario que las instituciones generen convenios
permitan realmente llevar a cabo esta actividad. Estos convenios deben incluir
parágrafos acerca de derechos de autor, cantidad de contenido a compartir y cantidad
de contenido que puede ser susceptible de modificación por parte de la otra
institución. Este debe ser un trabajo serio y riguroso por ambas partes ya que puede
ser un punto crítico de conflicto más adelante.
También es claro, que algunas instituciones tienen suficientes estudiantes, como
para abrir mas de un grupo de la misma materia. Y muchas veces, estos grupos de la
misma materia no son dictados por el mismo profesor. Por lo tanto, en este caso, es

170
posible también implementar el modelo MIAVA dentro de la misma institución. No es
necesario entonces recurrir a un convenio interinstitucional para su implementación.
Solo requiere el acuerdo de profesores de la misma institución, cuyo contenido
temático sea muy similar.
Aunque el modelo MIAVA aquí planteado inicialmente solo aplica para dos
cursos en paralelo, debe ser claro que no hay problema en extenderlo a una cantidad
mayor. Las relaciones serán las mismas, solo que la cantidad de actores se
incrementara y definitivamente el entorno colaborativo estará cada vez mas
enriquecido. Se debe tener el cuidado respectivo en el respeto por la independencia de
los cursos, para evitar conflictos entre los individuos participantes.

6 Conclusiones

El modelo MIAV permite modelar las interacciones que se dan al interior de un


aula virtual, estableciendo como actores principales a estudiantes, profesores y
contenidos. Este modelo se basa en el modelo propuesto por Anderson y Garrison [1].
El modelo MIAVA es una extensión del modelo MIAV en el cual se observa una
interacción entre aulas virtuales. En este se observa como dos aulas virtuales, cada una
vista con el modelo MIAV, pueden interactuar juntas dando origen a una sinergia de
conocimiento, donde todos los actores ganan.
El modelo MIAVA propuesto en el presente artículo busca generar un entorno
colaborativo enriquecido por la participación de varios actores, lo cual genera un
mayor debate y exige una profundización en los contenidos. Esta interacción exige un
mayor esfuerzo por parte de los profesores y permite a los estudiantes obtener
información más imparcial ya que tienen dos (o más) fuentes de contenidos.
El modelo MIAVA es un modelo teórico que puede ser utilizado ente
instituciones o al interior de una misma institución. Solo basta con tener materias de
un mismo contenido que sean dictadas por diferentes profesores. Se deben establecer
unas reglas previas al funcionamiento y el resultado será un ambiente colaborativo
enriquecido con mucho debate y participación.
El aprendizaje colaborativo será la principal atracción de este modelo para la
aceptación por parte de las entidades educativas. Esto se debe a que permite un
ambiente interdisciplinario, donde podrán interactuar personas de diferentes líneas de
estudio.
Al permitir la integración académica y el trabajo colaborativo, este modelo
facilitara la participación y el intercambio entre investigadores de la institución,
incrementando los índices de investigación y desarrollo.
Estos modelos son adaptables a la mayoría de las plataformas educativas
existentes en la actualidad. Basta con implementar algunas funciones de usuario para
que los estudiantes y profesores puedan acceder a los contenidos adyacentes
habilitados.

7 Futuras líneas de Investigación

A partir del desarrollo de los modelos MIAV y MIAVA, será posible generar

171
desarrollos directamente sobre plataformas virtuales de código abierto tal como
Moodle. Así, queda abierta la posibilidad de realizar el código fuente relacionado con
los modelos para que pueda ser implementado próximamente en las diferentes
instituciones a nivel mundial.
El modelo MIAVA, puede permitir el trabajo colaborativo no solo a nivel de
aulas virtuales sino también a nivel de grupos de investigación, los cuales podrían
trabajar de forma colaborativa en proyectos conjuntos intercambiando información de
forma controlada.

Referencias

1. ANDERSON, T., & GARRISON, D. R., Learning in a networked world: New roles and
responsibilities. Atwood Publishing, 1998
2. CHRISTIAN STRACKE. Desarrollo de la calidad y estándares de la calidad para E-
Learning. Seminario internacional "Calidad en E-Learning", Bogotá, Col. University of
Duisburg-Essen, Germany.2007.
3. CLAUDIA MARIA ZEA. Uso de Medios y Tecnologías de Información y Comunicación
en Educación Superior Avances (2003-2006) y perspectivas (2007-2010). Ministerio de
Educación Nacional, República de Colombia. 2007.
4. MARITZA RONDON ANGEL. Resultados del estudio ―Modelos virtuales en las IES
colombianas‖. Viceministra de educacion superior (E), Ministerio de Educacion
Nacional, Republica de Colombia. 2007.
5. MARIO ARIAS Y GUSTAVO MATÍAS. La gestión virtual del aprendizaje
Organizativo. Revista del ministerio de trabajo y asuntos sociales. 2006.
6. JAVIER MARTINEZ ALDANONDO. e-learning y los 7 pecados capitales. 2008
7. JOSÉ RAMIRO GALEANO LONDOÑO. El diseño de guiones curriculares para la
educación virtual. Facultad de Educación de la Universidad de Antioquia Medellín –
Antioquía Colombia. VIII Congreso de Educación a Distancia CREAD
MERCOSUR/SUL 2004 - Córdoba – Argentina
8. RESOLUCION 2755 DE 2006. Por la cual se definen las características específicas de
calidad para la Oferta y desarrollo de los programas académicos en la metodología a
distancia. Ministerio de educación nacional 2006.
9. GUILLERMO CARDONA OSSA. Tendencias educativas para el siglo XXI Educación
Virtual, Online y @learning, elementos para la discusión

172
Complejidad de información en fuentes de datos RSS,
un nuevo enfoque: RSS2SOM

Fredy Orlando Bello Pérez, José Nelson Pérez Castillo

Estudiante de la Maestría en Ciencias de la Información


y las Comunicaciones de la Universidad Distrital Francisco José de Caldas.

Resumen. El presente trabajo se presenta un acercamiento a la


complejidad relacionada con el conocimiento y específicamente con la
visualización del mismo. Se plantean los orígenes del mapeo de
conocimiento mediante conceptos. También se toca el tema de
indexación de textos como base para la espacialización y se propone un
método para generar mapas auto organizados de noticias rss.

Palabras clave: complejidad, conocimiento, rss, auto organización,


mapas auto organizados, visualización.

Abstract. The present work shows an approach to the complexity


related to knowledge and specifically with knowledge visualization. The
origins of knowledge mapping are reviewed and related to cartographic
concepts. Document indexing is also reviewed in a general way as
basement for spatialization and a method is proposed for generating self
organizing maps from rss news.

Key words: complexity, knowledge, rss, self organization, self


organized maps, visualization.

1 Introducción

En la actualidad internet se ha convertido en una de las principales fuentes de


información para comunidades de toda índole. Normalmente un usuario explora la red
navegando a través de distintos portales de acuerdo a sus intereses particulares en
busca de las noticias más recientes. Para solventar la problemática que implica el
navegar de portal en portal buscando las novedades o cambios surgió el formato RSS,
dicho formato permite al usuario suscribirse a los diferentes sitios y recibir
información de las novedades publicadas automáticamente.
Al estar suscrito a muchas fuentes de datos RSS un usuario normalmente empieza
a recibir una serie de noticias que debido a la cantidad o a la falta de tiempo dejan de
ser leídas. El presente trabajo plantea la implementación de un método que espacialice
los documentos ( en este caso son las noticias en formato RSS ) mediante un mapa
bidimensional auto organizado en torno a los temas de interés del usuario de tal forma

173
que sirva como apoyo para obtener las noticias relevantes en un menor tiempo y con
mayor precisión.
La espacialización de los documentos implica una asociación tácita con la
geografía, puesto que se llevan objetos n dimensionales hacia representaciones
espaciales bidimensionales o mapas, ampliamente trabajados en las ciencias
geoespaciales.

1.1 El mundo de la geografía: visualizando dominios de conocimiento con


medios cartográficos

La representación del conocimiento es un tema complejo, debido a sus intrincadas


estructuras y a lo borroso de su naturaleza. Una herramienta que puede ser
aprovechada para visualizar es el mapa, que tiene sus orígenes en la necesidad de
representación de los elementos físicos que nos rodean en un entorno espacial.
Es frecuente encontrar referencias a la naturaleza siempre cambiante de lo que los
geógrafos llaman "realidad geográfica infinitamente compleja" [1], que implica
vigilancia constante para mantener actualizadas las bases de datos geográficas; al
margen de estas actividades algunos cartógrafos han comenzado un intento de
combinar siglos acumulados de conocimiento cartográfico con enfoques
computacionales modernos y visiones cognitivas, la visualización de información no
geográfica. Los investigadores de un área interdisciplinaria conocida como
visualización de información están comprometidos con el esfuerzo de hacer que las
estructuras altamente dimensionales sean más accesibles al sistema cognitivo humano.
Desde una crítica informada de los métodos existentes para el desarrollo de
herramientas originales, la cartografía puede proveer una perspectiva única en
visualización de dominios de conocimiento.

1.2 Mapas para el despliegue de Información

El mundo en el que vivimos es un mundo visual, sin embargo cuando buscamos


información mediante el uso de computadores todas las cosas, información, medios,
ubicaciones, y sus relaciones se vuelven invisibles, todas las pistas para la percepción
y asociación visual desaparecen [2]. Adicionalmente las interfaces de consulta
disponibles presentan una serie de problemas que reducen la efectividad y eficiencia
en la búsqueda de información.

1.3 Problemas de la recuperación de información en el marco del despliegue


visual

En la recuperación de información clásica existen básicamente dos tipos de


problemas. El primero es la formulación de consultas; la mayoría de los usuarios
tienen dificultad expresando sus necesidades mediante una consulta específica, incluso
si tienen éxito en esta formulación los sistemas tienen dificultades encontrando todos
los documentos relevantes sin sobrecargar a los usuarios con documentos que no son
relevantes
El segundo problema es el despliegue lineal. En la mayoría de casos los

174
documentos respuesta a la consulta son desplegados en forma lineal, como una lista de
títulos o de autores. Incluso cuando se consideran las relaciones entre documentos la
visualización usualmente simplifica todas las relaciones en un orden unidimensional,
lineal, presentado cronológicamente, alfabéticamente o de acuerdo a un peso
determinado.

1.4 Despliegue visual y navegación.

Al utilizar mapas se ponen en funcionamiento distintas habilidades del ser humano,


navegar en los mapas es una aplicación directa de la percepción humana para la
recuperación de información, tanto en ambientes electrónicos como no electrónicos y
con base en esto se puede pensar en aprovechar esa capacidad de navegación en
contextos diferentes al geográfico.

1.5 Mapeo de dominios de conocimiento

La expresión "mapear dominios de conocimiento" fue escogida para describir una


nueva área interdisciplinaria de la ciencia que se ocupa del proceso de visualizar,
minar, analizar, ordenar, facilitar la navegación y desplegar el conocimiento[3].
El conocimiento típicamente está organizado a lo largo de miles de dimensiones,
pero un mapa con miles de dimensiones no puede ser usado con eficiencia por los
seres humanos. Por esta razón, la visualización de dominios y la habilidad para
interactuar con el conocimiento y verlo desde una variedad de perspectivas juega un
rol importante.

1.6 Geografías de información personal

Los mapas geográficos estándar son herramientas cognitivas muy efectivas para
organizar nuestro conocimiento espacial. Tiene la ventaja de aprovechar nuestro
agudo sentido del espacio y nuestra habilidad para diferenciar finamente formas e
imágenes.
El desafío es identificar y representar una geografía de la información, la cual es
diferente para cada persona[4]. Es la interacción a mediano y largo plazo con los
mapas lo que les da su significado, por tanto debería ser una interacción a mediano y
largo plazo con el espacio de información la que sirva como base a su geografía.

2 Auto Organización de mapas y de Información

2.1 Métodos de especialización: Agenda de investigación cartográfica para


visualización de información no geográfica

Entre las influencias específicas sobre la visualización de información, es

175
particularmente notable la primera ley de la geografía, que se resume en que todo está
relacionado con todo lo demás, pero las cosas más cercanas están más relacionadas
que las lejanas[5]. Es sorprendente que mientras que las metáforas de mapeo han sido
tan populares en visualización de información, décadas de investigación cartográfica
las han ignorado.
Los cartógrafos y geógrafos podrían ser criticados más que cualquier otro por
fallar en participar con la comunidad de visualización de información demostrando la
relevancia de su experiencia acumulada.

2.2 Métodos para reducción de la dimensionalidad y diseño espacial

La tarea de elegir una técnica de espacialización es compleja por el hecho de que cada
método requiere procesos computacionales preparatorios para la técnica elegida con el
fin de afrontar sus peculiaridades. La técnica puede diferir en términos de las
propiedades deseables y de escalabilidad y robustez. Por ejemplo los mapas auto
organizados son aplicables a conjuntos de datos que tengan un gran número de
muestras y/o dimensiones, mientras que el escalado multidimensional (MDS) es poco
usado con tales tipos de datos.

2.3 Mapas auto organizados

El método de mapas auto organizados ha recibido mucha atención en años recientes


con aplicaciones tan diversas como imágenes médicas, reconocimiento de voz,
análisis de mercados, e incluso instalaciones artísticas. Algunos usos de los mapas
auto organizados ahora son populares en espacializacion cartográfica, tal como la
visualización de documentos de texto.
Los mapas auto organizados pertenecen a una categoría especial de las redes
neuronales basadas en aprendizaje competitivo. En estas redes las neuronas de salida
compiten entre ellas para ser activadas, con el resultado de que solamente una es la
ganadora en cada periodo de tiempo.

2.4 Organización automática de documentos de texto en categorías utilizando


mapas auto organizados

En el ámbito de la recuperación de información generalmente se utilizan algunas


palabras clave y expresiones de búsqueda simples para documentos. Sin embargo,
formular una buena consulta es difícil y así la mayor parte del tiempo se obtienen
largas listas de resultados sin un orden significativo, y su revisión llega a ser
dispendiosa[6].

2.5 Mapas auto organizados para minería de texto

Hacen falta herramientas para enfrentar con éxito el flujo actual de información. El
stress asociado a la información es una realidad y es normal por ejemplo invertir gran

176
parte del día en la lectura de correos electrónicos[7]. La búsqueda de información en
internet no es una tarea que consuma menos tiempo, los motores de búsqueda aunque
rápidos y globales continúan presentando sus resultados como listas a través de las
cuales el usuario debe navegar para descubrir los ítems relevantes entre la basura. Se
necesitan nuevos métodos para traer algo de orden al caos actual.

2.6 Mapa de documentos como filtro

Una ventaja clara de usar un mismo mapa de documentos por un periodo de tiempo es
que a medida que el usuario se familiariza el mapa puede ser usado como una
herramienta para interpretar nueva información al asociarla a la estructura existente.

2.7 Construcción de mapas para visualización. Mapa auto organizado de


Kohonen

El algoritmo toma un conjunto de objetos de entrada, cada uno representado por un


vector N dimensional y los convierte en nodos de una grilla bidimensional. El proceso
de conversión es un aprendizaje recursivo que se lleva a cabo de la siguiente forma:
Se selecciona aleatoriamente un vector de entrada del conjunto de todos los vectores
de entrada.
Se encuentra el nodo (el cual es representado mediante un vector n-dimensional
llamado pesos) más cercano al vector de entrada en el espacio N dimensional.
Se ajustan los pesos del nodo (llamado el nodo ganador) tal que probablemente fuese
seleccionado si fuera presentado nuevamente.
Se ajustan los pesos de aquellos nodos dentro del vecindario del nodo ganador tal que
los nodos dentro de este vecindario tendrán patrones de peso similares.
Este proceso se realiza iterativamente hasta que converja, por ejemplo llevando
todos los ajustes de peso hacia cero. Para asegurar la convergencia se imponen dos
mecanismos de control. El primero es la tasa de aprendizaje, la cual se acerca a cero a
medida que el número de iteraciones aumenta. El segundo es la estructura del
vecindario que se encoge gradualmente.

2.8 Indexación de documentos

Es necesario un pre procesamiento para convertir los documentos en vectores antes de


que el algoritmo de kohonen pueda ser aplicado a cualquier documento. Un
procedimiento general para tal fin basado en el modelo de espacio-vector incluye los
siguientes pasos:

 Identificar una lista de palabras de una colección de documentos; pueden


incluirse palabras de los títulos, del resumen o del texto completo.
 Comparar la lista contra una lista de palabras de palabras comunes para ser
eliminadas tales como "y", "de", "o", "el".
 Usar un procedimiento de palabras madre para reducir la lista a una forma madre
y remover duplicados
 Remover algunos de los términos más y menos frecuentemente encontrados en la

177
lista.
 Indexar la colección basándose en la lista restante. se crea un vector para cada
documento donde cada componente del vector puede ser:
 Un dígito binario, cada componente será 1 o 0 dependiendo de si el término
correspondiente aparece o no en el documento.
 Un peso basado en la frecuencia (el número de veces que un término aparece en
un documento)
 Un peso basado en la frecuencia y la frecuencia inversa (el inverso del número
de documentos en los cuales aparece el término)
 El escoger determinado tipo de indexación puede resultar en una representación
de espacio de documentos completamente diferente. Los mapas basados en
diferentes tipos de indexación pueden también mostrar diferentes características
del espacio de documentos. Se presenta a continuación un listado de algunas de
las técnicas de indexación de documentos más renombradas.

3 Enfoques para la indexación semántica y la recuperación de


Información[8]

La rama de la ciencia computacional que se ocupa del almacenamiento y recuperación


automatizada de documentos es llamada recuperación de información. Esta ha
cambiado considerablemente en los últimos años con la expansión de internet y el
advenimiento de interfaces de usuarios gráficas modernas y dispositivos de
almacenamiento masivos. En la recuperación de información el problema principal es
que los usuarios desean obtener información con base en el contenido conceptual y las
palabras individuales proveen evidencia no confiable acerca del tópico conceptual o el
significado del documento. Para tratar de determinar las palabras que describen mejor
al documento o al concepto sobre el cual trata se han creado diferentes técnicas de
indexación, que son mencionadas a continuación.

Técnicas de indexación simples


La técnica de indexación más sencilla se basa en proveer un conteo de cada
ocurrencia de un término en un documento

3.1 Categorización de documentos en términos de relevancia

El peso asociado con un término de índice indica la relevancia del término para
representar un cierto dominio y su habilidad para distinguir entre documentos. Los
pesos son generados de acuerdo a los siguientes principios:

 Términos que ocurren en pocos documentos son más útiles que aquellos que
aparecen en un gran número de documentos.
 A medida que la ocurrencia de un término en un documento se incrementa es
más probable que el término sea relevante para ese documento
 Un término que ocurre el mismo número de veces en un documento corto y en

178
un documento extenso probablemente es más relevante para el documento corto.

3.2 Modelo Espacio-Vector

El modelo espacio-vector está basado en la representación de documentos y consultas


como vectores con peso, en el espacio de términos de índice, cuya dimensionalidad
está determinada por el tamaño del vocabulario usado en el proceso de indexación.

3.3 Modelo probabilístico

El modelo probabilístico es un enfoque nuevo para la indexación automática de


documentos y se basa en un modelo de clases latentes estadístico para análisis de
factores de conteo de datos.

3.4 Medidas de Similaridad y diferencia y métodos de agrupación

Los términos y los pesos asociados a ellos son usados para clasificar los documentos
de acuerdo a su relevancia, logrando así la correcta categorización que facilite su
consulta.

3.5 Indexación semántica latente

En años recientes una técnica sofisticada para indexación automática ha sido


propuesta. Esta técnica, conocida como Indexación Semántica Latente es una
herramienta avanzada para recuperación de información y fue desarrollada por
científicos de Telcordia Technologies hace cerca de diez años. LSI es una variante del
método de recuperación por vectores que explota dependencias o "similaridad
semántica" entre términos. Se asume que existe alguna estructura oculta o latente en el
patrón de uso de palabras entre documentos y que esta estructura puede ser
descubierta estadísticamente.

3.6 Indexación semántica

El objetivo de la indexación semántica es usar la información semántica (dentro de los


objetos indexados) para mejorar la calidad de la recuperación de información.
Comparado con otros métodos tradicionales de indexación, basados en
correspondencia de palabras claves, el uso de índices semánticos significa que los
objetos son indexados por los conceptos que contienen más que solo por los términos
que usan para representarlos.
El enfoque de indexación semántica emplea un conjunto de relaciones semánticas
entre los términos índice, determinado por medio de un diccionario específico. Los
sistemas de clasificación tales como Dewey o el de la Librería del congreso
norteamericano se enfocan en relaciones jerárquicas.

179
4 RSS2SOM

Teniendo en cuenta los temas tratados en el presente artículos el autor propone un


método denominado RSS2SOM que tiene como finalidad permitir la auto
organización de noticias RSS en torno a los temas de interés del usuario en forma
visual. El método RSS2SOM está compuesto por los siguientes pasos:

 Obtención de las noticias RSS de las fuentes que se determinen.


 Indexación de las noticias RSS mediante el uso de vectores semánticos
 Definición de clases de interés del usuario con sus palabras clave asociadas ( se
sugiere el catálogo Library of Congress Subject Headings )
 Generación de mapa auto organizado de Kohonen tomando como entrada los
vectores semánticos y visualizando la organización en función de las clases de
interés definidas.

5 Conclusiones

La complejidad del conocimiento hace necesario que se piense en nuevos enfoques


respecto a la forma de administrarlo, de consultarlo y de visualizarlo.
La visualización de información es un área de las ciencias de la información que
puede generar amplios espacios investigativos ya que se relaciona con todas las
actividades que realiza el ser humano.
Existe un puente entre los sistemas de información geográfica y los sistemas de
gestión del conocimiento que es susceptible de ser investigado.
El procedimiento planteado (rss2som) es susceptible de ser implementado como
trabajo futuro.

Referencias

1. Skupin, A., The world of geography: Visualizing a knowledge domain with cartographic
means. Proceedings of the National Academy of Sciences, 2004: p. 5274–5278.
2. Lin, X., Map Displays for Information Retrieval. JOURNAL OF THE AMERICAN
SOCIETY FOR INFORMATION SCIENCE., 1997: p. 40–54.
3. Shiffrin, R.M. and K. Borner, Mapping knowledge domains. Proceedings of the National
Academy of Sciences, 2004: p. 5184-5185.
4. Bauer, D., Personal Information Geographies. CHI, 2002: p. 528-539.
5. Skupin, A. and S.I. Fabrikant, Spatialization Methods: A Cartographic Research Agenda for
Non-geographic Information Visualization. Cartography and Geographic Information
Science, 2003. 30(2): p. 95-115.
6. Shah, C. (2002) Automatic organization of text documents in categories using self-
organizing map (SOM). Volume,
7. Lagus, K., et al. (1998) WEBSOM FOR TEXTUAL DATA MINING. Volume,
8. Barón, M.S. and S.V. Kathleen, An approach to semantic indexing and information retrieval.
Revista Facultad Ingeniería Universidad de Antioquia, 2009(48): p. 165-187.

180
Tecnologías de información y terminología asociadas al
área de desastres.

Beatriz Elisa Jaramillo Moreno 1, Julio Barón Velandia1


1
Facultad de Ingeniería, Universidad Distrital ―Francisco José de Caldas‖,
Bogotá D.C., Colombia
1
{bjaramillo, jbaron}@udistrital.edu.co

Resumen.El presente artículo realiza una revisión acerca de la


terminología asociada al área de desastres, los trabajos actuales y las
proyecciones futuras, con respecto a las tecnologías de información
presentes y al campo específico de la sociedad de la información y el
conocimiento, como parte de la investigación que se viene realizando en
este tema, para el desarrollo de una base de conocimiento en el área de
desastres.

Abstract. This article develops a review of disaster terminology, the


present job, and the future work associated to information technologies,
and the specific area of the information and knowledge society as part
of an investigation for the develop of a Knowledge Base for the disaster
area.

Keywords: desastre, tesauro, tesaurus, ontología, base de datos de


conocimiento

1 Introducción

Según el CRID – Centro Regional de Información de Desastres, la definición de


desastre es la siguiente: ―Una interrupción seria en el funcionamiento de una sociedad
causando vastas pérdidas a nivel humano, material o ambiental, suficientes para que la
sociedad afectada no pueda salir adelante por sus propios medios. Los desastres se
clasifican frecuentemente, de acuerdo a su causa (natural o antropogénica)‖ [1]. Esta
es una definición que se encuentra registrada en el documento ―Vocabulario
Controlado de Desastres‖, desarrollado gracias a una iniciativa regional. Sin embargo,
existen muchas organizaciones encargadas de la atención y prevención de desastres
que manejan su propia terminología. Aunque en un desastre se enfocan los esfuerzos
en la atención médica y humanitaria de la sociedad afectada, la falta de una
terminología común, puede generar un impacto negativo a la hora de superar esta
situación. Por ejemplo, el sólo hecho de clasificar un desastre de manera adecuada, es
decir en su concepto, permitirá o no establecer su real magnitud, lo que redunda en
declarar estados de emergencia, petición internacional de ayudas, gestión de recursos,
manejo de protocolos, etc.
En principio el esfuerzo se ha dado para llegar a un concepto común de los

181
términos asociados al área de desastres, lo que ha permitido pensar en la generación y
utilización de tecnologías de información que permitan mejorar aún más lo existente,
como las ontologías y las bases de datos de conocimiento. Existen al respecto
desarrollos de diferentes fuentes (gubernamentales, privadas e individuales) que han
trabajado en subáreas muy particulares, básicamente en sistemas de información.
En el presente documento, se hará una revisión de las tecnologías de información que
se han utilizado en el área de desastres y de los proyectos de desarrollo propuestos,
particularmente en el uso de ontologías.

2 Tecnologías de información utilizadas en el área de desastres

Existe una gran variedad de proyectos relacionados con la necesidad de automatizar la


información que se presenta en los tres momentos de un desastre: antes, durante y
después, la cual tiene características diferentes.
Previo a un desastre la información corresponde a la organización de los datos
resultantes del monitoreo de una zona, ya sea por rutina o porque se tiene
conocimiento de que puede ocurrir un evento. Esto se hace para establecer un riesgo
posible o para disminuir la magnitud del mismo.
Posterior a un desastre los datos obtenidos son categorizados, de manera que
brindan información muy particular. Lo que se busca es clasificar los desastres a
través de diferentes variables y así establecer algunos patrones de comportamiento que
permitan tomar mejores decisiones y a su vez retroalimentar el sistema para
monitorear y atender con más eficacia y eficiencia un futuro desastre. En la actualidad
esto se hace en su gran mayoría con sistemas de información geográfica.
Tal vez la parte más compleja en el manejo de información es en el momento de
un desastre, ya que aunque existen protocolos para ello, lo que prima sobre la
situación de desastre es la ausencia de control. Sin embargo se han generado debates
sobre la importancia de recabar los datos, con respecto a la importancia de atender la
situación. En el informe mundial sobre desastres de la Federación Internacional de la
Cruz Roja y la Media Luna Roja se registra: “Faltan datos exactos y fidedignos sobre los
desastres en general, y las guerras y las hambrunas en particular. Sin ellos, miles de víctimas
mueren antes de que las organizaciones hayan registrado siquiera sus necesidades. Los datos
inexactos pueden dar lugar a decisiones erróneas que, a su vez, pueden costar vidas o
contribuir al despilfarro de recursos valiosos...” [2]. En otro párrafo se menciona:
“Recolectar y utilizar datos sobre desastres también plantea importantes retos éticos.
Inmediatamente después de un desastre, cuando las necesidades de orden humanitario son
urgentes, ¿se debería gastar un tiempo precioso y recursos valiosos en recolectar datos o en
salvar vidas? Algunos afirman que es inmoral postergar intervenciones que permiten salvar
hasta que no se haya recolectado datos. Otros, estiman que la ayuda debería basarse en
evaluaciones objetivas de las necesidades... Cuando no se dispone de datos fidedignos,
tampoco se pueden hacer llamamientos ni sensibilizar, entonces, la ayuda no llega. Todo esto
crea una espiral viciosa de sufrimiento que puede pasar desapercibido” [2]
Aun así, los organismos encargados de la atención y prevención de desastres tienen
clara la necesidad de generar sistemas de información que permitan almacenar y
gestionar la información en el área de desastres.

182
2.1 Recolección de información

Algunas entidades de atención y prevención de desastres tienen protocolos


establecidos para la recolección de datos, por ejemplo, la OPS – Organización
Panamericana de la Salud [3] determina un nivel jerárquico de orden bidireccional
donde fluyen los datos que posteriormente serán analizados (ver figura 1) los cuales se
reflejan posteriormente en políticas y planes que permiten tomar decisiones o generar
estrategias para manejar un próximo evento de manera más adecuada.

Fig.6. Manejo de la información en situaciones de desastre para la toma de decisiones


a nivel local – Fuente [3]

Organizaciones como la antes mencionada incluso tienen técnicas para la adquisición


de ésta información, la definición de los atributos que debe tener la misma, así como
la clasificación de los diferentes métodos para recolectarla de acuerdo al escenario del
desastre, como se muestra en la siguiente tabla [3]:

Tabla 6. Técnicas de levantamiento de información de acuerdo a los diferentes


escenarios de un desastre – Fuente [3]

Requerimientos Técnicas de obtención de datos


Método de
evaluación Tiemp
Recursos Indicadores Ventajas Desventajas
o
Reporte desde Ofrece
las datos
instalaciones basales para
1. de salud y de la detección
Personal
Anteceden En quienes de
entrenado Ninguna.
tes del curso brindan problemas y
.
desastre atención. la
Patrones y evaluación
estacionalidad de
de tendencias.

183
Requerimientos Técnicas de obtención de datos
Método de
evaluación Tiemp
Recursos Indicadores Ventajas Desventajas
o
enfermedades.
Rápido: útil
Observación cuando no
Costoso;
2 Remoto; directa, hay
gran error
aviones, Minut cámaras. transporte
objetivo;
helicópter os/ Equipos. Edificios por tierra;
mínimos
os, Horas destruidos, útil para
datos
satellite vías, diques, identificar
específicos.
inundaciones. el área
afectada.
Sin datos
Observación cuantitativos
directa, charlas ; sesgos
Rápido;
con líderes potenciales;
visible, no
3 locales y alta tasa de
Horas/ Transport requiere
Recorrido trabajadores de error; las
días e, mapas antecedente
a pie salud. Muertes, áreas más
s técnicos
personas sin afectadas
(en salud).
hogar, número pueden ser
y tipo de inalcanzable
enfermedades. s.
Datos
cuantitativo No siempre
Estudios s rápidos; son muestras
rápidos. puede aleatorias;
4 Estudios Poco
Muertes, prevenir trabajo
"rápidosau 2-3 personal
número malos intenso,
nqueimper días entrenado
hospitalizados, manejos; riesgo de
fectos" .
estado puede sobre
nutricional. brindar interpretació
datos para n.
vigilancia.

Sin embargo, todavía existen muchas necesidades en cuanto al manejo de


información en una situación de desastre. Algunas de estas deficiencias son
enunciadas en un artículo de la Estrategia Internacional para la Reducción de
Desastres (EIRD), donde se muestra que gran parte del problema es la socialización
de las experiencias, aunque algunas instituciones estén trabajando por ese objetivo. Se
menciona que algunas organizaciones “...han permitido que se brinde atención al hecho,
que muchas de esas “lecciones aprendidas” a través de los desastres no son incluidas en la
mayor parte de la literatura médica y de salud. Ello se debe a que frecuentemente la
experiencia de muchos de los profesionales de la salud involucrados con el trabajo en materia
de desastres no se publica, o bien consiste en la evaluación de necesidades por parte de las
ONGs o instituciones dentro del sistema de la ONU, las cuales son frecuentemente de
circulación limitada...”[4].

184
Por otro lado, muchas de las redes sociales y sistemas de información generados
nacen de la necesidad de masificar y compartir la información relacionada con
desastres, como DesInventar que en su sitio WEB manifiesta que “...la ausencia de
registros sistemáticos, homogéneos y comparables sobre la tipología de los desastres, como
efectos de la ocurrencia de eventos amenazantes en las condiciones de vulnerabilidad en cada
región, país, o ciudad, por un lado,..., han contribuido a hacer menos visibles los miles de
pequeños y medianos desastres que anualmente ocurren en los países de regiones como
América Latina y El Caribe, Asia y África...”[5]

2.2 Sistemas de Información

En la actualidad los desarrollos existentes se basan en tecnologías de sistemas de


información que involucran algunas bases de datos y en una medida más compleja
sistemas de información geográfica. No se encuentra registrado por alguna de las
organizaciones mundiales y locales la existencia de un sistema de información que
gestione todas o por lo menos un a gran parte de las áreas que involucran un desastre.
Por otro lado, estos sistemas se han enfocado en la gestión de información previa y
posterior a un desastre. Entre algunos desarrollos se tienen:

 DesInventar: Es la herramienta diseñada para ingresar información concerniente a


los desastres, las causas y los efectos. Permite almacenar datos para la construcción
de inventarios de manera estándar y homogénea. Es un sistema de información
geográfica [5]
 DesConsultar: es un instrumento de consulta, una herramienta de análisis espacio-
temporal de inventarios altamente vinculado con DesInventar. DesConsultar es
apto para develar las características y efectos de los desastres.Es un sistema de
información geográfica.[5]
 EM-DAT – EmergencyEventsDatabase: Es una base de datos desarrollada por el
CRED - Centre forResearchontheEpidemiology of Disasters – Centro para la
investigación sobre epidemiología de desastres, con el apoyo de la OFDA - Office
ForeingforDisasterAssistance en Europa y el sistema de inventario de desastres
DesInventar de la RED – Red de Estudios en prevención de Desatres en
Latinoamérica.
 SIRE - Sistema de Información para la gestión de Riesgos y la atención de
Emergencias: es un sistema de información cuyo diseño y desarrollo adelantó el
Fondo de Prevención y Atención de Emergencias – FOPAE en conjunto con
INGEOMINAS y que se pone a disposición de la ciudadanía de Bogotá
(Colombia), con el fin de contribuir con la misión de la Dirección de Prevención y
Atención de Emergencias (DPAE) facilitando el acceso a la información
relacionada en primera instancia con la gestión de riesgos y en segunda con la
atención de emergencias.[6]
 Red de estudios sociales en prevención de Desastres en América Latina: es un
grupo que pretende impulsar la creación de un sistema de información a nivel
latinoaméricano, de manera que se puedan reunir los diferentes proyectos que se
vienen desarrollando con respecto al campo de los desastres. La Red administra y
desarrolla las bases de datos relacionadas con DesInventar y DesConsultar. [7]
 CRED - Centre forResearchontheEpidemiology of Disasters – Centro para la

185
investigación sobre epidemiología de desastres: Es un centro perteneciente a la
Universidad Católica de Lovaina en Bélgica, que se encarga de administrar la base
de datos internacional EM-DAT, ya mencionada anteriormente. Por otra parte,
desarrolló una base de datos específica para desastres en el territorio asiático, la
EM-SIANET – EmergencySouthEast Asia Network. [8]

En cuanto a desarrollos para el momento de un desastre el más representativo es:

 SUMA – Sistema Unificado para el Manejo de Ayudas: es una herramienta para el


manejo de ayudas humanitarias, desde el momento en que se ofrecen, hasta que
llegan a la zona de desastre, se almacenan y distribuyen. Permite clasificar e
inventariar los suministros entrantes y salientes de manera que se pueda procesar
rápidamente la ayuda recibida y distribuirla a quien más la necesita. Actualmente
SUMA puede tener como centro de control un país diferente al de la emergencia y
enviar reportes, a través de Internet, al país afectado. Colombia es uno de los países
que más apoyo le ha dado a SUMA, por medio de la Defensa Civil y la Cruz Roja
Colombiana (organización que ayudó a la creación del sistema SUMA).SUMA es
administrado por FUNDESUMA y la OPS (Organización Panamericana de la
Salud).[9]

2.3 Bases de conocimiento en el área de desastres

De acuerdo a la investigación, se encontró una base de conocimiento bastante


formalizada y estructurada en el CLAMED- Centro Latinoaméricano de medicina de
Desastres, que focaliza sus esfuerzos en Cuba y Latinoamérica y pretende almacenar
todas aquellas experiencias médicas que permitan actuar en una situación de desastre
adecuadamente.
La licenciada en información científico técnica y bibliotecología del CLAMED,
Vivian María Céspedes Mora, hace una descripción del CLAMED y su función, en un
artículo de la revista Cubana de Medicina General, el CLAMED es “institución del
Ministerio de Salud Pública (MINSAP) que se ocupa de coordinar, en un solo conjunto de
conocimientos y acciones los diversos elementos de la Medicina de Desastres” [10]
El CLAMED además posee un Centro de Información y Documentación que
permite a los usuarios consultar en diferentes formatos y fuentes lo relacionado con la
medicina de desastres y está muy enfocado a los profesionales de las ciencias médicas,
promoviendo el conocimiento en los tres momentos de un desastre y su principal
objetivo es mitigar el riesgo y mejorar la toma de decisiones. Usa y está altamente
vinculado con referentes de terminología de desastres como los son el Vocabulario
Controlado de Desastres (VCD) y el Descriptor de Ciencias de la salud (DeCS).

3 Términos de desastres

La terminología asociada a una situación de desastre, aún no se ha estandarizado, sin


embargo se han iniciado esfuerzos en dos frentes: la consolidación de los trabajos

186
existentes y la materialización de la necesidad de usar una terminología única para el
tratamiento de los desastres, en cualquiera de sus momentos.
Las diferentes organizaciones manejan una serie de términos desde los diferentes
puntos de vista de los actores y de las mismas organizaciones, que hasta ahora se están
formalizando, como conceptos propios de un desastre. Como lo dice Patricia Diskette
en su informe mundial sobre desastres: “la palabra desastre tiene diferentes definiciones y
para la palabra damnificado aún no hay un acuerdo” [2].
Sin embargo en algunos sectores ya existe alguna terminología técnica,
particularmente en el sector de la medicina para desastres, la cual ya se encuentra de
alguna manera estandarizada.

3.1 Vocabulario Controlado de Desastres (VCD)

Consiste en una lista de términos que han sido analizados y recopilados de diferentes
fuentes con el fin de estandarizar y utilizar la misma definición para el tratamiento de
un desastre, realizada por el CRID – Centro Regional de Información sobre Desastres
América Latina y el Caribe a partir del año 1999. Esta iniciativa en primera instancia
ha sido desarrollada por expertos tanto en gestión y manejo de la información, como
por expertos en el área misma de desastres. A partir del último año, esta lista se ha
hecho pública y se ha dispuesto a través de una wiki para que otras personas
relacionadas con los términos de desastres aporten y actualicen el VCD en línea.
Allan Lavell, quien es el responsable de la creación y revisión del VCD, publica en
el prólogo lo siguiente: ―…El Vocabulario que aquí se presenta tiene el objetivo de
establecer o sugerir un conjunto de términos y definiciones en torno al problema del
riesgo y desastre, considerando tanto los aspectos físicos como sociales y que captan
la esencia de muchos de los nuevos (y viejos) términos que se han introducido en
nuestro léxico, o, cuando menos, en nuestros oídos, en particular, durante los últimos
10 años. Su contenido está basado en una revisión de múltiples fuentes, llegando a una
definición que pareciera ser conveniente y más y más común entre los profesionales
en esta rama del conocimiento. No por eso pretende ser exhaustivo o excluyente.
Como todo proceso y producto de la ciencia debe ser abierto a modificación y
mejoramiento en el futuro.‖[11]

3.2 Descriptor de Ciencias de la salud (DeCS).

Fue creado por BIREME – Biblioteca Regional de Medicina, que en su origen fue
conocido como el Centro Latinoamericano y del Caribe de Información en Ciencias
de la Salud, el cual es un centro especializado de la Organización Panamericana de la
Salud y la Organización Mundial de la Saludy trabaja particularmente este campo en
el Área de Información y Gestión del Conocimiento.
El DeCS pretende unificar el lenguaje utilizado en el campo de las ciencias de la
salud mediante un concepto llamado ―vocabulario estructurado‖, y que de acuerdo al
BIREME se define como “… colecciones de términos, organizados según una metodología
en la cual es posible especificar las relaciones entre conceptos con el propósito de facilitar el
acceso a la información. Los vocabularios son usados como una especie de filtro entre el
lenguaje utilizado por el autor y la terminología del área y también pueden ser considerados
como asistentes de investigación ayudando el usuario a refinar, expandir o enriquecer sus

187
investigaciones proporcionando resultados más objetivos.”[12]
La función básica del DeCS es la recuperación de documentos, artículos, y otra
literatura relacionada con el área de ciencias de la salud, mediante búsquedas en bases
de datos especializadas entre las cuales se encuentran: BVS – Biblioteca Virtual de la
Salud, LILACS y MEDLINE y en tres idiomas: portugués, inglés y español.

3.3 UMLS – Unified Medical Language System

Es un proyecto de desarrollo de terminología única y red de semántica de la salud, en


el cual participa DeSC, cuyo lenguaje principal es el inglés y tiene la responsabilidad
de actualizar y enviar los términos al DeSC en portugués y español.
El UMLS maneja dos formas para la administración de los términos:
MethaThesaurus y The UMLS Semantic Network. Esta última, la red semántica o red
de ontologías de alto nivel, como es conocida para los usuarios de la misma,
actualmente interrelaciona 60 términos en el dominio de la biomedicina y maneja 134
tipos semánticos que categorizan los conceptos representados en el UMLS. La
estructura de la red está compuesta de 54 enlaces entre los diferentes tipos semánticos
que brindan y relacionan términos en el área de las ciencias de la vida.
Actualmente se está trabajando en otro tipo de ontologías como lo son: las
ontologías genéticas y la taxonomía de los organismos.

4 Conclusiones

Si bien es cierto que existen algunos conceptos formalizados y muchos procesos y


procedimientos estandarizados, este no es el mayor reto que tienen las organizaciones,
ya que los desastres tienen una característica de alto impacto: las numerosas y
diferentes variables que se presentan. En el área de desastres se maneja una gran
cantidad de terminología que debe ser utilizada de forma adecuada para atender el
desastre. Como se manifestó en el presente documento, el sólo concepto que implica
la palabra desastre, puede generar una buena o mala toma de decisiones para superar
esta situación.
El área que más ha avanzado en la estandarización de conceptos es la
biomedicina, la cual ya se encuentra utilizando tecnologías de información del nivel
de ontologías y redes semánticas, sin embargo, y aunque está relacionada con el área
de desastres, ha focalizado su desarrollo en términos eminentemente médicos.
En el área de desastres, el esfuerzo realizado llega hasta el momento, a una lista de
términos alimentados y retroalimentados por diferentes organizaciones cuyo primer
objetivo es la estandarización de algunas definiciones.
Como se ha registrado en los proyectos que vienen desarrollando los autores, se
hace necesario la construcción de ontologías y una base de conocimiento para el área
particular de desastres que redunda en la atención adecuada de una situación primaria
como lo es una emergencia.

188
Referencias

1. Centro Regional de Información de Desastres, Vocabulario Controlado de


Desastres, http://www.crid.or.cr (2009)
2. Diskett, P.: Capítulo 7: Medición de los desastres: retos, posibilidades y ética.
Informe Mundial sobre Desastres.(2003).
3. Organización Panamericana de la Salud.:Capítulo 4: Manejo de la información
en situaciones de desastre para la toma de decisiones en el nivel localVigilancia
Epidemiológica Sanitaria en Situaciones de Desastre, Guía para el nivel
Local,OPShttp://www.helid.desastres.net. (2010)
4. Scott, J.; Pérez, R.;Arnensen, S.: Mejorando el acceso a la información de la
salud y los desastres en Honduras y Nicaragua. Revista EIRD Informa. No. 2.
(2006)
5. Metodología, http://www.desinventar.org
6. http://www.sire.gov.co
7. http://www.desenredando.org
8. http://www.cred.bepa
9. http://www.disaster-info.net/SUMA
10. Céspedes, M.: Lecciones aprendidas en desastres y la gestión del conocimiento
en salud y desastres. Revista Cubana de medicina general. Vol. 19. No.
3.Ciudad de La Habana – Cuba. Mayo – Junio (2003)
11. Lavell, A.:Vocabulario Controlado sobre Desastres – VCD, CRID (2009)
12. Biblioteca Virtual en Salud, Descriptores en Ciencias de la Salud,
decs.bvs.br/E/aboutvocabe.htm (2010)

189
Servicios de Geolocalización, el enfoque de las Redes
Sociales

Sandra Yanet Velazco Florez1, Luis Joyanes Aguilar2, Antonio Rafael


Roman1 Jayguer Vásquez1
1
DEA. Universidad Pontificia de Salamanca – Madrid, Paseo Juan XXIII, 3, 28040
Madrid - España
2
Facultad de Informática. Universidad Pontificia de Salamanca – Madrid. Paseo
Juan XXIII, 3, 28040 Madrid - España.
Sandra.velazcof@gmail.com, luis.joyanes@upsam.net, aromanv@yahoo.com,
jayguer@hotmail.com

Resumen. La integración de tecnologías para servicios en línea de uso


colaborativo, junto con los servicios que proponen y disponen las
populares redes sociales como es el caso de Facebook, Twitter,
Foursquare, entre otras muchas, que sirven de escenario para la tan
anhelada Geolocalización, y si a esto se le suma la constante evolución
de la telefonía móvil y su arrollador impacto y utilización, dando paso a
aplicaciones móviles centradas en la ubicación del usuario, permitiendo
compartir su posición con otros y a su vez, poder visualizar en un mapa
dónde se encuentran ellos, facilitaría tanto a usuarios como a empresas,
el compartir datos concernientes con su ubicación en un área
determinada. Con la Geolocalización, los usuarios pueden combinar su
posición geográfica, con datos online disponibles en sitios como
Google Maps, Yahoo! Maps o Bing Maps y que a la vez contienen
datos sobre la ubicación de comercios, hoteles, restaurantes,
gasolineras, y demás servicios en una zona especifica tiempo real.

Palabras Clave: Geolocalización, Redes Sociales, GPS, Tecnologías


móvil, integración de servicios, Foursquare, Facebook.

Abstract. The integration of technologies for services on line of


collaborative use, together with the services that propose and arrange
the popular social networks since it is the case of Facebook, Twitter,
Foursquare, between great others, which use as scene for such a longed
Geo-location, and if to this there adds the constant evolution of the
mobile telephony and his sweeping impact and utilization, giving I go
on to mobile applications centred on the location of the user, allowing
to share his position with others and in turn, to be able to visualize in a
map where they are, it would facilitate both to users and to companies,
to share relating information with his location in a certain area. With the
Geo-location, the users can combine his geographical position, with
information online available in sites like Google Maps, Yahoo! Maps or
Bing Maps and that simultaneously contain information on the location

191
of trades, hotels, restaurants, gas stations, and other services in a zone it
specifies real time.

Key words: Geo-location, Social Networks, GPS, Technologies


mobile, Integration of services, Foursquare, Facebook.

1 Introducción

La constante evolución de la tecnología, la ha llevado al desarrollo de nuevas


herramientas y sus diferentes aplicaciones, permitiendo incluso la transformación de
ciertos instrumentos de orientación que van desde la brújula, pasando por los sistemas
de posicionamiento global (GPS), que captan información a través de satélites siendo
esta registrada por medio de los Sistemas de información geográfica (GIS), como eje
de partida para el desarrollo de nuevos prototipos y sus aplicaciones en materia de
localización geográfica, y su consecuente implementación en sistemas de
Geolocalización.

2 La Llegada de la Geolocalización

La Geolocalización es un término relativamente nuevo, que se ha venido abriendo


espacio desde mediados del año 2009 y que hace referencia al conocimiento de la
ubicación geográfica de lugares, objetos o personas mediante el uso acérrimo de
diferentes herramientas tecnológicas, tales como, Internet, navegadores, satélites,
telefonía móvil, PDA, etc. Es por ello, que la llegada de de la Geolocalización es un
tema a tratar en la actualidad, como tecnología que se basa en los Sistemas de
Información Geográfica, y que permite entre otras cosas informar a los usuarios de
cual es su situación con respecto a, la de los demás, y a su vez asociarla a lugares del
mundo real.
La Geolocalización muestra un gran despliegue de aplicaciones, tanto para
empresas, como instituciones, al igual que para cualquier persona. Variadas son las
formas para que esto suceda, y entre ellas, los dispositivos móviles marcan una pauta
interesante, ya que dan mayor facilidad al momento de actualizar una posición, por su
portabilidad. La telefonía móvil de última generación trae integrados receptores GPS
que utiliza la información del satélite para calcular la posición exacta de la persona.

3 Las Redes Sociales

Son variadas las definiciones para expresar lo que es en sí, el fenómeno de las Redes
Sociales, una de ellas es la dada por el diccionario de la Web 2.0 54, las Redes en cuya

54 Gobierno Sociedad Empresa 2.0. Web 2.0: Adaptación a las Nuevas Tecnologías.
Diccionario de definiciones para entender la Web 2.0.
http://gobiernosociedadempresa20.blogspot.com/2009/09/web-20-

192
estructura los nodos individuales son personas que mantienen relaciones, tales como
amistad intereses comunes o fines comerciales.
El concepto de Red Social, creado por la antropología inglesa para superar
análisis estructurales obsoletos, parte de un abstracto, esto es, se toma un punto de
partida de estudio y se establecen las distintas relaciones entre los individuos. Por
cada punto de partida se crea distintas redes y por supuesto distintos modelos de
relación, y que dentro de un mismo momento espacio-temporal, se pueden
redimensionar y redefinir esas Redes Sociales55
En un artículo de Larissa Adler Lomnitz para REDES (Revista hispana para el
análisis de redes sociales) las define como construcciones abstractas que el
investigador define de acuerdo al criterio que le interese; es decir, estas relaciones se
determinan por algún criterio subyacente, lo que permite identificar estructuras
sociales que generalmente no están formalmente definidas por la sociedad y que de
otra manera no serían identificables [1].
El concepto de Red Social ha abarcado siempre todos los ámbitos de la vida,
llegando a, agrupar diversas actividades que integran tecnología, interacción social y
la construcción de palabras, imágenes, videos y audio. ¿Por qué se han vuelto tan
importantes?, el uso dado por los usuarios de la Internet es cada vez mayor,
mostrándose como una de las actividad más populares en la red.

4 La Geolocalización y las Redes Sociales

Actualmente la Geolocalización tiene un impacto sociológico de gran magnitud, dado


a su acción sobre los contenidos sociales presentes en el mundo [2]. Por ello sin duda
el boom del momento en las redes sociales, es la Geolocalización, despertando gran
interés entre los usuarios por saber en donde están ahora mismo. Actualmente son
muchas las redes sociales que emplean Geolocalización, estos son algunos ejemplos
de aquellas que prestan éste tipo de servicio o por lo menos han adaptado sus
funcionalidades a este tipo de tecnologías:
Twitter (twitter.com), creada en 2006, le llevo varios meses el probar distintos
sistemas para añadir o integrar Geolocalización en su servicio56, hasta anunciar en
definitiva Twitter Places57, que permite al usuario ver resultados generados en torno a
un lugar determinado.

diccionario

55 Microsoft. Qué son y cómo funcionan las Redes Sociales I: Introducción. Microsoft SB
Portal https://www.microsoft.com/business/smb/es-
es/rrpp/redes_sociales_intro.mspx

56 ―Location, Location, Location‖, publicado en su blog oficial el 20 de agosto de 2009.


Disponible en http://blog.twitter.com/2009/08/location-location-
location.html

57 ―Twitter Places: More Context For Your Tweets‖, publicado en su blog oficial el 14 de junio
de 2010. Disponible en http://blog.twitter.com/2010/06/twitter-places-more-
context-for-your.html

193
Tuenti (tuenti.com), insignia de las redes sociales para la juventud española,
creada en 2006 y asociada actualmente a Telefónica58, empresa también de origen
español, llevaba ya algún tiempo anunciando esta funcionalidad y trasladando la
experiencia completa de ―Tuenti Sitios‖ a la versión móvil de la página, el pasado 20
de mayo, presento su nueva herramienta de Geoposicionamiento 59, la cual permite a
los usuarios compartir ubicación con sus contactos de forma privada.
Facebook (Facebook.com), compañía fundada en febrero de 2004 por Mark
Zuckerberg, es sin duda la mayor red social con más de 500 millones de usuarios
alrededor del mundo60. Le llevo un tiempo trabajar en el desarrollo de este nuevo tipo
de servicios, hasta anunciar Places en Facebook61. Este nuevo elemento de su servicio
permite a los usuarios hacer público el lugar dónde se encuentran a través del sitio.
Inicialmente, Places sólo está disponible en los EEUU, asegurando que tiene intención
de ofrecer pronto el servicio en más países y plataformas.
Foursquare (foursquare.com), lanzado el 11 de marzo de 2009, ―Foursquare es
como Facebook o Twitter, pero con localización, somos una mezcla de localización,
herramienta social y entretenimiento‖, palabras de su fundador Dennis Crowley en
entrevista concedida al diario Español El País62. estudio realizado por IAB Spain
(www.iabspain.net/index.php) y Cool Insights (www.coolinsights.com), con datos de
usuarios españoles, sobre ―Geolocalización, movilidad y recomendación, a propósito
de Foursquare‖ [3], la muestra como una nueva red social a través de la cual,
mediante teléfonos dotados de conexión a Internet y GPS, los usuarios comparten con
sus amigos su ubicación geográfica.
Gowalla (gowalla.com), fundada en agosto de 2007, es una red social al estilo de
Foursquare, lanzada con anterioridad y que ahora busca consolidarse por medio de sus
nuevas versiones, anunciadas por su presidente en una entrevista con Om Malik63,

58 ―Telefónica compra el 90% de Tuenti por 70 millones‖, según información dada por Diario
Expansión, que adelantó la noticia con todos sus detalles, Telefónica tendrá también
presencia en el consejo, aunque no de forma mayoritaria. Disponible en
http://www.expansion.com/2010/08/03/empresas/tmt/1280869139.html

59 ―De las listas de amigos a los mapas sociales‖, la posibilidad de geolocalizar a los usuarios,
―la posibilidad de que los usuarios compartan su ubicación local con el resto de sus amigos",
comenta el cofundador de Tuenti Zaryn Dentzel en el blog oficial. publicado el 20 de mayo
de 2010. Disponible en http://blog.tuenti.com/de-las-listas-de-amigos-a-
los-mapas-sociales

60 ―500 Million Stories‖, por Mark Zuckerberg, publicado el día el miércoles 21 de julio de
2010. Disponible en http://blog.facebook.com/blog.php?post=409753352130

61 ―Who, What, When, and Now...Where‖, por Michael Eyal Sharon, responsable de Place en
Facebook, publicado el 18 de agosto de 2010 y disponible en el blog oficial de Facebook.
http://blog.facebook.com/blog.php?post=418175202130

62 Entrevista a Dennis Crowley, publicada por el diario El País, el 13 de mayo de 2010.


Disponible en
http://www.elpais.com/articulo/portada/Dennis/Crowley/Foursquare/Facebook/Twitter/localizacion/elpe
putec/20100513elpcibpor_4/Tes

63 GigaOM Video: Gowalla CEO Josh Williams on Foursquare, Yelp & the Future of Location,
su presidente comenta sobre las aplicaciones para BlackBerry y para Android que están por

194
aplicaciones que les podría dar un impulso importante frente a Foursquare.
Google Latitude (google.com/latitude), el servicio de Google para
Geoposicionamiento, viene integrado en la aplicación Google Maps para el móvil.
FourWhere (fourwhere.com), es una nueva aplicación creada por Sysomos
(www.sysomos.com) es una red que utiliza a Google Maps para mostrar los lugares
que han recomendado los usuarios de otras redes como Foursquare, Gowalla y Yelp 64.
Loopt (loopt.com), creada en enero de 2005, es una aplicación que acaba de
lanzar una nueva versión65 que permite a los usuarios actualizar automáticamente su
ubicación a medida que se mueven. Es una novedad frente a lo que ofrecen sus
rivales, como Foursquare y Gowalla, que requieren que el usuario registre
manualmente su ubicación al visitar los sitios.
Miso (gomiso.com), nueva red social creada por Bazaar Labs
(www.bazaarlabs.com), en los que los usuarios pueden recomendar sus series
televisivas favoritas. Miso es algo así como un Foursquare, no indica el lugar dónde se
encuentra el usuario, sino lo que hace es mostrar qué está viendo.

5 Tecnología Móvil

La industria de la tecnología móvil se prepara a diario para prestar un apropiado


servicio basado en la localización, como atributo fundamental de la vida móvil. Un
constante enfoque comercial mostrado tanto por operadores como por fabricantes de
teléfonos móviles, ha llevado a que esta tecnología de la comunicación sea una de las
más adoptadas en el mundo. La firma Estadounidense de investigación Wireless
Intelligence reveló que para principios de julio de 2010, fue superada la barrera de las
5.000 millones de conexiones móviles en el mundo, dando actualmente a 7 de cada 10
personas un móvil en sus manos [4]. Buena parte de este crecimiento corre por cuenta
de Asia-Pacífico, región que concentra el 47% de los abonados móviles del mundo,
mostrando a China y la India como los dos más grandes mercados del planeta.
Wireless Intelligence prevé que el mercado llegará a los 6.000 millones de conexiones
para el primer semestre del 2012. Por otro lado la firma inglesa Gartner reveló en un
informe que los teléfonos inteligentes (smartphones) equipados con el sistema
operativo Android representaron el mayor crecimiento en ventas durante el primer
trimestre del 2010. Por supuesto, Android no fue el único sistema operativo para
celulares que creció en el escenario mundial. También lo hizo el iPhone OS, de Apple,
aunque a un ritmo mucho menor [5].
Son muchas las razones por las que, a los servicios de Geolocalización se le vaticina
gran éxito, primero porque el teléfono móvil es el dispositivo tecnológico que más

llegar, lo que les puede dar un impulso importante frente a Foursquare. Disponible en
http://gigaom.com/2010/01/22/gowalla-williams-video/

64 FourWhere: la suma de Foursquare, Gowalla y Yelp. Disponble en


http://www.fourwhere.com/

65 Geolocalización, el futuro de tu móvil, publicado el 29 de junio de 2010. Disponible en


http://www.cnnexpansion.com/tecnologia/2010/06/29/geolocalizacion-el-
futuro-de-tu-movil

195
tiempo pasa con el usuario, y segundo, porque que la tendencia en la informática es el
acceso generalizado a la Red, en cualquier lugar independiente y en permanente
movilidad [6].

6 Integración de Servicios.

Para poder aplicar a las bondades que ofrece la Geolocalización, se hace necesario
contar con un dispositivo electrónico con funcionalidades de un teléfono móvil con
características similares a las de un ordenador personal y que tenga GPS, como puede
ser un iPhone, Nokia, Nexus One o una Blackberry, Palm, Android, WebOS,
YouTube, entre otros. Ésta nueva tendencia, sin duda alguna facilita la integración
entre servicios, que permitirá a los usuarios acceder y visualizar todas las
actualizaciones de algunos de sus sitios web y redes sociales más populares, como es
el caso de Facebook, ó como muestra Foursquare o Gowalla, una vez seleccionado un
lugar determinado para uno de nuestros tweets, es posible ver los check-ins
producidos en ese mismo sitio por parte de usuarios de Gowalla y Foursquare. Por
otro lado Gowalla puede añadir a tus amigos de forma rápida a partir de las listas de
amigos de otras redes sociales, como Twitter, Facebook, listas de contactos de Gmail
o de Windows Live o simplemente de forma tradicional buscando en la red.

7 Geolocalización y la privacidad

Compartir la ubicación personal a través de una red social, inicialmente parece una
buena idea, sin embargo, compartir este tipo de información con desconocidos, es
considerado por algunos como una invitación a invadir su privacidad, llegando a
convertirse incluso en un problema, ya que esa información puede estar disponible
para todo el mundo de forma abierta y continua.
La mayoría de redes sociales basadas en Geolocalización, como es el caso
Foursquare, BrightKite y Gowalla animan a sus usuarios a registrarse al llegar a un
sitio, con el fin de poder saber adonde están en un momento dado. Aunque estas
aplicaciones disponen de ciertos controles de privacidad que permiten entre otras
cosas, enviar actualizaciones de localización tan sólo a un grupo selecto de contactos,
muchas veces éstas actualizaciones son enviadas por toda la red.
En este sentido se hace importante que tanto las grandes compañías que ofrece
estos servicios como las que disponen de medios de integración social, trabajen en
aquellos aspectos que estén relacionados con la privacidad de cada uno de los
usuarios y su querencia por mantener ciertas barreras, que más allá de impedir develar
información veraz o tipo de identidad personal, sirvan para frenar una mayor
intrusión de su intimidad, en la que se considera su ubicación actual y real.
Aunque el tema de la privacidad interesa a muchos usuarios, a otros puede no
importadles demasiado, sobre todo las nuevas generaciones, aquellas que crecieron en
la era del Internet y que no muestran ningún reparo a la hora de dar información
personal, llegando en ocasiones a excederse sobre donde andan y lo que hacen a cada
instante. No pensando en términos de si está bien o está mal, sino la forma de llegar a
la creación de una nueva identidad digital.

196
8 Geolocalización sus pros y sus contras

Si tomamos en consideración que la ubicación de una persona puede ser parte


determinante en la elección de un restaurante, de un supermercado, de una gasolinera,
de una farmacia, de sitios de ocio, e incluso, de sus propios amigos, las redes sociales
basadas en Geolocalización pueden verse como una herramienta útil en el diario vivir
de las personas.
Las aplicaciones que ofrece la Geolocalización en combinación con los servicios
de las redes sociales, tanto a empresas, entidades y personas del común, son cada vez
mayores. Esto puede suponer un gran avance en la mejora de estrategias y acciones de
comunicación y marketing. Con una información útil, actualizada y debidamente
almacenada, se hace posible acceder a cualquier lugar de forma instantánea.
Aun así, hay que tener en cuenta la posibilidad de que cualquiera pueda
localizarte, el usuario que informa constantemente de sus acciones y de sus lugares de
mayor interés, puede estar facilitando a terceros demasiada información sobre su
quehacer diario, como a dónde suele ir a comer, de compras, o adonde va a tomar un
café.

9 Tecnología a manos del usuario

En el mundo de las tecnologías de última generación, los dispositivos electrónicos


para la comunicación y las aplicaciones para dispositivos que se utilizan en movilidad,
marcan una tendencia importante, siendo los móviles los que con mayor rapidez y
entrega han penetrado en la sociedad, sobre las demás tecnologías, con posibilidades
de convertirse a futuro, en herramienta indispensable e imperiosa para los usuarios.
Aun así, mucho más allá de lo que significan las tecnologías en sí mismas, se hace
más interesante especular sobre qué hacen los usuarios con estas tecnologías, qué
facilidades tienen para adquirirlas, porqué y para qué las adquieren, qué costos deben
pagar para adquirirlas, y así muchos otros interrogantes, sobre las razones que llevan a
los usuarios a hacer uso de estas herramientas tecnológicas.
Las aplicaciones para los móviles inteligentes, el acceso a Internet, la televisión en
directo, la publicidad geolocalizada, la lucha entre operadoras por imponer sus tarifas,
todo tiene un precio, cada año sacan cientos y cientos de nuevos terminales en el
mercado, para todos los gustos, bolsillos y perfiles de usuarios. En la actualidad, una
de cada tres búsquedas en Internet desde el móvil tiene una intención local y algunos
estudios apuntan ya que la inversión en márketing móvil basado en la localización
pasará de los 34 millones de dólares (26,4 millones de euros) en 2009 a 4.000
millones de dólares en 2015 (3.108,5 millones de euros) [7]

10 Conclusiones

Lo práctico, lo útil y lo benéfico que pueden llegar a resultar algunas herramientas,


son aspectos de gran importancia a tener en cuenta por los usuarios a la hora de
disponer de ellas, independientemente cuan conocida sea.
Las redes sociales han provisto a los usuarios de servicios que facilitan la ya tan

197
anhelada y aceptada Geolocalización, en muchos casos basados en patrones de
comportamiento mostrados por los mismo usuarios, como una forma de interactuar
entre ellos, en lo posible en tiempo real. Tanto las redes sociales como las empresas
que ofrecen los servicios de Geolocalización, tienen la gran particularidad de estar
íntimamente ligadas con la evolución y popularización de las tecnologías móviles,
caso especial con los llamados móviles inteligentes, provistos de terminales con
mayor capacidad, junto con la generalización del uso de cartografía online.
La constante evolución e incremento de estas Webs sociales, están cambiando, de
cierta manera nuestra forma de vivir, ahora nos pueden decir en donde están nuestros
amigos y a ellos donde estoy yo, gracias a la integración de las tecnologías, sabemos
donde nos encontramos y que camino tomar. Ya no solo importa el que, y el como,
sino el donde. Mas sin embargo, independientemente del fin que se busque con la
utilización de estas herramientas, y en la medida en que cada vez se crean mas y
mayores aplicaciones que van asociadas a información geográficas y ésta a su vez
relacionadas con mensajes provistos por nosotros mismos, nos llevan a pensar en
temas relacionados con la intimidad y privacidad de los usuarios, temas que seguirán
siendo objeto de discusión.
Las aplicaciones móviles basadas en Geolocalización han sido una tendencia
importante en lo que va del 2010. Esto en combinación con los servicios que ofrecen
la mayoría de redes sociales, hace pensar que existe una necesidad innegable por la
cual la gran mayoría de usuarios, se muestren en disposición de desvelar información
relacionada con su ubicación actual, llegando inclusive a suponer importantes
problemas de privacidad.

198
Referencias

1. Adler Lomnitz, Larissa. Redes Sociales y partidos políticos en Chile. Articulo para REDES-
Revista hispana para el análisis de redes sociales. Vol.3, #2, sept-nov. 2002. (disponible en:
http://revista-redes.rediris.es/html-vol3/vol3_2.htm)
2. Lucian E. Marin. (2010). Geolocalización: presente y futuro en redes sociales. [en línea] [on
line] http://amaruxs.blogspot.com/2010/02/geolocalizacion-presente-y-futuro-en.html,
[consultado 30 Junio, 2010].
3. IAB Spain research, Cool Insights. (2010). Geolocalización, movilidad y recomendación. A
propósito de Foursquare. Informe hottopic_foursquare. 13 de abril de 2010, [en línea] [on
line] http://www.iabspain.net/index.php
4, 5. Álvaro E. Sandoval. Google quiere ser líder en celulares. Redacción tecnología, edición
impresa, El Tiempo 13 de julio de 2010. [en línea] [on line]
http://www.eltiempo.com/enter/actualidad_a/google-quiere-ser-lider-en-
celulares_7801661-1, [consultado 13 de julio de 2010]
6. Fundación eroski. (2009). Geolocalización: asistente personalizado en el móvil, Actualidad y
ocio, nuevas tecnologías. Geolocalización en el móvil. [en línea] [on line]
http://revista.consumer.es/web/es/20091001/internet/75113.php, [consultado 30 Junio de
2010]
7. Diario Expansion. 2010. ¡Quiero ser el ‗alcalde‘ del bar de la esquina!. [en línea] [on line]
http://www.expansion.com/2010/08/19/empresas/tmt/1282250361.html. [consultado 26 de
agosto de 2010]

199
Modelo de Gestión del Conocimiento en Docencia
Universitaria: Caso Universidad Distrital

Oscar Mayorga Torres1, Alexis Adamy Ortiz Ortiz1


1
Universidad Distrital Francisco José de Caldas, Cra 7 No 40-53 Piso 10°
Bogotá - Colombia
oscar.mayorga@umb.edu.co, alexisadamyortiz@udistrital.edu.co

Resumen: El presente artículo describe un modelo de gestión del


conocimiento en docencia universitaria el cual integra cinco aspectos en
su arquitectura denominados nodos: Académico, tecnológico,
investigación, organizacional y extensión (proyección social) los cuales
se dividen en redes de conexión lógica y consecuente para alcanzar la
gestión del conocimiento en la universidad y cuerpo docente objeto de la
investigación. En este mismo sentido, el modelo permite su permanente
evaluación, monitoreo y seguimiento por medio de indicadores los
cuales muestran las brechas en cada uno de los nodos de la estructura
para de esta forma realizar los ajustes pertinentes en términos de los
recursos, estrategias e interrelaciones contempladas para el caso.

Palabras clave: Gestión del conocimiento, docencia universitaria,


arquitectura, indicadores.

Abstract: This article describes a model of knowledge management in


university teaching which integrates five points called nodes in their
architecture: academic, technological, research, organizational and
outreach (social projection) which networks are divided into logical and
consistent connection to reach knowledge management at the university
and to faculty research. In this sense, the model allows for continuous
assessment, monitoring and tracking by means of indicators which show
the gaps in each of the nodes of the structure thereby making
adjustments in terms of resources, strategies and relationships referred to
the case.

Keywords: Knowledge management, university teaching, architecture,


indicators.

1 Introducción

Las personas, como componente del capital intelectual de las organizaciones están
pasando de ser un recurso intangible a constituirse en uno de sus más importantes
activos, en razón a lo anterior, las rígidas estructuras jerárquicas de forma piramidal
que muchas empresas han optado como modelo de gestión sufren una transformación
integral y mutan para constituirse en redes, comunidades o equipos basados en el
conocimiento de sus integrantes, movilidad y flexibilidad en la comunicación,
dinámica sistémica entre sus componentes, visión compartida y capacidad de
interpretar, adaptar y apropiar las exigencias del entorno interno y externo.
Por lo tanto, una de las formas más útiles para entender, estudiar y representar el
fenómeno de la Gestión del Conocimiento en cualquier tipo de organización, es a
través de un modelo, ya que ofrece una visión más o menos unificada, integral y

201
completa sobre lo que se quiere plantear y abstraer de la realidad de la Gestión del
Conocimiento [8], [9].
La literatura presenta diferentes modelos de Gestión del Conocimiento en los
cuales muestra los elementos, actores, interrelaciones y escenarios que componen su
arquitectura; de esta se encuentran tres dimensiones básicas: Recursos basados en el
conocimiento, actividades de la Gestión del Conocimiento que actúan sobre estos
recursos, e influencias de la Gestión del Conocimiento que facilitan y limitan la
manifestación de estas actividades; sin embargo el presente estudio integra dos
dimensiones por la naturaleza de la investigación: el Nodo Investigación y Nodo
Extensión, los cuales refieren a producción intelectual del cuerpo docente en el primer
caso y aplicaciones de orden tecnológico, industrial, social, ambiental, económico
entre otras en el segundo.

2 Conceptualización del Modelo

El Modelo de Gestión del Conocimiento en docencia Universitaria que se propone


para la Universidad Distrital, se basa y se estructura de acuerdo a la analogía de un
modelo en red, con el fin de darle la mayor dinámica, flexibilidad y funcionabilidad
posible, lo que permite compartir y tener acceso desde diferentes puntos o nodos al
conocimiento.
El que las universidades puedan adaptarse al modelo de funcionamiento en red,
constituye un gran avance hacia la integración con la sociedad de la información y el
conocimiento [4] las redes producen una nueva organización social para las
actividades del conocimiento, basadas en la innovación, la descentralización y la
globalización; y la transformación del espacio y el tiempo, mediante la constitución de
un espacio de flujos y del tiempo [6]. Entre las razones que se tuvieron en cuenta para
proponer la estructura en red, se pueden mencionar:

 Conectividad: Integración y navegabilidad con todos los nodos de conocimiento


de la red.
 Colaboración: Vía redes de nivel académico, investigativo, docente, social y
económico.
 Tecnologías de redes: Implica efectividad, dinámica, flexibilidad y velocidad de
la red.
 Tecnologías de comunicación: Aplicaciones tecnológicas en hardware y software
para canales de comunicación.

El modelo en red es un sistema que permite compartir y tener acceso remoto de


forma ágil, oportuna y clara a los recursos, para el caso del modelo de gestión del
Conocimiento en docencia universitaria se trata de tener acceso a recursos que
facilitan la adquisición o difusión del conocimiento, por medio de la creación, captura,
transformación, distribución, compartición o reutilización de él.
El modelo de gestión de conocimiento en docencia universitaria bajo la tipología
de red, representa los medios de generación de conocimiento simbolizado en forma de
nodos en un grafo, y las interrelaciones entre estos, se simboliza mediante arcos que
unen dichos nodos. En principio, esta representación no impone restricción alguna
acerca del tipo y el número de nodos y arcos que puede haber, con los que se pueden
modelar estructuras de conocimientos tan complejas como sean necesarias. En este
tipo de modelo, se dispone de una componente estática y otra dinámica:
La componente estática estaría compuesta por los objetos (agentes o nodos y
atributos), las interrelaciones o arcos y las restricciones, que a su vez pueden ser
inherentes (no se presentan en este modelo) y de usuario (pueden ser reconocidas por
el modelo de conocimientos o de responsabilidad exclusiva del usuario). Dentro de
esta componente estática se puede citar un elemento más que atendería a la
representación, y son los grafos detallados [8], [9].
Por otro lado, la componente dinámica estaría compuesta por el aspecto
navegacional es decir por las interrelaciones entre los nodos de conocimiento, que

202
permitirían acceder a él.
El esquema en si representa los aspectos estáticos, es decir, la estructura de los
conocimientos que se podrían disponer, que comprende los tipos de agentes,
interrelaciones, etc. Una ocurrencia del esquema son los valores que toman los
elementos del esquema en un determinado momento. Estos valores irán variando a lo
largo del tiempo debido a la aplicación de los operadores de manipulación de
conocimientos a una ocurrencia del esquema.
La topología de una red es la forma en que esta se organiza y hay diferentes modos
o modelos de organización, pero en el presente modelo solo se tienen en cuenta
básicamente dos: Estrella y Anillo.

Estrella: Esta es una red centralizada, una red estrella es un modo de disponer los
nodos de una red, de tal forma que todos los accesos o transmisiones pasan por un
dispositivo central de control. Para efectos de representación del modelo propuesto,
solo se aplica esta topología para representar el nodo principal y esencial,
constituyendo lo que podríamos denominar como el núcleo del modelo.
Anillo: El tipo de red anillo es distribuida, y se da básicamente conectando cada nodo
de la red en un ciclo cerrado con cada nodo enlazado a los nodos contiguos a la
derecha y la izquierda. La ventaja de esta red es que se puede trabajar a grandes
velocidades, en caso de implementarse a través de un sistema de gestión de base de
conocimiento.

2.1 Modelo Organizacional

Dentro de la estructura en red del modelo organizacional, se representan las siguientes


componentes que se conciben de acuerdo al siguiente nivel de estructuración:

Recursos
Nodos

Acciones
Agentes facilitadores

Comportamiento
Indicadores

Fig 1. Componentes de la estructura en red del modelo organizacional.


Fuente: Medina [9].

Siguiendo el enfoque de estructuración del modelo Intelect (Medición y Gestión de


Capital Intelectual) de Eduardo Bueno [2], la adaptación del siguiente esquema
permite una apreciación más detallada y resumida de las componentes del modelo:

Nodos Agentes facilitadores Indicadores


Definición: Los nodos Definición: Los agentes Definición: Los
son los recursos basados facilitadores son los indicadores son la
en el conocimiento, elementos que nos van a forma de medición o
donde se genera o se permitir impulsar las acciones evaluación de los
transfiere conocimiento, de la política de la agentes facilitadores o
realizan diversas organización universitaria, elementos. Son
funciones de gestionando los indicadores unidades de medida
procesamiento o de que nos facilitarán identificar, que permiten registrar
tratamiento requeridos desarrollar y retener el la dinámica de los
internamente o a través conocimiento. procesos y los
de los enlaces de la red. desempeños, y por
Características: Cada tanto, verificar el
Características: organización en función de su cumplimiento de los

203
Proveen agrupaciones de estrategia y de sus factores objetivos de una
conocimiento con críticos de éxito, discriminara institución, en pos de
enlaces físicos y virtuales dentro de los elementos su misión.
entre diversos nodos que intangibles propuestos por el
conforman la red de modelo, cuales son relevantes Características: La
conocimientos. y valiosos. definición de
indicadores debe
Facilitadores: hacerse en cada caso
Nodos Principales: Facilitadores externos: particular para cumplir
Conocimiento Entorno social su objetivo. Pueden ser:
Cualitativos, cuando
Académico Cultura del refieren a la existencia
conocimiento o al cumplimiento de
determinadas
Organizaciona
Estrategia cualidades,
l características o
Autoevaluación procesos; casi siempre
Tecnológico se responden con un sí
Facilitadores internos: o un no y los
Investigación Acreditación cuantitativos, se
expresan en números,
Institucional
Extensión los cuales son valores
absolutos o son
Estructura
resultados de cálculos
organizacional proporcionales entre
variables. Pueden ser
Contemporanización estáticos, cuando
TIC’s describen un momento
en el tiempo, como
Captación de especies de fotografías
conocimiento instantáneas, o
dinámicos cuando
Facilitadores: Nodo miden
Académico comportamientos y
Calidad académica tendencias entre un
tiempo y otro. También
Enseñanza- se pueden distinguirse
Aprendizaje otras clasificaciones,
tales como:
Productividad Indicadores de
Investigativa estructuras:
Cuando
Calidad de reflejan la
programas información
académicos cuantitativa
de la
Consultoría organización y
interinstitucional los recursos
con que ésta
Facilitadores: Nodo
Organización cuenta
Desempeño
Indicadores de
organizacional y
procesos:
competencias
Miden el tipo
Modernización y de servicio
mejoramiento ofrecido en

204
continúo relación con
patrones de
Facilitadores: Nodo referencia
Tecnológico
Despliegue y Indicadores de
articulación de impacto o
tecnologías resultado:
Miden la
Fortificación e
incidencia del
innovación técnica
programa en
la población
total o en la
seleccionada
como grupo
objetivo

Fig 2. Definición de las componentes de la estructura en red del modelo


organizacional. Fuente: Medina, 2004

3 Modelo de Gestión del Conocimiento en Docencia Universitaria.

3.1 Estructura General

El Modelo de Gestión del Conocimiento en Docencia Universitaria representa en su


arquitectura dos contextos: El primero explica en un nivel general la relación del
entorno interno con el externo, mediante un proceso basado en el conocimiento; el
segundo detalla las redes que componen los cinco nodos del modelo.
En el primer caso, la universidad debe ser capaz de demostrar su capacidad de
adaptación, flexibilidad y dinámica entre ambos entornos (interno-externo) y así lograr
un balance mediante una serie de agentes facilitadores que se asocian al conocimiento
y se gestionan de forma efectiva (ver figura 3).

Entorno Cultura del


Social conocimiento
Nodo Académico

Nodo Nodo
Investigación Tecnológico
Conocimiento
Entorno Entorno
Económico Tecnológico

Nodo
Nodo Extensión
Organizacional

Entorno
Gubernamental

205
Fig 3. Modelo de Gestión del Conocimiento en Docencia Universitaria: Estructura
general. Fuente: Los autores

El modelo se fundamente en cinco nodos interconectados: Académico,


Investigación, Extensión, Organizacional y Tecnológico; los cuales explican el entorno
interno de la universidad, además concibe un eje central el cual funge como el núcleo
del modelo en razón que este es la concepción y propósito del mismo: El
conocimiento. La estructura de los nodos vértices forman lo que se podría denominar
el ―Pentágono del Conocimiento‖ en los cuales sus nodos siempre se encuentran en
permanente contacto y estos a su vez con el entorno externo (Gubernamental,
tecnológico, social, económico y cultura del conocimiento).

3.2 Estructura Específica

Con el fin de facilitar la interpretación de la arquitectura del modelo, su


conceptualización y contextualización entre los entornos internos y externo, se definen
otros niveles de abstracción más elaborados que actúan como sub-nodos los cuales se
conectan de forma directa y entre sí conformando diferentes niveles de apreciación en
cada caso, es decir, de los nodos de la estructura principal (red principal) se forman
sub-redes por cada nodos que forman una representación gráfica más entendible (ver
figura 4) y en la cual se entiende que la jerarquía no prevalece como mecanismo
regulador para gestionar el conocimiento.

Entorno Cultura del


Autoevaluación Aprendizaje y
Social curricular capacitación conocimiento
Indicadores Indicadores

Procesos Desarrollo
... ...
académicos docente
Calidad de los Calidad
programas académicos Docente
Indicadores Indicadores
Proyectos Indicadores Apoyo Intranet -
Acreditación Docencia
curriculares docente Internet
Calidad
Académica
Indicadores Plataforma Fortalecimiento e Canales y
Centros de
... virtual innovación técnica Redes
información
Indicadores

Redes de Investigación
Investigación Docente Sistemas de Comunicaciones ...
Nodo Académico Información TIC’s

Calidad
Semilleros Nodo Nodo Gestión de
Investigativa ...
Indicadores Investigación Tecnológico tecnologías
Indicadores
Conocimiento
Indicadores
Grupos ... Campus Salas de
Virtual Computo
Entorno Entorno
Económico Tecnológico
Nodo
Indicadores Nodo Extensión Indicadores
Organizacional
Centro de Gestión Relaciones
Universidad -
Estudios de administrativa Institucionales
Empresa
Competitividad
Gestión Efectividad organizacional:
...
Humana Desempeño, competencias,
Extensión Consultoría habilidades
Centros de
universitaria Institucional Consultoría Indicadores
Indicadores Desarrollo
Institucional
Publicaciones ... Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores

Gestión Recursos Físicos


financiera y tecnológicos
Entorno
Gubernamental
Indicadores

Fig 4. Modelo de Gestión del Conocimiento en Docencia Universitaria: Estructura


específica. Fuente: Los autores

Nodos

Son los recursos basados en el conocimiento, donde se genera o se transfiere


conocimiento, y pueden realizar diversas funciones de procesamiento o de tratamiento
requeridas internamente o a través de los enlaces de la red. Desde el punto de vista
topológico, los nodos proveen agrupaciones de conocimiento con los enlaces físicos y
virtuales entre los diversos canales que conforman la red de conocimientos. Los nodos
principales del modelo son: Nodo de Conocimiento (Núcleo), Nodo Académico, Nodo
Organizacional, Nodo Investigación, Nodo Extensión y Nodo Tecnológico.

 Nodo de Conocimiento: Conforma el núcleo del modelo de Gestión del


Conocimiento en Docencia Universitaria; convirtiéndose en el eje esencial y

206
fundamental. Analógicamente se puede asociar a un repositorio de
conocimiento66, que facilita su efectividad en diferentes áreas de
conocimiento, en entornos diferentes y con perfiles de usuario diferentes.
Explica de manera funcional la forma como se genera y difunde el
conocimiento entre los miembros de la organización y sus relacionados.
 Nodo Académico: Hace referencia a las actividades propias del área
académica; la producción del saber-hacer-ser, la formación de profesionales,
la universalización de la cultura. Articula la calidad de la docencia y la
calidad de los programas buscando una formación más integral y holística.

La función docente es un proceso permanente, flexible, dinámico y crítico de la


producción y asimilación del saber, en el que participan activamente Docentes y
Estudiantes para lograr una formación profesional, laboral y personas de excelentes
calidades, habilidades y competencias (ver figura 5)

Autoevaluación Aprendizaje y
curricular capacitación

Procesos Desarrollo
... ...
académicos docente
Calidad
Calidad de los Docente
programas académicos
Indicadores Indicadores
Proyectos Apoyo
Acreditación Docencia
curriculares docente
Calidad
Académica
Indicadores
Centros de
...
información

Nodo Académico

Fig 5. Nodo Académico.


Fuente: Los autores

 Nodo Organizacional: Este se encarga de posibilitar y apoyar las actividades


específicamente universitarias que corresponden a la dirección, orientación,
vigilancia y control de los asuntos económicos y administrativos de la
Universidad y sus distintas dependencias. Conocimiento y organización son
dos aspectos centrales de la actual reflexión sobre la necesaria transformación
de la universidad. Pero algo que debe destacarse es el hecho de que estos dos
ámbitos, que debieran verse como indisolublemente interrelacionados, son
tratados en la realidad como mundos aparte. Se puede argumentar, en cambio,
que es imposible innovar la manera de producir (comunicar, adaptar, aplicar)
conocimientos sin cambiar la organización de la universidad: se requerirán de
nuevas formas de relación entre los actores universitarios; de una concepción
diferente de la administración de los recursos, incluyendo el conocimiento; de
articulaciones creativas entre la investigación, la enseñanza y la extensión; de
nuevas formas de aprehender y de vincularse con el entorno; de nuevos
liderazgos, procesos de trabajo y formas de gobierno [7].

De la misma manera, las esferas de la producción (transmisión, preservación,


adaptación y aplicación) del conocimiento y de la organización debieran estar
estrechamente acopladas. La organización debiera despojarse de la perspectiva
tradicional de lo administrativo, para vehiculizar, facilitar y promover el conocimiento,

66
Conjunto de datos/información que representan experiencias, problemas y
soluciones relacionadas entre sí. Incluyen programas para buscar y recuperar
información.

207
construyendo un ambiente que se funde con la producción misma del conocimiento: la
organización como ambiente cognitivo. Dentro de este nodo se muestran los sub-
nodos que apoyan la gestión del conocimiento en la organización (ver figura 6).

Nodo
Organizacional
Gestión Relaciones
administrativa Institucionales

Gestión Efectividad organizacional:


...
Humana Desempeño, competencias,
habilidades
Indicadores
Desarrollo
Institucional

Bienestar Modernización y
...
Universitario mejoramiento continuo
Indicadores

Gestión Recursos Físicos


financiera y tecnológicos

Fig 6. Nodo Organizacional


Fuente: Los autores

 Nodo Tecnológico: Corresponde al conjunto de infraestructuras que permiten


crear, acceder y difundir documentos, ideas o conocimientos a todos los
miembros de la organización. Esta infraestructura incluyen ordenadores,
programas estándar y desarrollos a la medida, acceso a telecomunicaciones,
intranet, internet y soporte al usuario; todo ello de forma local o remota. Es
decir que son los canales o herramientas mediante las cuales los
colaboradores podrán participar, comunicar y compartir contenidos en los
procesos de trabajo diario.
 También facilitan el proceso de aprendizaje al permitir la organización y
almacenamiento del conocimiento. Son cuatro las funciones de las TIC‘s: a)
Codificar el conocimiento, de modo que sea sencillo identificar los atributos
o características que le hacen relevante, b) Distribuir el conocimiento al
objeto de garantizar un rápido acceso al mismo, c) Facilitar su transferencia y
d) permitir el análisis y la interacción necesarios para su desarrollo [Revilla.
2003]. Dentro de este nodo se puede a su vez, esquematizar otros sub-nodos
que apoyan la gestión del conocimiento en el contexto tecnológico (ver figura
7).

Intranet -
Internet

Plataforma Fortalecimiento e Canales y


virtual innovación técnica Redes
Indicadores

Sistemas de Comunicaciones ...


Información TIC’s

Nodo Gestión de
...
Tecnológico tecnologías
Indicadores

Campus Salas de
Virtual Computo

Fig 7. Nodo Tecnológico.


Fuente: Los autores

 Nodo Investigación: Su función principal es la búsqueda permanente de una

208
mayor comprensión y profundización del saber-hacer-ser, permite la
ampliación del mismo y su proyección hacia condiciones concretas del país.
La investigación aplicada recibirá especial atención dada las condiciones
particulares del entorno social-científico-económico de la Universidad sin
perder de vista la investigación formativa de sus miembros organizacionales.
Dentro de este nodo se puede a su vez, esquematizar otros sub-nodos que
apoyan la gestión del conocimiento en el contexto de Investigación como lo
son grupos y semilleros (ver figura 8).

Redes de Investigación
Investigación Docente

Calidad
Semilleros Nodo
Investigativa
Indicadores Investigación

Grupos ...

Fig 8. Nodo Investigación. Fuente: Los autores

 Nodo Extensión: Su función principal es articular la producción, difusión y


aplicación del conocimiento en el entorno externo y a su vez buscar los
mecanismo de apropiación, transferencia y desarrollo de conocimiento entre
los dos entornos (interno y externo); por el hecho mismo la universidad es un
escenario de implementaciones éticas, ambientales, sociales, económicas e
industriales que rehúndan en los dos entornos, dicha connotación hace que la
relación sea más efectiva, dinámica, flexible y funcional en términos de los
indicadores y recursos establecidos en el modelo (ver figura 9).

Nodo Extensión

Centro de
Universidad -
Estudios de
Empresa
Competitividad

Extensión Consultoría Centros de


universitaria Institucional Consultoría
Indicadores

Publicaciones ...

Figura 9. Nodo Extensión. Fuente: Los autores

Agentes facilitadores

Las organizaciones obtienen unos resultados a los que se llega a través del
comportamiento de sus agentes facilitadores, es decir, las actuaciones de su personal y
el funcionamiento de sus procesos [1]. En las Universidades, los agentes facilitadores,
son los elementos que van a permitir impulsar las acciones de la política de la
organización universitaria, la gestión o cumplimiento de dichas acciones se evalúa de
acuerdo al comportamiento de una serie de indicadores que facilitarán la
identificación, desarrollo y retención del conocimiento, y que en definitiva permitirán
mantener o cumplir la misión de la organización.
Los agentes facilitadores se asocian a un nodo determinado con el fin de
proporcionar un área delimitada de conocimiento y en ellos se puede aglutinar los
distintos indicadores que facilitaran la decisión sobre las propuestas para la
consecución de la estrategia. Teniendo en cuenta la incidencia directa en la
organización, se pueden clasificar los agentes facilitadores en:

209
 Facilitadores externos o interinstitucionales: Están relacionados con su
entorno social, cultural e institucional, proporcionando los elementos para la
regulación o gestión de actividades en el sector educativo, y suministrando
los indicadores que facilitan la rendición de cuentas de los componentes de la
educación superior, ante la sociedad. Éstos, a su vez, permiten la
comparación con otras entidades homólogas del país y del exterior.
 Facilitadores internos o de gestión interna de la Institución: Son propios de
cada institución, y han de servirle a ésta para definir sus políticas y acciones;
además, de ser la base para el seguimiento y control de los planes de
desarrollo de cada una de las universidades. Cada uno de estos agentes
facilitadores contienen una serie de indicadores asociados a ellos.

Indicadores

Por indicadores se entiende el proceso sistemático de medir y valorar el


conocimiento de la organización en relación a sus resultados económicos, sociales, de
producción intelectual y del cumplimiento de sus objetivos estratégicos. Es necesario
desarrollar un conjunto de indicadores que puedan incorporarse al cuadro de mando
habitual de la organización y que proporcionen información periódica sobre el
funcionamiento de los procesos puestos en marcha [8], [9].
Estos indicadores serán una fuente de información adicional al diagnostico periódico
del estado de la gestión del conocimiento en la organización. También se puede
entender los indicadores, como unidades de medida que permiten registrar el
desempeño, dinámica y movilidad de los procesos, y por tanto, verificar el
cumplimiento de los objetivos de la Universidad.
Los indicadores se construyen con el fin de registrar los eventos significativos de
un área determinada de desempeño y así tener un argumento racional y concreto, una
visión clara y precisa de la gestión de cada dependencia. Permiten realizar un control
adecuado de las actividades desarrolladas, con el fin de que éstas se realicen conforme
a los intereses corporativos; sirven, además, para definir políticas, objetivos,
estrategias y metas que aseguren la consolidación de los objetivos de la organización,
en el medio y en el sector que le corresponde.
Sin duda alguna, en su diseño intervienen diferentes concepciones acerca del papel
del Entorno Gubernamental, en el conjunto de la economía, del sentido de lo público,
de la relación entre educación y desarrollo, y también en visiones particulares sobre
calidad y equidad en la educación; por lo tanto, la discusión de cualquier propuesta de
indicadores debe examinar cuidadosamente estos temas.
Con base en los anteriores conceptos, se concluye que hasta hace muy poco tiempo
y aún todavía, solo se tiene en cuenta la aplicación de indicadores convencionales de
gestión, que apenas permiten evaluar solo una parte de la organización; pero la
integración o combinación de éstos con indicadores de gestión del conocimiento y la
evaluación de la calidad, pretende considerar las habilidades individuales, la
inteligencia, el medio cultural, las capacidades de construcción de conocimiento, la
coherencia de los planes de estudio, la flexibilidad de los programas, la visión de los
planes desde la óptica de nuevas tecnologías y modalidades pedagógicas y la
pertinencia de la investigación, entre otros.
Por tanto, el enfoque de los indicadores que se proponen, se conciben desde la base
de integración en la consecución de un mismo fin: el fortalecimiento inteligente de la
organización educativa. Se insiste, en que no se trata de aplicar indicadores para
realizar una descripción exhaustiva de la gestión de todos los activos humanos,
estructurales, relacionales o tecnológicos posibles, sino de determinar aquéllos que
realmente son susceptibles de aportar valor o ventaja competitiva a la organización y
de apoyar acciones, en el cumplimiento de una adecuada gestión del conocimiento.
Con lo anterior y como base para enunciar y definir una guía de indicadores de
apoyo a la gestión del conocimiento en docencia universitaria, se describen los
criterios sobre los cuales operan dichos indicadores, ellos son elementos valorativos
que inspiran la apreciación de las condiciones iniciales de la institución educativa y la
evaluación de las características de la calidad de un programa académico.

210
Estos criterios son considerados como una totalidad. No hay entre ellos jerarquía
alguna ni se establece predilección de uno sobre otro; ellos se complementan y
potencian entre sí en cuanto a principios que sirven de base al juicio sobre la calidad:
Universalidad, Integridad, Equidad, Idoneidad, Responsabilidad, Coherencia,
Transparencia, Pertinencia, Eficacia y Eficiencia. Los anteriores criterios, son una
expresión de la postura ética del Consejo Nacional de Acreditación frente al tema de la
acreditación en Colombia y, en una perspectiva más amplia, en relación con el
cumplimiento de la función social de la educación superior y con el logro de altos
niveles de calidad por parte de instituciones y programas académicos de ese nivel [5].

4 Conclusiones

El presente trabajo plantea un modelo de gestión del conocimiento en docencia


universitaria el cual se basa bajo una estructura de funcionamiento en red la cual surge
de la necesidad de cambiar de las tradicionales estructuras por una que sea más ágil,
flexible, dinámica, efectiva y funcional la cual permite la producción, difusión,
transferencia y apropiación de conocimiento, en tal sentido, la universidad debe optar
por una reforma integral de su estructura la cual apunte a las exigencias de los
miembros del entono interno y las consecuencias causales y de relación del entorno
externo.
A su vez, se presenta una estructura denominada ―pentágono del conocimiento‖ la
cual presenta cinco nodos: Académico, Organizacional, Tecnológico y los
Investigativo y Extensión aporte significativo de la presente investigación la cual se
vale del modelo de red para explicar el fenómeno del conocimiento en una dinámica
que asocia personas e instituciones con el fin de producir, difundir y transferir
conocimiento; además se plantea la transversalidad y uninivel del modelo, es decir,
ningún nodo posee gobernabilidad, jerarquía o prioridad sobre cualquier otro y los
conocimientos fluyen desde cualquiera de los nodos o sub-nodos del modelo.
Para fortalecer el modelo este se vale de la estructura nodo, agentes facilitadores e
indicadores, los cuales muestran la funcionalidad, seguimiento y control de la brecha
cuando se gestiona conocimiento en la docencia universitaria.

Referencias

1. Benavides Velasco, C. y Quintana García, C., Gestión del Conocimiento y Calidad Total,
Ed. Díaz de Santos, Madrid, 2003.
2. Bueno, E., ―Proyecto Intelect‖, en Boletín del Club Intelect, Madrid. 1998.
3. Camisón, C., Palacios, D. y Devece, C., 1999. ―Nova Club de Gestión del Conocimiento y la
Innovación de la Comunidad Valenciana‖, en Universitat Jaume I de Castellón, 1999.
[Consulta: 7.05.03] <http://www.gestiondelconocimiento.com/modelo_valencia.htm
4. Castells, M., La era de la información. Economía, cultura y sociedad, Alianza Editorial,
Madrid. 1998, I, 471.
5. CNA, Consejo Nacional de Acreditación de Colombia, ―Lineamientos para la Acreditación
de Programas‖, Bogotá. Agosto de 2003.
6. Donini, A. O. y De Donini, M. C., ―La gestión universitaria en el siglo XXI: Desafíos de la
sociedad del conocimiento a las políticas académicas y científicas‖, en Documentos de
Trabajo Nº 107, Universidad de Belgrano, Argentina. Julio 2003.
7. Guillaumín Tostado, A., ―Complejidad, transdisciplina y redes: hacia la construcción
colectiva de una nueva Universidad‖, en Revista online de la Universidad Bolivariana,
Volumen 1. 2001.
8. Joyanes Aguilar, L., ―Un paso hacia los Modelos de Gestión del Conocimiento desde un
Enfoque de Procesos‖, en Libro de Actas del CISIC 2002: I Congreso Internacional de
Sociedad de la Información, McGraw-Hill, Madrid. 2002.
9. Medina, Víctor H., Modelo Organizacional y Tecnológico para la Gestión del
Conocimiento en la Universidad: Aplicación en la Universidad Distrital - Colombia. Tesis
Doctoral. Universidad Pontificia de Salamanca. Madrid. 2004.

211
Evolución de los códigos de barras a redes wireless
NGN ― RFID‖, computación ágil, inteligente y móvil.

Roberto Ferro Escobar 1,Carlos Albero Escobar De Lima2,


1
Universidad distrital Francisco José de Caldas. Candidato a PHD UPSAM Par
MEN.
2
Universidad distrital Francisco José de Caldas.Bogotá, Colombia 2010.
cescobar@delimaing.com, ferro.roberto@gmail.com

Resumen: Los sistemas de identificación por radio frecuencia (RFID)


hacen parte de las tecnologías emergentes que nuestro país necesita
implementar en múltiples sectores empresariales como la identificación
en tiempo real de pacientes para centros hospitalarios, control de
inventarios, control de acceso, control de activos e inventario on line,
control de tele peaje, anti hurto de elementos, control e identificación
vacunas en bobinos, porcinos y animales domésticos, cadenas de
seguimiento de abastecimiento, entre otras aplicaciones. Actualmente el
mercado de tecnología esta avanzando debido a su reducción de costos
en la etiquetas de identificación, lectores y antenas. En este articulo
deseamos vislumbrar como esta tecnología de nueva generación esta
siendo implementada en un sin fin de aplicaciones a nivel mundial en
países altamente desarrollados e industrializados.

Palabras clave: RFID, sistemas de identificación por radio frecuencia,


tecnología emergente.

Abstract: The identification systems for radio frequency (RFID) are


part of emerging technologies that our country needs to implement in
many business sectors such as the identification of patients to hospitals,
inventory control, access control, control of assets, control tele toll, anti-
theft elements, control and identification vaccine, supply chain, among
other applications. The current markets advance this technology because
of its cost reduction in the identification tags, readers and antennas. In
this article we want to publicize this technology is being implemented as
endless applications worldwide.

Key words: Clinical histories, critical information, RFID, systems of


identification by radio frequency, emergent technology.

1 Introduccion

Las redes de área personal PAN RFID (En ingles: Radio Frequency Identification) es
una de las tecnologías que hoy en día se están probando por medio de prototipos para
nuevas y prometedoras aplicaciones en muchos campos de investigación y desarrollo
de aplicaciones. Nació por la necesidad de identificar aviones en la segunda guerra
mundial por los británicos, existen referencias de 1960 donde se afirma su aparición en
la industria armamentista americana, pero por sus elevados costos no se había
popularizado en otras áreas del comercio. [1].
Ahora encontramos que el nivel de producción y adquisición se esta incrementando
al punto de que en Colombia empieza a posicionarse en el mercado en importantes
empresas de mercadeo.
Hoy en día los RFID están siendo implementados en múltiples organizaciones,
simulando actividades a través de nuevos dispositivos inalámbricos con gran potencial

213
de comunicación; como lo fue desarrollado en dos de las compañías más exitosas de
Colombia. [2]
La aceptación de los RFID como tecnología innovadora de actividades y procesos,
esta evolucionando positivamente, ya que cuenta con sistemas sofisticados que
funcionan desde identificación de animales (Ganado vacuno), personas, equipos hasta
la seguridad y control de acceso en organizaciones. ―La tecnología RFID tiene el
potencial de brindarnos una ventaja competitiva real, ayudar a mejorar el
cumplimiento de los pedidos e incrementar la satisfacción del cliente”. [3].
Con la cultura de globalización y libre comercio en los productos y servicios, es
importante destacar la necesidad de que nuestras PYMES (Pequeñas y medianas
empresas) conozcan este tipo de información para conectar sinergicamente la
tecnología con el talento humano a través de la identificación por radiofrecuencia, para
mejorar su calidad y así mismo nivel de competitividad. En plena revolución del
conocimiento y de tecnología, es indispensable fomentar el proceso de actualización
o adquisición de nuevos sistemas para la prestación de servicios por parte de las
organizaciones a través de dispositivos que permitan el mejoramiento continuo en la
organización, atacando los problemas que generan la incertidumbre y el riesgo
informático. Como se ve reflejado en la siguiente distribución del presupuesto
promedio de las empresas nacionales. [4].

2 Características del sistema de identificación por radio


frecuencia

La tecnología RFID, permite asignar a cualquier producto una identificación por


medio de tags (―chips únicos de identificación‖) ocupando el lugar de productos que
están implementados como estándares empresariales. En la actualidad el código de
barras por su precio y manejo, esta posicionado en el mercado de una manera fuerte;
pero sin embargo, se esta atacado sus fortalezas a través de cambios en los paradigmas
, ejemplo claro de ello es la revolución de los sistemas de RFID que poseen
características únicas; como la capacidad de ser programable y su robustez en los
niveles de seguridad, además de que logra ser capaz de suplir muchas más
aplicaciones actuales y barreras que otros sistemas de identificación enfrentan ante la
complejidad de las organizaciones empresariales. [5]
Cuando un código de barra no es leído adecuadamente desde la primera vez genera
tiempos extra de espera, colas en los puntos de pago, aumentos de costos de
operación, reducción de los beneficios y la verdadera eficiencia que el código de
barras en óptimas condiciones ofrece. En cambio un sistema basado en radiofrecuencia
tiene una cobertura mayor y un porcentaje de error mucho menor debido a sus
prestaciones activas pues allí es posible ir cambiando los datos almacenados por datos
reales y actualizados en la medida que el sistema lo requiera [6]

2.1 Ventajas y desventajas de RFID:

TABLA 1
Ventajas Desventajas
Automatiza eliminando el error humano la A diferencia del código de barras,
identificación, conteo, rastreo, RFID puede ser rastreado a distancia
clasificación y ruteo de cualquier objeto. después de salir del supermercado.

Elimina errores por irresponsabilidad. El alto costo de los equipos lectores y


del software, la poca precisión en el

214
ingreso de datos (mientras el código
Elimina errores y por consecuencia el de barras supera el 99,9 por ciento de
desperdicio de recursos. confiabilidad, algunas
etiquetas de radiofrecuencia caen
incluso por debajo del 90 por ciento)

Incrementa el control de calidad.


Dificultades de los lec
Incrementan la tores de radio para detectar algunos
eficiencia y la productos dentro de las cajas, e
interrupciones de la
productividad de la empresa señal cuando es reflejada por el metal
o absorbida por el agua

2.2 Cómo funciona el RFID:

Un sistema de identificación por radiofrecuencia está formado por tres elementos


básicos.
Un tag es un micro-chip incorporado con una antena, que puede adherirse a casi
cualquier medio (madera, plástico, e incluso metales). El microchip almacena datos
dependiendo de las capacidades del fabricante, cada tag tiene un único número que lo
identifica como por ejemplo los códigos electrónicos de cada producto (EPC) que son
desarrollados por estándares internacionales de EPC GLOBAL o como las direcciones
MAC de las tarjetas de red computacionales, dando así una única identificación en el
mundo. [7]
El sistema funciona de la siguiente manera, el lector envía una serie de ondas de
radiofrecuencia, que son captadas cuando el Tag entra en el radio de frecuencia
enviado por el lector, y son obtenidas por la micro antena de éste. Dichas ondas
activan el microchip, el cual, a través de la micro antena y mediante ondas de
radiofrecuencia, transmite al lector los datos solicitados por el lector que pueden ser
desde el CU (―Codigo Unico‖), hasta datos específicos almacenados, como nombres
de equipos, pacientes, muestras entre otros.
Finalmente, el lector recibe el dato o los datos si son varios Tag al mismo tiempo
identificados y los envía al PC, donde son diseccionados hacia una aplicación
desarrollada en .Net, para la autenticación en la aplicación dependiendo del tipo de
dato o código que contenga el Tag (―Pacientes, Muestras, Equipos, etc.‖), de manera
que se pueda acceder a la base de datos y ver los datos previamente registrados, y así
procesar la información de forma efectiva ante las necesidades del entorno específico.
[8]

TABLA 2
DIFERENCIAS ENTRE RFID Y CÓDIGO DE BARRAS
Lectores RFID:
Característica RFID CÓDIGO DE BARRAS

Capacidad Superior cantidad de información Limitación de información


Identificación Depende del Producto Estandarizada.
Actualización Lectura y Escritura Solo lectura
No requiere línea de visión para Requiere línea de visión para
Flexibilidad
la lectura. la lectura
Lectura Múltiple lectura Una lectura por vez
Tipo de Lee a través de diversos
Lectura
Lee solo en superficie
materiales y superficies.
No requiere intervención humana, Si Requiere Intervención
Precisión
100% automático Humana
Soporta ambientes agresivos
Durabilidad (intemperie, químicos, humedad, Puede dañarse fácilmente
215 temperatura).
Los lectores son un dispositivo encargado de transmitir y receptar los datos por
medio de radio frecuencia mediante una antena, los lectores poseen un modulo de
acoplamiento entre el tag y el lector, una unidad de control y un Terminal para la
comunicación con el computador.

Transponders ó Tags Pasivos y Activos:

Los trasponders o Tag son unos dispositivos compuestos por una microchip y una
antena, utilizados para la transmisión de datos en RFID. Se pueden encontrar en varias
formas y tamaños como (etiquetas, manillas, tarjetas) las cuales son implantadas en el
objeto o persona que se va a identificar.

TABLA 3
Diferencias entre las clases de los Transponders

Clase 0 y 1 Clase 2 Clase 3 Clase 4

Identificación
Tag de pasiva y Tag con Tag asistidas por Tag de batería
identificación memoria (usable batería pasivas activas (tags
Pasivo (usable en un rango de 3 trasmitir portadora)
en un rango de metros)
3 metros)
Transmisión Activa
Mas
Backscatter Backscatter funcionalidad en (Permite Tag-
(Habla de (Habla de primero el chip – Hablar- Primero
primero el el interrogador) memoria, modos de operación)
interrogador) sensores, etc
Backscatter
(Habla de
Muy bajo costo Seguridad primero el 100 metros de rango
interrogador)
Muy bajo costo Costo Moderado Alto Costo

Cuando se inicia comunicación con el lector el Tag por medio de la antena envía una
serie de datos del objeto identificado, como (Temperatura, parámetros, número de
identificación), los cuales entran a una base de datos específica que depende de la
aplicación. Una característica importante es que cada uno de los Tag tiene un único
número de serie, de fábrica que es inalterable y distinto a los demás, comúnmente
llamados como Lectura de Número Único (Read only number). El rango de banda de
frecuencia en el que trabaja varía entre de 60 kHz a 5.8 GHz, existen dos tipos de
bandas, la de baja frecuencia (LF) que está entre 125 y 134 KHz y la de alta
frecuencia HF 13.56 MHz. En la RFID los Tag han sido clasificados por la EPC
(―Electronic Code Product‖), dependiendo su forma de funcionamiento en cuatro
clases:

Clase 0, 1 y 2: Estos tipos de Tag pasivas no poseen una batería propia, entonces lo
que realizan es la obtención de la energía de RF que envía al lector y la extraen.
Clase 3: Este tipo de tag Asistido por Batería Pasivo, son Tag que ofrecen un mayor
rango y grado de fiabilidad que la Clase 0, 1 y 2 de los tag pasivos.
Clase 4: A diferencia de los Tags pasivos, los activos tienen la propiedad de que
cualquiera de los dos componentes pueden iniciar la comunicación ya sea el lector o el
Tag, la etiquetas activas tienen una radio onboard, lo que es indicador de un rango
mucho mayor que el de las pasivas.[9].

216
2.3 Software:

El sistema de RFID es flexible al software de programación que se implemente ya que


únicamente se comunica a través de variables definidas por tramas de información;
esta ventaja absoluta crea de esta tecnología un núcleo infinito de futuras aplicaciones
a desarrollar, en donde sea viable la utilización de la identificación de elementos. Ref
.[10]
El Tag envía datos al lector, el lector recibe esos datos y los direcciona hacia el
computador donde pueden ser manipulados y almacenados en aplicaciones que existen
actualmente y/o que se desarrollan para una aplicación especifica.
Por ejemplo los Sistemas de bases de datos en Oracle , MySQL y lenguajes de
programación como Java, Visual.net, BizTalk son algunas de los sistemas de
desarrollo en las cuales el RFID interactúa sin ningún problema, seleccionándolos
según los requerimientos y características de la organización.

3 Conclusiones

Los sistemas de identificación por radio frecuencia básicos están compuestos por un
chip que contiene información del producto que se quiere identificar , además se
necesita de un lector ( Con antena) que permita capturar todos y cada uno de los
objetos utilizados.
Actualmente la tecnología de identificación por radiofrecuencia es una herramienta
muy importante para el control, identificación y seguimiento elementos, animales,
personas etc. RFID ya no es una tecnología futurista, es una tecnología que ya esta
siendo implementada por múltiples sectores empresariales del país.
Los códigos de barras y la tecnología RFID están llamados a funcionar en sistemas
hibridos que permitan potencializar cada una de sus capacidades y características
técnicas con el macro objetivo de la optimización tanto de la identificación como la
gestión de datos dentro de un contexto sistémico de una organización.

Referencias

1. Bhattacharya, Shaoni;. "Electronic tags for eggs, sperm and embryos" en New
Scientist.com, 2 de abril de 2005, http://es.wikipedia.org/wiki/RFID
2. Carla Lambertini , Noel SA completó con éxito el piloto de tecnología RFID utilizando
soluciones Oracle
La fábrica de galletas colombiana encuentra dulces recompensas en el piloto de RFID,
anticipándose a las exigencias de los clientes, 13-FEB -
2006,http://www.oracle.com/global/lad/corporate/press/2006_feb/noel_completo_rfid.htm
l
3. Pedro Alfonso Blanco, Gerente de Logística de Noel S.A, Estudio de RFID en Noel,
2006,http://www.oracle.com/global/lad/corporate/press/206_feb/noel_completo_rfid.html
4. www.fundacioncorona.org.co/descargas/PDF_publicaciones/Salud/Salud_Doc8.pdf
5. www.iworld.com.mx/iw_SpecialReport_read.asp?iwid=4413&back=2&HistoryParam=R
6. www.gslcr.org
7. www.quiminet.com.mx/ar2/ar_%259FU%258D%251D%253A%25FD%25CD%25DC.ht
m
8. Dargan, Gaurav; Johnson,Brian; Panchalingam, Mukunthan; Stratis, Chris, The Use of
Radio Frequency Identification as a Replacement for Traditional Barcoding
9. Tags activos vs. tags pasivos: Comparación técnica, http://www.rfid-spain.com/
10. http://www.ericel.com/

217
Cloud Computing en redes sociales de telefonía móvil
¿En dónde está el límite entre las relaciones sociales
tradicionales y virtuales?

Antonio Román Villarroel1, Luis Joyanes Aguilar2,


Alicia Ramos Sanchez3, Sandra Velazco Florez4

1
DEA Universidad Pontificia de Salamanca - Madrid,
2
Universidad Pontificia de Salamanca - Madrid,
3
DEA Universidad Pontificia de Salamanca - Madrid,
4
DEA Universidad Pontificia de Salamanca - Madrid,

aromanv@yahoo.com, 2luis.joyanes@upsam.net,
1

3
a_ramos_sa@yahoo.com, 4sandra.velazcof@gmail.com

Resumen. Las redes sociales se han establecido de facto en Internet.


Millones de personas dependen ellas para su interacción diaria con el
resto de la sociedad. El gran salto en la redes lo proporciono el avance
en la telefonía móvil. Ahora es necesario dar un paso más, el cual
consiste en liberar las limitaciones de almacenamiento y potencia de
procesamiento de los teléfonos móviles usando como apoyo a los
proveedores de Cloud Computing. En este articulo se hace un estudio de
las alternativas existentes para solventar las limitaciones momentáneas
de la telefonía móvil de cara a la redes sociales, la integración gradual
de servicios en las redes sociales más populares; como la tecnología de
Cloud Computing puede colaborar con la integración de redes móviles,
y que debe esperarse de los terminales móviles para desvanecer la línea
de lo real y lo virtual en la redes sociales.

Palabras Clave: Cloud Computing, Redes Sociales, Tecnología Móvil,


Geolocalización, Microblogging, Virtualización, Sistemas Operativos,
Grid Computing, Integración de Servicios, Productividad.

1 Introducción

Desde que se iniciaron las redes sociales alrededor del año 2001, Internet no ha vuelto
ser la misma. Pasó de ser una posible opción de información y negocios a ser un centro
clave en la agrupación social mundial. Cada día aparecen nuevas y mejores
aplicaciones y servicios enfocados a una mayor y mejor integración de las redes
sociales con sus respectivos usuarios. Un factor clave y decisivo en este auge lo ha
proporcionado la telefonía móvil. Gracias a los terminales móviles, más
específicamente a los smartphones67, la conectividad a las redes sale de la casa, del PC
de escritorio, a la libertad y movilidad del teléfono móvil personal.
No obstante, y a pesar los grandes avances en telefonía móvil, aun existen claras
limitaciones, en aspectos como la autonomía, la potencia de procesamiento y la
capacidad de almacenamiento.
Si bien es cierto que los actuales smartphones son comparables en potencia
respecto a PC de escritorio de gama baja, aun es necesario recorrer cierto camino para
lograr tener un ordenador potente y completo en la palma de la mano. Mientras eso

67
http://en.wikipedia.org/wiki/Smartphone

219
ocurre, las deficiencias actuales pueden ser subsanadas con el apoyo de servicios de
terceros [1]. Esto puede ser posible hoy día gracias en gran medida al relativo
abaratamiento, con restricciones, en los planes de datos de las redes de internet móvil,
aunque aún hay opiniones encontradas [2], y las subsecuentes mejoras en velocidad
de acceso a la red y servicios68, aunque aun necesita algo más de apertura [3].
En el presente artículo se presentara una breve descripción de los avances en
telefonía móvil, el estado actual de las redes sociales, los servicios más importantes
que ofrecen estas y sus continuas mejoras en integración, las posibilidades que ofrece
las redes móviles, como los servicios de Cloud Computing69 colaboran en gran medida
a estas mejoras y un análisis de cómo el teléfono móvil se ha convertido en un
elemento que mas que comunicar es un elemento clave de la cultura digital y el
progresivo desvanecimiento de las barreras físicas hacia la integración de una sociedad
virtual.

2 La telefonía móvil

El teléfono móvil ha pasado de ser un simple dispositivo de comunicación de voz a un


completo equipo multifuncional en donde ya es posible concentrar una gran cantidad
de funciones en un pequeño equipo que cabe perfectamente en la palma de la mano 70.
Los últimos adelantos en almacenamiento de energía, microprocesadores,
almacenamiento de memoria, pantallas, sensores y sistemas operativos móviles
embebidos71, han permitido que en teléfono móvil sea un equipo de múltiples usos [4].
Uno de los pasos más importantes ha sido, entre otros, las mejoras en las redes de
telefonía móvil digital [5], el relativo abaratamiento de los costos de los servicios de
datos [2] y las grandes mejoras en interfaz de usuario [6].
El teléfono móvil no solo es un dispositivo para conversar, escuchar música o ver
un video. Es un equipo que gracias a las redes móviles digitales (3G, 3.5G, LTE) [7]
lo han convertido de facto en un ordenador de mano, desplazando así a las PDA [8].
Debido a la cantidad de funciones y su versatilidad, hoy día a estos dispositivos se
les conocen como smartphones.
Los mayores fabricantes de software, junto a los sitios de redes sociales han visto
en el smartphone un mercado emergente con grandes beneficios a explotar [9]. Casi
todos los sitios populares en las redes sociales han diseñado y adaptado aplicaciones
móviles de acceso a sus sitios a los sistemas operativos móviles más populares
(Symbian72, iPhone OS73, Android74, etc.).
Otro aspecto clave ha sido la integración gradual de funcionalidades en el
smartphone. Funciones como cámara de fotos, cámara de video, receptor radio FM,
GPS, WIFI, Bluetooth, 3G, video acelerado y pantallas de alta definición, han
colaborado a que los sitios de redes sociales proporcionen una experiencia rica al
usuario, dándole la posibilidad de colocar en línea en forma simple fotos, videos,
música y ubicación, además de los ya tradicionales servicios de acceso web y correo
electrónico.

3 Las redes sociales

Aun hoy día existen deferentes opiniones sobre lo que es una red social
[10][11][12][13], no obstante podemos definir que una red social es ―la unificación de

68
http://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_3G
69
http://en.wikipedia.org/wiki/Cloud_computing
70
http://en.wikipedia.org/wiki/Mobile_phone
71
http://www.xataka.com/moviles/tendencias-2010-telefonia-movil
72
http://www.symbian.org/
73
http://developer.apple.com/devcenter/ios/index.action
74
http://www.android.com/

220
diversos grupos o entes individuales, entre las cuales ocurre un intercambio de
información, intereses y problemas que permiten en su conjunto mejorar la calidad de
vida de los individuos que conforman dicha red‖.
Gracias a las redes sociales, internet se ha convertido en el elemento que permite
recortar las distancias entre sus usuarios. Permite la interacción en tiempo real entre
diferentes personas, conocidas o no, y ha logrado que el mundo sea cada día un sitio
más pequeño y alcanzable.
Redes sociales bien establecidas como Facebook75, My Space76, Twitter77,
LinkedIn78, Flickr79, Youtube80, Picasa81, solo por citar algunas, han establecido redes
y grupos sociales que comparten desde cosas muy especificas hasta información
general e intima de cada usuario.
Al margen de las diferentes posiciones respecto a la privacidad de la información
personal [14][15][16], las redes sociales han tenido un gran empuje gracias a la
proliferación de aplicaciones emblemáticas de dichos sitios en los smartphone y a las
facilidades y mejoras en estructura móvil celular, red de datos y calidad de servicio,
aunado a un incremento en potencia y prestaciones de los dispositivos móviles [17].
Este último aspecto ha sido decisivo. Los actuales smartphone poseen como mínimo
cámara de fotos y GPS. Estos aditivos han permitido que la información que circula en
las redes sociales se haya enriquecido exponencialmente ya que no solo es texto, es
imagen, sonido y la posibilidad de poder conocer en tiempo real lo que ocurre o
acontece en cualquier parte del planeta, siempre y cuando haya cobertura de red móvil
[18].
La congregación de toda esta avalancha de información ha multiplicado como
nunca antes los requerimientos de espacio y ancho de banda para satisfacer estas
necesidades de compartir [19]. El potencial de esta información es tan alto que hoy día
se investiga que modelos de minería de datos son los más idóneos para obtener
beneficios de estos datos [20][21].
Aun no está claro cuál será el modelo comercial ideal [22]. El actual esquema de
obtener beneficios por publicidad esta algo gastado y quien lo domina con maestría es
Google [23]. No obstante, dilemas morales y legales aparte, el uso de la información
individual de cada usuario de las redes sociales permitiría abrir nuevos horizontes en
el comercio electrónico, estudiando y analizando tendencias grupales, incidencias de
eventos, y preferencias de grupos.

4 Las redes sociales como herramienta comunicacional

Las redes sociales se alimentan principalmente de los datos que aporten sus usuarios
[24]. Si bien su uso directo desde sus respectivos portales en el navegador es muy
cómodo, el verdadero poder de estas redes se libera en los teléfonos móviles. Existen
diferentes aplicaciones móviles que permiten realizar esta tarea de intercambio de
información entre grupos sociales muy fácilmente. Cosas como publicar fotos, videos,
la posición actual vía GPS y streaming82 de audio y/o video, etc, es solo cuestión de
seleccionar el archivo y subirlo a la red. Un ejemplo de esto ocurrió el día 13 de Junio
de 2009 en Irán83 84 85, en donde el gobierno local de ese país prácticamente clausuro
el acceso a la web para evitar que se filtrara a la opinión pública información sobre los

75
http://www.facebook.com/
76
http://www.myspace.com/
77
http://twitter.com/
78
http://www.linkedin.com
79
http://www.flickr.com/
80
http://www.youtube.com
81
http://picasaweb.google.com
82
http://es.wikipedia.org/wiki/Streaming
83
http://en.wikipedia.org/wiki/2009%E2%80%932010_Iranian_election_protests
84
http://futureoftheinternet.org/could-iran-shut-down-twitter
85
http://www.foxnews.com/story/0,2933,526403,00.html

221
eventos que allí ocurrían86. Esto quizá ayude a apoyar la afirmación del fundador de
Twitter, Jack Dorsey: "Twitter no es una red social sino una herramienta de
comunicación"87.
Las redes sociales en conjunto con estas extensiones software en los teléfonos
móviles, dan la oportunidad al usuario común a ser protagonista de los eventos que
ocurren en su entorno. Suerte de reportero accidental, el uso de estas herramientas, han
permitido la creación del microblogging88 89, cosa que incluso las grandes
corporaciones de noticias y prensa internacional han tenido que reconocer lo práctico
y eficiente que puede ser para dar información a la comunidad internacional al
momento90.
Al margen de estos usos, las redes sociales también son útiles para sus usuarios en
su vida diaria, ya que proporcionan una alternativa para reunirse, compartir,
informarse, conocer, y hacer nuevas amistades, todo de forma virtual.

5 Las redes de telefonía móvil

La búsqueda de nuevos modelos económicos y de comercialización es la que ha


empujado en gran medida el crecimiento de las redes móviles [17]. Es cierto que esta
es una inversión con grandes riesgos, dado lo rápido que evolucionan las tecnologías
en telecomunicaciones [25][26][27], pero los resultados lo justifican. El gran auge de
las redes sociales ha empujado de alguna forma esta rápida evolución.
El principal problema hasta hace algunos años era los altos costos en los planes de
datos y lo ineficiente de este servicio en WAP91, GPRS92 y EDGE93 [28]. Con la
llegada de los servicios de datos 3G94 y la tendencia a proveer planes de tarifa plana el
usuario de telefonía móvil se siente más confiado e inclinado a usar los servicios y
ventajas que proporcionan las redes sociales [29].
El teléfono móvil paso de ser de un dispositivo de llamadas y mensajería de texto a
un completo centro de comunicaciones en el cual es posible estar en línea con
diferentes salas de chat (Nimbuzz95, Fring96, MSN Live97, Facebook, etc.) además de
las conversaciones asincrónicas que ofrece Twiitter [30]. A pesar de las diferencias
tecnologías entre las redes de telefonía en las Américas y Europa (CDMA98, GSM99) lo
que es claro es que las redes de telefonía móvil analógicas han sido completamente
desplazadas a otro tipos de uso o servicios, o incluso eliminada. No obstante, estas
tecnologías, a pesar de sus diferencias tecnológicas, ofrecen alternativas de
conectividad de datos a alta velocidad100.
Factores como calidad, disponibilidad, velocidad y capacidad de tráfico de datos,
entre otros, limitan en la actualidad la experiencia y la fiabilidad del servicio. Aun
falta mucho camino que recorrer para que las redes de datos móviles desplacen, que

86
http://www.lanacion.com.ar/nota.asp?nota_id=1141323
87

http://www.elpais.com/articulo/internet/Twitter/red/social/herramienta/comunicacion/elpepute
c/20090325elpepunet_2/Tes
88
http://en.wikipedia.org/wiki/Microblogging
89
http://www.enriquedans.com/2009/07/ecosistema-microblogging-y-mi-uso-del-mismo.html
90
http://www.diariodeibiza.es/opinion/2010/09/09/periodismo-microblogging/431776.html
91
http://en.wikipedia.org/wiki/Wireless_Application_Protocol
92
http://en.wikipedia.org/wiki/Gprs
93
http://en.wikipedia.org/wiki/Enhanced_Data_Rates_for_GSM_Evolution
94
http://en.wikipedia.org/wiki/3g
95
http://www.nimbuzz.com/es
96
http://www.fring.com
97
http://windowslive.com/desktop/messenger
98
http://en.wikipedia.org/wiki/Cdma
99
http://en.wikipedia.org/wiki/Gsm
100

http://hubpages.com/hub/Difference_between_CDMA_EVDO_GSM_and_EDGE_Mobile_P
hones

222
no eliminar, a las redes clásicas cableadas [31][32][33].

6 Cloud Computing como catalizador

La actual tendencia de unificación de servicios de redes sociales y el uso de


smartphone como elemento vinculante en las comunicaciones diarias involucra
necesariamente cierta tecnología de trasfondo, que permita integrar dichas tecnologías
a la vez de proporcionar recursos para que estas crezcan acorde a la demanda de los
usuarios. Detalles que no se ven a simple vista como almacenamiento, procesamiento
de datos, repositorios de aplicaciones y conectividad entre redes, entre otras, tienen un
denominador común, Cloud Computing.
Definir Cloud Computing ha sido algo dificultoso desde el nacimiento de esta
tecnología [34][35][36]. Basada en la tecnología de Grid Computing101, y aunada al
soporte de otras tecnologías como Virtualización102, SaaS103, PaaS104 e IaaS105, la nube
se erige como una forma de tener una internet más manejable. Considerando que
Internet es la Gran Nube, el concepto de Cloud Computing define la posibilidad de
dividir esta gran nube en la suma de otras más manejables, integrables, más fáciles de
controlar y administrar, con los recursos informáticos clave que componen las
necesidades básicas de cualquier empresa de TI, y pueden ser públicas, privadas o
mixtas106, proporcionando de esta forma servicios bajo demanda, similar al uso del
teléfono o la electricidad: pagar por uso, capacidad de demanda variable,
disponibilidad constante bajo garantía del proveedor de servicios y exteriorización de
los costos de mantenimiento y operación de los servicios TI.
Las redes sociales se fundamentan de alguna forma u otra en soporte de tecnologías
de Cloud Computing. Por ejemplo, Facebook, usa sus propios servicios de
datacenters107 y centraliza muchos de sus diversos servicios dentro de sus propios
servidores108. En cambio, el servicio de mensajes cortos Twitter, expande las
posibilidades comunicacionales de sus limitados 140 caracteres gracias a un conjunto
de servicios externos, que permiten integrar otros medios de datos (fotos, videos,
música, geolocalización, etc.)109. En este caso particular, podríamos hablar más bien de
mashup110, pero considerando la forma en que los usuarios aprovechan estos servicios,
y desde un punto de vista netamente práctico, podría ser valido considerar que Twitter
más la suma de sus servicios asociados es una nube.
Por otro lado, en el ámbito de la telefonía móvil, estos dispositivos tienen algunas
limitaciones en capacidad de memoria, velocidad de procesamiento y duración de la
batería. En este caso, exteriorizar parte de los procesos relacionados con el acceso a
redes sociales es una necesidad111, sobre todo, para no depender de la centralización de
datos en el smartphone [37][38].
Exteriorizar los datos es una forma de asegurarse la no dependencia, por parte del
usuario, al terminal móvil, ya que este puede dañarse, perderse o ser robado. Permitir
que los datos únicos generados por el usuario de dicho terminal puedan residir
únicamente en la memoria interna del teléfono es un riesgo. En la actualidad, existen
algunos servicios, gratuitos o de pago, que permiten al usuario de estos terminales
crear una copia de seguridad de los datos almacenados en el teléfono, siendo quizá el

101
http://en.wikipedia.org/wiki/Grid_computing
102
http://en.wikipedia.org/wiki/Virtualization
103
http://en.wikipedia.org/wiki/Software_as_a_service
104
http://en.wikipedia.org/wiki/Platform_as_a_service
105
http://en.wikipedia.org/wiki/Utility_computing
106
http://www.cloudcomputingla.com/2010/cloud-computing/tipos-de-computacion-en-nube-
publica-privada-o-hibrida
107
http://en.wikipedia.org/wiki/Data_center
108
http://techcrunch.com/2010/01/21/facebook-data-center/
109
http://www.maestrosdelweb.com/editorial/herramientas-para-los-adictos-a-twitter/
110
http://en.wikipedia.org/wiki/Mashup_%28web_application_hybrid%29
111
http://www.abiresearch.com/press/
1484-Mobile+Cloud+Computing+Subscribers+to+Total+Nearly+One+Billion+by+2014

223
más popular Dropbox112, que está adaptado a las plataformas móviles más comerciales.
Esto proporciona cierta garantía en el aspecto de la disponibilidad de estos datos en
caso de pérdida o cambio del terminal telefónico. Si bien esto lleva a considerar otros
factores que implican aspectos éticos, de seguridad y privacidad de la información 113,
el uso de estos servicios de exteriorización de datos es un ejemplo más de las
posibilidades de Cloud Computing.
También cabe la posibilidad a futuro de usar servicios externos en la nube para
complementar otros aspectos. Muchos de ellos ya están disponibles, como el
almacenamiento de fotos, video y música (Facebook), bitácoras, microblogging y
ubicación (Twitter) y envió de streaming de audio/video en vivo (Qik114, Ustream115),
pero ninguno de ellos está realmente integrado. Otros aspectos que están por verse es
el uso de aplicaciones de proceso masivo, renderizado 3D en tiempo real, televisión
on-line, y realidad aumentada116 117. Para estos casos, el uso de poder de
procesamiento externo es clave, y allí la Cloud Computing jugara un papel crucial.

7 La sociedad móvil

Los cambios introducidos en las redes de telefonía móvil en los últimos años, han
impulsado el despegue y establecimiento de las redes sociales. La naturaleza gregaria
de la humanidad siempre ha buscado de alguna forma u otra establecer contactos con
los semejantes. Según David Weinberger118, co-autor del libro The Cluetrain
Manaifesto119 expresa que ―el comportamiento social sortea la predictibilidad‖. Las
redes sociales funcionan porque las personas buscan conectar con otras hablando,
construyendo y compartiendo [39].
En la vida cotidiana existen un sin número de momentos, de pocos minutos
(haciendo cola, en el bus, en el metro, etc.), en los que se aprovecha para echar mano
del teléfono y conectar por unos instantes a las redes o sitios de interés. Como reza la
vieja frase de marketing americano, el teléfono móvil puede ser utilizado Anywhere,
Anytime, Everywhere.
Evidentemente, esto no está exento de problemas. Es necesario dar algunos pasos
para homogenizar el uso de los servicios móviles en las redes sociales, entre los cuales
se pueden considerar:

 Unificar el intercambio de información entre redes.


 Evitar la fragmentación de la información por el uso de diferentes servicios.
 Simplificar el control de los datos personales en función de preservar la
privacidad del usuario.
 Dar opciones de almacenamiento alterno de datos, fuera del terminal móvil.
 Mejorar los interfaces de usuario en los teléfonos móviles.

El usuario en forma natural busca liberarse de las ataduras comunicacionales. A la


vista que la telefonía móvil ha superado en muchos lugares del mundo a la telefonía
fija120, el siguiente paso es garantizar la ubicuidad, la calidad y la seguridad de las
comunicaciones móviles. David Weinberger declaró que "las infraestructuras sociales
han cambiado gracias a Internet. No nos comunicamos igual, no creamos igual.
Ahora compartimos de una manera diferente" [40].
Muchos de estos aspectos habían sido discutidos en la Web 2.0 Summit de 2009 en

112
https://www.dropbox.com
113
http://www.readwriteweb.es/tecnologias/cloud-computing-choca-legislacion-europea/
114
http://qik.com/
115
http://www.ustream.tv/
116
http://en.wikipedia.org/wiki/Augmented_reality
117
http://mashable.com/2009/08/19/augmented-reality-apps/
118
http://cyber.law.harvard.edu/people/dweinberger
119
http://www.cluetrain.com/book/
120
http://mensual.prensa.com/mensual/contenido/2007/08/04/hoy/negocios/1069597.html

224
San Francisco121 ―Los dispositivos móviles evolucionarán como controles remotos
para expandir servicios basados en la web en tiempo real, incluyendo servicios
basados en localización, creando oportunidades, dándole poder a los consumidores de
forma disruptiva y transformadora‖ [41].

8 Las redes sociales virtuales

Steve Woolgar122 en su libro Virtual Society? Technology, Cyberbole, Reality123,


discute en forma filosófica todos los aspectos de la vida social, cultural, económica y
política que pueden verse afectados por las nuevas tecnologías electrónicas,
considerando que se debería equilibrar una sociedad virtual inminente, mediante una
revaloración de las conexiones entre lo que se considera real y lo que se considera
virtual [42]. Según su punto de vista, establece cinco reglas con la cuales se posible
encontrar sentido al porvenir de una sociedad virtual:

 La aceptación y utilización de las nuevas tecnologías depende de forma


crucial del contexto social local.
 Los miedos y riesgos asociados con las nuevas tecnologías están distribuidos
socialmente de forma desigual.
 Las tecnologías virtuales son un complemento y no un sustituto de la
actividad real.
 Cuando mas virtual, mas real.
 Cuanto más global, más local.

Bajo este contexto, para definir lo que es una red social virtual, es necesario
preestablecer algunos conceptos:

Red Social: Se define como un conjunto de personas, o entidades que comparten


intereses y están vinculadas por características y objetivos afines.
Comunidad virtual: Es el conjunto de personas, entidades o grupos sociales que
con un mismo objetivo o propósito, se unen para coincidir en relaciones de tipo virtual
y no solo en forma presencial.

De esta forma podríamos definir que una red social virtual es un conjunto de
personas, entidades o grupos sociales que con un mismo objetivo o propósito, se unen
para coincidir, apoyándose en el uso de tecnologías que permitan establecer los lazos
de esta relación.
En este sentido, Niki Panteli124 plantea unos niveles de jerarquía que denomina
niveles de investigación de virtualidad, el cual puede verse en la Fig.1.

121
http://www.web2summit.com/web2009/public/sv/q/102
122
http://virtualsociety.sbs.ox.ac.uk/text/people/woolgar.htm
123
http://informationr.net/ir/reviews/revs112.html
124
http://www.bath.ac.uk/management/faculty/niki_panteli.html

225
Fig. 1. Niveles de investigación de virtualidad [43].

Específicamente, establece cuatro niveles:

 Comunicación mediada por ordenador: Es la comunicación basada mediante


texto interactivo. En esta definición se incluye Internet, mensajería de texto
SMS, mensajería instantánea, interacción multi-usuario, correo electrónico,
servidores de listas y videoconferencias con suplementos de texto.
 Equipos virtuales y organizaciones virtuales: Este nivel se centra en las
interacciones de grupo y asume que en un entorno virtual existen diferentes
actores que necesitan reunirse para trabajar en un proyecto específico.
 Comunidades en línea: Se relaciona con la formación, el desarrollo y la
sostenibilidad de las comunicaciones dentro del entorno virtual.
 Redes sociales virtuales: Este nivel se relaciona con la aparición súbita pero
veloz de los sitios virtuales de múltiples usuarios en forma masiva.

Según Niki Panteli, ―El modelo de cuatro niveles se basa en la naturaleza y


características de la investigación de la virtualidad que se ha desarrollado en la
literatura en los últimos años. En consecuencia, todos los niveles colectivamente son
vitales para nuestra comprensión de la virtualidad. Con las nuevas tecnologías que
emergen todo el tiempo, se requiere investigación para explorar sus usos, los retos y
las oportunidades que traen a nuestras vidas‖ [43].
De aquí podemos inferir que las mejoras tecnológicas buscan difumar la línea
divisoria entre lo real y lo virtual. Tecnologías emergentes como la realidad aumentada
y los interfaces de usuario con detección de movimiento, tal como lo hace Kinect125,
pueden colaborar decididamente a lograr una mayor integración tecnológica entre el
usuario y la red.

9 Conclusiones

El actual concepto de relaciones sociales está siendo revisado. Debido al auge de las
aplicaciones Web 2.0 enfocadas a las redes sociales, las limitaciones físicas ya no son
un impedimento para mantener el contacto con familiares, amigos y compañeros de

125
http://es.wikipedia.org/wiki/Kinect

226
trabajo. La facilidad que ofrecen servicios como Facebook y Twitter, solo por citar los
más relevantes en cuanto a interactividad, rompe con el estándar clásico, impulsando
la creación de grupos sociales virtuales y su integración al modo de vida del ciudadano
actual.
La meta de lograr un sistema de comunicaciones móvil, fiable y seguro, que
potencie las redes sociales virtuales ya está al alcance. Las mejoras en aplicaciones
que aprovechen las bondades de Cloud Computing para el almacenamiento seguro de
la información y la posibilidad de potencia de procesamiento para tareas pesadas, que
actualmente los smartphone no pueden realizar en forma conveniente, están
plenamente disponibles. El aprovechamiento optimo de esta tecnología pasa por
mejorar las prestaciones de los smartphones en potencia hardware, duración de la
batería, sistema operativo y en la adaptación de las aplicaciones móviles, tanto en uso
de la red móvil como en interfaz de usuario.
Las redes sociales son actualmente un punto de referencia en la vida cotidiana para
los usuarios que disfrutan de sus prestaciones. La posibilidad de mantener el contacto
en forma continúa gracias al uso del smartphone ha logrado que limitantes como
distancia, tiempo y disponibilidad hayan pasado a un segundo plano, virtualizando las
relaciones y concentrando todo lo necesario para estar comunicado por medio de un
teléfono móvil.

Referencias

1. Sarah Perez, ―Why Cloud Computing is the Future of Mobile,‖ Read Write Web,
04-Ago-2009. [Online]. Available:
http://www.readwriteweb.com/archives/why_cloud_computing_is_the_future_of
_mobile.php. [Accessed: 16-Sep-2010].
2. Ramón Muñoz, ―¿Tarifa plana en la Red? Ahora ondulada,‖ El Pais.com, 16-
Sep-2010. [Online]. Available:
http://www.elpais.com/articulo/sociedad/Tarifa/plana/Red/Ahora/ondulada/elpepi
soc/20100916elpepisoc_1/Tes. [Accessed: 16-Sep-2010].
3. ―Is mobile Internet really such a good thing?,‖ Joi Ito, 23-May-2008. [Online].
Available: http://joi.ito.com/weblog/2008/05/23/is-mobile-inter.html. [Accessed:
16-Sep-2010].
4. ―8 Mobile Technologies to Watch in 2009, 2010,‖ Read Write Web, 29-Ene-
2009. [Online]. Available:
http://www.readwriteweb.com/archives/eight_mobile_technologies_to_watch.php
. [Accessed: 16-Sep-2010].
5. Guillermo Melis, ―Tecnología 4G, la nueva evolución de la telefonía celular,‖
Tendencias 21, 11-May-2010. [Online]. Available:
http://www.tendencias21.net/Tecnologia-4G-la-nueva-evolucion-de-la-telefonia-
celular_a4423.html. [Accessed: 16-Sep-2010].
6. Andreas Constantinou, ―The Mechanics Behind the Mobile User Interface,‖
Vision Mobile, 26-May-2009. [Online]. Available:
http://www.visionmobile.com/blog/2009/05/the-mechanics-behind-the-mobile-
user-interface/. [Accessed: 16-Sep-2010].
7. Vanessa Marsh, ―Se duplica la implantación de la banda ancha en Europa,‖
Tendencias 21, 03-Jun-2010. [Online]. Available:
http://www.tendencias21.net/Se-duplica-la-implantacion-de-la-banda-ancha-en-
Europa_a4517.html. [Accessed: 16-Sep-2010].
8. Enrique Dans, ―La PDA es cosa del pasado,‖ El Blog de Enrique Dans, 11-Abr-
2007. [Online]. Available: http://www.enriquedans.com/2007/04/la-pda-es-cosa-
del-pasado.html. [Accessed: 16-Sep-2010].
9. ―Smartphones benefit from 'apptastic' programs,‖ Vancouver Sun, 16-Sep-2010.
[Online]. Available:
http://www.canada.com/vancouversun/news/business/story.html?id=da028b84-
27fc-4551-80ad-
70d238dfba0d&k=51182&utm_source=feedburner&utm_medium=feed&utm_ca

227
mpaign=Feed%3A+canwest%2FF261+%28Vancouver+Sun+-+BusinessBC%29.
[Accessed: 16-Sep-2010].
10. Carlos Lozares, ―La teoria de redes sociales,‖ Revista de sociología, págs. 103-
126, 1995.
11. Craig Calhoun, Dictionary of the social sciences in politics and social sciences.
UK: Oxford University Press, Inc., 2002.
12. Barker, Robert L., The social work dictionary, 4º ed. Washington, DC: NASW
Press, 1999.
13. Barry Wellman, Janet Salaff, Dimitrina Dimitrova, Laura Garton, Milena Gulia,
y Caroline Haythornthwaite, ―Computer Networks as Social Networks:
Collaborative Work, Telework, and Virtual Community,‖ Annual Reviews Inc,
4139 El Camino Way, PO Box 10139, Palo Alto, CA 94303-0139, vol. 22, págs.
213-238, Ago. 1996.
14. Ralph Gross y Alessandro Acquisti, ―Information Revelation and Privacy in
Online Social
15. Networks,‖ in Proceedings of the 2005 ACM workshop on Privacy in the
electronic society, págs. 71-80, 2005.
16. B. Zhou y J. Pei, ―Preserving Privacy in Social Networks Against Neighborhood
Attacks,‖ presented at the Data Engineering, 2008. ICDE 2008. IEEE 24th
International Conference on, Cancun, págs. 506-515, 2008.
17. Lior J. Strahilevitz, ―A Social Networks Theory of Privacy,‖ American Law &
Economics Association Annual Meetings, 2005.
18. Antonio Luis Flores Galea, ―Evolución de las redes de telefonía móvil,‖ Sep-
2009.
19. ―¿Serán las redes sociales basadas en la localización el próximo gran
fenómeno?,‖ Universia Knowledge Wharton, 05-May-2010. [Online]. Available:
http://www.wharton.universia.net/index.cfm?fa=viewArticle&ID=1880.
[Accessed: 05-Sep-2010].
20. Ines Leopoldo, ―El nacimiento de la medianet, la red IP del futuro,‖ Techin.es,
26-Dic-2009. [Online]. Available: http://www.techin.es/?p=669. [Accessed: 03-
Sep-2010].
21. David Jensen y Jennifer Neville, ―Data Mining in Social Networks,‖ 2003.
22. Jon M. Kleinberg, ―Challenges in mining social network data: processes, privacy,
and paradoxes,‖ in International Conference on Knowledge Discovery and Data
Mining, págs. 4-5, 2007.
23. Peter Leitner y Thomas Grechenig, ―Scalable Social Software Services: Towards
a Shopping Community Model Based on Analyses of Established Web Service
Components and Functions,‖ in Hawaii International Conference on System
Sciences, págs. 1-10, 2009.
24. Bernard Girard, El modelo Google: una revolución administrativa. Norma, 2007.
25. Emily Steel y Jessica E. Vascellaro, ―Facebook, MySpace Confront Privacy
Loophole,‖ The Wall Street Journal, 21-May-2010.
26. Luis Castejón Martín, ―La globalización de las telecomunicaciones: competencia,
inversion y brecha digital,‖ 30-Sep-2005.
27. Daniel Seva y Marcelo Olguin, ―El mercado de telefonia celular en America
Latina,‖ Universidad de Palermo, Abr-2004.
28. Juan David Correa, ―A invertir en infraestructura de telecomunicaciones para el
país, invita presidente de Telefónica Colombia,‖ Portafolio.com.co, 25-Jul-2008.
[Online]. Available:
http://www.portafolio.com.co/negocios/lecciones_emp_porta/ARTICULO-WEB-
NOTA_INTERIOR_PORTA-4397867.html. [Accessed: 12-Sep-2010].
29. Alexandre Hohagen, ―El alto costo de internet dilata el creciente desarrollo de
América Latina,‖ America Economia, 15-Jul-2010. [Online]. Available:
http://www.americaeconomia.com/analisis-opinion/el-alto-costo-de-internet-
dilata-el-creciente-desarrollo-de-america-latina. [Accessed: 10-Sep-2010].
30. Sandra Parets, ―Redes Celulares 2G y 3G: Su impacto actual en las soluciones
móviles empresariales… y en las futuras estrategias móviles,‖ Boreal
Technologies, 24-Ago-2009. [Online]. Available:
http://borealtech.wordpress.com/2009/08/24/627/. [Accessed: 11-Sep-2010].

228
31. M. Jiménez y S. Millán, ―El fenómeno Twitter engancha a las compañías,‖
CincoDias.com, 06-Feb-2009. [Online]. Available:
http://www.cincodias.com/articulo/empresas/fenomeno-Twitter-engancha-
companias/20090206cdscdiemp_28/cdsemp/. [Accessed: 09-Sep-2010].
32. Ernesto E Quiroz M., Carelia G. Gaxiola P., Jesús N. Leal L., y Isidro Vicente
H., ―Asuntos abiertos en la provisión de calidad de servicio de ip en
33. redes inalámbricas 3G,‖ 2004.
34. Juan R. Coca, ―Llegan las redes de cuarta generación,‖ Tendencias 21, 21-Abr-
2009. [Online]. Available: http://www.tendencias21.net/Llegan-las-redes-de-
cuarta-generacion_a3190.html. [Accessed: 10-Sep-2010].
35. Erica Naone, ―El 4G deja de ser sólo para los teléfonos,‖ Technology Review,
19-Abr-2010. [Online]. Available:
http://www.technologyreview.com/es/read_article.aspx?id=1170. [Accessed: 10-
Sep-2010].
36. Luis Joyanes Aguilar, ―La Computación en Nube (Cloud Computing):
37. El nuevo paradigma tecnológico para empresas y
38. organizaciones en la Sociedad del Conocimiento,‖ icade. Revista cuatrimestral de
las Facultades de Derecho y Ciencias Económicas y Empresariales, nº. 76, Abr.
2009.
39. Michael Armbrust et al., ―Above the Clouds: A Berkeley View of Cloud
40. Computing,‖ UC Berkeley, 10-Feb-2009.
41. Luis M. Vaquero, Luis Rodero-Merino, Juan Caceres, y Maik Lindner, ―A Break
in the Clouds: Towards a Cloud Definition,‖ ACM SIGCOMM Computer
Communication Review, vol. 39, nº. 1, págs. 50-55, Ene. 2009.
42. Steve Hamm, ―How Cloud Computing Will Change Business,‖ Business Week,
04-Jun-2009. [Online]. Available:
http://www.businessweek.com/magazine/content/09_24/b4135042942270.htm.
[Accessed: 05-Sep-2010].
43. Larry Barrett, ―CIOs Embrace Cloud to Manage Smartphones,‖ CIO Update, 04-
Ago-2010. [Online]. Available:
http://www.cioupdate.com/features/article.php/3896816/CIOs-Embrace-Cloud-
to-Manage-Smartphones.htm. [Accessed: 10-Sep-2010].
44. Christopher Locke, Rick Levine, Doc Searls, y David Weinberger, The Cluetrain
Manifesto: The End of Business as Usual. Basic Books, 2001.
45. Pablo Oliveira, ―Las redes sociales se pasan al móvil,‖ Publico.es, 17-Jul-2008.
[Online]. Available:
http://www.publico.es/135289/redes/sociales/pasan/movil/david/weinberger/buon
giorno/blinko. [Accessed: 16-Sep-2010].
46. Dolors Reig, ―La próxima revolución será en 2011, la próxima web es de las
redes sociales móviles,‖ El Caparazon, 22-Oct-2009. [Online]. Available:
http://www.dreig.eu/caparazon/2009/10/22/redes-sociales-moviles-web2-0-
summit-2009/. [Accessed: 16-Sep-2010].
47. Steve Woolgar, ¿Sociedad virtual?: tecnología, "cibérbole", realidad. Uoc, 2005.
48. Niki Panteli, Virtual Social Networks: Mediated, Massive and Multiplayer Sites.
Palgrave Macmillan, 2009.

229
Ontología de la composición geométrica 3D para la web
con el estándar X3D.

Holman Diego Bolívar1, Flor Nancy Diaz1, Rubén González Crespo2


1
Facultad de Ingeniería, Universidad Católica de Colombia, Bogotá, Colombia
2
Facultad de Informática, Universidad Pontificia de Salamanca, Campus Madrid
España
1
{hdbolivar,fndiaz}@ ucatolica.edu.co ,3ruben.gonzalez@upsam.net

Abstract: Currently, practices and tools for computer-aided three-


dimensional design, do not allow the semantic description of objects
constructed in some cases specified notations as handling layers, or
labeling of each development itself. The lack of a standard for the
description of the elements represents a major drawback for using
advanced three-dimensional environments such as the automation of
search and construction processes that require semantic knowledge of its
elements. This project proposes the development the semantic
composition from the hierarchy of three-dimensional visualization of
graphics primitives, taking into account the geometric composition
architecture of standard 19775-1 of the IEC of the IOS. For the
development of semantic composition use the methodology
methontology proposed by the Universidad Politécnica de Madrid,
because it allows the construction of ontologies about specific domains,
limiting the domain by defining classes and subclasses, relationships and
the generation of instances a framework for resource description on
OWL.

Keywords: Computer aided design, Geometry, Artificial intelligence.

Resumen. En la actualidad las prácticas y herramientas para el diseño


tridimensional asistido por computador, no permiten la descripción
semántica de los objetos. La falta de un estándar para la descripción de
los elementos representa una gran desventaja para el uso avanzado, tales
como la automatización de procesos de búsqueda y de construcción.
Este proyecto propone desarrollar la composición semántica de
visualización tridimensional de acuerdo a las primitivas gráficas,
teniendo en cuenta la arquitectura de composición geométrica de la
norma 19775-1 de la IEC de la ISO. Para el desarrollo de la
composición semántica se utilizo la metodología methontology
propuesta por la Universidad Politécnica de Madrid, ya que permite la
construcción de ontologías acerca de los dominios específicos, lo que
limita el dominio mediante la definición de las clases y subclases, las
relaciones y la generación de instancias de un marco para la descripción
de recursos en OWL.

Palabras Claves: Diseño asistido por computador, Geometría,


Inteligencia Artificial.

1 Introducción

En los últimos años el desarrollo de ontologías formales sobre el dominio de un tema


específico ha pasado del campo de la Inteligencia Artificial a los dominios de la World

231
Wide Web que van desde grandes taxonomías para clasificar sitios web hasta
disciplinas que desarrollan ontologías para dominios específicos que se puedan utilizar
para anotar y compartir información [23].
Una de estas disciplinas es la computación gráfica, la cual desde 1994 con
Labyrinth presentado por Mark Pesce en Ginebra Suiza en la primera conferencia
internacional sobre la World Wide Web busca desarrollarle una tercera dimensión al
lenguaje de marcas de hipertexto (HTML) [3]. Con el apoyo del consorcio W3C,
Labyrinth evoluciono a lo que comercialmente se conoció como VRML (Virtual
Reality Modelling Language), el cual como lenguaje basa sus componentes en Open
Inventor del Sillicon Graphics que a su vez es una librería para gráficos en 3D
basados en OpenGL [20]. VRML se encuentra estandarizado por la norma ISO 14772
que define su funcionalidad y la base de codificación de texto, especificando la
construcción de un conjunto de objetos primarios como triángulos, prismas o mallas y
los mecanismos de composición, encapsulamiento y extensión, pero no especifica la
interacción con dispositivos físicos de visualización. Una escena gráfica construida
con VRML contiene nodos que describen objetos y sus propiedades, contiene
geometrías agrupadas jerárquicamente para proporcionar un medio visual que
represente los objetos y los nodos que participan en la conexión de los objetos de
acuerdo a los puntos de referencia [16].
XML (Extensible Markup Language) surgió en 1996 incorporando un subconjunto
del estándar SGML (Standard Generalized Markup Language) diseñado para permitir
el intercambio de información entre distintas plataformas, soportes físicos, lógicos y
diferentes sistemas de almacenamiento y presentación, con independencia de su grado
de complejidad [24].
Al tomar la representación de mundos y objetos 3D para la web lograda con el
lenguaje VRML y llevarlo a una especificación ordenada y rigurosa para su lectura
como XML, se obtiene la especificación X3D (Extensible 3D) que permite
implementación y desarrollo de entornos 3D con diferentes lenguajes de programación
en función script como por ejemplo Java que al utilizar las librerías de OpenGL crea
su framework Java 3D el cual adecuado a la especificación X3D genera Xj3D [15].
La jerarquía VRML/X3D utilizada para describir la composición geométrica no se
adapta bien a la descripción semántica, ya que fue concebida para el modelado de
realidad virtual y no para la descripción de alto nivel de una escena. La mayoría de las
investigaciones relacionadas con semántica de la notación de los entornos 3D se ha
centrado en el alto nivel de descripción de los objetos disponibles en la escena y/o la
descripción de alto nivel semántico de los objetos dada por la composición de los
objetos (por ejemplo, el nivel más alto ―semántica objeto habitación‖ se describe como
la suma de una serie de muros que son más bajos de la categoría semántica de
objetos). Si bien esa anotación es importante, carece de identificación explicita de las
particiones del espacio que se percibe como una unidad morfológica y se asignan a
usos específicos. Tales unidades morfológicas y funcionales son un elemento
fundamental para permitir a los usuarios construir un mapa mental del medio
ambiente, los usuarios de nivel inferior adjuntan objetos semánticos a esas particiones
y dicha asociación concede una manera preferencial de recordar los objetos [22].
La mayoría de ambientes 3D se caracterizan por que sus objetos son construidos
por elementos geométricos de bajo nivel como mallas poligonales o superficies
NURBS [2] y los autores realizan la asociación semántica compartiendo la percepción
de los visitantes hacia los objetos que componen el ambiente, infortunadamente
aunque los usuarios identifican las relaciones y asociaciones semánticas de objetos 3D,
no pueden deducir descripciones de alto nivel de información almacenada en 3D [1].
Las herramientas de moldeamiento 3D en su mayoría fueron concebidas para
permitir una secuencia sencilla de renders que permitan visualizar el modelo,
proporcionando medios limitados para dar una estructura a sus objetos 3D en relación
con su semántica. Además, actualmente las prácticas de modelado no estimulan la
connotación semántica de los objetos 3D, algunos todavía especifican limitadamente
oportunidades de notaciones como el manejo de capas, o el etiquetado de objetos, que
no es constantemente utilizado para el almacenamiento de una manera estándar de las
estructuras de alto nivel y lo presentan a otras personas como un resultado adicional
del trabajo de modelado.

232
La falta de un estándar de alto nivel para la descripción semántica de los elementos
de estos ambientes representa un inconveniente fundamental para el uso avanzado de
descripción de mundos 3D que requieren el conocimiento semántico de estos objetos.
Un rango de posibilidades de uso de ese conocimiento sería:
Los motores de búsqueda web, que procesan solicitudes formuladas en lenguaje
natural refiriéndose a características de alto nivel (ejemplo, encontrar los edificios que
tienen en su interior un patio rodeado de columnas.).
Extracción de objetos semánticos desde grandes archivos para facilitar el examen y
creación automática de bibliotecas de alto nivel que puedan ser utilizadas para crear
diferentes ambientes 3D.
La construcción de agentes de manufactura que por medio del reconocimiento de
las propiedades semánticas de los objetos puedan ensamblar nuevas estructuras
facilitando la construcción de entornos virtuales y potencializando su uso.
La descripción en alto nivel no solo es útil en los entornos virtuales 3D, sino que
incluye todo lo relacionado con la realidad mixta. (Por ejemplo una descripción de alto
nivel de un modelo virtual de un entorno real de mapas puede ayudar a la navegación
en una escena real o mixta al sumar los componentes reales y virtuales.) [22].
Para automatizar el ensamble de objetos 3D de diversa procedencia con el fin de
construir entornos de mayor nivel, es necesario contar con una ontología que defina las
características y relaciones semánticas del objeto de acuerdo a sus dimensiones,
propiedades físicas, identificación con el entorno y composición geométrica,
adecuándose a la especificación X3D, soportando la arquitectura de VRML y demás
estándares de facto propuestos por el W3C para la construcción de entornos virtuales.
Tim Berners-Lee ha denominado la web Semántica a aquella en las que la
búsqueda de contenidos se encuentre caracterizada y descrita de tal menara que pueda
diferenciar los distintos significados de las palabras, deducir e identificar existencia de
relaciones entre palabras sinónimas dependiendo del contenido temático, de manera
que los resultados de las búsquedas arrojen páginas útiles de acuerdo a la necesidad
de información solicitada aunque no se encuentre explicita las palabras introducidas en
la consulta, o que compare datos e información procedente de diversas fuentes y llegue
al punto de emitir juicios sobre la fiabilidad de los datos presentados en las diversas
páginas [4].
Para desarrollar de manera coherente el etiquetado de los contenidos web es
necesario la creación de ontologías sobre un dominio o área de conocimiento
especifico. Por consiguiente, las ontologías infieren directamente en la web semántica,
facilitando la definición formal de las entidades y conceptos presentes en el dominio
especificado, la jerarquía que lo sustenta y las relaciones que los unen entre sí.
Garantizando una representación formal, legible por las máquinas, basado en un
lenguaje común, que puede ser compartido y utilizado automáticamente por cualquier
sistema.
Al tomar como dominio los entornos virtuales de inmersión para la web, se puede
hacer la analogía de las páginas web, con los componentes de Objetos 3D, lo cual
sugiere que de igual manera se puede realizar una composición semántica a partir del
desarrollo de una ontología.
La construcción de Objetos 3D para la web con estructuración semántica, permitirá
su almacenamiento y reutilización para la construcción de entornos de inmersión
virtual complejos y de alto nivel [22].
La estructuración semántica de los objetos 3D para la web y de manera general,
requiere de una caracterización de sus propiedades, jerarquización de sus
componentes y una descripción formal de las relaciones de está jerarquía.
La tecnología 3D basa su construcción y desarrollo en una serie de primitivas
geométricas comunes a los lenguajes de programación que soportan este tipo de
tecnologías [13], por lo tanto este podría ser un punto de partida en pro de la
construcción de una semántica de la composición geométrica de entornos virtuales de
inmersión orientados a la web.
A partir de las consideraciones previas, la hipótesis de partida fue:
Se puede dar una estructuración semántica a la composición geométrica de
entornos virtuales de inmersión para la web por medio del desarrollo de una ontología
que integre y generalice la implementación de las primitivas geométricas de

233
construcción tridimensional de los distintos lenguajes orientados al desarrollo de la
web3D tomando como base la arquitectura propuesta por el estándar X3D.

De esta hipótesis de partida, se deriva el objetivo principal de la investigación


consistente en:
Desarrollar una ontología de la composición geométrica de los entornos virtuales de
inmersión para la web a partir de la estructuración, jerarquización y definición de
clases, de las primitivas geométricas tridimensionales implementadas en los lenguajes
de desarrollo 3D para la web, tomando como base la arquitectura propuesta por el
estándar X3D.
Este objetivo principal se vio cumplido con el desarrollo de los siguientes objetivos
específicos:

Identificar las primitivas gráficas generales y sus atributos en torno a la visualización


tridimensional.
Caracterizar, clasificar, jerarquizar y limitar los componentes geométricos, de un
objeto con base en las tecnologías identificadas y adecuarlas al estándar X3D.
Estructurar semántica y formalmente la composición geométrica 3D de una escena
orientada a la web.
Construir las relaciones y operaciones lógicas que permiten formalizar la semántica de
la composición geométrica 3D.
Desarrollar en lenguaje OWL la ontología que permita la integración de objetos para
la construcción de un nuevo objeto o de una escena 3D.

Extensible 3D se fundamenta en la búsqueda de una especificación para construir


ambientes interactivos 3D, parte de la tecnología XML (Extensible Markup Language)
que surgió en 1996 incorporando un subconjunto del estándar SGML (Standard
Generalized Markup Language) diseñado para permitir el intercambio de información
entre distintas plataformas, soportes físicos, lógicos y diferentes sistemas de
almacenamiento y presentación (bases de datos, edición electrónica, etc.), con
independencia de su grado de complejidad. Con la especificación XML 1.0 se presenta
un tipo especial para la definición de documentos denominado DTD (Document Type
Definition) Los DTDs fueron diseñados para sistemas centrados en documentos, y son
apropiados para aplicaciones de publicación electrónica SGML. Sin embargo, tiene
limitantes al aplicarse a ambientes de desarrollo de software modernos. Las limitantes
más importantes tienen que ver con que el DTD en sí no cumple con el estándar XML
mismo, y que los DTDs no soportan el concepto de ―namespaces‖, tampoco el
concepto de tipos de datos usados en lenguajes de programación (como string, integer,
etc.) y tampoco la definición de tipos de acuerdo a las necesidades del cliente, debido
a estas limitantes surge XML Schema. XML Schema, a diferencia de DTDs, es un
vocabulario basado en XML para describir instancias de documentos XML. Un
―schema‖ describe una clase de documentos, del cual puede haber varias instancias. La
relación es parecida a la que hay entre clases y objetos en los sistemas orientados a
objetos. Una clase está relacionada con un objeto de la misma forma que un schema a
un documento XML. La mayor ganancia al establecer una especificación para la
construcción de documentos se encuentra en la existencia de un árbol etiquetado,
ordenado y normalizado [24].
X3D se encuentra estandarizado por la norma ISO 19775 de 2004 compuesto por dos
partes la primera presenta y detalla los componentes bases y la arquitectura de X3D
mientras que la segunda profundiza en la interfaz de acceso a la escena, ha sido
complementada con 3 normas más, la primera es la norma ISO 19776 de 2005 en la
cual se especifican la codificación de los campos, los nodos y los escenarios en VRML
generados a partir de XML Schema, la segunda norma es la ISO 19777 de 2005 que
presenta un formato para la construcción de servicios interactivos con las escenas 3D a
partir del formato ECMAScript el cual es base para los lenguajes JavaScript de
Netscape y ActionScript de Adobe y en la segunda parte de esta norma presenta el
formato para la construcción a partir del lenguaje Java de SUN Microsystems,
finalmente lo complementa el estándar ISO 19774 nombrado Humanoid Animation
que es una representación abstracta para el modelado tridimensional de figuras

234
humanas, los cuales pueden ser creadas con herramientas de modelación mediante
captura de movimiento de datos [17].
Un mundo X3D se define conceptualmente como una secuencia de estados
organizados como un archivo. El primer tema en el archivo es la declaración de la
cabecera. El segundo tema en el archivo es la declaración del perfil. El perfil
declarado puede ser seguido de uno o más estados componente. El resto del archivo se
construye de los demás elementos que se definen en la norma ISO 19775 como son el
componente núcleo, el componente de tiempo, el componente de render, el
componente de geometría 3D, el componente de geometría 2D, el componente de
textura, el componente de sensores de tecla, el componente de ambiente, el
componente de navegación, el componente de Humanoid animation y el componente
de Script entre otros.
Cualquier otro contenido X3D cargado en la escena en línea a través de nodos o
escenas utiliza createX3DFromStream o createX3DFromUrl, que serán declarados de
acuerdo al conjunto de funcionalidades requeridas en el perfil, lo que implica que un
componente no se puede declarar explícitamente o implícitos en el contenido del perfil
ya que se parte de las funcionalidades requeridas [17].
El recorrido y reconocimiento a través del browser que hace de la escena gráfica un
usuario en X3D es similar al que se hace en VRML por medio de eventos y sensores
entre los objetos geométricos y nodos de la escena. X3D adhiere la interfaz de acceso
a la escena conocido como SAI (Scene Access Interface) El SAI es una interfaz común
que puede ser utilizada ya sea para manipular el browser y la escena por medio de una
aplicación externa o dentro de la escena a través de módulos tipo Script. Sin embargo,
no es posible que el código escrito para una aplicación externa pueda ser utilizado
inmediatamente como un script debido a las limitaciones que puede tener dicho código
externo y las diferencias frente a la interfaz de programación unificada que ofrece SAI
[18].
Toda implementación compatible con X3D debe tener como mínimo los siguientes
componentes básicos:
Tipos de campos X3D heredados del tipo abstracto X3DField que van a tener como
nombres SFXXXX que solo podrán contener un único valor indicado por el nombre
del campo.
La base abstracta de nodos tipo X3DNode y X3DPrototypeInstance.
Interfaces de uso común como X3DBindableNode y X3DUrlObject.
Tipos de servicios públicos tales como X3DRoute y X3DScene que sólo están
disponibles para interfaces de aplicaciones programadas para secuencias de comandos
y de acceso al exterior.

X3D para modelado y enrutamiento.


Estructura de archivos abstractos.
Prototipos.

Los componentes básicos podrán apoyarse en una variedad de niveles, que permiten
una serie de implementaciones compatibles con la arquitectura X3D teniendo en
cuenta los modelos de objetos y de eventos [17].
Varios nodos X3D tales como TextureBackground, Fog, NavigationInfo y Viewpoint
son nodos bindable que heredan del nodo abstracto X3DBindableNode. Estos nodos
tienen el comportamiento particular de que sólo uno de cada tipo puede afectar la
experiencia del usuario en cualquier instante en el tiempo. El browser se mantendrá en
un estado independiente en una pila separada tipo nodo bindable teniendo en cuenta
que cada uno incluirá un campo set_bind inputOnly y un campo isBound outputOnly.
El campo set_bind inputOnly se utilizara para mover un nodo hacia y después de la
parte superior de su pila respectiva por medio de la asignación de un valor TRUE pero
si se le envía un valor FALSE lo elimina de la pila, el evento isBound de salida se da
cuando un nodo:

Se traslada de la parte superior de la pila.


Es eliminado de la parte superior de la pila.
Enviado a la parte inferior de la pila por otro nodo que se encuentre superior a él.

235
En la norma ISO 19775 se define una interfaz abstracta X3DMetadataObject que
identifica como un nodo contiene los metadatos que especifican los valores de
diversos tipos de datos. Los metadatos son información que se asocia con los objetos
del mundo X3D, pero no es parte directa de la representación del mundo. La norma
específica los tipos de datos para los metadatos los cuales pueden ser de tres tipos
String, floats de una sola precisión y de doble precisión y enteros. Cada metadato tiene
dos datos tipo String adicionales que describen:

El estándar de metadatos.
El identificador para el metadato.

El nodo MetadataSet es un tipo especial de dato si se da el caso de que un conjunto


específico de metadatos requiere algo más que un solo tipo de datos [17].
En el apartado numero 11 de la norma ISO 19775 se describe el Renderizado de
componentes. Incluye la prestación fundamental de primitivas de render como
TriangleSets y PointSets, y las propiedades geométricas de los nodos que definen
cómo coordinar los índices, los colores, normales y coordenadas de textura. El nodo
TriangleSet estructura la forma en que se representa cada uno de los triángulos en
X3D.
El campo coord contiene un nodo de coordenadas que definen los vértices 3D que
definen el triángulo. Cada triángulo está formado por consecutivos de un conjunto de
tres vértices. Si el nodo de coordinar no contiene un conjunto de tres valores, los
vértices restantes no se tendrán en cuenta.

Fig. 2. Nodo TriangleSets [17].


La figura 1 representa un nodo TriangleSet con varios triángulos. El orden de los
vértices se muestra donde uno de ellos apunta a un vértice de la pirámide y los vértices
3 y 14 quedan ocultos [17].

La visualización de objetos en un escenario X3D se logra debido a la aplicación de


los principios físicos teóricos de la dispersión y la reflexión de la luz estableciendo un
componente especifico de iluminación el cual permite la asignación de las propiedades
de color en RGB e intensidad que varían entre o y 1 a cada nodo emisor y receptor de
luz. En el campo se especifica si la luz está activada o desactivada. Si el valor es
FALSE, entonces la luz se desactiva y no afectará a ningún nodo en la escena. Si el
valor es TRUE, entonces la luz afectará a otros nodos de acuerdo al alcance
establecido [17].

2 Metodología

Methontology desarrollado en la Universidad Politécnica de Madrid. Propone un ciclo


de vida de construcción de la ontología basado en prototipos evolutivos, porque esto
permite agregar, cambiar y renovar términos en cada nueva versión. Para cada

236
prototipo, el proceso consta de los siguientes pasos esenciales:

1. Especificación: Consiste en delimitar los objetivos de su creación (compartir


información entre personas o por agentes software; permitir la reutilización del
conocimiento de un dominio; hacer explícitas las suposiciones que se efectúan en un
dominio; separar el conocimiento del dominio del conocimiento sobre su fabricación o
forma de operación; o simplemente analizar el conocimiento del dominio), decidir el
dominio de actuación de la ontología (para no modelar objetos poco relevantes en
perjuicio de otros más importantes), quién la usará y para qué, las preguntas a las que
deberá responder (ayuda al establecimiento de las dos anteriores), y quién se encargará
de su mantenimiento (decidiendo si se limitará a introducir nuevas instancias, se
permitirá la modificación de conceptos o atributos, etc.)
2. Conceptualización: Consiste en crear un glosario de términos que pertenecen al
dominio, definirlos y crear una taxonomía (estableciendo una clasificación o jerarquía
entre los conceptos, sus niveles, las relaciones entre ellos, sus instancias, sus
propiedades o atributos, e igualmente los axiomas o reglas).
3. Formalización: Proceso consistente en convertir el modelo anterior en un modelo
formal o semi computable. Se puede emplear en este paso una herramienta como
Protégé.
4. Implementación: Convierte el modelo formalizado en un modelo computable
mediante un lenguaje para construcción de ontologías. Se puede emplear en este paso
una herramienta como Protégé.
5. Mantenimiento: Labor que puede acarrerar desde el borrado de instancias ya
inútiles o la incorporación de nuevas instancias que se han ido produciendo con el
tiempo, hasta las tareas de introducción de cambios en el contenido de la información,
ya sea redefiniendo atributos, relaciones o incluso conceptos.

Fig 2. Tareas de desarrollo de ontologías propuestas por METHONTOLOGY [8]

2.1 Ontología propuesta

Un entorno virtual crea un escenario gráfico, que de acuerdo a lo presentado en la


jerarquía puede ser interno o externo, determinado por los objetos que lo componen.
Un escenario gráfico se crea a partir de objetos dinámicos. El escenario gráfico está
ensamblado desde objetos que definen la geometría, los sonidos, las luces, la
localización, la orientación y la apariencia de los objetos visuales y sonoros
Una definición común de un escenario gráfico es una estructura de datos compuesta
de nodos y arcos. Un nodo es un elemento dato y un arco es una relación entre

237
elementos datos. Los nodos en un escenario gráfico son las clases de objetos. Los
arcos representan dos tipos de relaciones entre ejemplares de objetos.
La relación más común es padre-hijo. Un nodo dinámico puede tener cualquier
número de hijos, pero sólo un padre. Un nodo estático sólo puede tener un padre y no
puede tener hijos. La otra relación es una referencia. Una referencia asocia un objeto
semanticObjeto con un nodo del escenario gráfico. Los objetos primitiva Objeto
definen la geometría y los atributos de apariencia usados para visualizar los objetos.
Un escenario gráfico está construido de objetos nodos con relaciones padre-hijo
formando una estructura de árbol. En una estructura de árbol, un nodo es la raíz. Se
puede acceder a otros nodos siguiendo los arcos desde el raíz. Los nodos de un árbol
no forman bucles. Un escenario gráfico está formado desde los árboles con raíces en
los objetos coordenada. Los semanticObjeto y las referencias a arcos no forman parte
del escenario gráfico.
Sólo existe un camino desde la raíz de un árbol a cada una de los nodos estáticos;
por lo tanto, sólo hay un camino desde la raíz hasta el escenario gráfico de cada nodo
estático. El camino desde la raíz de un escenario gráfico hasta nodo estático
especificado es el camino al escenario gráfico del nodo estático. Como un camino de
un escenario gráfico trata exactamente con un solo nodo estático, hay un camino de
escenario gráfico para cada nodo estático en el escenario.
Todo camino de escenario gráfico en un escenario gráfico especifica
completamente la información de estado del nodo estático. Esta información incluye,
la localización, la orientación y el tamaño en referencia del objeto. Consecuentemente,
los atributos visuales de cada objeto dependen sólo de su camino de escenario gráfico.
El pipeline de visualización se aprovecha de este hecho y visualiza los nodos estáticos
en el orden más eficiente.
Las representaciones gráficas de un escenario gráfico pueden servir como
herramienta de diseño o documentación para las construcciones 3D. Los escenarios
gráficos se dibujan usando símbolos gráficos estándar como se ilustra en la Figura 3.
Para diseñar un Entorno se dibuja un escenario gráfico usando un conjunto de
símbolos estándar. Después de completar el diseño, este escenario gráfico es la
especificación para el programa. Después de completar el programa, el mismo
escenario gráfico es una representación concisa del programa.

Fig 3 Símbolos estándar de construcción

Cada uno de los símbolos mostrados al lado izquierdo de la Figura 3 representa un


sólo objeto cuando se usa en un escenario gráfico. Los dos primeros símbolos
representan objetos de clases específicas: Entorno y Coordenada. Los siguientes tres
símbolos de la izquierda representan objetos de las clases dinámico, primitiva, y
semanticObjeto. Estos tres símbolos normalmente tienen anotaciones para indicar la
subclase del objeto específico. El último símbolo se usa para representar otras clases
de objetos.
Para la composición de la ontología teniendo en cuenta la arquitectura de
composición de un entorno, en primer lugar, es necesario construir un glosario de
términos que incluye todos los términos relevantes del dominio (conceptos, instancias,
atributos, relaciones entre conceptos, etc.), su descripción en lenguaje natural, y sus

238
sinónimos. La tabla 1. Muestra parte del glosario de términos de la ontología de
composición geométrica. Estos términos fueron extraídos de las primitivas gráficas
consideradas en esta investigación.

Tabla 1. Glosario de términos

NOMBRE SINONIMO DESCRIPCIÓN TIPO

intersección de dos vector de ejes x.y,


punto --------------------- líneas z

---------------------
coordenadas de define un punto (0,0,0) vector de ejes x.y,
referencia en el espacio z
vector de ejes x.y,
eje de referencia --------------------- vector de posición z
distancia entre dos matriz con 3
línea --------------------- puntos columnas

figura --------------------- matriz multilineal


Estructura geométrica
bidimensional

árbol de
Objeto estático ---------------------
Estructura geométrica construcción
tridimensional
matriz con 2
cónicas --------------------- función cuadrática columnas
matriz con 2
spline --------------------- función polinómica columnas
matriz con 2
polígono --------------------- figura cerrada columnas
matriz con 3
poliedro --------------------- Polígono espacial columnas

función cuadrática matriz con 3


superficies
espacial compuesto por columnas
--------------------- figuras spline

Objeto árbol de
---------------------
Dinámico Estructura geométrica construcción
tridimensional
funciones de matices
objetos blobby --------------------- probabilidad multilineales
función polinómica matriz con 3
splines de Bézier --------------------- espacial columnas
matriz multilineal
Cualquier cosa en el
Objeto --------------------- u árbol de
espacio
construcción

matriz de
Entorno ---------------------
Objeto de contenedor de movimiento
entornos gráficos
Escenario Entorno limitado por árbol de
interior --------------------- paredes construcción
Escenario Entorno limitado por árbol de
exterior --------------------- paisaje construcción

239
2.2 Taxonomía de Conceptos

Una vez construido el glosario de términos es necesario construir las taxonomías de


conceptos que definen su jerarquía. Methontology propone utilizar las cuatro
relaciones taxonómicas definidas en la Frame Ontology [10] y en la OKBC Ontology
[6]: Subclase-de, Descomposición-Disjunta, Descomposición-Exhaustiva, y Partición.

2.3 Relaciones binarias ad-hoc

Una vez construida y evaluada la taxonomía, la actividad de conceptualización


propone construir diagramas de relaciones binarias ad hoc. El objetivo de este
diagrama es establecer las relaciones ad hoc existentes entre conceptos de la misma o
de distintas taxonomías de conceptos. La figura 5 presenta un sección del diagrama de
relaciones binarias de la ontología de composición geométrica, con las relaciones ―está
compuesta por‖ y ―compone a‖. Estas relaciones conectan dos conceptos de dos clases
diferentes. La ontología debe verificar que el origen y destino de todas las relaciones
delimitan con exactitud y precisión los conceptos apropiados.

2.4 Propiedades de conceptos

Una vez que la taxonomía de conceptos y los diagramas de relaciones binarias ad hoc
han sido generados, se debe especificar cuáles son las propiedades que describen cada
concepto de la taxonomía, así como las relaciones identificadas en el diagrama
anterior y las instancias de cada uno de los conceptos. El diccionario de conceptos
contiene todos los conceptos del dominio, sus relaciones, sus instancias, y sus atributos
de clase y de instancia. Las relaciones especificadas para cada concepto son aquéllas
en las que el concepto es el origen de la misma. Por ejemplo, el concepto punto es el
origen de dos relaciones ad hoc: se compone de y su baricentro se localiza en. Las
relaciones y los atributos de instancia y de clase son locales a los conceptos, lo que
significa que sus nombres pueden ser repetidos en diversos conceptos. La tabla 2
muestra una sección parte del diccionario de conceptos de la ontología de composición
geométrica.

Fig 4. Taxonomía de conceptos geométricos.

240
Fig 5. Diagramas de relaciones binarias ad hoc.

Tabla 2. Sección del diccionario de conceptos de la ontología de composición


geométrica.

ATRIBUTOS ATRIBUTOS DE
CONCEPTO INSTANCIAS DE CLASE INSTANCIA RELACIONES

escala
ubicación
cubo caras
poliedro tetraedro vértices compone a
octaedro aristas
dodecaedro
icosaedro

coordenada x localiza a
punto coordenada y centra a
coordenada z es rotado por
se traslada a

Posición centro
círculo posición foco
cónica compone a
elipse radio
directriz

parábola directriz
spline compone a
hipérbola posición foco
escala
triangulo ubicación
cuadrilátero caras
polígono compone a
pentágono vértices
hexágono aristas

Una vez construido el diccionario de conceptos se debe describir las relaciones


binarias ad hoc, lo cual tiene como objetivo describir en detalle todas las relaciones
binarias ad hoc identificadas en el diagrama de relaciones binarias e incluidas en el
diccionario de conceptos. Para cada relación binaria ad hoc, se debe especificar su
nombre, los nombres de sus conceptos origen y destino, su cardinalidad y su relación
inversa, si existe. La tabla 3 muestra una sección de la tabla de relaciones binarias ad

241
hoc de la ontología de conceptualización geométrica que contiene la definición de las
relaciones compuesta por y compone a.

Tabla 3. Sección de la tabla de relaciones binarias de la ontología de composición


geométrica
Nombre de la Concepto Cardinalidad Concepto Relación
relación origen máxima destino inversa

compuesta por recta N puntos compone a


compone a punto N rectas compuesta por

Luego de la descripción de las relaciones binarias se debe describir los atributos de


instancia, que tiene como objetivo describir en detalle todos los atributos de instancia
incluidos en el diccionario de conceptos. Cada fila de la tabla de atributos de instancia
contiene la descripción detallada de un atributo de instancia. Los atributos de instancia
describen a las instancias del concepto y sus valores pueden ser distintos para cada una
de dichas instancias. Por cada atributo de instancia, se debe especificar su nombre, el
concepto al que el atributo pertenece (los atributos son locales a los conceptos), su tipo
de valor, su rango de valores (en el caso de atributos numéricos), y sus cardinalidades
mínima y máxima. La tabla 4 muestra una sección de la tabla de atributos de instancia
de la ontología de composición geométrica. En el caso de atributos cuyo tipo de valor
es numérico, se suele integrar alguna ontología de unidades de medida. Este es un
ejemplo de cómo Methontology propone integrar ontologías durante la actividad de
conceptualización, y no posponer dicha integración para la actividad de
implementación de la ontología.

Tabla 4. Sección de la tabla de atributos de instancia de la ontología de composición


geométrica
Nombre del atributo de Tipo de Rango de
Concepto Cardinalidad
instancia Valor Valores

caras poliedro entero 1… (1,1)


vértices poliedro entero 1… (1,1)
aristas poliedro entero 1… (1,1)

De igual manera como se han descrito los atributos de instancia se deben describir
los atributos de clase. Para cada atributo de clase, la ontología debe tener: nombre del
atributo, nombre del concepto donde el atributo se define, tipo de valor, cardinalidad y
valor(es). Por ejemplo, los atributos de clase coordenada x, coordenada y y
coordenada z definirían el concepto de punto, así como se presenta en la tabla 5.

Tabla 5. Sección de la tabla de atributos de clase de la ontología de composición


geométrica
Nombre del atributo
Concepto Tipo de valor Cardinalidad Valores
de clase

coordenada x punto coma flotante (1,n) R


coordenada y punto coma flotante (1,n) R
coordenada z punto coma flotante (1,n) R

Una vez realizada toda la conceptualización, es necesario definir los axiomas


formales, Para cada definición de axioma formal, Methontology propone especificar el
nombre, descripción en lenguaje natural, expresión lógica que define de manera formal
el axioma usando lógica de primer orden, y los conceptos, atributos y relaciones ad

242
hoc utilizadas en el axioma, así como las variables utilizadas. La tabla 6 muestra un
axioma formal de la ontología de ontología de composición geométrica, que establece
que ―un objeto estático se compone de poliedros, objetos blobby y superficies‖. Las
columnas que corresponden a conceptos y relaciones ad hoc referidas que contienen
los conceptos y relaciones utilizados en la expresión formal del axioma. Asimismo, las
variables utilizadas son ?X para objeto, ?Y para poliedro ?Z para blobby y ?w para
superficies.

Tabla 6. Sección de la tabla de axiomas formales de la ontología de composición


geométrica.
Nombre del
Descripción Expresión Conceptos Relaciones Variables
axioma

objeto
Existe
Un objeto estatico se estatico ?X
(poliedro(?X),blobby(?Y),sup
Composición de compondra de poliedro forma parte de ?Y
erficie(?Z))y
objeto estático poliedros, objetos objeto compuesto por ?W
todo(objeto(?W)si y solo si
blobby y superficies blobby ?Z
?W=?X+?Y+?Z)
superficie

Una vez que el modelo conceptual de la ontología ha sido creado, se pueden definir
las instancias que aparecen en el diccionario de conceptos. Para cada instancia se
define: su nombre, el nombre del concepto al que pertenece y los valores de sus
atributos de instancia, si se conocen. La tabla 7 presenta algunas instancias de la tabla
de instancias de la ontología de de composición geométrica: tetraedro, hexaedro y
dodecaedro. Todas ellas son instancias del concepto poliedro, tal y como se definió en
el diccionario de conceptos, y tienen valores definidos para algunos de los atributos
caras, polígono que lo forma, aristas y vértices. Estas instancias podrían tener más de
un valor para los atributos cuya cardinalidad máxima es mayor que uno.

Tabla 7. Sección de la tabla de instancias de la ontología de composición geométrica.


Nombre de la instancia Nombre del concepto Atributo Valores
caras 4
polígono triangulo
tetraedro poliedro
aristas 6
vértices 4
caras 6
polígono cuadrado
hexaedro poliedro
vértices 8
aristas 12
caras 12
polígono pentágono
dodecaedro poliedro
vértices 20
aristas 30

Una clase dentro de una ontología es una descripción formal de una entidad del
universo que se quiere representar. Constituye la pieza básica de estructuración del
conocimiento. Teniendo en cuenta la taxonomía desarrollada, las clases fundamental
de un entorno virtual de inmersión es la clase objeto, la figura 6 presenta la
codificación en RDF de la clase Objeto:

243
Fig 6. Definición en RDF de la Clase Objeto

La sintaxis de la clase Objeto en OWL, se presenta en la figura 7.

Fig 7. Sintaxis de la clase objeto

Las propiedades son las características que permite describir más detalladamente la
clase y sus instancias. Establece que la clase o concepto posee una propiedad que se
concretará mediante un valor. Los valores de las propiedades o atributos pueden ser
tipos básicos como cadenas de caracteres o números, pero también pueden ser otras
clases o instancias. Teniendo en cuenta el diagramas de relación binaria, la propiedad
de: ―define localización de” se codifica en RDF de acurdo a como lo presenta la figura
8.

Figura 8. Definición en RDF de la propiiedad ―Define Localizacón‖.

244
3 Conclusiones

Durante el desarrollo de la presente investigación se pretendió hacer una relación entre


la construcción semántica de un objeto 3D y su conceptualización de acuerdo a la
geometría euclidiana que lo compone, teniendo en cuenta las primitivas gráficas
identificadas por la computación gráfica hasta el momento. Este trabajo aporta los
siguientes resultados originales:

 Arquitectura de composición semántica de un escenario gráfico. Cualquier


escenario gráfico tiene una estructura genérica, sobre la ubicación y significancia
de los objetos que lo componen por lo cual es necesario mantener cierta
rigurosidad en cuanto a las propiedades de los objetos que lo componen.
 Diccionario de términos para delimitar los entornos virtuales de inmersión.
Topológicamente una circunferencia y un cuadrado son iguales debido a que
pertenecen al plano bidimensional y son figuras convexas, lo cual permite hacer
una relación entre un objeto como el pentágono y el dodecaedro a partir de las
relaciones e instancias que pueda haber.
 Taxonomía de la composición geométrica de un entorno virtual de inmersión. A
partir del diccionario de términos generado, existen unas relaciones de clase, unas
descomposiciones disjuntas y exhaustivas por las subclases que la componen, la
presente investigación propone una taxonomía basada en la jerarquía propuesta.

La categorización de los objetos constitutivos de un entorno 3D a partir de su


morfología geométrica y de los elementos que componen objetos de mayor nivel, es
insuficiente para aquellos objetos que logran su visualización gracias al uso avanzado
se shaders o sombras, en donde se hace necesario elevar el nivel de categorización a la
geometría euclidiana que se ha contemplado, se propone tener en cuenta la geometría
fractal y la composición topológica de los objetos.
El desarrollo de una ontología de composición geométrica para la web 3D
buscando automatizar los desarrollos se queda corta frente a la complejidad de
cualquier escenario, por lo tanto es necesario que dicha ontología incluya nuevos
criterios de agrupación de conceptos como las relaciones entre los objetos y el
entorno, la relación con los seres humanos, una definición topológica de un escenario
a partir no solo de su composición geométrica sino de la relación con la realidad como
lo propone Pitarello [22].

Referencias

1. ALPCAN T., BAUCKHAGE C., KOTSOVINOS E.; ―Towards 3D Internet: Why, What
and How?‖; Proceedings of the Cyberworlds, 2007. CW`07.International Conference on,
Hannover, October, 2007, IEEE, pp. 95-99, ISBN: 978-0-7695-3005-5
2. ANGEL E.; ―Interactive Computer Graphics: A top-Down Approach Using OpenGL‖;
Addison Wesley, University of New Mexico, 2008, pp. 125-634, ISBN 978-03-2153-5863
3. BENMRAD M., ―First International conference on the World-Wide Web‖; ACM SIGWEB
Newsletter, Volume 3, Issue 2, New York, September, 1994, ACM, pp. 14-15, ISSN: 1931-
1745
4. BERNERS-LEE T., HENDLER J., LASSILA O.; ―The Semantic Web‖; Scientific
American Magazine, abril, 2001. http://www.scientificamerican.com/article.cfm?id=the-
semantic-web&print=true [Consulta 15/06/2009] [Última Actualización Desconocida]
5. BRADBERRY J.; ―Computer graphics environments‖; Sams Publishing, Carmel, 1993, pp.
54-326, ISBN 0672303051
6. CHAUDHRI V., FARQUHAR A., FIKES R., KARP P., RICE J.; ―Open Knowledge Base
Connectivity 2.0.3‖.; Atificial Intelligence Center, SRI International; Knowledge Systems
Laboratory; Stanford University; April 9, 1998; http://www.ai.sri.com/~okbc/okbc-2-0-
3.pdf http://www.scientificamerican.com/article.cfm?id=the-semantic-web&print=true
[Consulta 11/08/2009] [Última Actualización Desconocida]
7. CONTRERAS J., MARTÍNEZ J; ―Tutorial ontologias‖; Universidad Complutense de
madrid, 2008, http://www.sedic.es/gt_normalizacion_tutorial_ontologias.pdf [Consulta
10/07/2009] [Última Actualización Desconocida]

245
8. CORCHO O., FERNANDEZ M, GOMEZ A., LOPEZ A.; ―Construcción de ontologías
legales con la metodología METHONTOLOGY y la herramienta WebODE‖; Facultad de
Informática. Universidad Politécnica de Madrid, 2004,
http://fuencarral.dia.fi.upm.es:8080/114/1/CL08_NonPublishedYet.pdf [Consulta
10/08/2009] [Última Actualización Desconocida]
9. ESCRIBANO M., ―Programación de Gráficos 3D”, Addison Wesley, Madrid, 1994, pp.
56-87, ISBN: 9788478971565
10. FARQUHAR A., FIKES R, RICE J.; ―The ontolingua server: a tool for collaborative
ontology construtction‖; Knowledge Systems Laboratory, Stanford University, 1997,
http://www.eda.org/rassp/documents/atl/KSL_96a.pdf [Consulta 08/08/2009] [Última
Actualización Desconocida]
11. FOLEY J., ―Computer graphics: principles and practice”, Addison Wesley, Boston,
Massachusetts, 1990, pp. 123-756, ISBN: 0201121107
12. GOMÉZ A.; ―Evaluation of ontologies‖; Proceedings of International Journal of Intelligent
Systems: Validation Issues in Databases, Knowledge-Based Systems, and Ontologies ,
Columbia, Maryland, February, 2001, Wiley Company, pp. 391-409, ISSN: 1740-8873
13. HEARN D., BAKER P.; ―Computer Graphics with OpenGL‖; Prentice Hall, Bloomington,
2005, pp. 84-546, ISBN 978-84-205-3980-5
14. HILERA J., OTÓN S., MARTÍNEZ J.; “Realidad Virtual en Internet con VRML”;
Universidad de Alcalá, 2000, pp. 71-181, ISBN: 84-8138-413-5.
15. HUDSON A.. ―An introduction to the Xj3D toolkit”. Proceedings of the eighth international
conference on 3D Web technology, Saint Malo, France ACM. pp. 190. ISBN: 1-58113-644-
7
16. ISO/IEC 14772-1:1997. ―The Virtual Reality Modeling Language (VRML)‖ Functional
specification and UTF-8 encoding. Web3D Consortium International Electrotechnical
Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-RML97/ [Consulta
15/05/2009] [Última Actualización Desconocida]
17. ISO/IEC 14772-2:2004. ―The Virtual Reality Modeling Language (VRML) External
authoring interface (EAI)‖. International Web3D Consortium Electrotechnical
Commmission. Cambridge,
Massachusetts.http://www.web3d.org/x3d/specifications/vrml/ISO-IEC-14772-
VRML97/#ISO_IEC_14772Part2 [Consulta 25/06/2009] [Última Actualización
Desconocida]
18. ISO/IEC 19775-2:2004. “Extensible 3D (X3D) — Part 2: Scene access interface (SAI)”.
International Web3D Consortium Electrotechnical Commmission. Cambridge,
Massachusetts. http://www.web3d.org/x3d/specifications/ISO-IEC-19775-
X3DAbstractSpecification_+_Amendment1_to_Part1/Part02/SAI.html [Consulta
25/06/2009] [Última Actualización Desconocida]
19. ISO/IEC 19777-2 :2005. Extensible 3D X3D Language Part 2: Java. International Web3D
Consortium Electrotechnical Commmission. Cambridge, Massachusetts.
http://www.web3d.org/x3d/specifications/ISO-IEC-19774-HumanoidAnimation/ [Consulta
2/04/2009] [Última Actualización Desconocida]
20. JIMÉNEZ E., PEREZ M., MARTÍNEZ E.; ―Escenarios Virtuales Web3D: Simulación con
VRML, Java3D y X3D‖ Libro de actas de XVII Congreso Internacional INGEGRAF,
Sevilla, Junio, 2005, INGEGRAF, ISBN: 84-923253-3-X
21. KALYANPUR A., PARSIA B., SIRIN E., HENDLER J.; ―Hypermedia Inspired Ontology
Engineering Environment: Swoop‖; Department of Computer Science, University of
Maryland, MIND LAB, Baltimore, July, 2004: http://www.mindswap.org/papers/SWOOP-
Poster.pdf [Consulta 21/07/2009] [Última Actualización Desconocida]
22. PITTARELLO F., FAVERI A.; ―Semantic description of 3D environments: a proposal
based on web standards‖; Proceedings of the eleventh international conference on 3D web
Technology, Columbia, Maryland, April, 2006,ACM, pp. 85-95, ISBN: 1-59593-336-0
23. RUSSELL S., NORVING P.; “Artificial Intelligence: A Modern Approach”; Prentice Hall,
Los Angeles C.A., 2003, pp. 271-411, ISBN: 0-13-790395-2
24. SKONNARD A.; “The XML Files: A Quick Guide to XML Schema” MSDN Magazine
http://msdn.microsoft.com/en-us/magazine/cc302086.aspx [Consulta 15/04/2009] [Última
Actualización 04/2002]

246
Implementación de Plataformas Virtuales basadas
en Cloud Computing

Luis Eduardo Cano 1, Dr. Luis Joyanes 1, Dr. José Nelson Pérez 2
1
Facultad de Informática, Universidad Pontificia de Salamanca (UPSAM)
28040, Madrid, España
2
Grupo de Investigación GICOGE, Universidad Distrital Francisco José de Caldas
(UDFJC)
1425, Bogotá, Colombia
{luiseduardocano, joyanes, jnperezc}@gmail.com

Resumen: Este paper muestra cómo se puede trabajar con sistemas


operativos orientados al Cloud Computing a través de la virtualización,
en especial, cuando no se cuenta con una infraestructura tecnológica
física. Así como el uso de herramientas informáticas que pueden ofrecer
el servicio de Cloud Computing a un sistema operativo, enfocadas al
software libre o de código abierto.

Palabras Claves: Computación en la Nube, GNU/Linux,


Virtualización, Sistemas Operativos.

Abstract: This paper shows how you can work with operative systems
aimed at cloud computing through virtualization, especially when there
is no physical technological infrastructure. And the use of computer
tools that can provide service of Cloud Computing to an operating
system, aimed to free software or open source.

Keywords: Cloud Computing, GNU/Linux, Virtualization, Operative


Systems

1 Introducción

Hace unos años era popular un modelo tecnológico llamado Redes de Valor Agregado
(Value-Added Networks - VAN), el cual consistía en una forma en que los vendedores
rentaban circuitos entre las ciudades combinándolos con una red de conmutación de
paquetes, los cuales estaban basados en el volumen de mensajes o la cantidad de
tiempo de uso, y eran vendidos a los usuarios [13]. Cuando los vendedores
identificaron algunas de las necesidades de los usuarios, les ofrecieron servicios
adicionales como el correo electrónico (Electronic Mail – E-Mail), el intercambio de
datos electrónicos (Electronic Data Interchange – EDI), la teleconferencia,
videoconferencia y otras características de seguridad, siendo popular en el caso
colombiano Telegan (Telecomunicaciones Ganaderas S.A) del antiguo Banco
Ganadero, y que con el paso de los años y el surgimiento de Internet y las nuevas
formas de comunicaciones móviles han hecho desaparecer dicho esquema de
comunicación y de renta.
Hoy en día, escuchamos términos nuevos como Software como un Servicio
(Software as a Service - SaaS), Infraestructura como un Servicio (Infrastructure as a
Service - IaaS), Plataforma como un Servicio (Plataform as a Service - PaaS), salidos
de la necesidad de las empresas de acceder a sus soluciones con una mayor velocidad
y desempeño pagando únicamente el servicio que necesitan. Dando origen al concepto
de ―computación en la nube‖ (Cloud Computing), y que en resumen consiste en un
modelo de prestación de servicios tecnológicos.
Pensar en un modelo como estos permite tener acceso a la información de una

247
manera descentralizada de forma permanente y que esté disponible e independiente de
la tecnología que se utilice, en donde el proveedor de dicho servicio sea el encargado
de la obsolescencia de dicha tecnología. Sin embargo, implementar una infraestructura
es costosa y lo que se conoce es muy poco pese a que existen empresas que están
ofreciendo productos basados en Cloud Computing como Movistar, Microsoft,
Google, entre otros. E incursionar en un campo como éstos para conocer, investigar e
implementar su estructura y funcionamiento no es del todo fácil, porque los equipos
deben contar con una serie de características técnicas tanto de hardware como de
software.
Para comprender un poco mejor en qué consiste el Cloud Computing, vamos a
utilizar la definición dada por NIST [8] (Véase Fig. 1).
El Cloud Computing es un modelo que permite el acceso bajo demanda a unos
recursos compartidos de cómputo, (por ej. redes, servidores, almacenamiento,
aplicaciones y servicios) que pueden ser rápidamente tomados y liberados con una
mínima administración e interacción del prestador de servicios. Ofreciendo
características esenciales como tener: Amplio acceso a la red, elasticidad y rapidez,
servicio supervisado y autoservicio a la carta. [8]
Dentro de los modelos de los servicios que ofrece el Cloud Computing, están el de
ofrecer el software como un servicio (SaaS), la plataforma como un servicio (PaaS) y
la Infraestructura como un servicio (IaaS), cada uno con un comportamiento,
características funcionales y servicios diferentes. Además, el Cloud Computing cuenta
con unos modelos de despliegue como son el acceso público, privado, híbrido y el de
comunidad. (Véase Fig. 1)

Fig.1. Representación visual de la definición del Cloud Computing dividida por


categorías. Fuente NIST [8]

2 Material y Métodos

Es importante aclarar que el tema de Cloud Computing es bastante extenso, y lo que se


busca con el presente paper es abordar un tópico muy específico, consistente en darle a
conocer a un investigador y/o grupo de personas y/o empresas de una manera clara y
objetiva el funcionamiento e implementación de una Cloud Computing sin tener que
adquirir toda una infraestructura tecnológica o de aprovechar la existente, utilizando
modelos de virtualización y herramientas que permitan emular el comportamiento de
esta tecnología como cuando se hace en un sitio real.
La metodología empleada se basa en el estudio de sistemas operativos y/o
herramientas que permitan implementar servicios de Cloud Computing, y que a su vez
puedan ser analizados dentro de un ambiente y/o escenario controlado para realizar

248
cualquier tipo de pruebas en implementación y/o en seguridad informática, ya sea por
parte de los sysadmin, webmaster, dba, secadmin, programmer u otro profesional
especializado interesado en el tema.

3 Resultados

Cuando un investigador quiere conocer el funcionamiento de alguna tecnología nueva


y desconocida, tiene que recurrir a sus habilidades para no quedarse rezagado en el
tema, y montar una infraestructura es difícil porque no se cuenta ni con los recursos
físicos ni económicos para implementarla. Y una alternativa a seguir es la
virtualización de escenarios y/ó ambientes controlados del sistema operativo de
interés.

3.1 Virtualización

Vemos como la virtualización está ofreciendo ventajas significativas a cualquier


profesional (Véase Fig.2), en donde sobresalen: la fácil migración entre diferentes
plataformas tecnológicas, ofrecer mejores esquema de seguridad, reutilizar los
recursos de hardware, las herramientas existentes en virtualización son fáciles de
administrar y son sencillas para cualquier sysadmin, ofrece una estabilidad y
desempeño buenos, se pueden hacer pruebas de pent test ó de desempeño y
rendimiento sin alterar el esquema real de trabajo, facilita la implementación de
escenarios controlados para evitar el uso de montajes tecnológicos enormes que
puedan causar daño a la infraestructura, se puede hacer montaje de varias máquinas
reales que se conecten en red, se pueden implementar en cualquier plataforma ó
sistema operativo de red con que cuente la empresa, y garantiza una mejor protección
a la información que se utilice.

Fig. 2. Ventajas más sobresalientes de la Virtualización. Fuente los autores.

En el mercado existen múltiples herramientas que facilitan la implementación de un


sistema operativo en un entorno virtual, como son: VirtualPC de Microsoft [5], Oracle
VM VirtualBox [9][10], VMWare [14] y Proxmox basada en Debian [11] entre otras;
mencionando en estos sitios, ventajas en seguridad informática[2]. Escoger algunas de
éstas depende del usuario, y no se puede decir que una sea mejor que la otra, porque
en esencia hacen lo mismo.
La virtualización permite que se puedan incorporar cualquier tipo de solución
informática (Véase Fig. 3), así como los diferentes servicios ofrecidos como el Cloud
Computing como son SaaS, PaaS e IaaS, sobresaliendo en pruebas y desempeño el
SaaS para entornos virtuales pequeños, en vista que implementar un PaaS o un IaaS
consumen bastante recurso tecnológico en CPU, Almacenamiento en Disco Duro, y
Memoria RAM.

249
Fig. 3. Soluciones que se pueden implementar en una virtualización. Fuente Los
Autores.

3.2 Herramientas orientadas al Cloud Computing

En este punto, es bueno aclarar, que se realizó un estudio, prueba e implementación de


algunas soluciones y/o sistemas operativos como Windows Server y GNU/Linux
respectivamente que pudieran soportar Cloud Computing utilizando escenarios
controlados de virtualización como Virtual Box[10] y VMWare[14] respectivamente
para conocer algunos resultados sobre las ventajas, desempeño, funcionamiento y
diferencias que ofrecen, sin olvidar que aunque se sabe que existen muchas más
plataformas en el mercado, se dejaron como las más representativas y no se
alcanzarían a tratar todas en el presente paper:

Cloud Computing de Microsoft: Microsoft cuenta con un entorno llamado


Windows Azure, el cual consiste de un kit de desarrollo de software (Software
Development Kit – SDK) llamado Windows Azure SDK y el Windows Azure Tools
para Visual Studio 2008 SP1 [6], los cuales se pueden descargar y probar algunos
ejemplos basados en servicios (SaaS) [7] sin necesidad de estar conectado a un
servicio de Cloud Computing OnLine, y que se pueden desarrollar en los lenguajes de
programación C# o VB.Net, así como con el motor de MS SQL Server, productos que
se deben de adquirir de manera licenciada.
Trabajar con un esquema de MS Windows Azure presenta inconvenientes dentro de
un Cloud Computing (Véase Fig. 4) y más desde el punto de vista virtualizado además
que no maneja un estándar general para la nube sino que es propietario de esta
organización. En la nube no interesa en donde se encuentra la información pero el
esquema funcional de MS Windows Azure obliga a la compatibilidad de entornos
Microsoft licenciados pero no ofrece una amigabilidad, funcionabilidad e integridad
con soluciones de software libre ó código abierto que se adapten bien al Cloud
Computing.

Fig.4. Inconvenientes de MS Windows Azure en entornos de Cloud Computing


virtualizado. Fuente Los Autores.

eyeOS: Este es quizás uno de los ejemplos más conocidos en Cloud Computing,
consistente en un escritorio virtual multiplataforma, libre y gratuito, aunque, dentro de
su apreciación general consiste en un sistema operativo en línea contando con una
serie de herramientas ofimáticas propias. Es de licencia AGPL, el cual está
desarrollado en PHP5, soportando el motor de base de datos de MySQL y que puede
ser ejecutado en el servidor Web de Apache, además necesita que se tenga un cliente
de correo llamado IMAP y un gestor de base de datos llamado SQLite.[3] (Véase
Fig.5)
El usuario puede almacenar documentos, crear presentaciones, y utilizar un montón

250
de servicios, los cuales quedan almacenados dentro de una carpeta de usuarios llamada
Documents. Por ejemplo para el usuario root, esta sería la carpeta en donde se
almacenarían sus datos users/rt4/root/files/Documents.

Fig.5. Panel de Control de eyeOS en donde se observa aplicaciones con que cuenta
como calendario, juegos,procesos, ofimática, reproductores de multimedia, FTP, etc.
Fuente eyeOS[3]

El eyeOS en entornos virtualizados ofrece buenas ventajas (Véase Fig. 6) porque le


permite a cualquier investigador en el tema realizar cualquier tipo de prueba como
enumeración de objetivos, identificación de banners, pent test, monitoreo, desempeño
y rendimiento arrojando resultados óptimos, sin embargo, es bueno aclarar que en
pruebas de seguridad, éste servicio se debe configurar con el puerto 443 (https) y no
con el puerto 80 (http) porque en caso de lograr incorporar un exploit con
herramientas de hacking convencionales ó a través de metasploit, cualquier
ciberdelincuente tendría acceso no sólo a la información de un usuario ofrecida por
éste SaaS sino a la de todos los que adquieran este servicio. De igual forma, se tiene
que estar revisando los boletines en seguridad ó incorporar los parches de seguridad
que salgan tanto para el lenguaje de programación PHP como para el motor de base de
datos de Mysql. También es bueno resaltar que MySQL cuando tiene un volumen de
información grande, el rendimiento se opaca generando bloqueos u abrazos mortales
por lo que se requiere estar realizando migración a futuras versiones, y puede afectar
el servicio de la nube.

Fig. 6. Aspectos encontrados en pruebas realizadas al eyeOS. Fuente Los Autores

Amazon EC2: Amazon Elastic Compute Cloud (Amazon EC2) es un servicio Web
que proporciona una capacidad de cómputo variable [1]. Cuenta con una serie de
imágenes de máquina preconfiguradas (AMIs) y que para los sistemas operativos
libres como GNU/Libre el servicio es gratis pero para otros sistemas operativos como
Windows se debe pagar, (Véase Fig. 7)
De Amazon EC2, se resalta que ha servido de modelo para otros proyectos en Cloud
Computing, y que pese a sus costos, muchas empresas han optado por adquirir sus
servicios. Para éste entorno, no existe una manera de instalarlo en un entorno virtual o
servidor propio porque ellos no suministran los instaladores. Lo que entregan es un
cliente de herramientas desarrolladas en Java para que se puedan conectar al servidor
de Amazon EC2; librerías suministradas por ejemplo como: activación-1.1.jar, ec2-
api-tools.jar, ec2-java-client.jar, commons-httpclient.jar entre otros.

251
Fig.7. Consola de Amazon para visualizar AMIs. Permite la instalación de diferentes
sistemas operativos y se puede especificar si el acceso es de tipo público, privado,
híbrido ó comunidad. Fuente Amazon EC2[1].

Dentro de los hallazgos encontrados dentro del entorno de Amazon EC2 (Véase Fig.
8), no se puede analizar por ningún lado como es el desempeño y rendimiento de los
AMIs, ni tampoco se puede implementar en escenarios virtuales, siendo una
desventaja. Lo único que se puede realizar es identificación de banners, enumeración
de objetivos y pen test para probar la seguridad ofrecida por el AMI.

Fig. 8. Evidencias encontradas en Amazon EC2. Fuente Los Autores

Eucalyptus: Uno de los proyectos que ha permitido la incorporación del Cloud


Computing en Clusters dentro de las diferentes distribuciones existentes del Sistema
Operativo GNU/Linux, llámese Debian, Ubuntu, CentOs, Red Hat, Fedora Core, Suse
entre otras, se llama EUCALYPTUS-CLOUD, un proyecto Open Source, el cual es
compatible con Google App, Amazon EC2, etc, permitiendo soportar múltiples
interfaces, y de licencia FreeBSD.[4]
Eucalyptus está implementado usando herramientas de GNU/Linux y servicios web
para facilitar la instalación y mantenimiento, disponibles a todo el mundo, y sus
interfaces de gestión basándose en Servicios Web, dentro del modelo de despliegue
del Software como un Servicio – ―SaaS‖ y que se puede apreciar de manera gráfica el
entorno visual de esta tecnología (Véase Fig. 9).

252
Fig. 9. Entorno Visual Gráfico de Eucalyptus-Cloud. Fuente Eucalyptus [4]

Es bueno resaltar que aunque es compleja la configuración de eucaliptus, su


administración es bastante fácil de asimilar, y es recomendado para utilizar en
entornos virtuales personalizados con sistema operativo GNU/Linux. (Véase Fig. 10).
En temas de seguridad, se debe utilizar otro puerto diferente al 80, y se recomienda el
443, aunque el sitio recomienda el uso de puertos como el 8443.

Fig.10. Propiedades evidenciadas en Eucalyptus-Cloud. Fuente Los Autores

Al utilizar esta herramienta de Cloud Computing, se puede mejorar la seguridad


implementando un firewall como iptables. Se pueden hacer todo tipo de pruebas
relacionadas con desempeño, rendimiento y monitoreo, sin embargo, se recomienda el
uso de buenos recursos físicos tecnológicos.

3.3 Procedimiento para implementar Cloud Computing en Escenarios Virtuales

Para que un investigador pueda trabajar con entornos de Cloud Computing se


recomienda el siguiente procedimiento después de realizadas varias pruebas (Véase
Fig. 11):
Instalar máquinas virtuales (se recomienda por lo menos tener 5 máquinas virtuales
montadas) con diferentes sistemas operativos (recomendados Windows, GNU/Linux y
MAC OS tanto como servidor como cliente) para hacer diferentes tipos de pruebas
como funcionabilidad, desempeño, rendimiento y seguridad.
El recurso en hardware en almacenamiento lo ideal es tener de 20 GB en adelante y
memoria RAM de 3 GB, pero puede funcionar con menos, pero no se puede realizar
bien las pruebas de desempeño y rendimiento porque el servicio de Cloud Computing
se puede ralentizar al ejecutar varios procesos de manera simultánea.
Montar un firewall y definir bien las políticas de seguridad.

253
En temas de seguridad, utilizar herramientas como back track, samurái test ó
metasploit para analizar el servicio de Cloud Computing en el escenario virtualizado.
Instalar diferentes motores de bases de datos como Oracle, Postgres, MySQL, y otros
para analizar el comportamiento funcional
Utilizar software de análisis, monitoreo y desempeño en redes.
Instalar aplicaciones de producción para analizar comportamientos, almacenamiento y
rendimiento

Fig. 11. Elementos necesarios para implementar servicios de Cloud Computing en


escenarios virtuales. Fuente Los Autores

4 Discusión

Si bien es cierto que muchos servicios y usos del Cloud Computing son ofrecidos por
empresas y/o instituciones al usuario de la red, la disposición y funcionalidad de las
aplicaciones y sus usos comunicativos se pueden configurar e implementar en
escenarios virtuales, permitiendo a cualquier persona interesa en el tema profundizar
en dicha tecnología.
Para el aprendizaje y la enseñanza, estos escenarios son bastantes prácticos para
que se asimilen bien los conceptos teóricos, pero es bueno aclarar, que el Cloud
Computing está creciendo y evolucionando constantemente, y las empresas y/o
instituciones que ofrezcan estos servicios deben realizar inversiones tecnológicas
enormes para poder garantizar las ventajas ofrecidas por el Cloud Computing.

5 Conclusiones

Para cualquier investigador estas herramientas ofrecen una familiaridad y aprendizaje


en el Cloud Computing, término que ha sido confuso por parte de muchos sectores.
Al tener estos escenarios basados en Cloud Computing se pueden probar esquemas de
configuración y seguridad para analizar y comprender problemas futuros que se
puedan presentar, en desempeño e implementación.
Las herramientas de software libre ó de código abierto facilitan la incorporación de
infraestructuras de Cloud Computing utilizando los modelos de despliegue SaaS, PaaS
o IaaS.
Las empresas y/o instituciones que cuentan con una infraestructura tecnológica
actual, la pueden convertir en un SaaS, PaaS o IaaS sin invertir en muchos recursos
tecnológicos.
Para éstos servicios no se encontraron vulnerabilidades en el sitio oficial de exploit
database, y que no se puede especular el motivo si es que en verdad ofrecen buena
seguridad o que los ciberdelincuentes aún no están interesados en incursionar en este
tema.

6 Agradecimientos

Al Dr. José Nelson Pérez por sus aportes y gestión administrativa realizada en la
Universidad Distrital Francisco José de Caldas de Bogotá, Colombia, porque gracias a
él se cuenta con el Laboratorio del Centro de Computación de Alto Desempeño

254
orientado al Cloud Computing.
Al Dr. Luís Joyanes Aguilar, por sus aportes y conocimientos en estos temas de
interés e innovación que día a día van a apareciendo, y que no podemos ser ajenos a
los mismos.

Referencias

1. AMS - AMAZON WEB SERVICES (2010) . Amazon Elastic Compute Cloud (Amazon
EC2) <http://aws.amazon.com/ec2/>
2. CSA–CLOUD SECURITY ALLIANCE (2009). Security Guidance Critical Areas of
Focus in Cloud Computing V 2.1 < http://www.cloudsecurityalliance.org/>
3. EYEOS (2010). Escritorio Virtual Multiplataforma basado en el Cloud Computing <
http://eyeos.org/>
4. EUCALYPTUS (2010). Eucalyptus Cloud < http://www.eucalyptus.com/>
5. MICROSOFT (2007) VirtualPC
<http://www.microsoft.com/downloads/details.aspx?displaylang=es&FamilyID=04d2640
2-3199-48a3-afa2-2dc0b40a73b6>
6. MICROSOFT (2010). Windows Azure, plataforma de nube de
Microsoft.<http://msdn.microsoft.com/es-es/windowsazure/default.aspx>
7. MICROSOFT VIRTUAL LABS (2010) Building Windows Azure Services with PHP <
http://download.microsoftvirtuallabs.com/download/8/a/7/8a71365b-4c80-4e60-8185-
8f12f59bf1d4/BuildingWindowsAzureServiceswithPHP.pdf>
8. NIST - National Institute of Standards and Technology (2009) Effectively and Securely
Using the Cloud Computing Paradigm < http://www.csrc.nist.gov/groups/SNS/cloud-
computing/index.html>
9. ORACLE (2010), Oracle Grid Computing
<http://www.oracle.com/us/technologies/grid/index.htm?origref=http://www.oracle.com/u
s/technologies/virtualization/oraclevm/061976.html>
10. ORACLE (2010), Oracle VM VirtualBox
<http://www.oracle.com/us/technologies/virtualization/oraclevm/061976.html>
11. PROXMOX (2010) . Proxmox Virtual Environment http://pve.proxmox.com
12. SQLITE (2010) Sistema de Gestión de Base de Datos Relacionales
<http://www.sqlite.org>
13. TRIANA, Eduardo; GARCIA, Ricardo; PASTRANA, Carlos; CANO, Luis E. (1996)
Redes de Valor Agregado. Criterio. UAC, Vol. 24 (p.197-239)
14. VMWARE (2010) Cloud Computing Services with VMware Virtualization.
http://www.vmware.com/solutions/cloud-computing/

255
Cálculo del Esfuerzo en el Desarrollo de Proyectos
Software a Partir de Puntos de Función

Jorge Enrique Otálora Luna1 , Mauro Callejas Cuervo1, Andrea Catherine


Alarcón Aldana1,

1
Universidad Pedagógica y Tecnológica de Colombia, Facultad de Ingeniería, Km
2 Carretera Central del Norte, Tunja, Boyacá, Colombia
jorge.otalora@uptc.edu.co, mauro.callejas@uptc.edu.co, alarconaldana@yahoo.com

Resumen. Este artículo muestra el resultado de la fase inicial del


proyecto ―Diseño de un meta-modelo para el cálculo del esfuerzo en
proyectos de desarrollo de software‖. Se estudia los métodos más
relevantes para calcular el esfuerzo en desarrollo de software, y en
especial se profundiza sobre la técnica de puntos de función. A partir de
un experimento en donde se contrastan valores teóricos vs valores
obtenidos de un desarrollo real, se verifica la aproximación que ofrece el
cálculo teórico respecto del valor real.

Palabras Clave: Meta-modelo, puntos de función, cálculo del esfuerzo.

Abstract. This article presents the results of the initial phase of the
project ―Design a meta-model for calculating the effort of software
development projects‖. This discusses methods for calculating the most
significant software development effort, especially on the technique of
function points. From an experiment in which contrast values obtained
vs theoretical values of effective development approach, is verified that
offers the theoretical calculation of the actual value.

Keywords: Meta-model, function points, estimation of effort

1 Introducción

El cálculo de esfuerzo para el desarrollo de software ofrece variadas técnicas pero


carece de una base fundamental que permita la integración con otros elementos de
desarrollo, en especial con la gestión del proyecto, por ésta razón se plantea el diseño
de un meta-modelo del que se puedan extender los modelos y adaptarse a las técnicas
de gestión de proyectos.
En la primera fase de esta investigación se debe caracterizar y seleccionar la técnica
base de la cual dependerá principalmente el meta-modelo, para ello, se revisará
teóricamente una muestra significativa de técnicas para el cálculo del esfuerzo, luego
se estudiarán las características de éstas para obtener un listado con las más relevantes
y después se contrastarán los valores que se obtengan teóricamente contra valores
reales obtenidos a partir de un experimento.
El documento en su primera parte presenta un resumen teórico de las principales
técnicas de cálculo del esfuerzo, luego da a conocer un resumen de las características
más relevantes y profundiza sobre la técnica de puntos de función, la cual cubre el
mayor número de ítems tenidos en cuenta en la investigación. A continuación se
describe en detalle el experimento realizado y se presenta al final una discusión sobre
los resultados obtenidos, finalmente se enuncian las conclusiones.

257
2 Consideraciones preliminares sobre estimación de esfuerzo.

El concepto de esfuerzo en desarrollo de software se refiere al uso de los recursos


requeridos para el desarrollo del proyecto. La medida empleada para la estimación del
esfuerzo es hora/hombre [1]. Una estimación incorrecta puede conllevar a pérdidas
tanto económicas como de renombre, si no se logra cumplir con los tiempos de
desarrollo. [2], [3]. Por tanto, se debe estimar los recursos humanos, de tiempo y
económicos requeridos para llevar a cabo el proyecto, estimando los costos máximos y
mínimos en los que se puede incurrir.

2.1 Técnicas de Estimación de Esfuerzo.

Para lograr realizar la estimación de esfuerzo, se han creado diferentes técnicas, tales
como puntos de función, Cocomo II, Delphi, entre otras, las cuales emplean métodos
diversos para calcular el esfuerzo utilizado durante el desarrollo de un proyecto de
software. Algunas de estas técnicas se enuncian a continuación.
Puntos de función. Allan Albrecht, de IBM, en 1979 definió la técnica de puntos
de función, que realiza la estimación de esfuerzo basada en los requisitos del sistema,
teniendo en cuenta las funciones de usuario que este ejecuta o ejecutará (entradas,
salidas, consultas, ficheros, Interfaces). Esta técnica de estimación se puede realizar
independientemente del lenguaje o herramienta empleada durante el desarrollo. [4],
[5], [6].
Este tipo de estimación se centra principalmente en lo que el usuario puede ver,
restando importancia a la parte interior de la aplicación.
Algunas de las características que identifican el enfoque de puntos de función y que
ayudan a superar los inconvenientes que se presentaban al emplear la técnica de líneas
de código son:
Es independiente de los lenguajes de programación, de las herramientas e incluso de
las metodologías aplicadas para el desarrollo del proyecto
Permite realizar estimaciones de esfuerzo en etapas tempranas del desarrollo, debido a
que emplea para las mismas, las especificaciones de requisitos y/o de diseño que se
tendrán en cuenta para llevar a cabo el proyecto. Además a las diferentes
modificaciones que puedan surgir en los requisitos, se les puede aplicar fácilmente
una nueva estimación, gracias a la estrecha relación que existe entre éstos y los puntos
de función.
Facilita a las personas no técnicas que intervienen en el proyecto, el entendimiento
de las medidas que se efectúan con los puntos de función, gracias a que dichas
medidas se realizan basadas en una visión externa del usuario del sistema.
Esta técnica se emplea básicamente en etapas iníciales, cuando los requisitos
funcionales no están completamente establecidos y se desea realizar estimaciones de
esfuerzo del proyecto.
Cálculo de los puntos de función. Para realizar el cálculo de los puntos de función
se llevan a cabo los pasos enunciados a continuación [7].
Se establecen los contadores, luego de realizar un análisis del dominio de la
información.
Se evalúa la complejidad de cada uno de los contadores establecidos previamente y
se asigna un peso a cada uno.
Se identifican todos los factores externos que puedan influir sobre el sistema tales
como reutilización, concurrencia, sistema operativo entre otros.
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Se realiza el cálculo de los puntos de función teniendo en cuenta la siguiente ecuación:
Puntos de Función = ∑ . (1)
Donde C = (0.65 + 0.01 x N)  (Multiplicador de complejidad).

COCOMO II. El modelo COCOMO (COnstructive COst MOdel), publicado por


primera vez en el año de 1981 por Barry Boehm, es un modelo algorítmico que busca
lograr la estimación de esfuerzo, costo y tiempo necesario para realizar un proyecto de
software, a través del establecimiento de una relación matemática [8], [9].

258
El modelo COCOMO fue evolucionando posteriormente, adaptándose a las nuevas
técnicas de desarrollo de software. De esta manera surge COCOMO II, modelo
orientado a lograr la estimación de costo, tiempo y esfuerzo de los ciclos de vida para
el desarrollo de software, empleados en la década de los 90 e inicios del 2000.
El modelo COCOMO II está dividido en tres niveles básicos de aplicación, que se
pueden emplear a medida que se desarrolla el proyecto y brindan la posibilidad de
realizar estimaciones cada vez más detalladas.
Los niveles que incluye el modelo COCOMO son: [7], [10]:
Nivel inicial de prototipado: este nivel se emplea en proyectos de software que
utilizan el prototipado y la reutilización. Realiza las estimaciones mediante la
aplicación de puntos de objeto y una sencilla formula que permite obtener el cálculo
del esfuerzo.
(2)
PM = ( NOP x (1 - %reuso / 100 ) ) / PROD.

La explicación de variables de la ecuación (2) se encuentra en la tabla 1.

Tabla 7. Descripción de variables, fuente los autores.


VARIABLE DESCRIPCION
PM Esfuerzo en personas / mes.
NOP Número de puntos objeto.
Reuso Porcentaje de líneas de código reusadas.
PROD Productividad que depende de la experiencia,
capacidad del desarrollador y de las herramientas
CASE (Computer Aided Software Engineering)
empleadas.

Nivel inicial de diseño: Las estimaciones en este nivel se realizan una vez se han
establecido los requisitos, utilizando puntos de función trasformados en líneas de
código.
Este nivel emplea fórmulas estándar para realizar las estimaciones.
(3)
PM = A x TamañoB x M + PMm.

La explicación de variables de la ecuación (3), se encuentra en la tabla 2.

Tabla 2. Descripción de variables, fuente los autores.


VARIABLE DESCRIPCION
PM Cantidad de código generado automáticamente.
A Constante que tiene el valor de 2.5 según calibración inicial
Tamaño Tamaño del software, expresado en KLOC (Mil líneas de código).
B Exponente cuyo valor esta dentro de un rango de 1.1 hasta 1.24
teniendo en cuenta la novedad del proyecto, la flexibilidad del
desarrollo, la gestión de riesgos, y la madurez del proceso.
M Estimación del estado actual de la fiabilidad de producto y
complejidad (RCPX), la reutilización requerida (RUSE), la
dificultad de la plataforma (PDIF), la experiencia del personal
(PREX), la capacidad del personal (PERS), la agenda requerida
(SCED), y las facilidades de soporte de grupo (FCIL). M se
calcula mediante la fórmula: M = PERS x RCPX x RUSE x PDIF
x PREX x FCIL x SCED
PMm Empleado cuando se generan grandes cantidades de código de
forma automática. Se calcula mediante la fórmula: PMm =
(ASLOC x (AT/100)) / ATPROD
ASLOC cantidad de líneas de código fuente que fueron generadas
automáticamente. AT corresponde al porcentaje total del sistema

259
que ha sido generado de manera automática. ATPROD se refiere
al nivel de productividad teniendo en cuenta el tipo de producción
en código.

Nivel post-arquitectura: Se realizan estimaciones que se basan en líneas de código


fuente. En esta fórmula la estimación de tamaño varía, incluyendo en el cálculo la
volatilidad de los requisitos, el grado de posible reutilización y el número de líneas de
código nuevo. Así mismo, el valor del exponente B debe tener en cuenta los
antecedentes, la flexibilidad, la arquitectura respecto a la resolución de riesgos, la
cohesión del grupo y la madurez del proceso.
Delphi. Es un método empleado para realizar la estimación de proyectos, basado en
el juicio de un grupo de expertos, quienes deberán calcular de manera individual, tanto
el esfuerzo como la duración y costo de un proyecto determinado y posteriormente
realizar un consenso para establecer una única estimación. [11], [12].
El proceso que se lleva a cabo para realizar la estimación final es el siguiente [13]:
 Un coordinador proporciona a cada experto una especificación del proyecto
propuesto y un impreso para expresar su opinión.
 Los expertos diligencian el impreso de manera anónima. Pueden hacer
preguntas al coordinador pero no entre ellos. El coordinador ofrece a cada
experto el valor medio de las opiniones recogidas. Se pide una nueva
estimación anónima indicando las razones de las posibles modificaciones. Se
repite el proceso de recogida de opiniones hasta llegar a un consenso. No se
realizan reuniones de grupo en ningún momento.
Delphi de Banda Ancha. Es una mejora de la técnica Delphi, propuesta por Barry
Boehm. Los pasos que se llevan a cabo en este modelo son los siguientes [14], [15]:
 El coordinador proporciona a cada experto una especificación del proyecto
propuesto y un impreso para expresar su opinión.
 El coordinador reúne a los expertos para que intercambien puntos de vista
sobre el proyecto.
 Los expertos diligencian el impreso de manera anónima.
 El coordinador ofrece a cada experto el valor medio de las opiniones
recogidas. Se pide una nueva estimación anónima, sin indicar las razones de
las posibles modificaciones.
 El coordinador convoca una reunión para que los expertos discutan las
razones de las diferencias entre sus estimaciones.
 Se diligencian anónimamente los impresos y se repiten los últimos tres pasos
hasta llegar a un consenso.
Algunas ventajas y desventajas de este modelo se pueden observar en la tabla 3.

Tabla 3. Ventajas y desventajas del modelo Delphi de banda ancha, fuente los
autores.
VENTAJAS DESVENTAJAS
Permite consolidar un criterio con Para lograr el consenso deseado, es
objetividad y confiabilidad. indispensable realizar mínimo dos
Las decisiones son acertadas cuando vueltas, razón por la cual su
aplicación se acogen al criterio expresado aplicación se puede tornar tediosa y
por un grupo de expertos. necesita de tiempo y dedicación.
Se evalúan diferentes alternativas al El costo es superior a otros métodos, por
momento de tomar la decisión final. requerir la participación de los expertos,
Al ser un proceso que se realiza de manera además del gasto de hojas, impresoras,
anónima, se brinda libertad para que los teléfono, correo, entre otros.
expertos sean creativos en sus apreciaciones Se deben aplicar diversos métodos de
y se evita la generación de conflictos entre análisis que permitan obtener un
los mismos. consenso adecuado, así como diversas
Los expertos al participar de manera pruebas estadísticas que ayuden a
voluntaria, se involucran con la solución evaluar el grado de confiabilidad del
del problema, logrando una exitosa proceso [14].

260
implantación de la misma [11]

Puntos de Casos de uso. La técnica de Puntos de caso de Uso fue desarrollada


por Gustav Karner de Rational Software Corporation, este método realiza el cálculo de
esfuerzo basado en casos de uso, los cuales permiten obtener la cantidad de horas-
hombre necesarias para lograr el desarrollo de un proyecto de software. [16], [17].
Para obtener la estimación de esfuerzo este método clasifica en tres categorías los
casos de uso del sistema, simple, medio y complejo, asignándoles un factor de peso a
cada una. Para la categoría simple, el factor de peso equivale a cinco (5), para la
categoría medio el factor de peso es de diez (10) y para la categoría complejo el factor
de peso tiene un valor de quince (15). Para asignar los casos de uso a una categoría
específica, se deben tener en cuenta la cantidad de transacciones que se realizan,
entendiéndose por transacción, todos los eventos que suceden entre el actor y el
sistema. De esta manera, los casos de uso que involucren entre 1 a 3 transacciones se
consideran simples, los que realicen entre 4 a 7 se clasifican como medios y aquellos
en los que se lleven a cabo 8 o más transacciones se consideran complejos. [18].
Debido a que esta técnica trabaja con casos de uso, es necesario que al momento de
aplicarla, se haya realizado previamente las actividades correspondientes a la fase de
análisis.
La aplicación del método, requiere que se lleven a cabo los siguientes pasos [20]:
 Calcular Puntos de Casos de Uso no Ajustados (UUCP).
 Pesar Actores (UAW) & Pesar Casos de Uso (UUCW)
UUCP= f (UAW;UUCW)= UAW +UUCW
 Calcular Puntos de Casos de Uso (UCP)
 Pesar Factores Técnicos (TCF)
 Pesar Factores Ambientales (EF)
UCP= f (UUCP; TCF;EF)= UUCP *TCF *EF
 Estimar el número de horas-hombre
Horas-hombre= f (UCP)

3 Método

El método a utilizar en el desarrollo del proyecto se diseñó de la siguiente manera:


 Caracterizar y comparar la diferentes técnicas para medición de esfuerzo en
el desarrollo de proyectos de software, con el fin de seleccionar una técnica
base que pueda ser complementada para cubrir la mayoría de la funcionalidad
ofrecida por estos métodos y así garantizar que el meta-modelo cuente con
una amplia gama de interoperabilidad.
 Una vez seleccionada la técnica a profundizar teóricamente se constatan
fortalezas y debilidades, con el fin de complementarla y cubriendo los
aspectos relevantes para el meta-modelo.
 Realizar un experimento sobre un proyecto real de desarrollo de software, en
donde se aplica la técnica seleccionada, realizando los ajustes e
implementando los instrumentos necesarios.
Descripción del experimento:
 Seleccionar un grupo de programadores de software y aplicar una prueba de
rendimiento en codificación para determinar el número de líneas de código
que realizan por cada punto de función y así obtener un promedio que será
utilizado como base de cálculo.
 A partir de los requisitos de un sistema de información basado en prototipos,
calcular los puntos de Función y el tamaño de cada uno de los módulos.
 Asignar a los desarrolladores diferentes módulos de forma controlada y
revisar mediante casos de prueba el funcionamiento de cada uno de los
módulos hasta obtener un factor de calidad de máximo 5 defectos por cada
Klocs(Mil líneas de código) .
 Realizar el conteo de líneas de código y contrastarlo con los puntos de

261
función.
 Revisar el código desarrollado y verificar el número de puntos de función
obtenidos realmente.
 Constatar los valores teóricos con los valores reales obtenidos.
 Determinar un promedio de la diferencia de puntos de función entre los
módulos adyacentes.
 Obtener un límite superior e inferior de los puntos de función admisibles con
el fin de evitar dispersión.
 Retirar los módulos que estén por fuera de los límites establecidos.
 Realizar la comparación estadística de los resultados obtenidos.
Con los datos obtenidos comparar la eficacia del modelo teórico con el fin de
determinar su nivel de confiabilidad para ser o no tomado como base en la siguiente
etapa de la investigación tendiente a obtener un meta-modelo del cálculo del esfuerzo
en proyectos de desarrollo de software.

4 Resultados

A continuación se presenta los resultados obtenidos durante el desarrollo de esta


revisión, de acuerdo al método planteado anteriormente:

4.1 Comparación entre métodos de estimación de esfuerzo.

Debido a que existen diversas técnicas para realizar la estimación de esfuerzo, fue
necesario llevar a cabo una recopilación teórica, en la que se pudiera establecer las
características principales de cada una, el método empleado para calcular el esfuerzo y
la efectividad de las mismas.
Luego de elaborar la conceptualización de la información, se realizó un cuadro
comparativo de algunas de las técnicas de estimación de esfuerzo, a fin de elegir la
más apropiada para aplicarla durante el desarrollo del proyecto. El resultado de dicho
proceso se puede apreciar en la tabla 4.

Tabla 4. Comparación entre métodos de estimación de esfuerzo, fuente los autores.


Puntos COCOMO Delphi Puntos de
de II Casos de
Función Uso
Permite estimación X X X X
temprana.
Tiene en cuenta factores X X X
externos.
Independientes del lenguaje X X X X
de desarrollo.
Se basa en datos históricos. X X
Apropiado para mediciones X X X X
de aplicaciones del negocio.
Adaptación rápida a cambios X X X
en los requisitos.
Modelo estático. X X X
Modelo algorítmico. X X X
Modelo basado únicamente X
en la experiencia.
Esfuerzo se calcula según el X X
tamaño del proyecto.

De acuerdo al análisis de las características realizado sobre las técnicas de medida


de esfuerzo en el desarrollo de software, recogidas en el anterior estudio, se decide

262
profundizar en la técnica basada en puntos de función, que será tomada como base
para el diseño del meta-modelo sobre el cálculo del esfuerzo en el desarrollo de
software.
La Métrica de Puntos de Función [19]. Los puntos de función se consideran como
una métrica de tipo funcional, porque evalúa el esfuerzo en función de las prestaciones
que el software proporciona o puede llegar a proporcionar a los usuarios.
La aplicación de esta métrica comienza con la identificación de los componentes
del sistema, o de las transacciones y conjunto de datos lógicos del negocio. A cada
componente se asignan los puntos de función correspondientes, de acuerdo a su
complejidad. La sumatoria del total de puntos es el resultado de los puntos de función
sin ajustar. El ajuste que se realice, debe corresponder con las características del
sistema que se está evaluando.
A continuación se describen en detalle cada uno de los pasos que permiten
determinar la complejidad de un sistema mediante los puntos de función del mismo:
 Determinar el tipo de conteo: se define si se evalúa un software que se
encuentra en funcionamiento, en desarrollo o si es un sistema en fase de
mantenimiento. Con esta identificación es posible establecer el objetivo del
conteo.
 Identificar los alcances de la medición y los límites de la aplicación: permite
encasillar los objetivos de la misma, para dar respuesta a un problema del
negocio. Los límites establecidos pueden contener más de una aplicación.
 Contar las funciones de datos: las funciones se cuentan clasificándolas en
archivos lógicos internos (ILF) y archivos de interfaz externo (EIF). Los
primeros corresponden a los datos que almacenan información mantenida
durante alguna transacción. Los archivos de interfaz externos, son los
relacionados y referenciados que no se mantienen por la transacción durante
el conteo. Con el conteo se asigna además un rango de complejidad para cada
componente, acorde al número de datos.
 Contar las funciones transaccionales: con este conteo es posible identificar la
capacidad del sistema para realizar operaciones. Las transacciones se pueden
clasificar en entradas externas (EI) que mantienen archivos lógicos internos,
salidas externas (EO) que muestran información a los usuarios a través de
procesos lógicos, y consultas externas (EQ) que presentan información al
usuario obtenida de uno o varios grupos de datos. Los rangos de clasificación
en este conteo dependen del número de datos usados en el proceso y los
archivos que tiene referenciados.
 Determinar los puntos de función no ajustados: con la clasificación efectuada
se genera la tabla donde se totalizan los componentes de acuerdo a su
complejidad.

Tabla 5. Modelo de totalización de componentes acorde a su complejidad.

BAJO MEDIO ALTO TOTAL

EI __x 3=__ __x 4=__ __x 6=__ _____


EO __x 4=__ __x 5=__ __x 7=__ _____
EQ __x 3=__ __x 4=__ __x 6=__ _____
ILF __x 7=__ __x 10=__ __x 15=__ _____
EIF __x 5=__ __x 7=__ __x 10=__ _____
_____

 Determinar el valor del factor de ajuste que se obtiene al sumar 0.65 al total
de los grados de influencia de las características del sistema, y multiplicando
el resultado por 0.01.
Se deben tener en cuenta las siguientes características del sistema:
comunicaciones de datos, datos o procesamiento distribuidos, objetivos de

263
rendimiento, configuración utilizada masivamente, tasa de transacción,
entrada de datos on-line, eficiencia para el usuario, actualización on-line,
procesamiento complejo, reutilización, facilidad de instalación y conversión,
facilidad de operación, puestos múltiples, facilidad de cambio
 Determinar los puntos función ajustados: consiste en multiplicar los valores
de los puntos función sin ajustar, por el factor de ajuste hallado.

4.2 Desarrollo del Experimento

Una vez conocidas las características base de los métodos para medición del esfuerzo,
se realiza un experimento adaptando la técnica que cuenta con mayor número de ítems
comunes respecto a las demás, ampliando la cobertura de la funcionalidad deseada.
El experimento que se describe a continuación fue realizado dentro de la empresa
Ingenius-Group, a partir del desarrollo de software para una entidad administradora de
fondos de inversión. Los nombres de los desarrolladores de cada módulo se omiten,
así como el nombre de la entidad administradora, obedeciendo a políticas de la
empresa desarrolladora.
Inicialmente se realizó un cálculo teórico, basado en los requisitos del sistema, los
cuales permitieron obtener estimaciones preliminares del esfuerzo, que fueron
contrastadas posteriormente con los valores reales, obtenidos luego de culminar el
desarrollo del proyecto.
Los módulos del sistema que se tuvieron en cuenta para realizar la estimación de
esfuerzo, fueron los siguientes: Datos básicos del fondo, Participantes, Términos y
Condiciones, Beneficiarios, Registrar Clientes, Cuentas Bancarias, Asignar recursos,
Datos básicos operación, Clientes Ejecutores, Tareas pendientes, Asignar roles,
Roles de consulta, Aportes Fondo, Contrato Fondo, Comprobantes contable, Pagos a
fondos, Registrar transacciones, Distribución categorías, Moneda extranjera.
El cálculo teórico se llevó a cabo, mediante la aplicación de la formula de
estimación de esfuerzo, propuesta en el modelo de puntos de función. Para ello se
utilizó la herramienta ofimática Microsoft Excel, que permitió automatizar el proceso
y aplicarlo adecuadamente a cada uno de los módulos del sistema.
El módulo de Aportes al Fondo (Ver fig. 1), hace parte del desarrollo del sistema y
está integrado por los siguientes componentes:

Fig. 3. Modulo de aportes del Sistema Administrador de Fondos.

Tabla 6. Componentes del modulo de aportes al fondo, fuente el autor.

264
. Entradas Salidas Peticiones Archivos Interfaces
Participante Nombre del Buscar Aporte
fondo
Banco Banco
CUP
Número de Centro Costo
Cuenta Siglas
Cuenta
Centro de Estado
Costo Participante
Estado
Monto del Aporte
aporte
CUP del
Fecha Aporte participante

Observacione Fecha de
s Registro

CUP del
banco

Moneda

Total Total Total Total Total


Entrad Salidas = 9 Peticiones = Archivos = 5 Interfaces = 0
as = 7 1

Una vez se identificaron los componentes principales del módulo de Aportes al


Fondo, se asignó a cada uno de ellos un peso, según la complejidad que representaban
para el sistema. Posteriormente se establecieron los factores de ajuste, fijando los
valores correspondientes a cada ítem, dentro de un rango de (0 – 5). Con los datos
obtenidos, se procedió a aplicar la formula de puntos de función, que permitió calcular
la estimación teórica del esfuerzo, tal como se muestra la tabla 7.

Tabla 7. Estimación de los puntos de función, fuente los autores.

Estimación del tamaño de PUNTOS DE FUNCION


Proyecto: Observaciones: Términos y
Gerente de Proyecto: Opción condiciones.
Fase: Elaboración estimada:
Fecha (dd-mm-aaaa):
FACTORES DE AJUSTE VALOR DOMINIO No Peso Tamaño
estimado(PF)
Comunicación de datos 5,00 Entradas 7 6,00 T=Dominio*factor*F
Función distribuida 0,00 Salidas 9 5,00 AC11,02
Refinamiento 1,00 Peticiones 1 0,00
Configuración utilizada 2,00 Activos 5 0,00
masivamente
Entradas on-line de datos. 5,00 2886,52
Diseño para eficiencia de 4,00
usuario final.
Actualización on-line 1,00
Complejidad de 1,00
procesamiento
Utilizable en otras 1,00
aplicaciones

265
Facilidad de instalación 1,00
Facilidad de operación 1,00
Puntos múltiples 0,00
Facilidad de cambio 0,00
FAC=0,65+0,01*Fi 0,91 Dominio*factor122,00

El procedimiento anterior, se aplicó de la misma manera a todos los módulos del


sistema, lo que permitió recopilar los datos que se muestran en la tabla 8 y tabla 9 y
algunos análisis en las figuras 2 y 3.

Tabla 8. Recopilación de resultados, fuente los autores.

Descripción Teórico Real No mR Meta


Tamaño Puntos Tamaño Puntos LOC/PF Sup Inf
Función Función
Datos básicos 3.923,92 140,14 3.625 147,00 24,66 - 40 19
del fondo.
Participantes 2.522,52 90,09 2.850 90,09 61,64 6,98 40 19
Términos y 1.554,28 55,51 1.177 46,41 25,36 6,27 40 19
condiciones.
Beneficiarios 1.554,28 55,51 564 38,25 19,66 4,92 40 19
Registrar. 1.528,80 54,60 752 38,25 19,66 4,92 40 19
Clientes. - - - - - - - -
Cuentas 2.726,36 97,37 1.733 68,75 25,21 5,55 40 19
Bancarias.
Asignar 2.191,28 78,26 1.769 84,63 20,90 4,30 40 19
recursos.
Datos básicos 4.127,76 147,42 2.970 147,42 20,15 0,76 40 19
operación.
Clientes 1.503,32 53,69 1.316 68,25 19,28 0,86 40 19
ejecutores.
Tareas 787,36 28,12 573 28,12 20,38 1,09 40 19
pendientes.
Asignar roles. 1.234,24 44,08 1.940 44,08 44,01 23,6 40 19
3
Roles de 1.361,92 48,64 1.587 48,64 32,63 11,3 40 19
consulta. 8
Aportes fondo. 2.886,52 122,00 2.017 111,02 18,17 14,4 40 19
6
Contrato 1.821,82 70,07 4.797 130,13 36,86 18,7 40 19
fondo 0
Comprobantes 3.057,60 109,20 4.003 144,69 27,67 9,20 40 21
contables.
Pagos a 3.596,32 3.596,3 3.588 138,00 26,00 1,67 40 21
fondos. 2
Registrar 140.140,0 50,05 650 25,00 26,00 - 40 21
transacciones. 0
Distribución 1.554,28 55,51 2.243 55,51 40,41 14,4 40 21
categorías. 1
Moneda 1.885,52 67,34 1.500 64,61 23,22 17,1 40 21
extranjera. 9

Tabla 9. Resultado de probabilidad de alcanzar la meta, fuente los autores.

Promedio X 26,15 Promedio LOC/PF. (LOC = line of code)


LCS (X) 48,61 Límite de Control Superior calculado con la expresión Promedio X
+ 2.660* Promedio mR
LCI (X) 3,70 Límite de Control Inferior calculado con la expresión Promedio X
- 2.660* Promedio mR
LCS (2S) 41,13 Límite de Control Superior (2S)
LCI (2S) 11,18 Límite de Control Inferior (2S)
LCS(1S) 33,64 Límite de Control Superior (1S)

266
LCI (1S) 18,67 Límite de Control Inferior (1S)
Prom mR 8,44 Promedio de la diferencia de LOC/PF de los módulos del sistema
LCS (mR) 27,59 Límite de Control Superior para mR calculado con la expresión
3.268* rM Promedio
LCI (mR) 0 Límite de Control Inferior para mR es igual a 0
Meta La meta superior es definida por el gerente del proyecto
Superior
Meta Inferior La meta inferior es definida por el gerente del proyecto
Probabilidad de alcanzar la meta 0.95

Fig. 2. Comparación Puntos de función teóricos versus reales. Fuente: los autores

Fig. 3. Comparación tamaño teórico vs real. Fuente: los autores.

4.3 Discusión

Basado en los resultados obtenidos se encuentra que la técnica de cálculo del esfuerzo
a partir de los puntos de función, tiene una efectividad del 95%. Es viable entonces
utilizar éste método como base para el diseño del meta-modelo que se ha propuesto en
la presente investigación.
En el módulo de Contrato fondo se encuentra una diferencia significativa, que se
revisó, y se determinó que obedece a un error en la asignación del factor de
complejidad, esto es preocupante y motivo de una nueva revisión con el fin de
determinar una metodología y nuevas métricas que permitan mejorar la confiabilidad
de ese cálculo.
El desarrollo de los módulos se realizó en lenguaje C#, con un equipo de 5
programadores, a quienes se les realizó una actividad inicial para verificar el
rendimiento de cada uno y obtener un promedio de su capacidad de escribir KLoc
(Mil Líneas de código) por Puntos de función, se obtuvo un promedio de 26.15.
Se debe revisar si éste valor es aceptable en otros lenguajes de programación, para
lo que se sugiere realizar la pruebas iníciales y comparar los resultados.
El cálculo de los puntos de función según los muestra la figura 2, es muy
aproximado, se puede observar diferencias no significativas lo que resulta un factor

267
decisivo a la hora de seleccionar este método como base para la conceptualización del
metamodelo.
En la figura 3, se muestra una comparación entre el tamaño real y el tamaño
teórico en líneas de código del módulo desarrollado, aunque la diferencia es pequeña,
se podría mejorar la precisión de la medida. Esta está supeditada a factores como son
el lenguaje de programación seleccionado, la plataforma, el framework de desarrollo,
lo que presupone una calibración a partir de pruebas piloto o de estadísticas basadas
en proyectos anteriores. En este momento el modelo de puntos de función no provee
los mecanismos necesarios para poder controlar este tipo de variables y deja abierta la
posibilidad para que sea desarrollado por quien implemente el modelo.
A pesar de la diferencia de tamaños de los módulos que se estudiaron y de la
cantidad de puntos de función en cada uno, se observa un comportamiento normal,
observándose tan solo el 8.44% de loc/pf de diferencia entre los componentes del
modulo.
También es posible verificar con los datos obtenidos que se necesitan 26.15 loc/pf
en el lenguaje de programación c#, lo que sugiere un punto de referencia al desarrollar
con otro lenguaje de similares características.

5 Conclusiones

Es importante la utilización de estándares al momento de realizar la automatización de


procesos, debido a que de esta manera se logrará una mejor integración y comprensión
de las diferentes tecnologías que se encuentran en el medio.
Sería de gran importancia que en futuras investigaciones se desarrollaran
conversores de los modelos de estimación de esfuerzo tales como Cocomo, Delphi,
entre otros, con el fin de que los desarrolladores de software, puedan empelar el
método que se adapte mejor a sus necesidades y tipo de proyecto.

Referencias

1. Montesa Andrés, J. O. (s.f.). Estimación en desarrollo de software.


http://www.upv.es/~jmontesa/eog/4-eog00.doc, (2009). Accedido el 25 de Mayo de 2009.
2. Pérez Giraldo, O. Métricas, Estimación y Planificación en Proyectos de software.
http://www.willydev.net/Descargas/WillyDEV_PlaneaSoftware.Pdf, (2009). Accedido el 2
de Septiembre de 2010.
3. Cuadrado Gallego J., M. Á. Segmentación Recursiva de Proyectos Software para la
Estimación del esfuerzo de desarrollo de software. Alcalá. (2004).
4. Duran Rubio, S. E. Puntos por Función. Una métrica estándar para establecer el tamaño
del software. Boletín de política informática Nº 6. (2003).
5. Pressman R.S. Ingeniería del Software. Un enfoque práctico. Mc Graw Hill. 2009
6. Pérez, A. L., Duque, A., González, L., Millane, F., & Ospina, G. Modelo para la estimación
temprana de esfuerzo en proyectos de software, incorporando información de proyectos
similares. Antioquia, Colombia. (2006).
7. Varas M. P., Modelo de Gestión de Proyectos Software: Estimación del Esfuerzo de
Desarrollo. http://www.inf.udec.cl/~mvaras/papers/arica/arica.htm, (2010). Accedido el 2
de Septiembre de 2010.
8. Guerra G. L. Estimación de Proyectos Software para desarrollo de aplicaciones
Intranet/Internet basada en la técnica de puntos de función.
http://portal.inf.utfsm.cl/docs/publicaciones/EstimacionDeProyectos_16_.pdf, (2010).
Accedido el 2 de Septiembre de 2010.
9. Teruel., A. (27 de 2 de 2001). COCOMO II: Una Familia de Modelos de Estimación.
(2001). http://www.ldc.usb.ve/~teruel/ci4713/clases2001/cocomo2.html, (2010). Accedido
el 2 de Septiembre de 2010.
10. Gramajo E, et al. Combinación de alternativas para la estimación de proyectos
software.http://www.itba.edu.ar/nuevo/archivos/secciones/art_revistas_6.pdf, (2010).
Accedido el 2 de Septiembre de 2010.
11. Iglesias, A. M. El MÉTODO DELPHI. http://www.gestiopolis.com/canales6/eco/metodo-
delphi-estadistica-de-investigacion-cientifica.htm, (2009). Accedido el 12 de 05 de 2009.
12. Montesa Andrés, J. O. Estimación del Esfuerzo en el Desarrollo de Software. Valencia.

268
(2000).
13. Jones C., Estimación de Costos y Administración de Proyectos de Software. Mc Graw Hill,
México (2008).
14. Chakrabarti A., Wideband Delphi, Estimation Technique.
http://www.slideshare.net/aniruddha.chakrabarti/wideband-delphi-estimation, (2010).
Accedido el 2 de Septiembre de 2010.
15. Stellman A., Greene J., Applied Software Project Management Estimation,
http://www.stellman-greene.com/images/stories/LectureNotes/03%20estimation.pdf,
(2010), Accedido el 2 de Septiembre de 2010.
16. Carroll E. R. Estimating Software Based on Use Case Points; San Diego,CA, EEUU.
(2005).
17. Peralta M., Estimación De Esfuerzo Basada en Caso de Uso.
http://pisuerga.inf.ubu.es/rcobos/anis/estimacion-del-esfuerzo-basada-en-casos-de-usos.pdf,
(2004). Accedido el 2 de Septiembre de 2010.
18. Megapolis.net. Excel para estimación por casos de uso.
http://www.navegapolis.net/content/view/563/87/, (2009). Accedido el 10 de 05 de 2009.
19. Durán Rubio, S. E. Boletín de Política Informática Núm.6, 2003. Puntos por función. Una
métrica estándar para establecer el tamaño del software:
http://www.inegi.gob.mx/inegi/contenidos/espanol/prensa/Contenidos/Articulos/tecnologia/
puntosxfuncion.pdf, (2003). Accedido el 28 de Mayo de 2009.
20. Trejo, N. B. (s.f.). Estimación de Esfuerzo con Casos de Uso. Rio Gallegos, Argentina.
(2009).

269
Descripción del software para la configuración de un
tranceiver.

Jesús Augusto Guzmán L,a , Carlos Alberto González.b, Elvis Eduardo Gaona
García, a
a
Grupo de Investigación GITUD
b
Estudiante Ingenieria Electronica Universidad Distrital
jaguzman@udistrital.edu.co

Resumen. Este documento describe el software que permite controlar el


tranceiver. Se expone los procedimientos para la configuración en modo
transmisor y receptor, las interfaces para la comunicación y el protocolo
que permite la reprogramación desde la herramienta de software
desarrollada.

Palabras Clave: Tranceiver, SCI, SPI, Pll, Filtro IF.

1 Introducción

El modulo de comunicaciones del pico satélite posee diferentes parámetros de


funcionamiento que se puede reprogramar, estos parámetros presentan valores
interdependientes entre sí, es decir al cambiar el valor de un parámetro es necesario
recalcular los demás parámetros. Esto requiere una interface y protocolos que hagan
posible una configuración fácil y sin conocimiento detallado por parte de cualquier
usuario.

2 Funcionamiento general

El tranceiver inicialmente se encuadra en modo receptor y analiza si detecta un


paquete valido, el cual debe tener la dirección del tranceiver programada con
anterioridad mediante la herramienta CUBESAT COMM SETUP. Al mismo tiempo el
tranceiver también está a la espera de datos que el usuario desea enviar o de comandos
para la reconfiguración.

Fig 1. Interface de comunicación del tranceiver.

La entrada y salida de datos del tranceiver se hace mediante una interface serial
SCI, cuyos niveles de voltajes están entre 0V para 1 lógico y 3.3V para 0 lógico. En
esta misma interface serial también llegan los comandos que permiten cambiar los
parámetros del tranceiver.

271
Fig 2. Modulo tranceiver.

El integrado que se encarga de la etapa de RF es el ADF7021-N de Analog


Devices el cual entrega al microcontrolador los datos en banda base mediante una
interface SPI utilizando un pin bidireccional.

Fig 3. Forma de onda datos SPI.

2.1 Programación del tranceiver.

El ADF7021-N tiene 15 registros en los cuales se establecen los parámetros de


funcionamiento, estos registros son enviados por el microcontrolador mediante una
interface serial dedicada especialmente para esta función.
Los 5 primeros registros permiten configurar el pll, la modulación y las frecuencias
de las señales de reloj que definen la tasa de transferencia. Los registros 5 y 6 permiten
configurar los parámetros del filtro de IF y su calibración. El registro 7 permite hacer
lecturas de algunos de los sensores incorporados del ADF7021-N como la
temperatura, la frecuencia IF, el RSSI (Fuerza de la señal recibida) y el voltaje de
alimentación. Los registros 9 y 10 se encargan del Control Automático de Ganancia y
del Control de frecuencia. El registro 11 permite configurar la palabra de
sincronización o SYNC WORD, la cual es también la dirección de tranceiver.

272
Tabla 1. Registro ADF7021-N.

2.2 Modo receptor.

El primer paso para entrar en modo receptor es encender el VCO externo, y esperar
aproximadamente 0.7ms para que se estabilice la señal. Luego se debe configurar los
relojes que fijan la velocidad de transmisión y recepción. Se realiza la configuración
del filtro IF, para garantizar que la frecuencia central del filtro sea lo más cercana a los
100kHz, se puede realizar una calibración fina que toma alrededor de 8.2mS o una
calibración más rápida pero menos precisa que toma unos 200uS, pero que solo
proporciona una precisión de ±2.5KHz.
Al encender el PLL se cierra el lazo, encendiendo el comparador de fase y el
divisor de frecuencia. Y por último el encender el control automático de frecuencia,
hecho esto el tranceiver estará listo para recibir los datos provenientes del canal de
comunicaciones.
act configuración ...

VCO on
Esperar 0.7
ms

Escribir Reg
3 Tx/Rx
CLOCKS

Cal Filtro IF

Encender
PLL Esperar
40uS

Encender
demoduladores

Encender
AFC

Recibir
Datos

Fig 4. Diagrama actividades configuración modo receptor.

273
2.3 Modo transmisor.

Para llevar el tranceiver a modo transmisor se debe encender el VCO interno y esperar
aproximadamente 0.7mS para estabilizar la señal, luego se establece la frecuencia a la
que se quiere transmitir.
El siguiente paso es encender el amplificador de potencia y enviar los datos, para
salir del modo transmisor se debe apagar el amplificador y llamar la rutina de modo
receptor.

act configuración m...

Escribir REG1
Esperar 0.7 mS

Establecer
Frecuencia

Encender
Amplificador

Env iar Datos

Apagar
Amplificador

Fig 5. Diagrama actividad configuración modo transmisor.

En modo receptor o transmisor el ADF7021-N siempre entrega el reloj por el pin


Clkout, por tanto el microcontrolador siempre está en modo SLAVE, y los datos son
entregados por un pin bidireccional TxRxData.

2.4 El programa del microcontrolador.

A continuación se expondrá brevemente el programa que se ejecuta en


microcontrolador mediante un diagrama de flujo simplificado.
El microcontrolador almacena en la memoria flash los valores de los registros que
permiten la configuración del tranceiver, estos valores son cargados en la memoria
RAM del microcontrolador. El siguiente paso es habilitar el ADF7021-N llevando a
‗1‘ lógico el pin CE y esperar a que el regulador interno se estabilice.

274
act código microcontrolador

Inicializar Ram

Habilitar
Tranceiv er

Verificar
Regulador

[Regulador No Listo]
Estado del
Regulador

[Regulador Listo]

Modo Rx

Verificar estado PII

[PII no Enganchado]

PII Engancho

[PII Enganchado]

Config. SPI
Slav e

Fig 6a. Diagrama Actividades código microcontrolador.

Ahora es posible entrar en modo receptor y verificar que el pll se ha enganchado


para poder esperar la recepción de datos.
El microcontrolador escanea constantemente por la entrada de un dato ya sea si
proviene del puerto SPI, que son los datos demodulados por el ADF7021-N o del
puerto SCI que puede ser datos para enviar por RF o comandos para reconfiguración.

act Codigo Microcontrolador

A
[Datos cargados

Datos en
SPI? Env air por
SCI
en SPI]

B
[Datos Cargados en SCI]
Datos en
SCI?

Fig 6b. Diagrama de Actividades código microcontrolador.

Si llegan datos por el puerto SCI y el primer byte corresponde a 0x7E la cual es la
bandera de sincronización utilizada en AX.25, significa que se está recibiendo un dato
que debe ser enviado por RF, se debe entrar en modo transmisor y enviar los datos que
van llegando, esto continua hasta que se recibe otra vez la bandera 0x7E. Que es el
final de un paquete AX25 y el tranceiver vuelve otra vez al modo receptor.

275
act codigo microcontrolador

Bandera '7eh' C
[Activada]

Guardar
Bandera 'P' Registros en A
[Activada] Env iar 'OK'
RAM

Guardar
Bandera ´T´ Registro en
[Activada] Env iar 'OK' A
RAM

Bandera 'R' Readback


[Activada] Env iar Dato A

Bandera 'X'

Guardar en Env iar Reset


Bandera 'S'
[Activada] [Activiada] Flash

A Reset
Env air 'OK'
Bandera 'R' [Activada]

Fig 6c. Diagrama de actividad código microcontrolador.

Si los datos que llegan por SCI el primer byte corresponde a una de las banderas
que identifican o encabezan cada comando de configuración, el microcontrolador hará
efectivo ese comando ya sea recibiendo y/o almacenando en flash los registros o
realizando la lecturas de los sensores.

act Codigo Microcontrolador

Modo TX

Env iado por SPI


Hacia RF

Dato en
[Datos no SCI
cargados
en SCI]

[Datos cargados en SCI]

Env iado por [Bandera no esta


SPI Hacia en '7eh']
RF

Bandera '7eh'

[Bandera en '7eh']

Modo Rx

Fig 6d. Diagrama de actividad código microcontrolador.

276
2.5 Configuración desde el software.

La herramienta software que se desarrolló para programar el tranceiver, tiene una


interface amigable que permite cambiar los diferentes parámetros tales como la
frecuencia de transmisión y de recepción, potencia de salida, ancho de banda filtro IF
entre otros, para luego enviarlos mediante puerto serial al tranceiver. Los niveles de
voltajes son convertidos por el cable que viene con el tranceiver.

Fig 7. Panel Frontal CUBESAT COMM SETUP.

Para poder llevar a cabo la programación se ha especificado la siguiente estructura


de comandos. El primer byte identifica el tipo de comando.

Fig 8. Comandos configuración de tranceiver.

Los dos primeros comandos permiten la transmisión de los registros desde el PC al


microcontrolador. El campo de datos de estos dos comandos llevan los 4 bytes de cada
registro, cada registro se envía individualmente.
El segundo comando solo se emplea para enviar los registros N y
VCO/OSCILLATOR que se utilizan en modo transmisor.
El comando Readback no tiene campos de datos, permite hacer petición de lectura de
los sensores del ADF7021-N basándose el valor del registro 7 cargado en RAM
anteriormente.
El comando SX permite el almacenamiento de los registros en la memoria flash,
para mantener la configuración al encender el tranceiver y SR permite configurar el
tranceiver con los valores de los registros en RAM.

277
2.6 Comunicación programador.

La comunicación entre el CUBESAT COMM SETUP y el tranceiver comienza al


hacer click en comando ‗SEND‘ en el panel puerto serial, enviando cada registro al
tranceiver, el cual tras recibir y almacenar en RAM cada registro responderá con un
OK para indicar que ha terminado de ejecutar el comando y que está listo para recibir
el siguiente comando.

Fig 9. Configuración del tranceiver.

En el caso del comando ‗R‘, el tranceiver devolverá dos bytes en el cual van
codificados la medición de los sensores del ADF7021-N.

Fig 10. Comunicación entre Cubesat Comm Setup y el tranceiver.

3 Conclusiones y trabajos futuros.

Queda ahora acoplar el tranceiver con el modulo beacon del tranceiver y el modulo de
la capa de enlace AX25 que permitirá la comunicación con los radios de la estación
terrena.

Referencias

1. Simulation of communication systems. M.C. Jeruchim , P. Balaban, K. Sam Shanmugan. Ed


Plenum Press, 1992
2. Satellite communications systems: design principles. M. Riccharia. Ed MacMillan, 1995
3. Satellite communications systems. G. Maral, M. Bousquets. Ed Wiley, 1996
4. Digital communications. E.A. Lee. Ed Kluwer, 1994
5. Modulation and noise spectral analysis, Panter,Mc. Graw Hill, ISBN 07-048446-4
6. Advanced electronics Comunications Systems, Wayne Tomasi, Mesa Community, Prentice
Hall. ISBN 0-13-011214-3025
7. Digital Communications, Thomas C. Barty, Howard W. Sams & Company. ISBN 0-471-
877837-5
8. Satellite Communications, Timothy Pratt & Charles W. Bostian, John Wiley & SonsI.

278
IS.B.N. 0-471-877837-5
9. Hop Calculation in Digital Radio Systems, Siemens Telecomunicazione SPA, Italy. Rp.
10/03 issue2, december 1987.
10. Design of Device & Systems, William H. Middernoff, Marcel Deker,Inc. ISBN 08247-7391
11. Telecommunication Transmission HandBook, 2ed. Edition, Roger L. Freeman, John Wiley
& Sons. ISBN 0471-08029-2
12. Brieß, K., Montenegro, S., et al., ―Demonstration of Small Satellite Technologies by the
BIRD mission‖, Proceedings of the 16th Annual AIAA/USU Conference on Small
Satellites, Logan, Utah, USA, Aug. 2002
13. Barza, R., Aoki, Y., Schilling, K., ―UWE-1, A Student Built Pico-Satellite‖, Proceedings of
the 6th International Workshop on Research and Education in Mechatronics, Annecy,
France, June 30-July 1, 2005,
14. CubeSat Design Specifications Document,Calpoly and Stanford University, , Revision VIII,
2003, accessed on 06.12.2005
15. <http.//cubesat.calpoly.edu/documents/cubesat_spec.pdf>
16. Nakaya, K., et al., ―Tokyo Tech CubeSat: CUTE-1 – Design & Development of
17. GMSK Modulation for Digital Mobile Radio Telephony, IEEE Transactions on
18. Communications, vol COM-29, No. 7. pp. 1044-1050, July 1981. Murota, K. and Hirade,
K.,
19. Digital Communication Systems, Prentice-Hall, Englewood Cliffs,
20. NJ, 1987. Pebbles, P. Jr.,
21. Digital Communications: Fundamentals and Applications, Prentice-Hall, Englewood Cliffs,
NJ,
22. 1988. Sklar, B.,
23. Narrow-Band Transceiver IC ADF7021-N, Analog Devices, 2008.
24. Rf Circuit Design, Newnes, Bowick Chris, 1996.
25. Rf Design Guide: Systems, Circuits, And Equations, Artech House, Vizmuller Peter, 1995.

279
Conocimiento para toso: La inclusión social hacia la
competitividad educativa mediante un modelo de
gobernabilidad basado en conocimientos para la
educación superior en Colombia por ciclos propedeuticos

Alfonso Pérez Gama 1, Guillermo Hoyos Gomez 2

Decano, Life Senior IEEE Member


11

2FESSANJOSE Rector Principal


FUNDACION DE EDUCACION SUPERIOR SAN JOSE
Bogotá D.C., Colombia
japerezg@ieee.org

Resumen: La educación técnica y tecnológica no se ha visto


favorecida por la decisiones de la Sala CONACCES del Ministerio de
Educación Nacional en que se ha compelido a las Instituciones de
Educación Superior en Colombia a reducirle el nivel académico al las
carreras Técnica Profesionales de Ingeniería despojándolas de la
ciencias básicas en un grave detrimento de la calidad y competitividad
en más de 30 años de actividad. Lo anterior es un caso de exclusión
social al considerarla como la pariente pobre de la Educación Superior.
Ha habido varias leyes y decretos reglamentarios con el objeto de
promover mayor cobertura de conglomerados sociales de menores
ingresos con la estrategia de los ciclos propedéuticos pero pari passu el
organismo de aseguramiento mencionado ha establecido exigencias
extraacadémicas que hacen ingobernable la educación Técnica
Profesional y Tecnológicas. Frente a estos problemas la
FESSANJOSE en los últimos años ha venido desarrollando
modelos matemáticos y computacionales resultados de la
recontextualizacion e innovación social del Modelo Interindustrial
de W. Leontief. Estos avances se han defendido en eventos de talla
mundial del IEEE, la ACM y el ISTEC.

Se presenta un análisis crítico de los inconvenientes y


complicaciones al respecto. Nuestra propuesta en un modelo
analítico para la gobernabilidad y sostenibilidad Académica y
Financiera, la Deserción y la Exclusión Social. Se trata de Iniciativas
centradas en Investigación, desarrollo y experimentación con
aplicación de Arquitecturas de conocimientos y de TICs. Se concreta
con un sistema diseñado e implementado para enfrentar la estrategia de
los ciclos propedéuticos primero con un conjunto de instrumentos
analítico-matemáticos que posibilitan la gestión de conocimientos
curriculares: modelo FESSJ-PROP, que es un sistema estructural para
analizar y estructurar la cohesión y coherencia entre los ciclos.
Contiene un modelo estudiantil individualizado para mejorar su
productividad en el proceso de articulación desde la Educación
Secundaria hasta la Profesional y con complementos propedéuticos.
Se integra con un sistema de flexibilización multidimensional, que
posibilita la gerenciabilidad del ambiente complejo y heterogéneo.
Como validación se construyó el prototipo inteligente basado en
conocimientos, iCOACH.

281
Palabras claves: Modelo matemática, ciclos propedéutico, matrices
de coherencia curricular, gobernabilidad academica, sostenibilidad
financiera, gestión del conocimiento, deserción.

1 Referentes internacionales.

La Ingeniería está cambiando como consecuencia de la evolución científica y


tecnológica y las necesidades de la sociedad y sus demandas. Los ingenieros
desde sus niveles tempranos de formación necesitan entender la estructura y
comportamiento de los sistemas desde los niveles nano hasta los megasistemas
extremadamente complejos en grande escala. Además la convergencia de
disciplinas científicas y tecnológicas que exigen también un enfoque
interdisciplinario en la educación. Para entender los desafíos se requiere revisar
algunas megatendencias más identificables en que se destacan: [10]
• Una sociedad globalizada que demanda apertura, en lo económico, social,
cultural y político. Se forman bloques/alianzas económicos y geopolíticas, un
poder mundial multipolar, y la internacionalización de las formas culturales,
educativas y sociales. La formación de alianzas, por razones económicas,
geográficas, religiosas, culturales, y financieras. Los nuevos paradigmas de la
informática como el Cloud Computing, está promoviendo nuevos realineamientos
de la información y del conocimiento ofreciendo nuevas dramáticas posibilidades a
los sectores modernos de la economía pero mayor rezago a los sectores sociales.
• Avance de la revolución científico-técnica en el campo de nuevos
materiales, fuentes alternativas de energía, inteligencia artificial/computacional,
nanotecnología, microelectrónica, aplicaciones de la física cuántica, alta
informática, industria aeroespacial, biotecnología y sus aplicaciones farmacéuticas y
agroindustriales e ingeniería genética.
• Un realineamiento de los países hacia un nuevo orden económico mundial
ya mencionado,impulsado por instituciones multilaterales, que da como resultado la
supremacía del capital financiero sobre el capital productivo e intelectual, la
exportación de capital de los países pobres hacía los países ricos, la supremacía
alimentaria y agroindustrial de los países transdesarrollados, la internacionalización
de las formas y sistemas de producción, no así de las relaciones laborales y la
formación de una creciente acumulación de mano de obra.
• El deterioro ambiental por la industria de chimenea: el uso de energía
contaminante y la desmedida deforestación como es el caso de la Amazonía, que
produce desiertos, conflictos por el agua, el calentamiento global y el regreso de
enfermedades a los países subdesarrollados ya controladas entre otros. La
agroindustria moderna que desplaza en forma importante la producción de
alimentos que está generando hambrunas.
Las sociedades, en especial las universidades se destacarán aquellas que tengan
la capacidad de controlar la dinámica del cambio y beneficiándose de la
inteligencia, datos, información y el conocimiento con disponibilidad global y de
adaptarse rápida y productivamente (con inteligencia organizacional) a las
cambiantes condiciones del mundo. En este nuevo orden, es importante encontrar
nuevas alternativas, construir modelos complejos de desarrollo. Las Facultades
de ingeniería tienen un papel clave que jugar en este sentido entre los cuales
cabe mencionar los siguientes desafíos:
• Necesidad de entender la estructura y comportamiento de temas punteros desde la
nanoescala hasta sistemas en muy grande escala: extremadamente complejos
como los sistemas de los sistemas (System Of Systems).
• Necesidad de la aplicación intensiva de los modelos y herramientas más
complejas de las TIcs, para aumentar la capacidad analítica y la productividad
en los procesos de planeación, diseño,construcción y operación.
• Necesidad de ser conscientes, sensibles y tolerantes, no solo a los cambios
sociales sino a las nuevas exigencias (gobernabilidad, sostenibilidad,
globalización, redistribución del ingreso, inclusión).

282
En consecuencia los planes de estudio de Ingeniería a todo nivel en el Siglo
XXI deben incorporar nuevos campos:

•Lo Nano y lo Micro


•La ingeniería de los sistemas de los sistemas SOSE y Sistemas Globales
•Ingeniería y las ciencias de la vida natural y artificial
•Sistemas Complejos de Ingeniería y la complejidad en general

La misión de los planes de estudios en Ingeniería a todo nivel, debe promover


concientización en cuanto a:
•A los cambios sociales y académicos: Desarrollo Pedagógico y Financiero
Sostenible, y la
Gobernabilidad Académica y Pedagógica.
•Alta sensibilidad de la población marginada y la desplazada, excluidas de los
beneficios de la
modernidad, de las TICS y de la Sociedad del Conocimiento.
•La sostenibilidad debe garantizar su adecuación a las necesidades del presente
sin comprometer la capacidad de las generaciones futuras para satisfacer sus
necesidades.
•La gobernabilidad académica también es la expresión de la garantía que los
graduados resuelvan problemas actuales y sobrevivan con éxito en el futuro
resolviendo nuevos problemas con mayor complejidad.
•La globalización de la Ingeniería que desborda lo local: internacionalización
de los planes de estudio como un imperativo y como garantes de los TLC.
•De la acreditación de alta calidad a la Acreditación Global de programas
académicos que es una consecuencia natural de los procesos de globalización de
los servicios de Ingeniería, la apretura económica y la apertura educativa.
•Mayor proactividad en la identificación de los requerimientos de la industria en
conocimientos, de las habilidades, competencias y actitudes para la empresas del
III Milenio.
•Equilibrio entre los profesores investigadores con profesores con acreditada
experiencia docente a todo nivel TP, T Y P.

2 La calidad en educación superior

La búsqueda de la excelencia educativa es uno de los propósitos del MEN en sus


últimos años de excelencia. Se trata de lograr de forma coherente, consistente y
disciplinada la satisfacción del estudiante, los padres de familia, la comunidad, la
industria, del gobierno nacional y del resto de la sociedad global, con los graduados
competitivos, productos de investigación e innovación y
servicios de proyección social que puede ofrecer una institución.
La instituciones son conscientes de los altos costos que la Calidad como cultura
y estrategia corporativa pero disminuye en forma más que proporcional, los costos por
reprocesos, reingeniería, restructuración y redesarrollo. La retribución es cada vez
mayor credibilidad, las nuevas ventajas competitivas como proyecto educativo con
una alta proyección social. Todo ello se une a las altas demandas sociales y
económicas para las IES.
La investigación se ha privilegiado para las IES y los postgrados en
detrimento de las Instituciones T/T pero que a la hora de los registros calificados, la
piden y además se exige:
•La actividad continua entorno a la selección de información y a la
generación, desarrollo y aplicación de competencias investigativas, conducente a
la adquisición de herramientas de orden cognitivo y desempeños de orden
procedimental, que permitan al sujeto de la investigación, definir tanto el
problema como la metodología para desarrollar el proceso investigativo. Las TICs
de punta redefinen el mismo contenido de la investigación.
•El trabajo procesal que desarrolle actitudes interrogativas hacia el conocimiento

283
nuevo y a la innovación, frente a la realidad que complementada con una
fundamentación teórica, tanto del problema de investigación como de la
metodología, permita formular de manera organizada, coherente y contextualizada
un proyecto de investigación.
•La divulgación y presencia en eventos académicos de talla mundial, que
promuevan el intercambio y el trabajo colaborativo
•Las posibilidades de Innovación deben reconocerse en las T/T y tener la misma
ponderación frente a las entidades de financiamiento.
El problema es que los países pobres y de desarrollo medio no somos actores en
esta revolución del conocimiento científico y tecnológico. Hay una división entre
quienes generan el saber y los productos que de él se derivan, y quienes simplemente
lo utilizan. Esta relación está mediada por relaciones y tratados comerciales con
respaldada por derechos de autor. Esto resulta en una moderna forma de creación de
dependencia impuesta por entidades corporativas que controlan los procesos de
investigación y desarrollo, lo que en los hechos produce un mundo que paga el saber
y un mundo que se beneficia económicamente de ello.
El paradigma científico imperante desde hace menos un siglo, fomenta la
especialización disciplinar, fenómeno que ha traído consigo el divorcio entre teoría
y practica, entre la investigación y la docencia, entre ciencias de la naturaleza y
ciencias humanas, entre el saber racionalista y el saber tradicional.
La responsabilidad social es otro elemento que incrementan las demandas
sociales: las IES como garantes del derecho constitucional a la educación de alta
calidad, el medio ambiente, los compromisos con la sociedad civil, la industria y el
país que exige mejores lugares en competitividad. En este sentido los avances de
Colombia son muy discretos en últimos 30 años.
Lo anterior unido al auge de los TLC de Colombia con numerosos países,
exigen a las IES la visibilidad internacional, el bilingüismo, infraestructura mejorada
en forma más que proporcional para la movilidad estudiantil, docente y de
investigadores mediante procesos sostenibles apoyados por convenios con
instituciones extranjeras de alta calidad, la re-estructuración de los planes de
desarrollo, con las funciones sustantivas de la educación superior (docencia,
investigación y proyección social) y las propias de su quehacer como IES
(Tecnologías, Bienestar, Planeación -incluyendo procesos de autoevaluación y
calidad-, Promoción institucional).
La normatividad vigente obliga también a esfuerzos adicionales a las instituciones
como lo es la adecuación de dichas normas, nuevas plataformas y demás
exigencias que implican mayores gastos pero que no se ve apoyada por nuevos
estímulos, i. e las exigencias cada vez más protuberantes que no se traduce en la
posibilidad de una veeduría o tercera parte ni se ofrecen mayores flexibilidades del
proceso, donde van a primar más los mecanismos ingenieriles de la calidad<