Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/262589034
CITATIONS READS
10 4,028
2 authors:
Some of the authors of this publication are also working on these related projects:
DESIGN OF A VIRTUAL LEARNING ENVIRONMENT FOR TEACHING PROCESS IN THE C.U. PRINCIPLES OF BIOENGINEERING. View project
Discrimination of Venezuelan spirituous beverages by a trace element-radial basis neural network approach View project
All content following this page was uploaded by Cesar Gonzalez on 14 June 2014.
• Traducciones
Centro de idiomas UNEXPO
• Administración y transcripciones
T.S.U Zorelys Romero
• Colaboradores
T.S.U Zorelys Romero
Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la UNEXPO y
podrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio utilizado a la UNEXPO, a
la siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final de calle China, Apdo.
Postal 78, Puerto Ordaz, Edo. Bolívar, Venezuela, Telf./fax (0286)962.52.45-961.13.82 zorelysromero874@hotmail.com
CONTENIDO Vol. 15, Nº 60, 2011
ISSN 1316-4821
118 Árbitros
119 Editorial
ALGORITMOS
121 Giugni Marilyn, León Luis, Clusterdoc un Sistema de Recuperación y Recomendación de
Documentos Basado en Algoritmos de Agrupamiento
BASES DE DATOS
130 Aguilera F. Ana, García M. Luis, RT-POSTGRESQL: Extensión de POSTGRESQL para el
manejo de datos con frecuencias temporales.
ELECTRÓNICA DIGITAL
144 Pirrone José, Huerta Mónica,
RFID en el sector salud: Aplicaciones, Beneficios e Incertidumbres.
ENERGIAS ALTERNATIVAS
151 Baethge Erick, Berzoy Alberto, Guzmán Víctor, Giménez María Isabel,
Nuevo sistema de control para el seguimiento del punto de máxima potencia en paneles solares
basados en el control predictivo de corriente de convertidores CC-CC.
SISTEMAS EMPRESARIALES
161 Acuña Tapia Fernando, Arzola H. Minerva,
Morfología y dinámica del tejido empresarial de Ciudad Guayana, Estado Bolívar, Venezuela
NOTA TÉCNICA
171 Ávila Rita, González Cesar,
La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
117
Árbitros
Dr. Genni Aguilar - Hosp. de Clínicas Caroní, Pto. Ordaz Ing. José Odremán - UNEXPO Pto. Ordaz
Dr. Jesús Andrade - LUZ Maracaibo Dr. Dimas Mavares - UNEXPO Barquisimeto
Dra. Minerva Arzola - UNEXPO Pto. Ordaz Dr. Franklin Mendoza - UNEXPO Pto. Ordaz
Dr. Máximo Benavides - UNEXPO Pto. Ordaz Dra. Gaudys Mendoza - UNEXPO Barquisimeto
Dra. María C., Blanco - UNEXPO Barquisimeto Dr. Agustín Mejías - Universidad de Carabobo
MSc. José Borjas - UNEXPO Pto. Ordaz Dra. Ingrid Motezuna - UNEXPO Barquisimeto
MSc. Antonio Bravo-UNET MSc. Scandra Mora - UNEXPO Pto. Ordaz
Dr. Edwuin Carrasquero - UCV Dr. Luis Moreno - Royal Institute of Technology, Suecia
Dr. José Contreras - ULA Dr. Jorge Mostany - USB
Dr. Roberto Corral - Universidad de La Habana MSc. Ángel Olivier - UNEXPO Pto. Ordaz
Dr. Julio Cruz - USB Dr. Adelmo Ortiz Conde - USB
Dr. Ángel Custodio - UNEXPO Pto. Ordaz Ing. Mauricio Paletta - UNEG Puerto Ordaz
Dra. Mayra D’Armas- UNEXPO Pto. Ordaz Dr. Gianfranco Passariello - USB
Dr. Ramón Depool - UNEXPO Barquisimeto Dr. Dester Perdomo - CUJAE, La Habana
Dr. Héctor Fernández - UNEXPO Pto. Ordaz Dra. Olga Prado - SIDOR
Dr. Herman Fernández - UNEXPO Pto. Ordaz Dr. Eli Saúl Puchi - UCV
Dr. José Folgueras - ICID, La Habana MSc. Richard Resplandor - UNEXPO Pto. Ordaz
MSc. Zulay Franco - UNEXPO Pto. Ordaz Dra. Rosa Reyes - USB
Dr. Luis Galván- USB Dr. Ernesto Rodríguez Denis - ISPJAE, La Habana
Dr. Francisco García Sanchez - USB MSc. Gonzalo Rodríguez - EDELCA, Caracas
Dr. Luis García - UNEXPO Pto. Ordaz Ing. Luis Rojas Malavé - UNEXPO Barquisimeto
Dr. Oswaldo García - Universidad de Matanzas Dr. Rubén Rojas - ULA
“Camilo Cien Fuegos”, Cuba Dr. Luis Rosales - UNEXPO Pto. Ordaz
MSc. Charlo González - UNEXPO Pto. Ordaz Dr. Augusto Ruiz - USB
Ing. Dosinda González- USB Dr. José Ramón Rus - Fund. Inst. de Ingeniería, Caracas
Dra. Gema González - IVIC MSc. Luz Esther Salazar - UNEXPO Pto. Ordaz
Dra. Esther Morales - UNEXPO Pto. Ordaz MSc. José Sánchez Medina - UNEXPO Pto. Ordaz
Dr. Leonardo González - UNEXPO Pto. Ordaz Dra. Amarilis Sandry - UNEXPO Barquisimeto
Dr. Rafael Guevara - UNEXPO Pto. Ordaz Dr. José Sarabia - UNEXPO Barquisimeto
Dr. Víctor Guzmán - USB Dr. Benjamín Scharifker - USB
Dr. Diego Jugo - ULA Dra. Mariana Staia - UCV
Dr. Jesús López - UNEXPO Pto. Ordaz Dr. Nando Troyani - UDO Pto. La Cruz
Dra. Gertrudis Márquez - VENALUM Dra. Cármen Luisa Vásquez - UNEXPO Barquisimeto
Dr. Jairo Márquez - ULA Dra. Sara Wong - USB
Dra. Olga Márquez - ULA MSc. Luis Velásquez - UNEXPO Pto. Ordaz
Dr. Ney Luiggi - UDO Sucre MSc. Ely Contreras - UNEXPO Pto. Ordaz
118
EDITORIAL
a Relatividad Especial de Einstein en uno de sus postulados establece que existe una
L velocidad límite en la naturaleza: la velocidad de la luz en el vacío, esto es,
aproximadamente 300.000 km/s. Cualquier partícula, así tenga una masa muy pequeña, no
puede alcanzar esta velocidad.
Esta medición pone en jaque uno de los pilares fundamentales de la física moderna: La
Relatividad Especial. Esto condujo y conduce a cualquier cantidad de comentarios sobre
los posibles errores del experimento, y, la aparición de cualquier cantidad de artículos
científicos que tratan de explicar este hecho. La gente de OPERA no dice haber descubierto
una falla en la relatividad de Einstein, al contrario, han sido conservadores y plantean
“hemos medido una velocidad que no concuerda con la teoría actual, por esto solicitamos
a la comunidad científica que se planteen ideas y que otros experimentos repitan esta
medición para verificarla o refutarla”. Las teorías se ponen a prueba, una y otra vez para
estar seguros de lo observado. El método científico establece que antes de concluir
cualquier resultado se debe estar muy seguro, sino hay que repetir el experimento.
Afortunadamente esto podría ser posible, ya que los experimentos MINOS (en EEUU) y
T2K (en Japón) son bastante similares a OPERA y podrían llevar a cabo esta medición.
119
Si la relatividad tiene una falla, habría que establecer un nuevo límite de velocidad que
sería levemente superior a los 300.000 km/s de los fotones. Esto implicaría hacer varios
cambios en la teoría. Desde el punto de vista experimental se espera que nuevas ideas de
la comunidad científica sean planteadas como posibles fuentes de error en OPERA lo que
permitirá verificar los datos una y otra vez. También queda esperar que los experimentos
MINOS y T2K presenten mediciones de la velocidad de sus neutrinos. En la física teórica,
se explorarán posibles interpretaciones y nuevas teorías para comprender el resultado de
OPERA, especialmente si se confirma.
120
CLUSTERDOC UN SISTEMA DE RECUPERACIÓN Y
RECOMENDACIÓN DE DOCUMENTOS BASADO EN
ALGORITMOS DE AGRUPAMIENTO
Giugni O. Marylin,(1) León G. Luis(2)
(1) (2)
mgiugni@uc.edu.ve, lleon@uc.edu.ve
Resumen: El fenómeno de Internet ha traído consigo una extensa gama de posibilidades de comunicación
y con ello un vertiginoso crecimiento de la información digitalizada. Cada día el usuario es abrumado con
la inmensa información que obtiene durante los procesos de búsqueda, donde difícilmente puede identificar
aquellos que posean mayor relevancia con respecto a su necesidad informativa; además examinar este ingente
volumen de documentos se puede convertir en un problema mayor que el no disponer de ellos. En este
sentido, las tecnologías de información y comunicación, adquieren un rol importante, no sólo para almacenar
la información, sino también para proveer mecanismos adecuados destinados a extraer, de un conjunto de
documentos, aquellos que sean pertinentes a una necesidad informativa dada. De ello deriva el objetivo de
este trabajo al desarrollar un sistema de recuperación y recomendación automática de documentos
denominado ClusterDoc, dirigido a los investigadores de una comunidad científica, que a través de algoritmos
de agrupamiento divide el conjunto de datos en pequeños grupos con características comunes, lo cual
permiten minimizar el espacio de búsqueda y proporcionar información adaptada a los intereses del usuario.
Los resultados iniciales denotan la efectividad de la categorización y personalización del contenido
administrado por ClusterDoc.
Abstract: The Internet phenomenon has brought a wide range of possibilities for communication and thereby
a rapid growth of digitalized information. Every day the user is overwhelmed with the vast information
obtained during the processes of search, where hardly can identify those who have greater relevance to their
information need; furthermore consider this sheer volume of documents can become a greater than the not
dispose of problem. In this sense, information and communication technologies become an important role not
only to store information, but also to provide adequate mechanisms to extract, a set of documents, those that
are relevant to given information need. This work aims to develop a system recovery and automatic
recommendation document called ClusterDoc, aimed at researchers of a scientific community which through
grouping algorithms divided the dataset into small groups with common features that allow reduce search
space and provide information tailored to the interests of the user. The initial results demonstrate the
effectiveness of the categorization and personalization of content managed by ClusterDoc.
Ante la situación planteada surge el desarrollo de ClusterDoc basa en la teoría de los sistemas adaptativos, para proveer
un sistema orientado a filtrar los objetos recuperados planes de lectura personalizados, de acuerdo a los intereses
(documentos), usando los intereses señalados por el usuario y del usuario.
las recomendaciones propuestas sobre dichos objetos, las
cuales se generan a partir de las opiniones proporcionadas por En relación al modelo de usuario (estudiante), se ha partido de
otros usuarios en búsquedas previas. Además, emplea el algunos trabajos publicados en las dos áreas señaladas
modelo de espacio vectorial [5] y algoritmos de agrupamiento previamente [15]. Por otro lado, Sugiyama [16] propuso que
que permiten organizar automáticamente la información, a el perfil del usuario debía estar representado por las
partir de sus similitudes. preferencias a largo plazo y a corto plazo, donde el perfil
consistía de vectores de palabras claves con un peso asociado
El enfoque de este trabajo se centra en mejorar la fase de a la cantidad de veces que eran visitadas las páginas con esas
búsqueda de información, restringiendo el espacio de palabras claves. En este sentido, el perfil de usuario de esta
exploración e identificando las intenciones del usuario. investigación, está compuesto por la valoración que le
proporciona el usuario a un documento, señalando su interés
Ahora bien, con el propósito de explicar el proceso de en el mismo.
desarrollo de ClusterDoc, este artículo se estructura en tres
secciones principales. Inicialmente la introducción, una Para seleccionar los contenidos, se han empleado diversos
segunda sección donde se abordan los antecedentes de la enfoques, entre los que destaca el Espacio Vectorial (EV) [17],
investigación, la metodología utilizada, se presenta una idea que tiene sus raíces en el área de Recuperación de Información
general del funcionamiento del sistema y por ultimo se (en inglés Information Retrieval) mediante el cual se
muestra la evaluación del sistema de recomendación. representa el carácter temático de los objetos, como un vector
Finalmente, en la tercera sección se extraen las conclusiones de términos. Otro enfoque hace uso de diferentes técnicas del
más importantes del trabajo. área del Aprendizaje Automatizado (Machine Learning) como
son las Redes Bayesianas [18], la Clasificación
(Classification) y la Agrupación (Clustering) [19]. Algunas
II. DESARROLLO de estas técnicas utilizan TF-IDF [20] [21] (del inglés Term
Frequency Inverse Document Frequency), para determinar
1.1. Antecedentes cuán relevante es un término dentro de un documento.
Mediante TF-IDF se mejora la exactitud con la que se
Los sistemas de recomendación tratan de ser un paso adelante clasifican los documentos al considerar la existencia de
en el contexto de la recuperación de información tradicional, palabras claves dentro de ellos [22]; es importante recordar
los mismos se encargan de recomendar o sugerir a los usuarios que dentro del campo de la investigación cualquier texto de
ítems o productos concretos basándose en sus preferencias [6]. carácter científico (papers, proceedings, entre otros) posee
Cuando se habla sobre proveer un servicio personalizado en determinadas palabras claves, que son las más relevantes
sistemas de e-learning existen dos áreas principales de dentro su contexto.
investigación, sistemas adaptativos y sistemas de
recomendación, las cuales constituyen importantes campos de En lo que respecta a selección de contenidos, existen diversos
investigación para resolver problemas que involucren grandes algoritmos de clasificación dependiendo de las
volúmenes de datos. representaciones elegidas para el modelo de usuario y los
documentos: fórmula del coseno, reglas asociadas a
En relación con los Sistemas Hipermedia Adaptativos (SHA), estereotipos, redes neuronales, vecino más cercano,
éstos son capaces de diseñar información para los usuarios, clasificador bayesiano ingenuo, distancia euclidiana, entre
de manera individual, considerando sus objetivos, intereses, otros. ClusterDoc emplea la distancia euclidiana como medida
forma de estudio, conocimiento y preferencias, entre otros de semejanza entre los documentos que conforman los cluster,
[7][8]; estos sistemas tienen la capacidad de ajustar su la cual es fundamental para determinar el grado de pertinencia
funcionamiento a las metas y otras características de los que tiene el documento en relación con el área de
usuarios [9]. Entre algunos SHA en el ámbito educativo se investigación (cluster) donde está ubicado.
pueden nombrar los siguientes: ELM–ART [10], KBS-
Hyperbook [11], MLTutor [12] y MAS–PLANG [13].
2.2. Metodología
Los sistemas adaptativos han resultado ser útiles en cualquier
área de aplicación dónde se espera que el sistema sea utilizado La investigación esta guiada por la estrategia de investigación
por personas con diferentes objetivos y conocimientos; donde empírica denominada “Investigación Acción” [23], de igual
el hiperespacio de búsqueda de la información sea manera utiliza una combinación de metodologías
razonablemente grande [14]. En este sentido, ClusterDoc cuantitativas y cualitativas que se complementan y permiten
puede ser considerado un sistema de recomendación que se compensar los sesgos metodológicos del estudio [24]. A
122
Giugni M., León L., Clusterdoc un Sistema de Recuperación y Recomendación de Documentos Basado en Algoritmos
continuación se detallan las cinco fases de la investigación: documentos y la agrupación automática de los mismos,
proporcione documentos relevantes a sus intereses.
1. Fase de diagnóstico: está relacionada con la identificación
y descripción de la situación actual.
2. Fase de planificación de la acción: define las acciones que 3.2 Fase de planificación e implementación de la acción
deben ser ejecutadas para mejorar el problema.
3. Fase de implementación de la acción: se lleva a cabo la Como se ha venido mencionado, la proliferación de fuentes
acción planificada. de información, tanto en el ámbito científico, profesional e
4. Fase de evaluación: una vez culminadas las acciones, se incluso domestico, reflejan la importancia de proporcionar
evalúan las salidas obtenidas. aplicaciones que faciliten el acceso a la información,
5. Fase de especificación del aprendizaje: corresponde a la minimicen los tiempos de respuesta en su recuperación,
reflexión sobre los resultados de la fase de evaluación, lo mejoren la calidad de la información obtenida y contribuyan
cual podría dar inicio a una nueva iteración. a su reutilización. Considerando estas necesidades se ha
diseñado y desarrollado ClusterDoc, el cual se detalla en las
Por otro lado, ya que la investigación comprende la fase de próximas secciones del artículo.
desarrollo de software en el área de minería de datos, se utiliza
el modelo de referencia CRISP-DM [25][26] acrónimo de
CRoss-Industry Standard Process for Data Mining, que consta 3.3.Descripción del sistema
de las fases: comprensión del negocio, comprensión de datos,
preparación de los datos, modelado, evaluación y explotación. ClusterDoc se puede describir a través de sus tareas básicas:
representación lógica de los documentos, representación de
las necesidades de los usuarios, agrupación de los
3. Resultados documentos, generación de los planes de lectura y
retroalimentación del usuario.
3.1 Fase de diagnóstico
Representación lógica de los documentos: el sistema provee
El desarrollo de ClusterDoc comprendió diversas etapas, un espacio de búsqueda y recuperación de información
enfocadas en desarrollar un sistema capaz de proveerle al adaptada a las necesidades de los investigadores, pero estos
usuario un espacio para localizar y acceder a información documentos inicialmente deben ser preprocesados para su
adaptada a sus intereses. análisis posterior, para ello se realiza una fase de limpieza, la
cual consiste en la eliminación de acentos, imágenes y otros
La fase inicial de la investigación se enfocó en la comprensión caracteres especiales. Posteriormente, los documentos se
de la problemática. Durante esta etapa se llevaron a cabo representan numéricamente empleando el modelo de espacio
entrevistas y observaciones directas sobre los diversos vectorial [21], el cual permite representar cada documento
procesos de búsqueda de información, empleados por los mediante un vector de pesos.
estudiantes que conforman la muestra.
Para el cálculo de los pesos ClusterDoc utiliza el esquema TF-
Se aplicó una encuesta al 84% (21 estudiantes) de la población IDF (del inglés Term Frequency Inverse Document
estudiantil del último año de la Licenciatura en Computación, Frequency) [20] [21] [27] el cual determina cuán relevante es
de la Facultad de Ciencias y Tecnología (FaCyT) de la un término dentro de un documento. Un documento dj es
Universidad de Carabobo (UC), año lectivo 2008. En dicha representado por un conjunto de palabras (t1, t2,...,tn), donde
encuesta se observó que el 86.66% de los encuestados cada ti corresponde a una palabra clave que representa al
invierten de 18 a 22 horas semanales en la búsqueda de documento y n es el tamaño del conjunto; de esta manera cada
información digital, de las cuales el 20% (4 horas/semana), palabra ti tiene asociado un peso wi.
son utilizadas para su clasificación. Por otra parte, el 92% de
la muestra señaló que la información recuperada satisface De esta forma, el peso de la palabra ti en el documento dj,
entre un 25% y 35% sus requerimientos Adicionalmente, el viene dada por la Ecuación 1 [20] [28]:
100% de los encuestados expresó que debían realizar las
búsquedas con diversos criterios, para obtener resultados wij = fi,j x log2(n/dfi) (1)
acordes a sus intereses.
En la Ecuación 1, el término fi,j representa el número de
Es por ello que resulta de especial interés el diseño de apariciones del término i en el documento j, el total de
mecanismos que permitan automatizar y facilitar el proceso documentos viene dado por n, dfi se refiere al número de
de búsqueda y recuperación de información en un entorno de documentos en los que aparece el término i y wij representa el
investigación científica. Además, proveer una herramienta a peso del término i en el documento j. Por lo tanto una vez que
los usuarios, la cual a partir de una representación lógica de los se ha obtenido el peso de cada palabra en el documento, éste
123
Volumen 15, Nº 60. pp 121-129
se representa por su vector característico, el cual se observa en En esta ecuación ck corresponde a la componente i del vector
la Ecuación 2: característico del centro del grupo (cluster) k. Dji es la
componente i del vector característico del documento j, siendo
dj= (w1, w2, w3,...,wn) (2) ambos vectores de tamaño n y dis representa la distancia
euclidiana [29]. Así pues cuando un documento es agregado a
Donde wi corresponde al peso de la palabra i en el documento uno de estos grupos, se recalcula el centroide de todos los
j. A partir de este momento se hará referencia al documento dj cluster y la distancia de todos los demás documentos respecto
como el vector característico, representado por el peso de sus a éstos, para verificar si alguno de los antiguos documentos
palabras claves. debe ser reasignado.
Representación de las necesidades de los investigadores: está Generación de los planes de lectura: una vez que se han
relacionada con el perfil de usuario, el cual describe los conformado los grupos de documentos, el sistema genera el
intereses y metas del investigador. Este perfil inicialmente plan de lectura plj representado por un conjunto de documentos
considera información de un dominio específico y se obtiene (d1, d2,..., dw), adaptado a los intereses del usuario j, donde w
valorando el interés del usuario en una escala de uno a cinco, representa el número de documentos que conformarán el plan
lo cual representa su interés en un dominio de investigación de lectura.
determinado.
Para determinar el plan de lectura, se calcula la distancia
El perfil inicial se utiliza para generar un plan de lectura euclidiana entre el vector característico del usuario j y los
acorde a las necesidades del usuario, de esta forma el sistema documentos del cluster k, es decir, los documentos
podrá recuperar y mostrar los documentos que conforman correspondientes al área de investigación k, identificada en el
dicha recomendación. El perfil del investigador se actualizará perfil del usuario. El plan lo formarán los documentos que
a medida que los investigadores califiquen cada uno de los tengan mayor similitud con el vector que representa los
documentos, señalando a través de elementos tipo Likert de intereses del usuario.
nivel 5, el grado de contribución a su área de investigación.
Retroalimentación del usuario: esta etapa corresponde a la
Agrupación de los documentos: una vez que los documentos retroalimentación explicita que realiza el usuario j a cada uno
se han caracterizado, ClusterDoc agrupa los documentos de los documentos que conforman su plan de lectura. Los
utilizando el algoritmo de agrupamiento k-means [29], con valores de retroalimentación del sistema están entre cero y seis
ello se obtienen grupos conformados por documentos que son inclusive.
similares entre sí. ClusterDoc sigue una forma fácil y simple
para dividir los documentos en k grupos de documentos A medida que el usuario evalúa los documentos, se modifica
similares de una misma área de investigación, donde k el perfil del usuario, generando un plan de lectura acorde a sus
representa el número de áreas de investigación. La idea preferencias. El perfil se actualiza mediante el uso de la
principal es definir k centroides (uno para cada grupo), estos formula de Rocchio (Ecuación 4) [31] [32], la cual se basa en
k centroides representan los documentos más relevantes de la relevancia de los documentos evaluados por el usuario. Para
cada área de investigación. ClusterDoc un documento es relevante si su valoración es
mayor o igual a 4 puntos (en una escala del cero al seis).
Ahora bien, una vez que se ha establecido el número de
grupos, se eligen k documentos que representarán los
centroides (centros) iniciales de cada cluster. En este paso es
importante seleccionar documentos cuyo contenido tenga una (4)
alta correspondencia con el área de investigación, por lo tanto
si los documentos no son los apropiados, la clasificación
podría ser ineficiente.
En la Ecuación 4, C0 representa el vector característico del
Cada vez que un nuevo documento se agrega al sistema, es perfil inicial del usuario. C1 representa el vector característico
situado en el grupo más cercano, para ello se calcula la del perfil del usuario luego de una iteración. Ri es el vector
distancia entre su vector característico y cada uno de los k característico del documento relevante i, NRi es el vector
centros, utilizando la distancia euclidiana (Ecuación 3). característico del documento no relevante i, nr representa el
número de documentos relevantes, nnr el número de
documentos no relevantes. Las constantes α, β y γ permiten
(3) ajustar el impacto de los documentos relevantes y los no
relevantes, dichos valores fueron ajustados siguiendo la
sugerencia de Manning, Raghavan & Schütze [33], por lo que
α tiene el valor 1, β de 0,75 y γ de 0,25.
124
Giugni M., León L., Clusterdoc un Sistema de Recuperación y Recomendación de Documentos Basado en Algoritmos
El sistema de búsqueda, recuperación y recomendación de Asimismo, para la representación lógica de los documentos,
documentos ClusterDoc, ha sido evaluado en una comunidad éstos se transformaron a un formato de texto plano y
científica que corresponde a 12 estudiantes del último año de seguidamente fueron caracterizados según el modelo de
la Licenciatura en Computación de la UC. Se alimentó al espacio vectorial descrito previamente, calculando los valores
sistema con 100 documentos de tipo Portable Document TF-IDF para cada palabra clave dentro del documento. La
Format (PDF) y enmarcados dentro de cuatro áreas de Tabla 1 muestra los vectores característicos de 10 documentos
conocimiento de las ciencias de la computación. del sistema.
Tabla I. Vector característico, representando el peso de las primeras 4 palabras claves de diez documentos.
En la Tabla I se observan los pesos correspondientes a las organizados ascendentemente, en función a la distancia entre
cuatro primeras palabras claves de los vectores característicos cada documento y el perfil del usuario.
de cada documento. Cabe destacar que cada área de
conocimiento, contiene cuatro descriptores o palabras claves Al ejecutar el algoritmo k-means, se forman cuatro grupos
que la identifican, para un total de 16 descriptores en general. (cluster). En la Tabla II, se observa el vector característico
Los documentos que se observan en la Tabla 1 están asociado al centro del tercer cluster.
Por otro lado, ClusterDoc genera el vector característico de de interés del investigador en un área determinada. La Tabla
cada uno de los usuarios que interactúan con el sistema, para III refleja el vector de pesos, correspondiente al usuario i del
ello se basa en un formulario de entrada que identifica el grado experimento.
125
Volumen 15, Nº 60. pp 121-129
ClusterDoc presenta al usuario los documentos ordenados por actualizando a medida que los documentos son evaluados por
el nivel de relevancia, mostrándole los documentos cuyas diversos investigadores. Evaluaciones positivas o negativas,
evaluaciones sean más altas y que mejor se adapten a su perfil afectan la relevancia de los documentos en un área de
de búsqueda, esto último se logra determinando la cercanía investigación determinada. En la Tabla 4 se observa el plan de
del perfil del usuario a cada documento. lectura inicial recomendado al usuario i del experimento, en ésta
los documentos se muestran ordenados descendentemente de
Es importante destacar que los planes de lectura se van acuerdo a su similitud con el usuario (menor distancia euclidiana).
En un principio al usuario se le muestran los documentos más se han utilizado dos tipos de evaluación, una evaluación
cercanos a sus intereses, ordenados por distancia euclidiana, cualitativa que viene dada por la satisfacción del usuario y
ya que inicialmente todos los documentos presentan la misma otra evaluación de tipo cuantitativa, en función de la precisión
valoración. Estos documentos van variando su posición a del plan de lectura.
medida que los usuarios los valoran.
Con respecto a la satisfacción de los usuarios en relación al
uso del sistema y en particular de la recomendación de los
Efectividad del proceso de personalización planes de lectura, se aplicó un cuestionario a los 12 usuarios
que conforman la muestra, obteniendo los datos que se
Para determinar la efectividad el proceso de personalización observan en la Tabla 5.
Leyenda: (1) totalmente en desacuerdo, (2) en desacuerdo, (3) indiferente, (4) de acuerdo, (5) totalmente de acuerdo. Fuente: Autores
126
Giugni M., León L., Clusterdoc un Sistema de Recuperación y Recomendación de Documentos Basado en Algoritmos
En relación a los resultados obtenidos, se observa que al sumar Siendo y la norma de los vectores característicos
los datos de las columnas “totalmente de acuerdo” y “de
acuerdo”, de los ítems 1, 5, 8 y 9 el 93,75% de la muestra que representan a los documentos di y dj respectivamente, lo
considera que ClusterDoc genera planes de lectura adaptados cual es equivalente a calcular el producto escalar de dos
a los intereses del usuario. Aunque en promedio el 8,33% de vectores de documentos (di y dj) y dividirlo por la raíz
los encuestados consideró indiferente los resultados generados cuadrada del sumatorio de los componentes del vector di
por el sistema, el otro 91,66% estuvo “de acuerdo” y multiplicada por la raíz cuadrada del sumatorio de los
“totalmente de acuerdo” con los documentos recomendados componentes del vector dj. Teniendo en cuenta en todo
por el sistema. Asimismo, el 100% de los usuarios señaló que momento que los documentos han sido representados
el sistema es fácil de utilizar. numéricamente mediante el modelo vectorial y el esquema
TF-IDF.
Por otro lado, considerando el rol de importancia que tiene el
usuario en este tipo de sistemas, se realizaron entrevistas a los Una vez realizada la evaluación de los 4 cluster, se observa
mismos, de esta forma se observó la contribución de los en la tabla 6 que la similitud promedio del cluster 4 es muy
documentos de acuerdo a los intereses del usuario. Las cercana a uno y en general esta medida es superior de 0,70 en
entrevistas fueron fundamentales para identificar fortalezas y cada cluster, lo cual indica que los documentos en cada grupo
debilidades del sistema, ya que en ellas se evidenció la son muy similares entre sí.
importancia de la taxonomía de las palabras claves. Además,
se observaron los criterios de cada usuario para valorar como
relevante o no relevante un documento. Tabla VI. Similitud promedio de los 4 cluster
127
Volumen 15, Nº 60. pp 121-129
evaluación más exhaustiva, que permita validar estos 10. Brusilovsky, P., Schwarz, E. & Weber, G. ELM–ART: An
resultados. intelligent tutoring system on World Wide Web.
Intelligent Tutoring Systems. Lecture Notes In Computer
5. Finalmente, cabe señalar que el desarrollo de sistemas de Science. Vol. 1086. 1996, pp. 261–269.
recuperación y de categorización de documentos son dos
importantes líneas de trabajo futuras, e investigaciones en 11. Henze, N., & Nejdl, W. Adaptation in open corpus
estas áreas pueden contribuir en el diseño de herramientas hypermedia. International Journal of Artificial
de ayuda a los usuarios, que faciliten la búsqueda de Intelligence in Education. Vol 12. 2001, pp. 325–350.
información en diversos dominios de investigación.
12. Smith, A. S. G., & Blandford, A. MLTutor: An
application of machine learning algorithms for an
IV. REFERENCIAS adaptive web-based information system. International
Journal of Artificial Intelligence in Education. Vol. 13.
1. Manning, C., M., Raghavan, P. & Schütze, H. 2003, pp. 235–261.
Introduction to Information Retrieval. Cambridge
University Press. 2008. 13. Peña, C., Marzo, J., de la Rosa, J., & Fabregat, R. Un
sistema de tutoria inteligente adaptativo considerando
2. Salton, G. Automatic Text Processing: The estilos de aprendizaje. 6 Congreso Iberoamericano, 4
Transformation Analysis and Retrieval of Information by Simposio Internacional de Informática Educativa, 7
Computer. Addison-Wesley. 1989. Taller Internacional de Software Educativo. IE-2002 :
Vigo, España. Noviembre de 2002.
3. Bloedorn, E. & Mani, I. Using NLP for machine learning
of user profiles, Intelligent Data Analysis. Vol. 2. No. 3. 14. Durán, E., Costaguta, R., Maldonado, M. & Unzaga S.
1998. pp. 3-18. Sistemas Adaptativos Inteligentes. IX Workshop de
Investigadores en Ciencias de la Computación.
4. Stubbs, E., Mangiaterra, N. & Martínez, A. Internal Argentina. Mayo, 2007. pp. 143-146. Recuperado el 12
quality audit of indexing: a new application of de Agosto de 2009 dehttp://www.ing.unp.edu.ar/
interindexer consistency, Cataloguing & Classification wicc2007/trabajos/ASI/030.pdf>
Quaterly. Vol. 28. No. 4. 2000. pp. 53-70.
15. Brusilovsky, P. & Peylo, C. Adaptive and intelligent
5. Baeza-Yates. R. & Ribeiro-Neto, B. Modern Information Web-based educational systems. International Journal of
Retrieval. Addison-Wesley. New York. 1999. Artificial Intelligence in Education. Vol. 13. 2003, pp.
159-172.
6. Velez, O. & Santos, C. Sistemas Recomendadores: Un
enfoque desde los algoritmos genéticos. Revista 16. Sugiyama, K., Hatano, K., & Yoshikawa, M. Refinement
Industrial Data. Vol. 9. No. 1. Perú. 2006. pp. 23-31. of TF-IDF schemes for web pages using their
hyperlinked neighboring pages. Proceedings of the
7. Brennan, M. & Macnutt, L. Learning styles and learning Hypertext’03 Conference, Nottingham, UK. 2003, pp.
to program: an experiment in adapting online resources 198–207.
to match a student´s learning style. International
Conference on Innovation, Good Practice and Research 17. Salton, G. & McGill, M.J. Introduction to modern
(EE 2006). University of Liverpool. England. 2006. pp. information retrieval, McGraw-Hill. New York, USA.
177-182. 1983.
8. Brusilovsky, P. Adaptive Hypermedia: An attempt to 18. Fan, Y., Zheng, C., Wang, Q.Y., Cai, Q.S., & Liu, J.
analyze and generalize. Multimedia, Hypermedia, and Using naïve bayes to coordinate the classification of web
Virtual Reality Models, Systems, and Applications. pages. Journal of Software. Vol. 12. No, 9. 2001,
Lecture Notes In Computer Science. Vol. 1077. 1996, pp. pp.1386-1392.
288-304.
19. Sun, J., Wang, W., & Zhong, Y.X. Automatic text
9. Brusilovsky, P. & Maybury, M. From adaptive categorization based on k-nearest neighbor. Journal of
hypermedia to the adaptive web. Communications of the Beijing University of Posts & Telecomms. Vol. 24, No. 1.
ACM. Vol. 45, No. 5: 2002, pp. 30-33. 2001, pp.42-46.
128
Giugni M., León L., Clusterdoc un Sistema de Recuperación y Recomendación de Documentos Basado en Algoritmos
20. Salton, G. & Buckley, C. Term-weighting approaches in to Answer Finding. In Proceedings of the 23rd annual
automatic text retrieval. Information Processing and international ACM SIGIR conference on Research and
Management. Vol. 24, No. 5. 1988, pp. 513-523. development in information retrieval. 2000. pp. 192-199.
21. Salton, G. Developments in automatic text retrieval. 29. Alsabti, K., Ranka, S. & Singh, V. An Efficient K-Means
Science, Vol. 253. 1991, pp. 974-979. Clustering Algorithm. Proceedings of IPPS/SPDP
Workshop on High Performance Data Mining. 1998.
22. Zhang, Y., Gong, L & Wang, Y. An improved TF-IDF
approach for text classification. Journal of Zhejiang 30. Faber, V . Clustering and the Continuous k-Means
University - Science A. Vol. 6, No. 1. 2005, pp. 49-55. Algorithm. Los Alamos Reports and Publications DVD
#1 (of 2). No. 22. 1994
23. Baskerville, R. (1999). Investigating Information
Systems with Action Research. Communications of the 31. Rocchio, J. Relevance Feedback in Information
Association for Information Systems, Vol. 2, Art. 19. Retrieval. In Salton, G. (Ed.), The SMART Retrieval
Recuperado el 03 de Junio de 2009 de System: Experiments in Automatic Document
http://cis.gsu.edu/~rbaskerv/CAIS_2_19/cais_2_19.pdf Processing, 313-323. Prentice Hall, 1971.
24. Cataldi, Z. El aporte de la tecnología informática al 32. Alonso, J., Figuerola, C. & Zazo A. Categorización
aprendizaje basado en problemas usando modelos de automática de documentos en español: algunos resultados
trabajo interactivos. Universidad de Sevilla. Tesis experimentales. I Jornadas de Bibliotecas Digitales,
doctoral no publicada. 2005 JBIDI 2000, Valladolid, España, pp. 149-160. 2000.
25. CRISP-DM consortium. CRoss-Industry Standard 33. Manning, C., Raghavan, P. & Schütze, H. An
Process for Data Mining (CRISP-DM). Disponible en Introduction to Information Retrieval. Cambridge
http://www.crisp-dm.org University Press. pp. 181-183. 2009.
26. Venter, J., Waal, A. & Willers, C. Specializing CRISP- 34. Yolis, E., Britos, P., Perichisky, G. & García-Martínez R.
DM for Evidence Mining. Advances in Digital Forensics Algoritmos Genéticos aplicados a la Categorización
III. Springer Boston. Vol. 242. 2007. Automática de Documentos. Revista Eletrônica de
Sistemas de Informação. Vol. 2. No. 2. 2003.
27. Joachims, T. 1997. A probabilistic analysis of the Recuperado el 8 de Agosto de 2009 de
Rocchio algorithm with TFIDF for text categorization. http://revistas.facecla.com.br/index.php/reinfo/article/vie
In Proceedings of ICML-97, 14th International wFile/133/27
Conference on Machine Learning (Nashville, US, 1997,
pp. 143–151. 35. Steinbach, M., Karypis, G., Kumar, V. A comparison of
document clustering techniques. 2000. Recuperado el 6
28. Berger, A., Caruana R., Cohn D., Freitag D. & Mittal, de Julio de 2009 de: http://citeseerx.ist.psu.edu/viewdoc/
V. Bridging the Lexical Chasm: Statistical Approaches summary?doi=10.1.1.34.1505
129
RT-POSTGRESQL: EXTENSIÓN DE POSTGRESQL PARA
EL MANEJO DE DATOS CON FRECUENCIAS
TEMPORALES
Aguilera F Ana I. (1) García M Luis D (2)
(1)(2)
Centro de Análisis, Modelado y Tratamiento de Datos, CAMYTD, Facultad de Ciencias y
Tecnología, Universidad de Carabobo, Carabobo 2005, Venezuela,
aaguilef@uc.edu.ve, ldgarc@gmail.com
Resumen: Actualmente, la mayoría de los Sistemas Gestores de Bases de Datos (SGBD) se basan
principalmente en el paradigma relacional y el lenguaje SQL para el almacenamiento y manipulación de los
datos. De esta manera, tales sistemas no permiten consultar datos definidos de acuerdo al paradigma temporal
de bases de datos y, mucho menos, sobre aquellos datos cuya temporalidad está basada en frecuencias de
tiempo previamente definidas. El lenguaje TSQL2 es una extensión de SQL2 que permite gestionar datos
basados en temporalidad de manera adecuada. El objetivo de este trabajo es la implementación de TSQL2
en el núcleo del SGBD PostgreSQL bajo una arquitectura fuertemente acoplada así como también su
evaluación funcional. En esta extensión se propone un mecanismo de compresión de datos y su evaluación.
También se desarrollan métodos adecuados para establecer frecuencias sobre el tiempo válido de los datos
optimizando la forma en la cual esos tiempos deben ser manipulados.
Abstract: Nowadays, the most of Database Management Systems (DBMS) are principally based on the
relational paradigm and the Structured Query Language (SQL) for data storage and management purposes.
In this way, such systems do not allow querying data according to the temporal database paradigm, and even
less, on those data in which temporality is based on a previously defined frequency. TSQL2 language is a
SQL2 extension that allows data management based on temporality in correct form. The aim of this paper is
the implementation of TSQL2 into the PostgreSQL DBMS core using a Strongly Coupled Architecture and
also its functional evaluation. In this extension, it has been proposed a mechanism of data compression and
its evaluation. As well, adequate methods have been developed to establish the frequencies on the valid time
of data and optimizing the way in which those times must be manipulated.
El modelo relacional de datos (Codd, 1970) sobre el cual se En muchas aplicaciones del mundo real es importante modelar
encuentra definido el paradigma relacional para el manejo de la dimensión temporal, como lo es la banca, el control de
Bases de Datos (BD), se ha convertido en la base de la inventario, tráfico aeroportuario, servicios de telefonía, entre
mayoría de los SGBD comerciales utilizados en la actualidad. otros. En particular, en la industria petrolera se presentan
Sin embargo, para dar soporte a necesidades más específicas, situaciones en las cuales es conveniente que toda la
existen sistemas que hacen uso de otros tipos de paradigmas información a almacenar se registre tomando en cuenta el
como deductivos, multimedia, difusos, temporales, entre tiempo en el cual se presentó cada situación, ya que de éste
otros. Un ejemplo son los sistemas de tiempo real, los cuales dependerá la validez de los datos que se registran en cierto
se encargan de registrar datos correspondientes a hechos y momento dentro de la base de datos. En este sentido, las BD
fenómenos que se presentan en el mundo real, donde tanto los convencionales representan el estado de la organización en un
objetos como las relaciones existentes entre ellos se presentan solo instante o momento del tiempo, sin tomar en cuenta
entonces que para los datos siempre se debe manejar la 2007; García, 2008) la cual permite llevar a cabo las tareas de
dimensión tiempo, durante el cual los datos son o han sido creación de tablas e inserción y selección de datos de acuerdo
válidos en el mundo real. a lo definido en el Lenguaje TSQL2.
Las investigaciones realizadas hasta ahora en el área de BD En estudios futuros Tineo y Gutierrez (Tineo & Gutierrez,
Temporales se han centrado en incorporar la componente de 2006) proponen una extensión de TSQL2 que permite manejar
temporalidad sobre el manejo de los datos a partir del modelo el tiempo válido de los datos de acuerdo a frecuencias de
relacional. A partir de dichas investigaciones han surgido tiempo previamente definidas sobre éstos, lo cual no es más
entonces una serie de lenguajes que haciendo uso del enfoque que el tiempo transcurrido entre el momento en el cual se
relacional, permiten gestionar aspectos de temporalidad sobre presentó un evento asociado a alguna variable o proceso, y el
los datos, tales como LEGOL 2.0 (Jons et al. 1979), TQuel momento en el cual se presentó el evento siguiente para ese
(Snodgrass, 1987), HQuel (Tansel & Arkun, 1986), TRM mismo elemento. A su vez, se proponen dos tipos de
(Ben-Zvi, 1982) y TSQL2 (Snodgrass, 1995). El lenguaje correspondencias entre los datos y sus frecuencias, los datos
TSQL2 es el que aporta un mayor número de funcionalidades con frecuencias en tiempo real e histórico. Esta nueva
de acuerdo con las características del paradigma de bases de extensión permite además manipular los datos de acuerdo a
datos temporales. Los principales SGBD se encuentran series de tiempo, definiendo tablas anidadas que permitan
implementados en base al modelo relacional básico y no establecer valores de frecuencias distintas para atributos
cuentan con las funcionalidades necesarias para satisfacer distintos de una misma tabla.
requerimientos basados en el paradigma de bases de datos
temporales. Entre los SGBD comerciales tales como Este artículo describe la implementación de las tareas de
OracleDB, Microsoft SQL Server y PostgreSQL, reconocidos Creación de Tablas e Inserción y Selección de Datos de
como los más avanzados del mercado, no soportan la mayoría acuerdo a la sintaxis definida por Tineo y Gutierrez (2006)
de las definiciones descritas en ninguno de los lenguajes de por medio de la extensión del SGBD PostgreSQL con base en
consultas temporales citados anteriormente. una arquitectura fuertemente acoplada, de forma tal que se dé
soporte al manejo de datos con frecuencias temporales.
Se han hecho investigaciones enfocadas a integrar
características correspondientes a otros paradigmas de BD Este artículo se estructura como sigue, la sección 1y 2
distintos al relacional, con los SGBD existentes. Así se tiene describen aspectos básicos de TSQL2 y PostgreSQL, la
por ejemplo la integración del proceso de Descubrimiento de sección 3 explica la extensión denominada RT-PosgreSQL, la
Conocimiento en Bases de Datos (DCBD) con SGBD por sección 4 presenta los resultados experimentales y finalmente
medio de tres tipos de arquitecturas, débil, mediana o las conclusiones y perspectivas.
fuertemente acoplada (Timaran, 2001). Una arquitectura es
débilmente acoplada cuando la componente encargada de
realizar las tareas de manipulación de los datos de acuerdo al 1. TSQL2 y el manejo de frecuencias temporales
paradigma específico, se encuentra en una capa externa al
SGBD, por fuera del núcleo, y su integración con éste se hace En busca de recopilar las fortalezas presentadas por cada uno
a partir de una interfaz. Una arquitectura es medianamente de los lenguajes temporales mencionados previamente, y por
acoplada cuando las tareas específicas del paradigma forman la imperiosa necesidad de adecuar dichas propuestas al
parte del SGBD mediante el uso de procedimientos Lenguaje de Consultas Estructurado SQL (Structured Query
almacenados o funciones definidas por el usuario. Una Language) considerado como un estándar para la ejecución
arquitectura es fuertemente acoplada cuando la totalidad de de consultas sobre bases de datos relacionales, Snodgrass
las tareas que llevan a cabo la manipulación de los datos define el lenguaje TSQL2, el cual consiste en una extensión
según el paradigma establecido, forman parte del SGBD del estándar SQL-92 (conocido como SQL2) para adecuarlo
como una operación primitiva, dotándolo de todas las a la gestión de bases de datos temporales (Snodgrass, 1995).
capacidades que permitan llevar a cabo cada una de las tareas Las siglas TSQL hacen referencia a Temporal Structured
asociadas a un determinado enfoque o paradigma (Timarán, Query Language, Lenguaje de Consultas Estructuradas
2001). Ya que en esta última arquitectura todas las tareas son Temporales, y el número dos (2) indica que fue desarrollado
ejecutadas por el SGBD en el mismo espacio de como una extensión del estándar SQL2.
direccionamiento que se encuentran los datos, la ventaja
potencial de la misma es que resuelve los problemas de El lenguaje TSQL2 es en sí, una extensión del Lenguaje de
escalabilidad y rendimiento que poseen las otras arquitecturas Definición de Datos (Data Definition Language, DDL) y del
antes mencionadas. Lenguaje de Manipulación de Datos (Data Manipulation
Language, DML) planteados por el lenguaje SQL2 para dar
En función de lo antes planteado, se llevó a cabo la soporte a la dimensión temporal de los datos. A continuación
implementación de una extensión del SGBD PostgreSQL por se describen los principales aportes de TSQL2 y su respectiva
medio de una arquitectura fuertemente acoplada (Chacón, extensión para el manejo de frecuencias de tiempo.
131
Volumen 15, Nº 60. pp 130-143
Figura. 2. Sintaxis para la creación de tablas con frecuencias temporales (Tineo & Gutierrez, 2006)
1.1.1. Tablas en Tiempo Real: permiten dar prioridad al la tabla temporal básica mostrada en la Figura 1, en una tabla
proceso de almacenamiento y consulta de los datos durante la histórica.
actividad asociada a sistemas críticos, ya que por estar sujetos
a frecuencias de tiempo, se puede almacenar físicamente en la
tabla cada uno de los datos generados pero basta con
almacenar únicamente el tiempo válido del primer dato que
se haya ingresado en dicha tabla, ya que los tiempos válidos
de los datos siguientes pueden ser calculados a partir de éste
y la frecuencia definida sobre la tabla. En la Figura 3 puede
observarse un ejemplo de este método. Figura. 4. Ejemplo: Transformación de la tabla de la
Figura, 1 en una tabla histórica
132
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
Figura. 5. a) Ejemplo: Tabla con datos en series de tiempo (izquierda) b) Sintaxis para la definición de tablas con
frecuencias temporales como tipos de dato (Tineo & Gutierrez, 2006) (derecha)
1.3. Inserción de datos en tablas con frecuencias insertar datos en la tabla anidada, el proceso de inserción debe
temporales hacerse para un registro en específico de la tabla base
correspondiente. Para realizar esto, la sintaxis propuesta se
En el caso de la inserción de datos, y en contraste con la puede observar en la Figura 6., en la cual se permite realizar la
operación de definición de tablas, la única modificación inserción de datos sobre la tabla anidada <nested table name>,
expuesta en la extensión de TSQL2, es con respecto al proceso que se encuentra en el registro de la tabla <base table name>
de inserción en tablas con datos en series de tiempo, ya que al que cumpla con la condición <base table access condition>.
Fig. 6. Sintaxis para la inserción de datos en tablas con datos en series de tiempo (Tineo & Gutierrez, 2006)
133
Volumen 15, Nº 60. pp 130-143
1.4. Selección de datos sobre tablas con frecuencias tablas con series de tiempo. Esto se debe a que al realizar
temporales consultas de datos sobre tablas con series de tiempo se debe
tomar en cuenta que las mismas se deben realizar sobre la
De manera similar al caso de la Inserción, la selección de tabla representada por un registro o tupla en específico de la
acuerdo a la extensión de TSQL2 para el manejo de tabla base. Para realizar esto, la sintaxis propuesta se puede
frecuencias sólo afecta la selección de datos almacenados en observar en la Figura 7.
Figura. 7. Sintaxis para la selección de datos sobre tablas con datos en series de tiempo (Tineo & Gutierrez, 2006)
134
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
De manera general, el procesamiento de una consulta en - Definición de gramática de la sentencia <freq definition> en
PostgreSQL se lleva a cabo por medio de una conexión desde el archivo gram.y (directorio src/backend/parser/).
un programa aplicación al servidor Postgres, el cual se encarga
de recibir las consultas del cliente y enviar los resultados de - En el archivo parsenodes.h (directorio src/include/nodes/)
vuelta. Para enviar dicho resulta se realiza en el PARSER un se agregó la estructura FrequencyDefinition, encargada de
análisis léxico, sintáctico y semántico a la consulta recibida, almacenar los valores correspondientes a la sentencia <freq
verificando entre otras cosas la existencia de las relaciones y definition> del CREATE TABLE. Adicionalmente, se
atributos indicados en la consulta. Una vez hecho esto, se modificó la estructura CreateStmt, de manera tal que se diera
genera un árbol de consulta llamado query tree, el cual se soporte a la estructura añadida.
envía al REWRITER para su modificación de acuerdo a las
Reglas o Vistas en las que puedan estar implicados los - La etiqueta T_FrequencyDefinition fue incluida dentro del
elementos involucrados en la consulta. Luego de esto se archivo nodes.h (directorio src/include/nodes/), de manera tal
procede a la etapa de optimización dentro del PLANNER / que haga referencia a la estructura FrequencyDefinition ya
OPTIMIZER, donde se toma el árbol de la consulta y se incluida.
generan todos los planes de ejecución con rutas de acceso que
conduzcan al mismo resultado, de manera tal que se pueda - En el archivo relcache.c (directorio src/backend/utils/cache/)
seleccionar aquel plan con menor costo de ejecución. Por se modificó la función RelationBuildLocalRelation(), de
último, para recuperar los registros solicitados en la consulta, manera tal que la misma dé el soporte adecuado a la definición
el módulo EXECUTOR recupera de cada tabla las tuplas de tablas basadas en frecuencias de tiempo.
respectivas, de acuerdo a lo descrito en el plan desarrollado
en el módulo anterior (Timarán, 2005). - Se extendió la estructura pg_class, definida en el archivo
pg_class.h (directorio src/include/catalog/) de manera tal que
se almacene en el catálogo de PostgreSQL la información
3. RT-PostgreSQL asociada a la estructura de la tabla temporal definida.
3.1. Creación de Tablas con Frecuencias Temporales - En el archivo parsenodes.h (directorio src/include/nodes/)
se modificó la estructura CompositeTypeStmt, de forma tal que
La definición o creación de tablas en PostgreSQL se lleva a sea posible almacenar en ella las estructuras tempDef y
cabo mediante la sentencia CREATE TABLE. En el trabajo freqDef, las cuales almacenan las sentencias <temp definition>
presentado por Chacón (2007) se integra a la definición de y <freq definition> respectivamente, de manera tal que se dé
tablas en PostgreSQL, la componente de temporalidad, el soporte a la definición de tipos de dato tabla.
agregando a la sintaxis definida para ello, la sentencia <temp
definition> (Figura.2). - Se incluyó la sintaxis correspondiente a la sentencia <type
table definition> dentro en el archivo gram.y (directorio
A continuación se describen los cambios realizados dentro de src/backend/parser/).
la estructura interna PostgreSQL, para la modificación de la
sentencia CREATE TABLE: - En el archivo typecmds.c (directorio src/backend/commands/)
se modificó la función DefineCompositeType(), de manera tal
- Adición de palabras FREQUENCY e HISTORIC al archivo que la misma dé el soporte adecuado a las características
keywords.c (directorio src/backend/parser/), de manera tal que definidas por las sentencias <temp definition> y <freq
el módulo PARSER de PostgreSQL reconozca estás palabras definition> utilizadas para la creación de tablas como tipos de
como reservadas. dato.
135
Volumen 15, Nº 60. pp 130-143
3.3. Inserción de datos en base a Frecuencias de Tiempo. En este apartado no hubo necesidad de adicionar sentencia
alguna para implementar la selección sobre tablas con
La inserción de datos sobre tablas en PostgreSQL se lleva a frecuencias temporales básicas, sin embargo, se modificó el
cabo mediante la sentencia INSERT. En el trabajo realizado mecanismo de selección para aquellos casos en los cuales la
por Chacón (2007) se implementa la inserción de datos en selección de datos debe realizarse sobre tablas con datos en
tablas temporales dentro de PostgreSQL, por medio de la series de tiempo. Para esto se llevaron a cabo las siguientes
adición al <insert definition> de estructuras y funciones modificaciones:
adicionales necesarias para llevar a cabo la inserción en tablas
temporales de acuerdo al lenguaje TSQL2. Sobre dicha - En el archivo parsenodes.h (directorio src/include/nodes/), se
implementación, y para desarrollar la extensión aqui descrita, modificó la estructura SelectStmt, de manera tal que se
se definen dentro de la estructura interna de PostgreSQL una almacenen en esta dos nuevos valores, el primero,
serie de procedimientos de compresión y manipulación de NestedFromClause, indicará la tabla padre en caso de que sea
datos, los cuales permiten gestionar el método de una selección en una tabla anidada, y el segundo,
almacenamiento de datos en tablas con frecuencias NestedWhereCondition, indicará la condición que debe
temporales. A continuación se describen los cambios cumplir el registro correspondiente dentro de la tabla padre.
realizados:
- En el archivo gram.y (directorio src/backend/parser/) se
- Se modificó el archivo parsenodes.h (directorio extendió la sintaxis de la sentencia simple_select de manera tal
src/include/nodes/) agregando a la estructura InsertStmt dos que se evaluara la gramática definida para la selección de
campos adicionales para satisfacer los casos en los cuales la datos sobre tablas anidadas de acuerdo a la sintaxis propuesta.
inserción deba hacerse sobre una tabla anidada. El primero de
estos campos es upper_rel, el cual hace referencia a la tabla - En el archivo analyze.c (directorio src/backend/parser/) se
dentro de la cual se ha definido un atributo de tipo tabla definieron distintas rutinas de evaluación de las consultas a
temporal. El segundo es where_clause, el cual almacena la realizar, de manera que se valide que el acceso a los datos se
condición que debe cumplir el registro correspondiente a la haga sobre la tabla anidada adecuada. Se agregó a su vez la
tabla almacenada dentro de la tabla base. función Nested_Table_Select_Validation(), de manera tal que
se encargue de analizar el SelectStmt proveniente del modulo
- Se incluyó en el archivo gram.y (directorio de PARSER y en caso de que sea necesario haga las
src/backend/parser/) la gramática asociada a la inserción modificaciones pertinentes para dar soporte a la selección de
sobre tablas con datos en series de tiempo. datos sobre tablas anidadas. Adicionalmente, se hizo uso de
rutinas internas de PostgreSQL para permitir realizar consultas
- En el archivo analyze.c (directorio src/backend/parser/) se sobre los datos de las tablas anidadas directamente desde el
definieron una serie de rutinas de evaluación y validación de backend de este SGBD.
los datos a insertar. Se modificó la función
transformInsertStmt() y se incluyó dentro del código fuente
la función Nested_Table_Insert_Validation(),dando así 4. Resultados
soporte a la componente de tablas con datos en series de
tiempo. De igual forma, se llevaron a cabo extensiones de las A continuación se presenta un subconjunto de los resultados
funciones TSQL_TargetList_modification() y arrojados por la etapa de pruebas de la implementación de RT-
TSQL_catalog_verification_and_InsertSt mt_modification() PostgreSQL. Para dichas pruebas se consideraron los factores
definidas por Chacón (2008), de manera tal que dentro de ellas Funcionalidad y Compresión. Estos dos factores se evalúan a
se dé el soporte correspondiente a la inserción de datos sobre partir de un estudio experimental, en el cual se establece un
tablas con frecuencias y en series de tiempo, aportando de esta conjunto de hipótesis asociadas a los resultados que se espera
manera la capacidad de compresión mencionada arroje el sistema RT-PostgreSQL, en pro de verificar el
anteriormente propuesta por Tineo y Gutierrez. correcto funcionamiento del mismo. Así, el ambiente definido
para las pruebas está compuesto por los siguientes elementos:
i) med_caldera: tabla temporal con tiempo válido de tipo
3.4. Selección de datos en base a Frecuencias de Tiempo período y frecuencia en tiempo real de 1 hora. ii) temp_pozo:
tabla temporal con tiempo válido de tipo evento y frecuencia
El desarrollo de esta funcionalidad se lleva a cabo mediante la histórica de 5 segundos. iii) TimeSeriesVol: tipo de dato tabla
extensión de la sentencia SELECT de PostgreSQL, esto de con tiempo válido de tipo evento y frecuencia en tiempo real
acuerdo a la sintaxis definida por la extensión del lenguaje de 30 segundos. iv) vol_data: tabla relacional que posee la
TSQL2 para el manejo de frecuencias de tiempo. tabla anidada tsv de tipo TimeSeriesVol.
136
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
Figura. 10. Pruebas funcionales de creación de tipo de dato tabla con frecuencia temporal
Figura. 11. Pruebas funcionales de creación de tablas con datos en series de tiempo
c) Pruebas en el Catálogo del sistema: en vista de que es corroborar que almacena la información correspondiente
en la estructura pg_class del catálogo de RT-PostgreSQL, a los distintos elementos creados a partir de de la extensión
donde se almacena la información correspondiente a cada del lenguaje TSQL2 para el manejo de frecuencias
una de las tablas que se definan dentro de una base de temporales. En la Figura 12 se puede observar la prueba
datos, al realizar una consulta sobre ella, se debe realizada.
137
Volumen 15, Nº 60. pp 130-143
a) Inserción en Tablas con Frecuencias Básicas: al insertar b) Inserción en Tablas con Datos en Series de Tiempo: el
datos dentro de alguna tabla alojada en bases de datos que se sistema RT-PostgreSQL debe permitir que se lleve a cabo la
encuentren en el sistema RT-PostgreSQL, este enviará un inserción de datos sobre tablas con datos en series de tiempo
mensaje indicando que el dato se ha insertado de manera por medio de la sintaxis definida por la extensión de TSQL2
adecuada. A su vez, para aquellas tablas que se encuentren para al manejo de frecuencias temporales. Una vez que un
definidas a partir de la extensión de TSQL2 para el manejo de dato se haya almacenado de manera correcta, RT-PostgreSQL
frecuencias temporales, el tiempo válido de cada dato a envía un mensaje indicando que el dato se ha insertado
almacenar debe concordar con la frecuencia que haya sido adecuadamente. En las Figuras 14 y 15 se pueden observar las
definida sobre la tabla en cuestión. En la Figura 13 se puede pruebas realizadas.
observar la prueba realizada.
Figura. 14. Inserción de datos sobre la tabla tsv anidadda en la tabla vol_data
138
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
4.1.3. Selección de Datos series de tiempo.En esta sección se exponen las pruebas
realizadas para evaluar la selección de datos por medio del
RT-PostgreSQL debe ser capaz de permitir consultas sobre los sistema RT-PostgreSQL sobre tablas definidas a partir de la
datos almacenados en tablas con frecuencias de tiempo extensión de TSQL2 para el manejo de frecuencias
básicas o sobre tablas que han sido definidas con datos en temporales.
a) Selección en Tablas con Frecuencias Básicas: El resultado Figura 16 se puede observar el resultado de “Listar todos los
de estas consultas deben ser aquellos datos que cumplan con datos de la tabla med_caldera que hayan sido válidos entre
la condición impuesta por la selección en cuestión. En la las 8:00am del 01/01/2004 y las 8:00pm del 12/12/2004”.
b) Selección en Tablas con Datos en Series de Tiempo: De mayor a cualquiera que se encuentre almacenado dentro de la
manera similar al caso anterior, el resultado de estas consultas tabla tsv de vol_data cuyo idd sea 1”.
deben ser aquellos datos que cumplan con la condición
impuesta por la selección en cuestión, sólo que en este caso se Observación: otra característica deseable del sistema RT-
seleccionan los datos correspondientes a la tabla anidada dentro PostgreSQL es que el mismo permita llevar a cabo consultas
del registro que cumpla con a la condición impuesta sobre la sobre aquellos datos que hayan sido comprimidos en base al
tabla base. En la Figura 17 se puede observar el resultado de tipo de frecuencia definida sobre ellos, sin embargo, esta
“Listar todos los datos de la tabla tsv de vol_data cuyo idd sea característica no se pudo incluir dentro del núcleo de
0. Los datos a listar deben ser aquellos que posean un val_act funcionalidades del sistema.
139
Volumen 15, Nº 60. pp 130-143
4.2. Mecanismos de Compresión de Datos definen entonces para realizar los experimentos, tres versiones
correspondientes a la tabla temp_pozo:
Una de las características más relevantes del sistema RT-
PostgreSQL es el uso de mecanismos de compresión de datos - Versión 1: se define la tabla temp_pozo como una tabla
de acuerdo al tipo de frecuencia de tiempo que se encuentre temporal con tiempo válido de tipo evento con precisión de 2
definida sobre estos. De esta manera, el sistema permite llevar milisegundos.
a cabo una reducción del volumen de información que se
desee procesar y almacenar dentro de las bases de datos que - Versión 2: se define la tabla temp_pozo como una tabla
el mismo gestione. temporal con tiempo válido de tipo evento con precisión de 2
milisegundos y con frecuencia de tiempo de 5 segundos de en
tiempo real.
4.2.1. Hipótesis
- Versión 3: se define la tabla temp_pozo como una tabla
A continuación una serie de hipótesis que permitirán evaluar temporal con tiempo válido de tipo evento con precisión de 2
si los mecanismos de compresión de RT-PostgreSQL cumplen milisegundos y con frecuencia de tiempo de 5 segundos de
con las expectativas fijadas durante su desarrollo. tipo histórico.
140
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
141
Volumen 15, Nº 60. pp 130-143
1. Este trabajo representa la primera integración en una 5. Jones, S., Mason, P. and Stamper, R.K. (1979). LEGOL
misma arquitectura, de lo propuesto por Snoodgrass 2.0: A relational specification language for complex rules,
(1995), y Tineo y Gutiérrez (2006). Así, RT-PostgreSQL Information Systems, 4, No. 4, pp. 293-305.
es el primer SGBD con la capacidad de definir y
manipular datos basados en frecuencias y series 6. Snodgrass, R. (1987). “The Temporal Query Language
temporales, todo esto en base a una arquitectura TQuel”, ACM Transactions on Database Systems, 12, No.
fuertemente acoplada. Lo que representa un aporte 2, pp. 247–298.
significativo en el área de integración de paradigmas de
bases de datos distintos al relacional con los distintos 7. Snodgrass, R.T. (1995). “The TSQL2 Temporal Query
SGBD existentes en el mercado. Language”, Kluwer Academic Publishers.
2. La implementación demuestra que PostgreSQL es una de 8. Stonebraker, M., Rowe, L. (1986). The Design of
las herramientas más atractivas en lo que al desarrollo de POSTGRES, Proceedings of the ACM-SIGMOD
este tipo de sistemas se refiere y representa una solución Conference, Washington D.C.
142
Aguilera, A., García L. RT-POSTGRESQL: Extensión de POSTGRESQL para el manejo de datos con frecuencias.
9. Tansel, A. U., Arkun, M.E. (1986). “HQuel, A Query para Reglas de Asociación en una Arquitectura
Language for Historical Relational Databases”, Fuertemente Acoplada”, en XXXI Conferencia
Proceedings of the Third International Workshop on Latinoamericana de Informática CLEI, Cali, Valle,
Statistical and Scientific Databases. Colombia.
10. Timarán, R. (2001). Arquitecturas de Integración del 12. Tineo, L. and Gutiérrez, L. (2006). “Extending TSQL2
Proceso de Descubrimiento de Conocimiento con for More Advanced Applications”. Sometido a IEEE
Sistemas de Gestión de bases de datos: un Estado del Arte, Review.
en revista Ingeniería y Competitividad, Universidad del
Valle, Volumen 3, No. 2, Cali. Reconocimientos
11. Timarán, R., Guerrero, M., Díaz, M., Cerquera, C., Este desarrollo se llevó a cabo gracias al apoyo de la empresa
Armero, S. (2005). “Implementación de Primitivas SQL Petróleos de Venezuela, S.A. bajo el N° 32001885.
143
RFID EN EL SECTOR SALUD: APLICACIONES,
BENEFICIOS E INCERTIDUMBRES
Pirrone, José(1), Huerta, Mónica K(2)
(1)
Universidad Católica Andrés Bello, escuela de Ingeniería de Telecomunicaciones.
jose.pirrone@gmail.com
(2)
Universidad Simón Bolívar Departamento de Electrónica y Circuitos.
monica.huerta@gmail.com
Resumen: En este trabajo se presentan los beneficios que se obtienen de la aplicación de la tecnología de
Identificación por Radio Frecuencia (RFID) en el sector salud. Se pretende promover la implementación de
la tecnología RFID de una manera adecuada con el fin de mejorar la atención en los centros de salud.. Se
discuten las posibles causas que retrasan su uso masivo. La conclusión es que a pesar de las incertidumbres
existentes sobre el uso de la tecnología RFID, se siguen realizando numerosos estudios e investigaciones para
su implantación definitiva como herramienta para la mejora de la calidad de los servicios del sector salud.
Abstract: In this paper the benefits obtained of the application of Radio Frecuency Identification (RFID)
in the health sector are presented. It pretends the promotion of RFID technologies to improve the services
that health centers provide. A discussion about the causes that delay its intensive use are presented. The
conclusion is that instead the uncertainties in the RFID technology, numerous studies and investigations are
being developed to implant this technology as a tool to improve the quality of services in the health sector.
145
Volumen 15, Nº 60. pp 144-150
En algunos países americanos, se pueden utilizar todos los Las aplicaciones orientadas a la atención del paciente son:
rangos de frecuencias para la implementación de aplicaciones,
pero no están disponibles en su totalidad; Por ejemplo, en a) Identificación de Pacientes: Consiste en colocar un tag en
Venezuela, de la banda comprendida entre 860 a 960 MHz las pulseras de identificación del paciente. Cuando el
para sistemas que cumplan el estándar ISO/IEC 18000- personal médico realiza su ronda, o desea información del
6:2004, solo se pueden utilizar rangos entre 922 MHz y 928 paciente, lee la información y automáticamente tiene
MHz [ HYPERLINK \l "Com" 11 ]. acceso a la Historia Clínica Digital del mismo
[16].También existen pulseras de identificación con
Existen varias organizaciones a nivel mundial que manejan el sensores de temperatura, los cuales permiten monitorear
proceso de normalización de este tipo de tecnología, las estos parámetros en forma remota y asociarlos a un
principales son: International Standards Organization (ISO) paciente. Otra aplicación de identificación consiste en
12] , la cual depende de las Naciones Unidas y la otra EPC colocar pulseras con tag a los bebes recién nacidos con
GLOBAL [ HYPERLINK \l "EPC10" 13 ], la cual está información de su madre, de manera de evitar
conformada por todas las empresas fabricantes y desapariciones o intercambio de los mismos
desarrolladoras de la tecnología. Todos los estándares que se [ HYPERLINK \l "Wan09" 17 ]. Además, existen tags que
requieren para una aplicación masiva de esta tecnología aún pueden ser implantados en el cuerpo humano, no solo para
no han sido aprobados 14] [ HYPERLINK \l "GRI08" 15 ]. identificar a un paciente durante una emergencia, sino para
monitorear una enfermedad específica, como el Edema
Cerebral18].
2. Áreas de Aplicación
b) Localización de Pacientes: Esta aplicación ha sido
En base a un riguroso análisis de la literatura consultada y a la utilizada en pacientes con Alzheimer, se les coloca una
tecnología empleada, se realizó un esquema de los distintos pulsera con tag, que permita su ubicación y realización de
tipos de aplicaciones de RFID para el sector salud, los cuales actividades, reduciendo la ayuda de las personas que los
se presentan en la Figura 2. atienden [HYPERLINK \l "Mat" 19]. Otro tipo de
aplicación está referida al movimiento de pacientes en
estado de inconsciencia luego de una intervención
quirúrgica, el tag permite identificar al paciente y verificar
si ya ha sido trasladado a su habitación, reduciendo los
tiempos de espera en la sala de recuperación 20]
[HYPERLINK \l "JuY10" 21].
146
Pirrone J., Huerta M., RFID en el sector salud: Aplicaciones, Beneficios e Incertidumbres.
Las mejoras en la atención y cuidados del paciente se líder, es una necesidad actual. De hecho, la promoción y uso
producen por el seguimiento automatizado, y en tiempo real, de la tecnología de RFID está fuertemente atado a este tipo de
de su estadía en una institución de salud. Este seguimiento liderazgo [ HYPERLINK \l "Con09" 27 ] . Las mejoras en los
permite reducir sustancialmente los errores en aplicación de indicadores de salud utilizando las nuevas tecnologías, y en
tratamientos, o medicaciones, y sus consecuencias, lo cual especial RFID, deben ser metas del sector a corto y mediano
representa una evolución en la calidad de atención. Hoy en plazo.
día este control depende exclusivamente de los recursos
humanos. Con la Tecnología RFID se está creando una
herramienta de control que tiende a separar la calidad de la 2. Factores que Retrasan la Aplicación de RFID
atención, de las personas que la prestan [27].
De acuerdo al estudio realizado por la organización RAND
En cuanto a la administración de recursos, el manejo eficiente EUROPA para el Comité DG INFSO, H1 de la Unión Europea,
de equipos y de inventarios permite una reducción fechado Abril 2009 [27] , sobre experiencias en el uso de RFID,
significativa de costos, lo cual ayuda al centro de salud a existen dos tipos de causas que retrasan el uso intensivo de
redirigir sus inversiones hacia áreas propias de la salud. RFID en el sector Salud, las cuales catalogan como obstáculos
e Incertidumbres. En la Figura 4 se muestran en forma
La creación de un liderazgo basado en la acción y los organizada y resumida los obstáculos y las incertidumbres
resultados, en donde la calidad sea el principal sustento del presentadas en [ HYPERLINK \l "Con09" 27 ].
147
Volumen 15, Nº 60. pp 144-150
148
Pirrone J., Huerta M., RFID en el sector salud: Aplicaciones, Beneficios e Incertidumbres.
IV. CONCLUSIONES Management for the Global Future, PICMET 2006, vol.
2, Portland, 2006, pp. 610-617.
1. Este artículo presenta un análisis de los beneficios e
incertidumbres de la aplicación de la Tecnología RFID en 8. David Alonso Abarca, Tomás Robles, Augusto Morales
el sector salud. Domínguez, and Ramón Alcarria, "Desarrollo de una
Arquitectura de Comunicaciones para Transmisión de
2. La tecnología RFID es una tecnología emergente que está Señales Médicas en Entorno Hospitalario," in IX
comenzando a ser aplicada en el sector salud. Hasta el Jornadas de Ingeniería Telemática, JITEL 2010,
momento, sus beneficios se perciben en forma cualitativa, Valladolid, 2010.
aún no existen números ni indicadores suficientes que las
soporten. 9. Chowdhury,R., Khosla, B., "RFID-based Hospital Real-
time Patient Management System," in 6th IEEE/ACIS
3. Los principales obstáculos para su uso masivo en el sector International Conference on Computer and Information
salud son la falta de infraestructura de tecnología de la Science, Melbourne, 2007, pp. 363-368.
información, y los costos de implementación de la
tecnología RFID. 10. Booth P., Frisch P.H., and Miodownik S., "Application
of RFID in an Integrated Healthcare Environment," in
4. A pesar de las incertidumbres en el desarrollo de 28th Annual International Conference of the IEEE
estándares, seguridad y aceptación por parte del personal Engineering in Medicine and Biology, New York, 2006,
del sector salud, de la tecnología RFID, se siguen pp. 117-119.
realizando numerosos estudios e investigaciones para su
implantación definitiva como herramienta para la mejora 11. Comisión Nacional de Telecomunicaciones
de la calidad de los servicios del sector salud. (CONATEL), "Reforma de las Condiciones para la
Calificación de los Equipos de Uso Libre," Caracas,
Providencia Administrativa No. 863, 2006.
V. REFERENCIAS
12. (2010) Automatic identification and data capture
1. Yeh Yao-Lung, You Jing-Cyun, and Jong Gwo-Jia, "The techniques Committee. [Online]. HYPERLINK
2D Bar-Code Technology Applications in Medical http://www.iso.org/iso/standards_development/technical
Information Management," in Eight International _committees/list_of_iso_technical_committees/iso_tech
Conference on Intelligent Systems Design and nical_committee.htm?commid=45332
Applications, vol. 3, Kaohsiung, 2008, pp. 484-487.
13. (2010) EPCGLOBAL. [Online]. HYPERLINK
2. qrcode.com. (2010, Oct.) QR Code. [Online]. http://www.epcglobalinc.org/home/
HYPERLINK
http://www.denso-wave.com/qrcode/qrfeature-e.html 14. Chartier Paul and Gertjan Van der Akker, "D1.3 RFID
Standardisation State of the Art Report-version 1,"
3. (2010) RFID JOURNAL. [Online]. HYPERLINK Proyecto GRIFS, UNIÓN EUROPEA, Reporte
http://www.rfidjournal.com/article/articleview/1339/1/129/ Informativo 2008.
4. Tan Jin Soon, "QR Code," Synthesis Journal, pp. 59-78, 15. (2008, Jan.) GRIFS RFID STANDARDS DATABASE.
2008. [Online]. HYPERLINK [Online]. HYPERLINK http://www.grifs-project.eu/db/
http://www.itsc.org.sg/pdf/synthesis08/Three_QR_Code.pdf
16. Lahtela A., "A Short Overview of the RFID Technology
5. Panescu D., "Emerging Technologies- Healthcare in Healthcare," in 2009 Fourth International Conference
Applications of RF Identifications," IEEE Engineering on Systems and Networks Communications, Porto, 2009,
in Medicine and Biology Society, vol. 25, no. 3, pp. 77- p.5.
83, Mayo 2006.
17. Wang Kaiyan, Lin Niyang, and Liu Chunhua, "Infant
6. K. Finkenzeller, RFID Handbook: Fundamentals and Management System Based on RFID and Internet
Applications in Contactless Smart Cards and Technologies," in Information Science and Engineering
Identification, 2nd ed.: John Wiley & Sons Ltd, 2003. (ICISE), 2009 1st International Conference on, Nanjing,
2009, pp. 3665-3668.
7. E. Ozelkan, Y. Sireli, M. Muñoz, and S. Mahadevan, "A
decision model to analyze costs and benefits of rfid for 18. Occhiuzzi C. and Marrocco G., "Sensing the human body
superior supply chain performance," in Technology by implanted RFID tags," in Proceedings of the Fourth
149
Volumen 15, Nº 60. pp 144-150
European Conference on Antennas and Propagation, Pervasive Computing Technologies, Tampere, 2008,
Barcelona, 2010, pp. 1-5. pp. 241-244.
19. Matic Aleksandar and Osmani Venet, "Technologies to 24. Chen Po-Jen, Chen Yung-Fu, Chai Sin-Kuo, and Huang
monitor cognitive decline a preliminary case study," in Yung-Fa, "Implementation of an RFID-based
3rd International Conference on Pervasive Computing management system for operation room," in International
Technologies for Healthcare, Trento, 2009, pp. 1-4. Conference on Machine Learning and Cybernetics, 2009,
Baoding, 2009, pp. 2933-2938.
20. Jeong B.H., Cheng C.Y., Prabhu V., and Yu B.J., "An
RFID Application Model For Surgery Patient 25. Lee Yung-Cheng, Kuo Wen-Chung, Hsieh Y.C., and
Identification," in Advanced Management of Information Chen T.C., "Security Enhancement of the Authentication
for Globalized Enterprises (AMIGE), Tianjin, 2008, pp. Protocol for RFID Systems," in Fifth International
1-3. Conference on Information Assurance and Security,
Xian, 2009, pp. 521-524.
21. Chung Ju-Young et al., "Development and Impact of
Radio-frequency Identification-Based Workflow 26. Cangialosi A., Monaly J.E., and Yang S.C., "Leveraging
Management in Health Promotion Center: Using RFID in hospitals: Patient life cycle and mobility
Interrupted Time-Series Analysis," IEEE Transactions on perspectives," Communications Magazine, IEEE, vol.
Information Technology in Biomedicine, vol. 14, no. 4, 45, no. 9, pp. 18-23, Septiembre 2007.
pp. 935-940, Julio 2010.
27. Van Oranje Constantijn et al., "Study on the
22. Chen Y.C., Liu C.H., Wang C.C., and M.F. Hsieh, "RFID Requirements and Options for Radio Frecuency
and IPv6-enabled Ubiquitous Medication Error and Identification (RFID) Application in Healthcare," DG
Compliance Monitoring System," in e-Health INFSO, H1, Cambridge, TR-608-C, 2009.
Networking, Application and Services , 2007 9th
International Conference, Taipei, 2007, pp. 105-108. 28. Van Der Togt Remko et al., "Electromagnetic
Interference From Radio Frecuency Identification
23. Lahtela A., Hassinen M., and Jylha V., "RFID and Inducing Potentially Hazardous Incidents in Critical Care
NFC in healthcare: Safety of hospitals medication Medical Equipment," Journal of American Medicine
care," in Second International Conference on Association, vol. 299, no. 24, pp. 2884-2890, 2008.
150
NUEVO SISTEMA DE CONTROL PARA EL SEGUIMIENTO
DEL PUNTO DE MÁXIMA POTENCIA EN PANELES
SOLARES BASADO EN EL CONTROL PREDICTIVO DE
CORRIENTE DE CONVERTIDORES CC-CC.
Baethge Erick(1) Berzoy Alberto(2), Guzmán Víctor(3) y Giménez María Isabel(4).
(1,2,3,4)
Departamento de Electrónica y Circuitos,
Universidad Simón Bolívar, Caracas, Venezuela.
erickbaethge@gmail.com
Resumen: Para obtener la máxima energía de un panel solar es necesario operarlo en el punto de máxima
potencia, donde el producto de la tensión fotovoltaica generada y la corriente extraída es un máximo. En
operación normal este punto cambia continuamente, lo que requiere de un sistema de seguimiento del punto
de máxima potencia para optimizar la operación del panel. Los paneles solares presentan una característica
no lineal en la curva corriente-voltaje, lo que hace difícil la utilización de algoritmos convencionales de
seguimiento de puntos de operación donde se busca un máximo o un mínimo. Se ha demostrado que el
algoritmo “perturbar y observar” (P&O) es adecuado para el seguimiento del punto de máxima transferencia
de potencia sobre este sistema. Este trabajo presenta una simulación en Matlab Simulink del comportamiento
del panel solar bajo irradiancias y temperaturas típicas. El modelo se usa para probar que un sistema de
seguimiento del punto de máxima potencia del panel basado en el algoritmo P&O operando sobre un control
predictivo de corriente aplicado a un convertidor CC-CC es capaz de encontrar y seguir eficientemente el
punto de máxima transferencia de potencia frente a variaciones en las condiciones de irradiancia y
temperatura en el panel.
Palabras clave: Generación Fotovoltaica/ Seguimiento del Punto de Máxima Potencia/ Algoritmo P&O/
Convertidor CC-CC.
Abstract: To get maximum energy from a solar panel it is necessary to operate in the maximum power point
where the product of generated photovoltage and extracted current is a maximum. In normal operation this
point changes continuously, therefore a maximum power point tracking system is required. Solar panels
present a nonlinear characteristic in the current-voltage graph, complicating the use of standard operating
point tracking algorithms to find a maximum power point. If has been shown that the “perturb and observe”
(P&O) algorithm is adequate to achieve this task. This work presents a Simulink Matlab simulation of the
solar panel behavior under constant irradiation and typical temperatures. This simulation is used to prove that
a maximum power point tracking control based on the P&O algorithm manipulating a predictive current
control applied to a DC-DC converter is able to find and efficiently follow the maximum power point under
panel irradiance and temperature variations.
Keywords: Photovoltaic Generation/ Maximum Power Point Tracking/ P&O Algorithm/ DC-DC Converter.
solar, lo que produce un cambio inmediato de la potencia máxima transferencia de potencia y el voltaje de circuito
disponible en el panel. abierto, y los sistemas basados en redes neuronales [4].
Por otra parte, generalmente no es posible conectar El algoritmo “perturbar y observar” (P&O) se usa
directamente la carga a los paneles solares, por lo que es ampliamente para seguir el punto de máxima transferencia de
imprescindible incluir en el sistema de generación de energía potencia (MPPT) [4] [5] [6] [7] [8] [9] [10]. Una de las
fotovoltaica una etapa de electrónica de potencia tipo conversor ventajas de esta técnica es que no depende de ningún
CC-CC para ajustar la salida del panel a las características estimador, por lo que no sufre de errores de modelaje y,
requeridas por la carga. La inclusión de esta etapa de adicionalmente, es un control con muy buena dinámica ya que
conversión de potencia tiene la ventaja adicional de que no necesita realimentación. Adicionalmente, otras
permite manipular la potencia entregada por el panel, para características resaltantes de este sistema de control es que no
aprovechar la máxima energía que el panel solar pueda necesita una caracterización rigurosa del panel solar, ni
entregar. Esto se logra haciendo que el panel trabaje en todo requiere de un estimador de la irradiancia y de la temperatura
momento en el punto de operación donde el producto del para poder saber el valor exacto de la potencia a demandar.
voltaje generado por la corriente extraída es un máximo; este Este trabajo se dedica al estudio del uso del algoritmo P&O
punto de operación se conoce usualmente como el punto de sobre una etapa de conversión CC-CC denominada
máxima potencia o MPP por sus iniciales en inglés (Maximum “convertidor Luo de súper-elevación con salida positiva” en
Power Point). En los últimos años se han desarrollado distintas modo de corriente continua, [11] con control de corriente
técnicas y algoritmos para optimizar la extracción de energía. predictivo del ciclo de trabajo para realizar la función de
También se ha demostrado que utilizando sistemas seguidores seguimiento del punto de máxima potencia.
del punto de máxima potencia se mejora el rendimiento de la
extracción de la energía solar en aproximadamente un 15% [2]. La figura 1 muestra un diagrama de bloques del sistema
propuesto, que consta de cinco bloques: El panel solar, el
La característica no lineal corriente/voltaje de los paneles convertidor CC-CC, el control predictivo de la corriente, la
solares hace complicado el uso de algoritmos convencionales unidad de control P&O y la carga.
de seguimiento para encontrar mínimos y máximos en la
potencia entregada, debido a que para ello es necesario el El panel solar simulado corresponde al panel comercial
modelado del panel solar. Los parámetros del modelo del BP7185 de 185 W de BP. La simulación del panel solar se
panel solar adicionalmente varían con la temperatura y con la realizó para dos casos: 1) entorno de irradiancia constante y
irradiancia, haciendo difícil la implementación de un control temperatura constante, y 2) entorno de irradiancia variable y
sencillo. Se han propuesto varias estrategias de seguimiento temperatura constante.
del punto de máxima potencia, entre las cuales se encuentran
el seguidor del punto de máxima transferencia de potencia El estudio se realizó en base a la simulación por computadora
basado en corriente (CBMPPT, de sus siglas en inglés mediante el programa Simulink y sus bibliotecas asociadas, tanto del
“Current Based Maximum Power Point Tracking”), el cual se panel solar como del convertidor Luo. Los resultados obtenidos al
basa en suponer una relación lineal entre la corriente en el combinar el modelo del panel solar con el modelo del convertidor
punto de máxima transferencia de potencia y la corriente de demuestran que el sistema de control funciona eficientemente, con
corto circuito [3], el seguidor del punto de máxima buena dinámica y de manera robusta. En base a estos resultados se
transferencia de potencia basado en voltaje (VBMPPT, de sus está procediendo a la búsqueda del financiamiento necesario para
siglas en inglés “Voltage Based MPPT”), el cual se basa en desarrollar un prototipo experimental que pueda probarse tanto en
suponer una relación lineal entre el voltaje en el punto de el laboratorio como en el campo.
Figura 1. Diagrama de bloques del sistema completo propuesto para el control MPPT.
152
Baethge, E. et al. Nuevo sistema de control para el seguimiento del punto de máxima potencia en paneles solares
(2)
(3)
(4)
153
Volumen 15, Nº 60. pp 151-160
El modelo discreto de la derivada es la diferencia, por lo que: • Si ∆i(k) > 0 y Δp(k) > 0 entonces se aumenta la demanda
de corriente.
• Si ∆i(k) < 0 entonces hay un decremento en la corriente y La función de transferencia de este convertidor para el modo
si ∆p(k) > 0 entonces se conoce que se está en la región 3 continuo de conducción es:
de la curva I-V (figura 3) acercándose al punto de máxima
transferencia de potencia.
(7)
• Si ∆i(k) < 0 entonces hay un decremento en la corriente y
si ∆p(k) < 0 entonces se conoce que se está en la región 4
de la curva I-V (figura 3) alejándose del punto de máxima
transferencia de potencia. Manipulando la ecuación de transferencia se obtiene que:
154
Baethge, E. et al. Nuevo sistema de control para el seguimiento del punto de máxima potencia en paneles solares
Y para forzar a que el panel opere en el punto de máxima de potencia principal (usualmente un IGBT o un MOSFET de
potencia, se hace que Isal sea Iref, con lo que se obtiene: potencia) que logra que la corriente de salida Isal sea igual a
Iref. El calificativo de control predictivo de corriente se debe a
que la ecuación 9 logra predecir cuál es el ciclo de trabajo que
se necesita colocar en el siguiente ciclo de control para obtener
(9) la corriente deseada, que en este caso es Isal = Iref.
El convertidor Luo se diseñó para manejar una potencia Para garantizar la operación en modo continuo de corriente se
máxima de 180 W, con voltaje y corriente de salida nominal debe cumplir que:
de 180 V y 1 A respectivamente. En la entrada del convertidor
CC-CC se tendrá un voltaje de 36,5 V y una corriente de 5,1
A, que es el punto de máxima transferencia de potencia del (10)
panel solar según la hoja de datos. La frecuencia se estableció
en 10 kHz.
155
Volumen 15, Nº 60. pp 151-160
156
Baethge, E. et al. Nuevo sistema de control para el seguimiento del punto de máxima potencia en paneles solares
La figura 7 muestra la potencia proporcionada por el panel y extraída del panel es en promedio 185 W, la cual corresponde
la potencia entregada a la carga final bajo las condiciones a la potencia máxima que puede entregar este modelo del
indicadas. Para el primer intervalo de esta figura, el tiempo panel solar para esta irradiancia y esta temperatura.
comprendido entre 0,2 y 1 segundos, cuando actúa el
algoritmo P&O en conjunto con el control predictivo de Se puede notar que existe una pérdida constante de potencia
corriente, el panel solar entrega la máxima potencia para una en el sistema convertidor, que se debe las pérdidas en el
irradiancia de 0,8 Suns, que es 20 % menos potencia que la convertidor CC-CC. Estas pérdidas son causadas por los
entregada para 1 Sun de irradiancia, y que corresponde a transitorios que ocurren cuando se llevan a cabo las
138,75 W. También se puede observar en la misma gráfica conmutaciones del MOSFET, durante las cuales el producto
cómo el sistema aprovecha esa mayor extracción de energía de la corriente por el voltaje en el dispositivo es distinto de
del panel, entregándosela todo el tiempo a la carga final, en cero, por la potencia que se disipa en el MOSFET cuando está
este caso una resistencia de 180 Ω. encendido debido a RDSon= 0,1 Ω y por la potencia disipada
durante el tiempo de conducción de los diodos D1 y D2, que
Para el segundo intervalo de la figura 7, el tiempo posterior de son modelados con el modelo de aproximación lineal.
1 segundo, cuando la irradiancia es de 1 Sun, la potencia
157
Volumen 15, Nº 60. pp 151-160
En la figura 8 se puede observar la corriente de referencia que a su vez correspondería a una potencia variante en el
arrojada por el algoritmo P&O y la corriente de salida del tiempo, que simularía una situación más real. Es por esta
convertidor CC-CC, donde el control de corriente predictivo razón que los sistemas de control sobre los paneles solares
procura seguir la referencia de corriente pero no llega a deben ser dinámicos y responder efectivamente ante
alcanzarla. Esto se debe a que el modelo que usa el control cambios temporales en la potencia disponible.
predictivo de corriente no es el mejor, es decir, la función de Observando la ecuación 3 se puede notar que la corriente
transferencia del convertidor no considera las pérdidas fotovoltaica para un valor de temperatura de referencia
asociadas a los componentes del circuito. La ventaja de este (en este caso 25°C) es aproximadamente proporcional a
control de corriente es su sencillez y facilidad para la irradiancia.
implementarlo.
Observando las ecuaciones 4 y 2 se puede deducir que la
irradiancia es el factor fundamental para determinar el valor de
4.2. Irradiancia sinusoidal y temperatura a 25 °C la corriente fotovoltaica, dado que el valor de K0 es pequeño.
Como la potencia eléctrica es igual al voltaje por la corriente,
Una irradiancia sinusoidal sobre el panel solar se podría y la irradiancia es sinusoidal, entonces se puede predecir que
considerar como una irradiancia variante en el tiempo, lo la potencia del panel solar debe ser sinusoidal.
Figura 9. Potencia de entrada y de salida del sistema ante una irradiancia sinusoidal.
En la figura 9 se puede observar que para una irradiancia (1 Sun), la potencia extraída corresponde en promedio a
con una variación periódica sinusoidal de 1 Hz, la 185 W, de la misma manera que en la simulación anterior.
potencia que puede obtenerse del panel solar es de la Se puede corroborar de igual forma como para los valores
misma forma, al igual que la potencia entregada a la mínimos de irradiancia (0,8 Suns) la potencia extraída
carga final. Si se sigue observando la misma figura se corresponde a aproximadamente 135 W, lo que coincide
puede notar que para los valores pico de irradiancia con la simulación anterior.
158
Baethge, E. et al. Nuevo sistema de control para el seguimiento del punto de máxima potencia en paneles solares
Figura 10. Corriente de referencia y de salida del sistema ante una irradiancia sinusoidal.
Se puede observar en la figura 10 tanto la corriente de financiamiento para desarrollar un prototipo circuital en
referencia arrojada por el algoritmo P&O como la corriente tamaño real que permita hacer pruebas tanto de laboratorio
de salida del convertidor CC-CC ante la irradiancia sinusoidal como de campo para validar los resultados de la simulación.
aplicada.
IV. REFERENCIAS
III. CONCLUSIONES
1. M. Pagliaro, G. Palmisano and R. Ciriminna, “Flexible
1. Este nuevo sistema de control propuesto que comprende el Solar Cells”, Ed. Wiley-VCH, Germany: Strauss GmbH,
bloque algoritmo “Perturbar y Observar” sobre el bloque 2008.
de control de corriente funciona eficientemente,
extrayendo la máxima energía de un panel solar sin 2. E. Koutroulia, K. Kalaitzakis, Member, IEEE, and N. C.
depender de las características específicas del tipo de panel Voulgaris, “Development of a Microcontroller-Based,
solar empleado, como tampoco depende de los valores de Photovoltaic Maximum Power Point Tracking Control
irradiancia. System”, IEEE Transactions on Power Electronics, Vol.
16, N° 1, January 2001.
2. Este nuevo sistema de control pone a nuestra disposición
una herramienta de simulación donde se puede simular 3. C. Wang, “Modeling and Control of Hybrid
cualquier sistema de control para extraer la máxima Wind/Photovoltaic/Fuel Cell Distributed Generation
potencia al panel solar. Systems”, PhD Eng., thesis, Montana State University,
Bozeman, U.S.A, July 2006.
3. El control predictivo de corriente propuesto representa un
sistema de control a lazo abierto (control por adelanto) que 4. J. A. Momoh, Fellow, Y. Wang, Senior Member and F.
funciona adecuadamente en sistemas de energía solar. Eddy-Posey, “Optimal Power Dispatch of Photovoltaic
System with Random Load”.
4. Tiene como gran ventaja el hecho de no necesitar
realimentación, lo que lo hace versátil y con una muy 5. R. Faranda and S. Leva, “Energy comparison of MPPT
buena dinámica, es decir, el sistema responde techniques for PV Systems”, WSEAS Transactions on
inmediatamente a la demanda. Power Systems.
5. Por ser un controlador a lazo abierto tiene la desventaja de 6. J. A. Jiang, T. L. Huang,Y. T. Hsiao and C. H. Chen,
presentar siempre un error en estado estacionario, el cual “Maximum Power Tracking for Photovoltaic Power
es inherente al modelo utilizado del convertidor CC-CC Systems”, Tamkang Transactions of Science and
para predecir la señal de control. Engineering, Vol. 8, N° 2, pp.147153 (2005).
6. En base a todo lo anterior se está procediendo a buscar el 7. C. Liu, B. Wu and R. Cheung, “Advanced Algorithm for
159
Volumen 15, Nº 60. pp 151-160
MPPT Control of Photovoltaics Systems”, Canadian Tracker for PV Panels Using SEPIC Converter”, IEEE 2007.
Conference of Solar Buildings, Montreal, 20-24 August,
2004. 11. F. L. Luo, Senior Member, IEEE, y H. Ye, Member, IEEE,
“Positive Output Super - Lift Converters”, IEEE
8. E. Karatepe, T. Hiyama, M. Boztepe y M. Çolak, “Power Publicaciones en Electrónica de Potencia, Vol. 18, N° 1,
Controller Design for Photovoltaic Generation System Enero 2003.
under Partially Shaded Insolation Conditions”, La 14ta
Conferencia Internacional en Aplicaciones de Sistemas 12. H. Fernández, A. Martínez, V. M. Guzmán y M. I.
Inteligentes en Sistemas de Potencia, ISAP 2007. Giménez, “Modelo Genérico de Celdas Fotovoltaicas”,
Universidad, Ciencia y Tecnología, Volumen 12, N° 48,
9. C. Hua y C. Shen, “Study of Maximum Power Tracking septiembre 2008, pp 157-162.
Techniques and Control of DC/DC Converters for
Photovoltaic Power System”, IEEE 1998. 13. H. L. Tsai, C. S. Tu, and Y. J. Su, “Development of
Generalized Photovoltaic Model Using Matlab /
10. R. B. Darla, “Development of Maximum Power Point Simulink”, WCECS 2008, October 2008.
160
MORFOLOGÍA Y DINÁMICA DEL TEJIDO EMPRESARIAL
DE CIUDAD GUAYANA, ESTADO BOLÍVAR, VENEZUELA
Acuña Tiapa, Fernando Rafael(1) Arzola Hamilton, Minerva(2)
(1)
Corporación Venezolana de Guayana (CVG), (2)Departamento de Ingeniería Industrial, centro
de Desarrollo Gerencial UNEXPO Vicerrectorado Puerto Ordaz.
ftiapa@gmail.com; marzola@unexpo.edu.ve
Resumen: En el presente trabajo se examina la morfología y dinámica del tejido empresarial de Ciudad
Guayana recurriendo para ello a la revisión de la conformación del sistema productivo local a los fines de
explicar su configuración y grado de actividad. La realización de este estudio ha demandado la utilización
de una metodología de investigación de tipo no experimental transeccional descriptiva. La misma guió la
gestión de la información cualitativa; así como de la cuantitativa (base de datos del directorio de
establecimientos de Ciudad Guayana de los años 2002 y 2005). Cabe señalar que el examen realizado a las
bases de datos consultadas permitió detectar que aproximadamente el 77% de los establecimientos
investigados son microempresas, un 22% pequeñas y medianas empresas y el 1% grandes empresas. En
cuanto al empleo, en el periodo 2002-2005, se observa un tímido proceso de creación de nuevos puestos de
trabajo de tan sólo 4,7%. Para el año 2005 son las pequeñas y medianas empresas las que más empleo generan
(41,5%), seguidas por la gran empresa y microempresa. Igualmente, se desvela la prevalencia de sector
terciario y las categorías de tabulación que lo integran, tanto en número de empresas como en los empleos
generados.
Palabras clave: Ciudad Guayana/ Tejido Empresarial/ Unidades Económicas de Producción/ Morfología/
Dinámica.
Abstract: This work examines the morphology and dynamics of the business fabric of Guayana City through
the revision of the formation of local productive system for the purpose of explaining its configuration and
level of activity. This study has demanded the use of a descriptive transeccional non-experimental research
methodology. It led qualitative; information as well as the quantitative (directory of establishments in 2002
and 2005 Guayana City database) management. It should be noted the review databases consulted allowed
to detect that 77% of surveyed establishments are micro-enterprises, 22% small and medium enterprises,
and 1% sized enterprise. Regarding employment in the period 2002-2005, there is a shy process of creation
of new jobs only 4.7%. By the year 2005 are small and medium-sized enterprises that more employment
generated (41.5%), followed by large enterprise and small business. Also, it reveals the prevalence of tertiary
sector and categories tab integrated both companies and jobs generated.
Key words: Guayana City/ Business Network/ Economic Units of Production/ Morphology/ Dynamics.
Concatenado con lo anteriormente expuesto, el objetivo Como se deja ver, hace más de 46 años que Venezuela no
planteado va dirigido a determinar la morfología y dinámica cuenta con un directorio de empresas y locales actualizado
del tejido empresarial de Ciudad Guayana. A través del mismo que sirva de fuente para la realización de estudios que permita
se indaga sobre la conformación del sistema productivo local, conocer la estructura y características generales de las
a los fines de explicar su configuración y grado de actividad, actividades económicas que se realizan en el ámbito nacional
en correspondencia con el Clasificador Industrial y subnacional. No obstante lo reseñado, es importante traer a
Internacional Uniformes de todas las actividades económicas, colación que en el caso específico de Ciudad Guayana los
Revisión 3 (CIIU-Revisión 3), de la Organización de las esfuerzos periódicos realizado por la GIR de CVG, tendentes
Naciones Unidas. La consecución del objetivo esbozado a elaborar Directorios Locales de Establecimientos, han
implicó la búsqueda, revisión y análisis de las Bases de Datos contribuido a subsanar el vacío de estadísticas empresariales
del Directorio de Establecimientos de dicha ciudad existente.
correspondiente al año 2002 y el realizado en el mes de Julio
del año 2005 por la Gerencia de Información Regional (GIR) Se debe aclarar que lo anteriormente expresado no significa
de CVG, datos disponibles más recientes. que en el país y en Ciudad Guayana no se hayan realizado
esfuerzos dirigidos a conocer la situación del sector
En este mismo orden de ideas cabe señalar que el examen empresarial en un periodo determinado; lo que si hay que
realizado, a las base de datos consultadas permitieron conocer significar es que no se tiene información sobre la existencia de
en alto grado de aproximación la realidad del tejido estudios previos orientados a auscultar la realidad del tejido
empresarial de Ciudad Guayana en lo relativo a: cuanto son las empresarial en espacios territoriales concretos de Venezuela,
unidades económicas de producción existentes, como ha sido como el que en este trabajo se aborda.
su proceso evolutivo, la intensidad con que se ha mantenido
operativo, su dimensión y empleo generado y en lo
concerniente a su dimensión, estructura sectorial y actividad 2. Definición del tamaño de empresa
productiva.
La definición de tamaño de empresa bosquejada en este punto
El presente artículo se ha estructurado en cinco partes. En la se plasma a los fines de dar a conocer la dimensión de cada
primera de ellas, la introducción, se comienza con la estrato que conforma el tejido empresarial de Ciudad Guayana
identificación del elemento motivador continuándose; a y en consecuencia tener a disposición una categorización de
grosso modo, con el planteamiento de la necesidad de conocer unidades económicas de producción que permita manejar
la conformación y dinámica del objeto de investigación. información relacionada a su cantidad, empleos que generan,
Seguidamente, se aborda el desarrollo donde se hace actividad económica que desarrollan, de acuerdo al
referencia a la experiencia venezolana en material de Clasificador Industrial Internacional Uniformes de todas las
generación oficial de estadísticas empresariales; asimismo, actividades económicas, Revisión 3 (CIIU-Revisión 3), de la
dentro de esta sección se presenta una revisión de la definición Organización de las Naciones Unidas, entre otros aspectos.
del tamaño de empresa a los fines de derivar a partir de la
misma los criterios a seguir es este trabajo para clasificarlas; No obstante lo señalado, hay que puntualizar que en
de igual modo, está dedicado a la exposición sucinta de la Venezuela existen dos criterios institucionalizados que
metodología utilizada, así como a la presentación y discusión simplifican la clasificación de las empresas según su tamaño,
de los resultados obtenidos. En el tercer epígrafe se presentan que hacen alusión exclusivamente a la industria
las conclusiones del trabajo, en el cuarto las referencias manufacturera. El primero de ellos es el esbozado en el
bibliográficas que le sirven de soporte y en el último, las Articulo 5 de la Ley para la Promoción y Desarrollo de la
fuentes estadísticas. Pequeña y Mediana Industria y Unidades de Propiedad Social,
162
Acuña, F., Arzola, M., Morfología y dinámica del tejido empresarial de Ciudad Guayana, Estado Bolívar, Venezuela
en el cual se maneja como norma de clasificación el número es la morfología y dinámica del tejido empresarial de Ciudad
de trabajadores y las ventas anuales medidas en unidades Guayana. En tal sentido, el soporte del presente análisis son
tributarias; y el segundo, utilizado por el Instituto Nacional de las bases de datos del Directorio de Establecimientos de ésta
Estadísticas (INE), que considera como pauta de clasificación localidad elaborados en el año 2002 y en el año 2005,
únicamente los estratos de ocupación, es decir, el número de respectivamente. Se debe aclarar que en este trabajo no se
trabajadores que emplea cada empresa. presenta un estudio detallado de los diferentes elementos o
variables que caracterizan a las empresas de dicho territorio,
Hecha la respectiva aclaratoria sobre la definición del tamaño sino una revisión centrada en su dimensión, actividad que
de industria es importante resaltar que el criterio que se adopta desarrollan y fuerza de trabajo que emplean.
en este trabajo para clasificar a las empresas de acuerdo a su
dimensión se corresponde con el manejado por el INE para Un análisis de la configuración y dinámica empresarial de
agrupar a la industria manufacturera, ello debido, entre otras Ciudad Guayana es fundamental para determinar los cambios
razones, a que es la regla esgrimida por la GIR de CVG para que se han dado en el tejido productivo local, en los aspectos
catalogar al universo de empresas que conforma la base de anteriormente señalados, en los tres años que separan la
datos de los diferentes Directorios de Establecimientos que ha estructuración de las bases de datos de cada directorio de
realizado hasta el presente. establecimientos.
163
Volumen 15, Nº 60. pp 161-170
Asimismo, se observa como los establecimientos que los mismos en los dos años considerados, sin embargo, a lo
mostraron signos de inactividad ya sea por estar desocupados largo del periodo en estudio experimentan un crecimiento del
o cerrados al momento de ser visitados porcentualmente son 46,8%.
4.1.2. Número total de empresas que informaron según su propio en el año 2005. Al respecto se tiene que al clasificar
tamaño y cantidad de trabajadores las empresas de acuerdo al número de trabajadores, como se
presenta en el tabla II, lo primero que se observa es que en
El objetivo de este apartado es analizar la dimensión ambos años considerados aproximadamente el 77% de las
empresarial de las 14.032 unidades económicas de producción empresas que se lograron investigar son microempresas, con
que informaron en el año 2002 y las 14.789 que hicieron lo una plantilla de empleados y/u obreros que oscila entre 1 y 4.
164
Acuña, F., Arzola, M., Morfología y dinámica del tejido empresarial de Ciudad Guayana, Estado Bolívar, Venezuela
Tabla II. Número total de empresas que informaron según su tamaño y cantidad de trabajadores.
Ciudad Guayana, Estado Bolívar, Venezuela, .Años: 2002 y 2005.
165
Volumen 15, Nº 60. pp 161-170
Un segundo grupo importante de empresas, en cuanto a la interna del tejido empresarial de Ciudad Guayana a través de
fuerza de trabajo ocupada, lo constituye el de la gran la revisión de los diferentes sectores productivos en que se
empresa que a pesar de concentrar apenas el 0,6% de la divide; cabe mencionar los conocidos sectores tradicionales
plantilla empresarial existente en la ciudad, emplea al 36,9% de la economía: primario, secundario y el sector terciario,
de la masa de trabajadores contabilizada. desagregados a su vez en las respectivas categorías de
tabulación de las actividades económicas que los conforman.
En el otro extremo las microempresas que, en cuanto a número
de unidades económicas de producción, representa la mayoría Al respecto, se tiene que en las tablas III y IV se da a conocer
de las empresas reconocidas como operativas con un 77,3% de toda la información estadística relacionadas extraída de la base
las mismas, tan solo dan empleo al 21,6% de los trabajadores de datos del Directorio de Establecimiento de Ciudad
reportados. Guayana realizado en el año 2005, que sirve de soporte al
presente planteamiento.
4.1.3. Las empresas de Ciudad Guayana según su tamaño, En la primera de estas tablas se muestra el número de
estructura sectorial y actividad productiva empresas existentes y en la segunda la fuerza de trabajo que
emplean, de acuerdo con su tamaño; en alineación con los tres
El propósito de este punto es dar a conocer la estructura sectores económicos tradicionales ya identificados y con la
166
Acuña, F., Arzola, M., Morfología y dinámica del tejido empresarial de Ciudad Guayana, Estado Bolívar, Venezuela
información que se desagrega en catorce categorías de acuerdo con la tala III, de ellas destacan por su importancia
tabulación. en cuanto al número de empresas existentes se refiere, la
categoría de tabulación G con un 52,2%, donde se enmarcan
Al revisar el contenido de ambas tablas lo primero que se las dedicadas a la actividad económica Comercio al por
observa, en términos generales, es la prevalencia de sector Mayor; Reparaciones de Vehículos Automotores,
terciario, tanto en número de empresas como en los empleos Motocicletas, Efectos Personales y Enseres Domésticos; la
generados. Sobre este particular, en la figura 4 se muestra como categoría de tabulación O que tiene un peso dentro del total de
el mencionado sector, en el caso específico de las empresas, 11,0%, que agrupa a todas las empresas dedicadas a Otras
representa el 89,7% del total y los empleos generados el Actividades de Servicios Comunitarios, Sociales y Personales;
76,3%; en los dos aspectos mencionados sigue en orden de la categoría de tabulación D con una participación del 8,7%,
importancia el sector secundario con 9,9% y 22,3%, donde se clasifican las Industrias Manufactureras; la
respectivamente; el sector primario apenas se hace notar. categoría de tabulación H, dentro de la cual se congregan los
Hoteles y Restaurantes, con una participación del 7,3%; la
En cuanto a las actividades económicas que se desarrollan en categoría de tabulación N (6,1%) y la categoría de tabulación
Ciudad Guayana en el año 2005, enmarcadas dentro de los K (5,9%) que reúne a las empresas dedicadas a la prestación
tres sectores económicos tradicionales que se vienen tratando, de los Servicios Sociales y de Salud y a las Actividades
se identificaron 14 categorías, como ya se ha expresado. De Inmobiliarias, Empresariales y de Alquiler, respectivamente.
Tabla III. Número total de empresas de acuerdo a su dimensión, por sectores tradicionales de la economía y
categoría de según CIIU-Revisión 3. Ciudad Guayana, Estado Bolívar, Venezuela. Años 2005.
167
Volumen 15, Nº 60. pp 161-170
Todas las anteriores categorías de tabulación de actividades contribuye con mayor fuerza a su generación seguido del
económicas concentran el 91,2% del total de empresas de sector secundario; así se tiene que el primero aporta el 76,3%
Ciudad Guayana que para el año 2005 se encontraban en pleno y el segundo 22,3%; quedando la participación de sector
proceso de producción. Se debe destacar que de ellas 82,5% primario relegada al último lugar con apenas un 1,4%. Lo
se corresponden con unidades económicas de producción señalado se puede corroborar al observarse la distribución
pertenecientes al sector terciario de la economía y el restante absoluta y relativa del número de trabajadores de Ciudad
8,7%, como puede evidenciarse, al sector secundario. Guayana, presentada en la Tabla IV, por sectores tradicionales
de la economía y categoría de tabulación de actividad
En lo atinente al empleo, el sector terciario es el que económica.
Tabla IV. Número total de trabajadores por sectores tradicionales de la economía, categoría de tabulación y
tamaño de empresa según CIIU-Revisión 3. Ciudad Guayana, Estado Bolívar, Venezuela. Años 2005.
168
Acuña, F., Arzola, M., Morfología y dinámica del tejido empresarial de Ciudad Guayana, Estado Bolívar, Venezuela
Figura 4. Estructura porcentual del total de empresas y trabajadores por sectores tradicionales
de la economía. Ciudad Guayana, Estado Bolívar, Venezuela. Años 2005.
169
Volumen 15, Nº 60. pp 161-170
5. Bravo, M., et al. Caracterización de las PyMEs del Sector 11. Gaceta Oficial Extraordinaria de la República
Metalmecánico del Municipio Iribarren del Estado Lara. Bolivariana de Venezuela Nº 5890. Ley para la
Universidad Ciencia y Tecnología, Vol. 12, Nº 49, Promoción y Desarrollo de la Pequeña y Mediana
Diciembre 2008, pp. 279 – 281. Accesible a texto Industria. Caracas, Julio 2008, pp. 48 - 55. Accesible a
completo en World Wide Web: texto completo en World Wide Web:
http://www.poz.unexpo.edu.ve/web/urace/pdf/Universid http://www.asambleanacional.gob.ve/index.php?option=
ad%20ciencia%20y%20tecnologia%20edicion%2052.pd com_docman&task=doc_details&gid=777&Itemid=184
f [Consulta: 2010, Marzo 13]. &lang=es [Consulta: 2009, Diciembre 16].
http://revistas.luz.edu.ve/index.php/rcs/article/view/3516 http://www.economia.gob.mx/pics/p/p2760/cipi_1A62659
/3417 [Consulta: 2010, Enero 29]. observatoriomipyme.pdf [Consulta: 2009, Noviembre 4].
170
NOTA TÉCNICA
(1)
Docente Departamento de Procesos Agroindustriales, Programa Ingeniería Agroindustrial,
Decanato de Agronomía, Núcleo Obelisco, Universidad Centroccidental Lisandro Alvarado.
Barquisimeto Venezuela. (2)Docente Departamento de Procesos Agroindustriales, Programa
Ingeniería Agroindustrial, Decanato de Agronomía, Núcleo Obelisco, Universidad
Centroccidental Lisandro Alvarado. Barquisimeto Venezuela.
ritaavila@ucla.edu.ve.cesargonzalez@ucla.edu.ve
Resumen: La calidad de los alimentos está asociada a un conjunto de propiedades y características que les
confieren la capacidad de satisfacer las necesidades del consumidor. La industria de los alimentos tiene en
la evaluación sensorial una herramienta que permite valorar la percepción del consumidor de un producto
como un todo, o de un aspecto específico del mismo. Dicha herramienta, sin embargo, es intrínsecamente
subjetiva debido a su dependencia de los sentidos humanos; en consecuencia, diversos evaluadores podrán
diferir en cuanto a su apreciación de un producto determinado. La incertidumbre asociada a la percepción
sensorial no tiene por qué ser un problema; ésta puede aprovecharse como parte del proceso de evaluación
si se trata mediante lógica difusa.
El siguiente trabajo tiene como objetivos valorar la aplicación de la lógica difusa en la evaluación sensorial,
y determinar la aceptabilidad de una bebida, empleando una serie de pruebas afectivas y datos instrumentales.
Para ello se empleará como ejemplo la evaluación de una muestra de una bebida a base de piña. Los resultados
muestran que es posible predecir la aceptación de la bebida mediante el sistema de lógica difusa con una
exactitud comparable a la exhibida por los evaluadores humanos.
Palabras claves: Evaluación Sensorial/ Lógica Difusa/ Calidad de los Alimentos/ Bebida a Base de Piña.
Abstract: Food quality is associated with a set of properties and characteristics that give them the ability to
satisfy the consumer’s needs. The food industry has in the sensory evaluation a tool to evaluate the consumer’s
perception of a product, either as a whole or of a specific aspect of it. This tool, however, is inherently
subjective - although it can be improved with training - due to its dependence on the human senses;
consequently, different evaluators may differ in their assessment of a given product. The uncertainty
associated with sensory perception need not be a problem, because it can be exploited as part of the evaluation
process if it is expressed using fuzzy logic.
The following paper aims to assess the implementation of fuzzy logic in the sensory evaluation, and determine
the acceptability of a drink, based on a series of tests that include affective responses and instrumental data.
On this regards, the evaluation of a sample of a pineapple soft-drink will be used as a practical example. The
results showed that it is possible to predict the acceptability of the beverage with the fuzzy logic system with
an accuracy comparable to that exhibited by the evaluators.
172
Ávila R., González C. La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
173
Volumen 15, Nº 60. pp 171-182
2.2 Pasos para la obtención de los datos y evaluación de la panel sensorial y posterior evaluación de la calidad de una
calidad sensorial de una bebida a base de frutas: bebida a base de frutas, basado en un tratamiento difuso, se
realizará en tres etapas. Estas se muestran en la tabla a
La secuencia para la obtención de los datos provenientes de un continuación:
3. Propuesta para la evaluación sensorial de una bebida a jugo” o “no me gusta el jugo”, existe una serie de
base de frutas, bajo aproximación difusa. posibilidades entre las que se pueden citar “me gusta poco”,
“me gusta mucho”, “me disgusta poco”, “ni me gusta, ni me
disgusta” las que reflejan la complejidad de la percepción del
3.1 Definición del perfil de la muestra. mismo producto por cada panelista sensorial.
Durante la evaluación sensorial existe difusividad; ésta se En la Figura 1, se observa un ejemplo de la estructura de la
evidencia en las frases o palabras que se utilizan para describir variable definida como “calidad sensorial de una bebida a
una sensación particular [15]. Las escalas hedónicas -aquellas base de frutas”, conformada por los atributos que serán
que establecen un paralelismo entre una escala numérica y la evaluados -gusto y consistencia-, los criterios que los definen
preferencia del evaluador- contemplan en su estructura y los valores linguísticos que permiten hacer la descripción y
parámetros de difusividad. No solo se trata de “si me gusta el categorización de cada muestra.
174
Ávila R., González C. La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
Cuando se realizan reuniones con los panelistas para definir el impacta al perfil de la muestra.
perfil sensorial de una muestra, además de unificar los
parámetros que describen una sensación en particular, es
propicia también la ocasión para establecer la importancia que 3.2 Definición de las dimensiones gusto y consistencia.
tendrá una dimensión en la categorización final de la muestra.
Por ejemplo, pudiera ser que una muestra no sea atractiva La variable calidad sensorial será evaluada en función de los
desde el punto de vista de su color, pero su gusto es agradable; atributos -o dimensiones- gusto y consistencia. Es necesario
o que una muestra no tenga la consistencia adecuada pero que que se definan para cada atributo los descriptores que se
siga siendo gustosa. En esos casos se establece un emplearán para la formulación y caracterización de cada
compromiso entre la apariencia y la aceptabilidad del producto muestra. En la Figura 2, se observa un ejemplo de estos
y se define la ponderación en la cual la dimensión evaluada criterios o indicadores de los atributos.
175
Volumen 15, Nº 60. pp 171-182
3.3 Definición de las reglas para la discriminación entre Los subconjuntos C1 y C2, son los atributos de la Figura 1 y
las muestras de la bebida a base de frutas. además son las variables linguisticas a emplear. Se les da este
tratamiento porque las fronteras de los valores linguisticos son
La selección de la muestra se realizará obedeciendo a un difusas. Los valores linguisticos a emplear serán los generados
procedimiento básico de la lógica de proposiciones bivalentes en la evaluación sensorial de las muestras de la bebida. Para
[16]. Si se definen, la que se emplea una escala hedónica. En la Figura 2, se ilustra
el atributo gusto con los valores linguisticos y la función de
p : “jugo de gusto agradabe” pertenencia. El atributo consistencia tendrá un
comportamiento similar. Adicionalmente, y como referencia
q: “jugo de consistencia agradable” para la evaluación, es necesario definir otro conjunto difuso P
el que reune las características deseables de la bebida ideal
concebido en la sección 3.3. y está relacionado con la
Sólo será válida la opción (p ∧ q) -también su conmutativa-. selección del panel.
En otros términos:
P= {°Brix, pH, viscosidad}
“Jugo de gusto agradable y de consistencia agradable” (y su
conmutativa).
4. Un ejemplo de aplicación: la evaluación sensorial de una
En ambos atributos (gusto y consistencia) la condición bebida a base de piña.
“agradable” producto de la evaluación sensorial, se traducirá
en datos instrumentales para efectos del diseño del sistema Se empleará una base de datos compilada de la evaluación
difuso. sensorial de una muestra de una bebida preparada en base a
pulpa refinada de piña [17] realizada en el Laboratorio de
Evaluación Sensorial, Programa Ingeniería Agroindustrial del
3.4 Conjuntos difusos. Decanato de Agronomía - UCLA. La finalidad de esta sección
es comparar entre las preferencias de un panel entrenado y lo
Sea C un conjunto finito nítido definido como los atributos que selecciona el diseño difuso, en igualdad de condiciones.
que conforman la calidad de la bebida a base de fruta. A continuación, se describe cada etapa.
Entonces,
• Etapa 1. Elaboración de la pulpa refinada de piña.
C = { gusto, y consistencia}, cuyo cardinal es |C | = 2 Las muestras empleadas para la evaluación sensorial, se
obtuvo del procesamiento de 60 piñas de la variedad
Se definen los subconjuntos de los atributos gusto y “Española Roja”, cosechadas por un productor local. Para la
consistencia, de la siguiente manera: preparación de la pulpa refinada se empleó una despulpadora
marca SPRINMATIC® (de 10 Kg de capacidad), con un tamiz
Sea C1 un conjunto de parámetros de gusto que determinan el de cero inoxidable malla 65. El tiempo de despulpado fue
grado de aceptación de una muestra de jugo de fruta. estandarizado con anterioridad y ajustado a 5 minutos, tiempo
Entonces, en el que se desprende totalmente la pulpa. Obtenida la pulpa,
esta fue empacada al vacío en bolsas de polietileno, y
C1 = {valores de °Brix, pH} almacenadas a -15ºC hasta su utilización.
Sea C2 un conjunto de parámetros de consistencia que • Etapa 2. Selección del panel de catación.
determinan el grado de aceptación de una muestra de jugo de Para la selección y el entrenamiento del panel se siguieron los
fruta. Entonces, lineamientos establecidos en las normas ISO 8586-1 [18] e
ISO 8586-2 [19]. Se reunió a un grupo de 47 personas -de la
C2 = { viscosidad } Comunidad Académica- quienes habían participado
anteriormente en pruebas de evaluación sensorial. Mediante
C1 y C2, conforman el conjunto nítido C, y cumplen con las entrevistas individuales, se evaluó en cada participante
siguientes propiedades [9]: aspectos como: hábitos alimenticios, consumo frecuente de
jugos de fruta, conocimientos técnicos, aptitud, salud, carencia
1. No son vacíos. de algún impedimento físico para hacer la cata (como reacción
a la bromelina), habilidad de comunicación, experiencia en
2. Son disjuntos dos a dos. evaluación sensorial, disponibilidad de tiempo, y motivación,
entre otros. Del grupo se escogieron un total de 32 personas,
3. La unión de los tres, resulta el conjunto C. a las que se le aplicaron las pruebas señaladas en la Norma
ISO 8586-1 [18], Posteriormente, se efectuaron pruebas de
176
Ávila R., González C. La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
umbral de detección de sabor (dulce y ácido) y consistencia, coincidencia para cada uno de los atributos, se definió el perfil
a fin de identificar a aquellos participantes que detectaran descriptivo del producto, logrando establecer una sola
variaciones leves en dichos atributos. Cada una de las pruebas terminología lingüística para calificarlo. De igual manera,
de evaluación sensorial se realizaron en las instalaciones del estas sesiones permitieron consultarles a los integrantes del
Laboratorio de Evaluación Sensorial del citado Programa. panel, el intervalo de valores o límites de gusto y consistencia
en el que la pulpa deja de ser considerada de “buena calidad”.
Para la integración del panel definitivo se tomó como criterio
de selección el 70% de acierto en las pruebas. Constituido el • Etapa 3. Formulación de las muestras.
panel, se procedió a su entrenamiento, siguiendo la Se aplicó un diseño factorial 32 aleatorizado y repetido, para
metodología descrita en las normas ISO 8586-1 [18] e ISO un total de 9 formulaciones, partiendo de los límites mínimos
8586-2 [19]. Durante el entrenamiento, se hizo énfasis en la y máximos tanto de pH como de sólidos solubles indicados
aplicación de pruebas descriptivas para la evaluación de los por el panel en las sesiones grupales. Para la determinación
atributos a estudiar, así como pruebas de “ranking” para el del pH y los sólidos solubles se siguió el procedimiento
ordenamiento de muestras según su gusto (ácido y dulce) y su descrito en las normas COVENIN Nº 1315 [20] y Nº 924 [21],
consistencia. Simultáneamente, en sesiones grupales, al panel respectivamente. Los valores mínimos y máximos de pH
se le dio a conocer el producto en estudio y se le solicitó, fueron: 3,2 y 3,4, y los de sacarosa fueron: 12 y 16 °Brix. El
enlistar las palabras que ellos asociaban con cada uno de los diseño fue elaborado mediante el programa estadístico
atributos, caracterizando de esta manera su gusto y Statgrafhics Centurion v. XV. La aleatorización de las
consistencia. Una vez identificadas las palabras de mayor muestras se presenta en la Tabla II.
Tabla II. Diseño del muestreo empleado para la formulación de las muestras
a utilizar en la evaluación del gusto de la bebida [17].
Para la evaluación del atributo consistencia se formularon 6 se describen las proporciones de agua y pulpa empleadas en la
muestras -a partir de las concentraciones mínima y máxima preparación de las mismas.
señaladas por el panel en las sesiones grupales-. En la Tabla III
177
Volumen 15, Nº 60. pp 171-182
• Etapa 4. Evaluación sensorial de las muestras. la Tabla IV. Así mismo en la Tabla V, se muestran algunos
La prueba de evaluación sensorial realizadas se describen en parámetros establecidos en el diseño de las pruebas.
Tabla IV. Pruebas de evaluación sensorial realizadas a la bebida a base de piña [17].
178
Ávila R., González C. La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
Tabla VI. Resultados de la evaluación sensorial de la bebida a base de piña: atributo gusto [17].
Tabla VII. Resultados de la evaluación sensorial de la bebida a base de piña: atributo consistencia [17].
• Etapa 5. Definición de los intervalos de gusto y grados Brix de la bebida, fue establecido directamente por los
consistencia ideales de la bebida a base de piña. panelistas al identificar la muestra de mayor agrado durante la
Identificada la muestra de mayor agrado por los panelistas -en primera prueba sensorial realizada. El ideal para este atributo
cuanto a su consistencia- se le determinó instrumentalmente fue de + 0,2 el pH de la muestra seleccionada, y + 1º Brix de
su viscosidad [22]. Se utilizó un viscosímetro Brookfield los sólidos solubles de la misma.
LVD, a una velocidad de rotación de 30 rpm, estableciéndose
como la consistencia ideal el promedio de las 9 lecturas • Etapa 6. Elaboración del programa.
realizadas (3 replicas de tres muestras analizadas) con un Con los intervalos de gusto y consistencia se elaboró un
intervalo de variación de aproximadamente 200 cp. El programa, el cual fue realizado en la aplicación Fuzzy Logic
intervalo del atributo gusto, el que se define con el pH y los del MatLab v. 7.9. Los pasos fueron los siguientes:
179
Volumen 15, Nº 60. pp 171-182
1. Describir el sistema de inferencia difusa a desarrollar. de entrada de cada una de las variables se encuentre dentro
del intervalo óptimo, la salida será “Bebida ideal”; y en los
2. Establecer la escala de medición de las variables de casos en los cuales al menos una variable de entrada esté fuera
entrada (gusto y consistencia). del intervalo óptimo, será “Bebida no aceptada”.
5.2 Elaboración del programa. • Caso contrario, i. e., para obtener el veredicto “bebida no
aceptada”, al menos una de las variables de entrada se
La descripción del programa elaborado, y cada una de las encuentra fuera de los intervalos óptimos.
actividades requeridas para su realización, se presentan a
continuación: g) Validación: Durante esta fase, se introdujeron al programa
valores de entrada conocidos de muestras diferentes, y se
a) Declaración de las variables de entrada: pH, sólidos espera comprobar la exactitud del mismo verificando cómo
solubles (°Brix) y viscosidad. Las dos primeras caracterizan el éste califica a las bebidas y si su respuesta coincide con los
gusto y la última, la consistencia. valores esperados de acuerdo a la evaluación sensorial.
c) Intervalo de ponderación de la escala: Los intervalos se • Al validar el programa, introduciendo como datos de
tomaron en cuenta dependiendo de la calificación de las entradas valores conocidos de muestras diferentes, se
muestras por el panel de catación, y establecidos con el valor comprueba la exactitud del mismo al calificar la muestra
instrumental de las variables pH, ºBrix y viscosidad. como “bebida ideal” o “no aceptada” coincidiendo la
respuesta del programa, con la esperada según los datos
d) Declaración de las variables de salida: Cuando los valores de la evaluación sensorial.
180
Ávila R., González C. La evaluación sensorial de bebidas a base de fruta: Una aproximación difusa.
III CONCLUSIONES. 6. Torres, M., Torres, E., Rojas, D., Vásquez, C. Método de
Evaluación de la Calidad de la Información en Servicios
1. La propuesta permitió la evaluación de muestras de Basada en Tratamiento difuso. Universidad, Ciencia y
bebidas a base de piña con datos instrumentales y los Tecnología. 12(47): 2008. 73-80.
provenientes de un panel sensorial.
7. Lanzilloti S., R., Lanzilloti S., H. Análise Sensorial Sob
2. Cuando los problemas son planteados en un lenguaje o Enfoque da Decisáo Fuzzy. Rev. Nutr. Campinas.
natural, si bien pudiera considerarse que no son expresados 12(2): 1999. 145-157.
de manera técnica, éstos encierran una información que es
muy rica y que es reflejo de la experiencia de quien toma 8. Fodorunso, O., Ajayi, Y., Shittu, T.. Fuzzy-Ruled Based
los datos. Al tomarse en cuenta este empirismo, los Approach for Modeling Sensory Acceptability of Food
resultados que se obtienen se acercan mucho más a lo que Products. Data Science Journal. 8: 2009. 70-77.
ocurre en la realidad.
9. Klir, G., Yuan, B. “Fuzzy Sets and Fuzzy Logic. Theory
3. El empleo de los sistemas difusos ofrece innumerables and Applications”. Prentice Hall. 1995. 574 pp.
aplicaciones para las operaciones en las que son requeridos
criterios sensoriales, una de esas aplicaciones ha sido 10. Perrot, N., Ioannou, I., Allais, I., Curt, C., Hossenlopp, J.,
demostrada en el sistema planteado en esta investigación. Trystram, G. Fuzzy Concepts Applied to Food Product
Quality Control: A Review. Fuzzy Sets and Systems 157:
4. Para que el sistema difuso pueda operar eficientemente es 2006. 1145-1154.
de suma importancia seleccionar un panel de catación
apropiado, a través del cual se obtendrán los estándares de 11. Lazim, M. A., Suriani, M. Sensory Evaluation of the
calidad de los diferentes atributos en un producto dado, Selected Coffee Products Using Fuzzy Approach. World
representando de esta manera las exigencias del Academic of Science, Engineering and Technology.
consumidor. 50:2009. 717-720.
5. Para futuras aplicaciones se pueden realizar adaptaciones 12. Jaya, S., Das, H. Sensory Evaluation of Mango Drinks
al sistema planteado ajustando las variables que se deseen Using Fuzzy Logic. Journal of sensory studies. 18(2):
evaluar dependiendo de las necesidades concretas de la 2003. 163-176.
operación.
13. Das, H. “Food Processing Operations Analysis”. 2005.
[En línea]. Disponible en:
IV REFERENCIAS.
http://books.google.co.ve/books?Sensory+evaluation+dri
1. Vásquez, M. El Control de Calidad en la Industria nks+fuzzy+logic. (Consultado: 05/03/2010).
Alimentaria. Ciencia y Tecnología Alimentaria. 1:1995.
34-37. 14. Corney, D. “Designing Food with Bayesian Belief
Networks”. 2000. [En linea] Disponible en:
2. Espinilla, M., Martínez, L., Pérez, L. G. “Modelo de http://www.dcorney.com/papers/FoodACDM.pdf.
Evaluación Sensorial con Información Linguística (Consultado: 01/02/2010).
Multigranular para el Aceite de Oliva”. 2008. [En línea].
Disponible en: 15. Arango S., M., Urán S., C., Pérez O., G. Aplicaciones de
la Lógica Difusa a la Cadena de Suministros. Rev.
http://sinbad2.ujaen.es/sinbad2/files/publicaciones/179.p Avances en Sistemas e Informática. 5(3): (2008) 117-126.
df. (Consultado: 16/03/2010).
16. Torres, E. “Lógica Bivalente y Conjuntos Cantorianos”.
3. Charley, H. “Tecnología de Alimentos. Procesos Material con fines didácticos. Doctorado en Ciencias de
Químicos y Físicos en la Preparación de Alimentos”. la Ingeniería, mención Productividad. Universidad
Limusa Noriega Editores, México. 2001. 767 pp. Nacional Experimental Politécnica Antonio José De
Sucre, UNEXPO. Barquisimeto. 2009. 32 pp.
4. Anzaldúa, A. “La Evaluación Sensorial de los Alimentos
en la Teoría y la Práctica.” Acribia, Zaragoza. 2005.198 17. González, C. “Formulación de una Pulpa Refinada de
pp. Piña (Ananas comosus) Mediante Tecnología de
Obstáculos”. Programa Ingeniería Agroindustrial,
5. Grupo Latino Ltda. “Manual del Ingeniero de Decanato de Agronomía, Universidad Centroccidental
Alimentos”. Colombia. 2006. 487 pp. “Lisandro Alvarado” UCLA. Venezuela. 2009.
181
Volumen 15, Nº 60. pp 171-182
182
NORMAS DE ARBITRAJE
Transcribimos a continuación los parámetros bajo los cuales 8. Conclusiones:
son evaluados por nuestros Árbitros los artículos que ¿Son un resumen de las conclusiones lógicas
recibimos para publicar, con el propósito que los autores los del trabajo basadas en la discusión? SI NO
tengan en cuenta antes del envío de sus contribuciones
9. Referencias Bibliográficas:
1. Título: ¿Existe correspondencia entre las referencias
¿Incluye información de lo que trata el artículo? SI NO citadas en el texto y esta sección? SI NO
¿Su extensión es apropiada? SI NO ¿Las referencias citadas son todas necesarias? SI NO
¿Falta alguna referencia de relevancia? SI NO
2. Resumen: Si la respuesta fuese afirmativa, ¿cuál o cuáles?
¿Es una representación concisa del artículo? SI NO
¿Tiene el formato adecuado? SI NO 10. Tablas:
¿Presenta los Objetivos, Métodos, ¿Son todas necesarias? SI NO
Resultados y Conclusiones? SI NO ¿Duplican la información presentada en el
¿Su extensión es apropiada (máx. 200 palabras)? SI NO texto o en las figuras? SI NO
¿Puede alguna de ellas ser tranformada en gráfico
3. Palabras Clave: para resumir o facilitar la comprensión de lo datos? SI NO
¿Son adecuadas al artículo? SI NO ¿Están demasiado recargadas de información? SI NO
¿Añadiría alguna que fuese relevante? SI NO ¿Son las leyendas una buena descripción de ellas? SI NO
Si la respuesta fuese afirmativa, ¿Cuál o cuales?
183
Coordinador Ing. Luisa Boet
Sub-coordinador Lic. Ana Luisa Carrillo
Secretaria Ejecutiva Arq. Ana Villanueva
Ayudantías de Investigación:
Br. Rhonal Hernández
Br. Juan Luis Díaz
Br. Neidys Madrid
Teléfonos/04148826551/04163935544/Fax:0286-9628653
Email: lboet@poz.unexpo.edu.ve/eleteboet@gmail.com,anaelecarrillo@hotmail.com
Dirección: Edificio de Apoyo docente, primer piso, UNEXPO Vicerrectorado Puerto Ordaz.