Está en la página 1de 8

Analítica web

Técnicas de análisis de datos e IA


CONTENIDO
1. Introducción

2. Robots semánticos: crawlers

3. Web semántica

4. AI Growth Hacking

5. Resumen

6. Bibliografía
Analítica web | 3

Introduccción Desde KNOWDLER se prefiere manejar el concepto click x


sales, dirigir con las herramientas inteligentes a un cliente
A través de la analítica web, se analiza con mucho más a la compra en el mínimo número de clicks. Por eso, su
detalle los resultados de las acciones de marketing sobre claim es ‘lo que te gusta te encuentra’. Es la economía de
el site con el objeto de tomar decisiones más acertadas la eficiencia, de la atención. Evitar que el usuario pierda el
sobre la web para: tiempo buscando las películass que quiere ver con sus
amigos, o navegando por buscadores infinitos. ¡El tiempo
• Optimizar el sitio web para vender más o captar medio de búsqueda de una película es de 30 minutos!
más clientes. Es decir, lo que suele durar un episodio medio.
• Mejorar las acciones de marketing.
La analítica web consiste en extraer y analizar la
• Identificar a la audiencia correcta y conectar con ella. información mediante herramientas de analítica para,
Pero no se analizará de una manera tan simplista. de este modo, extraer conclusiones y tomar decisiones.
En un entorno empresarial cada vez más competitivo, el Algo que los robots hacen fenomenalmente.
principal objetivo es crecer y crecer de forma inteligente. Para ello, lo primero es determinar qué tipo de
El growth hacking se ha convertido en una estrategia información es la más relevante para analizar el proyecto,
esencial, sin importar el tamaño de la empresa. la cual puede variar en función de las necesidades y
objetivos establecidos para el mismo. Seleccionar dicha
El growth hacker debe conocer muchas técnicas, información de forma inteligente sí marca la diferencia.
entre ellas el SEO, ya que sin posicionamiento no hay
crecimiento. Pero sobre todo, debe ser creativo, lo único La variables a medir y analizar, se denominan KPI o key
que de momento los programas, por muy inteligentes performance indicators (en castellano, indicadores clave
que sean, no pueden hacer. Y automatizar al maximo el de rendimiento) y hacen referencia a distintos aspectos
resto de tareas. que influyen de manera directa e indirecta sobre el
adecuado funcionamiento de las estrategias y acciones
El growth hacking es una disciplina que busca, con el llevadas a cabo.
mínimo gasto y esfuerzo posibles, incrementar de forma
rápida y notoria el volumen de usuarios, o impactos, de Por ejemplo, si el objetivo de las estrategias planteadas
las empresas para convertirlos en ingresos. es la captación de tráfico, no se utilizarán necesariamente
los mismos KPI que cuando el objetivo de la estrategia de
Si se trata de multiplicar la eficiencia del growth hacker y marketing online, está dirigida a la mejora de la conversión
de sus acciones, es necesario que aproveche al máximo (de visitas en leads) en el sitio web o la fidelización de
su conocimiento para automatizar y hacer inteligentes sus los consumidores.
acciones, de forma que pueda dedicarse a la creatividad, Esto se debe a que se analizan diferentes cuestiones en
más que a tediosas y laboriosas tareas que pueden ser cada caso, y la información será más relevante, o menos,
muy bien manejadas por robots y arañas software. en función del objetivo que se pretenda o persiga en
Los growth hacker se basan en la analítica web para conocer cada caso. Lo importante pues es atraer al usuario para
el estado y evolución real de las campañas que se llevan a conocerle mejor, y así, optimizarle su tiempo. Cuanto mejor
cabo, las cuales se realizan para potenciar y mejorar el se conozca su perfil, mayor probabilidad de acertar en lo
posicionamiento de las páginas web que gestionan, y poder que se le recomienda y en acabar con una venta.
evaluar de este modo si las acciones contempladas dentro Por eso, es imprescindible que la estrategia contemple
de las mismas han tenido el efecto esperado. la dualidad de analizar para aprender, sino, se invertirán
muchos recursos en una cuestión de suerte. Si solo
El concepto o definición de analítica web hace referencia
se enfoca en el análisis: del análisis a la parálisis.
a la disciplina del marketing online encargada de la
Por consiguiente, es necesario que la estrategia de
extracción y estudio de información relevante sobre el
análitica web se concentre en cómo cada medida debe
estado y evolución de un proyecto online para, de este
ser reconducida para mejorar la sigueinte interacción
modo, tomar las decisiones oportunas en cada momento
con el objetivo de optimizar y minimizar el número de
y poder evaluar el éxito de las mismas.
accesos para lograr una venta.
Esta disciplina es aplicable a cualquier tipo de página Uno de los elementos que se ha añadido al motor de
web, ya sea un ecommerce, una página para una empresa inteligencia artificial colectiva de KNOWDLER es el
de servicios, un blog o revista online, un foro, etcétera. motor de motivación. La frase ‘no hay decisión correcta
sin la motivación adecuada’ llevó a mejorar el sistema
De hecho, es una de las claves para el éxito de una
mediante un motor que conociera mejor al usuario,
página web hoy en día, algo que los expertos saben
de forma que se pudiera acertar cuando está más
bien, si bien, es condición necesaria pero no suficiente.
motivado. No es lo mismo el día de San Valentin para
Atraer tráfico, en contra de lo ampliamente extendido,
alguien que acaba de iniciar un romance que quien ha
supone un incremento de los costes de infraestructura.
roto con su pareja. Si al último se le recuerda el día de
Por consiguiente, aplicar inteligentemente a quien atraer,
los enamorados, se conseguirá un efecto negativo frente a
es labor imprescindible.
la campaña. Y así innumerables ejemplos.
Analítica web | 4

Cabe insistir que medir y analizar la estrategia es


primordial en cualquier tipo de negocio que se enfrente.
Robots semánticos:
Sin medir ni analizar las acciones propias, no se puede crawlers
descubrir cuáles han sido los fallos, en qué aspectos
se puede mejorar, o qué procesos no han sido óptimos. A los crawlers también se les llama indistintamente:
Todo este análisis se vuelve indispensable si el negocio rastreadores, spiders, arañas, bots o robots, así que
o la empresa es digital. no es de extañar encontrarse con alguna de estas
denominaciones cuando se investiga sobre el tema.
Los 3 los KPI (key performance indicators) esenciales
en la analítica de un modelo de negocio son: tasa de Aunque suene muy crítico, el 95 % de las empresas
conversión, las fuentes de tráfico y el ticket medio. que dicen hacer crawling (descargar datos de internet)
trabajan con softwares comerciales de scraping.
La tasa de conversión o CR, Conversion Rate por sus Esto consiste en entrar en una página web y descargar
siglas en inglés, es el porcentaje de usuarios que una serie de datos estructurados o no estructurados
realizan una acción específica ya sea realizar una contenidos dentro del mismo dominio o URL.
compra, una descarga, un registro o una reserva. La
tasa de conversión se obtiene como resultado de dividir Web scraping es el proceso de recopilar información de
el número de objetivos conseguidos entre los usuarios forma automática de la web. Es un campo con desarrollos
únicos que visitan la web. activos, compartiendo un propósito en común con la
visión de la web semántica. Utiliza soluciones prácticas
Pero para llegar a eso, se tiene que presupuestar todos basadas en tecnologías existentes que son comúnmente
los planes de negocio incluían dos costes, el CAC, Coste ad hoc. Existen distintos niveles de automatización que las
de adquisición del cliente, cuanto se invierte en captar un existentes tecnologías de web scraping pueden brindar:
cliente (aquel que paga por los servicios no por visitas), y
el CFC, coste de fidelización de cliente, cuanto se invierte • ‘Copiar y pegar’ humano: algunas veces, incluso
en matenerlo. El Churn Rate, es otro parámetro esencial, las mejores técnicas de web scraping no pueden
coeficiente de perdida de clientes. Depende del sector, pero reemplazar el examen manual de un humano, y,
cuanto más alto es el churn rate, más competitivo es el sector a veces, esta puede ser la única vía de solución
y más se debe invertir en fidelizar. cuando el sitio que se tiene en mente pone ciertas
barreras para prevenir que se creen softwares para
La tasa de conversión es uno de los KPI clave de realizar tareas automáticas en este.
rendimiento en un negocio, y más de un e-commerce ya • Uso de expresiones regulares: una posible vía para
que muestra de una manera clara cómo va el negocio, extraer información de páginas webs pueden ser las
por esta razón, este indicador debe ser monitorizado expresiones regulares, aunque comúnmente no se
y evaluado constantemente para, así, determinar las recomienda utilizarlas para parsear el formato HTML.
variaciones en la consecución de los objetivos, vender,
Protocolo HTTP: páginas webs estáticas y dinámicas
tomar las medidas oportunas y reformular las estrategia
pueden ser obtenidas haciendo peticiones HTTP al servidor
por seguir para conseguir los objetivos propuestos.
remoto utilizando sockets, etc.
Los estudios afirman que la tasa de conversión media
• Algoritmos de minería de datos: muchos sitios
razonable es de entre un 1 % y un 3 %, es decir, de cada
webs tienen grandes colecciones de páginas
100 personas que entran en una web, entre 1 y 3 personas
generadas dinámicamente a partir de una base
realizan la acción que se desea. Pero, realmente, si la
de datos. Datos de la misma categoría aparecen
acción en ventas llega al 1 %, es ya un gran ratio.
usualmente en páginas similares mediante un
Un punto importante para aumentar la tasa de conversión script o una plantilla. En la minería de datos, un
es realizar un análisis exhaustivo de las conversiones, programa detecta estas plantillas en un contexto
para ello se debe definir objetivos y embudos de específico y extrae su contenido.
conversión en Google Analytics, para así poder conocer • Parsers de HTML: algunos lenguajes, como
el comportamiento de los visitantes en la web, y tener un XQuery y HTQL, pueden ser utilizados para parsear
plan estratégico de cómo lograrlo. Atraer no es suficiente. documentos, recuperar y transformar el contenido
de documentos HTML.
Una vez obtenidos los resultados del análisis de
• Aplicaciones para web scraping: existen muchas
conversiones y conociendo el comportamiento de los
aplicaciones disponibles que pueden ser utilizadas
visitantes, se podrá realizar acciones encaminadas a
para personalizar soluciones de web scraping. Estas
aumentar el número de objetivos conseguidos, y, así,
aplicaciones podrían reconocer automáticamente la
aumentar la tasa de conversión.
estructura de cierta página o brindar una interfaz al
Si se deja a una IA que se encargue mediante técnicas de usuario donde este pudiera seleccionar los campos
ML y otros mecanismos, no sólo se mejorarán la tasa de que son de interés dentro del documento. De esta
decisiones, sino que el sistema irá mejorando de forma forma, no es necesario escribir manualmente el
convergente las decisiones. código para realizar estas tareas.
Analítica web | 5

• Reconocimiento de información semántica: La mayor diferencia, se podría decir, es que el scrapping


las páginas que son analizadas podrían incluir conoce qué datos y de dónde han de ser extraidos de
metadatos o cierta información semántica como una fuente de datos, sea web o no, mientras que la araña
anotaciones o comentarios, los cuales pueden ser va aprendiendo de la estructura y determinando cómo
usados comúnmente. Si estas anotaciones están extraerlos. Lo más recomendable es que el robot semántico
en las mismas páginas, como sucede con los esté asociado ya al modelo de conocimiento y semántico
microformatos, estas podrían ser de utilidad cuando que quiere comprender y extraer el conocimiento.
se parsea el DOM del documento. En otro caso, las
anotaciones, organizadas en una capa semántica, KNOWDLER es un crawler que extrae conocimiento, es
son almacenadas y manejadas de forma separada decir, extrae datos, y los convierte en un evento cognitivo
desde otras páginas, por lo que los scrapers pueden semánticamente correcto, antes de pasarlo al motor de
recuperar estos esquemas y las instrucciones desde inteligencia colectiva.
esta capa antes de analizar los documentos. El pipeline con multiples fuentes recoge datos y los
De estos actores, una parte importante se dedica a este convierte en conocimiento, pero al ser de diferentes
mismo trabajo sobre páginas web con derechos de fuentes, hace que la interpretación de dichos datos ya
propiedad intelectual, por lo que además de tener poca sea muy diferente que otros sistemas (figura 1).
complejidad técnica, en muchos casos, es una actividad Inicialmente, se extrae la información descriptiva mediante
de dudosa legalidad. los robots y se compara con los perfiles de los usuario.
Crawling, del inglés gatear, consiste en la descarga de Un contenido puede ser calificado de misterio por un
información de forma masiva para posteriormente experto, pero la audiencia puede percibirlo de otra forma.
indexar el contenido de un conjunto de páginas web Por eso, es muy importante para mejorar el ratio de
no estructuradas. Hacer esto tiene una elevadísima conversión que la tecnología que se utiice cruce la
complicación técnica y no existen softwares comerciales, percepción de multiples fuentes de opinión con multiples
más allá de las herramientas de Google, que lo realicen de perfiles (figura 2).
un modo profesional. De hecho, una parte muy importante
de la gente que de verdad hace crawling acude a common Es más facil que un amante del café compre un café
crawl (un proyecto donde actores comparten una base de despues de comer, o que un amante de la cerveza tome
datos con índice de una versión de internet relativamente una caña de cerveza bien fria en un día muy caluroso
actual y exhaustiva), o a Google. de verano, a que se le ofrece lo mismo a personas
que no les gusta.

Figura 1. Arquitectura CLOUDEDWE. Semántica de KNOWDLE. Fuente: elaboración propia.


Analítica web | 6

¿Cuantas cocacolas se podrían vender a un pepsicola


adicto? Más bien ninguna, pero si se sabe que le gusta el
Web semántica
té, será facil ofrecerle un Nestea. La World Wide Web o simplemente web como
comúnmente se la denomina, tiene su origen en el
año 1989, en los laboratorios del CERN, por tanto, y al
contrario de lo que generalmente se cree, la web no fue
un invento americano, sino europeo. El padre de la web
fue Tim Berners-Lee, quien en 1990 completó el primer
servidor web y el primer cliente, para al año siguiente
publicar el primer borrador de las especificaciones del
HTML y del protocolo HTTP (figura 4).

Figura 2. Robots y afinidad semántica. Fuente: elaboración propia.

La mayoría de los sistemas aplican técnicas de clustering


estáticas etiquetando los contenidos de forma estática,
pero no consideran que los clientes no son siempre
los mismos, ni están siempre del mismo humor o
sensibilidad, ni con las mismas personas (figura 3). Figura 3. Semantic Web -XML2000. Architecture. Fuente: Tim Ber-
ners-Lee. http://www.w3.org/2000/Talks/1206-xml2k-tbl/slide11-0.html

Durante la segunda mitad de los años 40 y los años


60 del siglo pasado, comenzaron a desarrollarse
proyectos que buscaban que la información contenida
en un archivo fuera más fácilmente accesible al usuario,
mostrándole una serie de enlaces en los que pudiera
encontrar la información que buscaba. Estas actividades
de investigación fueron el origen del hipertexto.

Mientras estos proyectos se desarrollaban, en 1964, el


proyecto ARPA consiguió conectar ordenadores de cuatro
universidades diferentes. A partir de ahí empezaron a
desarrollarse los primeros estándares para conseguir el
intercambio de información a través de Internet.

Tim no incorpora al WC3 la web semántica hasta


Figura 3. Robots y afinidad semántica. Fuente: elaboración propia. inicios de 2004. Es entonces cuando los trabajos de
DARPA como KQML o KIF cobran verdadera relevancia.
Para comprender los grandes avances del WC3, hay que
Pero hay muchos factores adicionales para tener en cuenta
conocer los avances que el Knowledge-Sharing Effort,
que la inteligencia colectiva y KNOWDLE consideran.
patrocinado por Advanced Research Projects Agency, Air
Por ejemplo, la calidad de la fuente, no todos los periódicos
Force Office of Scientific Research (AFOSR), Cooperation
o críticos deben ponderar igualmente su opinion.
for National Research Initiative (NRI), y la National Science
La tendencia política de un crítico o de un períodico debe
Foundations (NSF), para desarrollar la infraestructura
matizar su opinión. Y así numerosos parámetros.
técnica y las estipulaciones para permitir el intercambio de
No basta coger la nube de tags de una sola fuente, incluso conocimientos entre sistemas inteligentes. Eso permitió
no es suficiente considerar la nube de tags de multiples rápidos avances sobre XML en la web semántica.
fuentes. Se debe saber interpretar todos estos datos, y
eso requiere mucha contextualización si se busca que las
decisiones y los ratios no sean como hacer trampas en el
solitario, algo que la mayor parte de las empresas hacen.
Analítica web | 7

El lenguaje de manipulación y consulta de conocimientos, Una aplicación práctica del formato de intercambio de
o KQML, Knowledge Query and Manipulation Language, conocimientos es un lenguaje de comunicación de agentes
es un lenguaje y protocolo para la comunicación en un sistema de agentes múltiples, muy importante en
entre agentes de software y sistemas basados en el los desarrollos actuales de la IA de KNOWDLE.
conocimiento. Fue desarrollado a principios de la década
de 1990, y tenía como objetivo desarrollar técnicas para
construir bases de conocimiento a gran escala que sean AI Growth Hacking
compartibles y reutilizables. Aunque originalmente se
concibió como una interfaz para sistemas basados en La realidad es que aún no hay muchos casos de estudio
el conocimiento, pronto se reutilizó como un lenguaje de ni soluciones de cómo aplicar IA, al tema que presente, y
comunicación del agente. no hay especial inconveniente para ello.

El trabajo sobre KQML fue dirigido por Tim Finin de la Por datos no será, y existen las herramientas. Hay tres
Universidad de Maryland, Condado de Baltimore, y Jay líneas iniciales:
Weber de EITech, y contó con las contribuciones de
• Descubrir Insights. Es casi seguro que los datos
muchos investigadores.
analíticos ocultan información clave que puede
El formato y el protocolo de mensajes KQML se pueden mejorar las ventas. La IA es la mejor aliada
utilizar para interactuar con un sistema inteligente, ya cuando se trata de descubrir estos conocimientos.
sea mediante un programa de aplicación o mediante otro Sobretodo si se decide semantizar. Esto se debe a
sistema inteligente. Los "facilitadores de comunicación" de que los humanos a menudo no tienen la habilidad
KQML coordinan las interacciones de otros agentes para o la velocidad para encontrar estos conocimientos
apoyar el intercambio de conocimientos. Los sistemas de en conjuntos de datos a escala. Se pueden
prototipos experimentales admiten ingeniería concurrente, conseguir respuestas a preguntas sobre sus datos
diseño inteligente, planificación inteligente y programación. de Google Analytics. Analytics Intelligence de
Otro de los protocolos que más puede aprovecharse Google Analytics aplica el sofisticado aprendizaje
en web semántica es KIF, Knowledge Interchange automático del gigante tecnológico a sus datos
Format (KIF), es un lenguaje diseñado para permitir que de Google Analytics. Basta con escribir una
los sistemas compartan y reutilicen información de consulta en lenguaje natural: ‘¿Qué canal tuvo la
sistemas basados en el conocimiento. KIF es similar a tasa de conversión más alta?’ - y la IA de Google
los lenguajes de frames como KL-One y LOOM, pero a proporcionará una respuesta en segundos después
diferencia de ese lenguaje, su función principal no está de analizar sus datos. Keyence hace lo mismo, pero
destinada a ser un frame para la expresión o el uso para todos sus datos comerciales. Con Keyence,
de conocimientos, sino más bien para el intercambio simplemente se introducen los datos y se hacen
de conocimientos entre sistemas. Los diseñadores preguntas sobre los problemas comerciales que se
de KIF lo compararon con PostScript. PostScript no quisieran resolver. Luego, el sistema genera planes
fue diseñado principalmente como un lenguaje para y estrategias para lograr el mayor impacto.
almacenar y manipular documentos, sino más bien • Descubrir información sobre fuentes de datos.
como un formato de intercambio para sistemas y Adobe Analytics utiliza IA para analizar sus datos
dispositivos para compartir documentos. De la misma analíticos de una variedad de fuentes. Esto le brinda
manera, KIF está destinado a facilitar el intercambio de una imagen coherente de lo que está sucediendo
conocimientos entre diferentes sistemas que utilizan en su marketing, sin importar cuántos canales
diferentes lenguajes, formalismos, plataformas, etc. utilice. A continuación, el aprendizaje automático
KIF tiene una semántica declarativa. Está destinado a de Adobe analiza y visualiza los conocimientos de
describir hechos sobre el mundo, en lugar de procesos estas fuentes de datos.
o procedimientos. El conocimiento se puede describir • Predecir resultados. La inteligencia artificial no solo
como objetos, funciones, relaciones y reglas. Es un está diseñada para analizar grandes conjuntos de
lenguaje formal, es decir, puede expresar declaraciones datos. Sobresale en hacer predicciones basadas en
arbitrarias en lógica de primer orden y puede apoyar ellos. De hecho, casi todo lo poderoso que hace la IA se
razonadores que pueden probar la consistencia de un basa en la predicción de alguna manera. Comprender
conjunto de declaraciones KIF. KIF también admite el y predecir qué harán sus competidores a continuación.
razonamiento no monótono. KIF fue creado por Michael
Crayon monitorea más de 100 tipos de datos de
Genesereth, Richard Fikes y otros participantes en el
Internet para rastrear lo que hacen los competidores
esfuerzo de intercambio de conocimientos de DARPA.
en línea. Eso incluye todo, desde cambios de
Aunque el grupo KIF original tenía la intención de productos y precios hasta campañas de marketing
someterse a un organismo de normalización formal, reales que están lanzando. Luego, la inteligencia
eso no ocurrió. Desde entonces, se ha desarrollado artificial de Crayon muestra información sobre
una versión posterior llamada Common Logic para estos datos, para ayudarlo a obtener una ventaja
su presentación a ISO, y se ha aprobado y publicado. competitiva y predecir lo que harán los competidores
Una variante llamada SUO-KIF es el idioma en el que se a continuación. Predice lo que quiere la audiencia.
escribe la ontología combinada superior sugerida.
Analítica web | 8

Helixa ayuda a Crayon a producir perfiles detallados


basados en los intereses de la audiencia, la
Resumen
demografía y la psicografía. Eso incluye datos La mayor parte del tiempo se tiene el sindrome de Diogenes
sobre consumidores en general, audiencias de Data. Un afán por recolectrar datos por almacenarlos.
redes sociales e influencers dentro de la industria. Con un buen mecanismo semántico y un modelo cognitivo
Helixa puede hacer esto gracias a una inteligencia como el de KNOWDLER, los datos se pueden borrar para
artificial sofisticada capacitada en la investigación almacenar solo el conocimiento. Cada dato es procesado
actual del comportamiento humano, y expuesta a en tiempo real, modifica el mapa cognitivo y se borra.
datos demográficos y censales.
La analítica web requiere de un buen diseño y de una
• Unificar los datos. Analizar todos los datos en un
estrategia bien definida. Se quiere analizar para mejorar
solo lugar unificado, también es un trabajo que la
las decisiones, predecir escenarios y mejorar las ventas
IA hace bien. De hecho, los sistemas de inteligencia
optimizando los costes.
artificial pueden unificar los datos de sus clientes a
través de fuentes de origen. También puede unificar Los ratios deberían ser indicadores de rectificación
sus datos de sistemas a los que históricamente de las decisiones, algo que la IA y el ML pueden hacer
era difícil acceder, como datos de seguimiento de muy facilmente.
llamadas y análisis.
- Unificar los datos de los clientes de fuentes No cabe duda de que la IA se irá integrando cada vez
propias. BlueConic "libera" sus datos propios de más en la práctica del marketing y ello permitirá a
todas las fuentes dispares que existen y luego los las empresas reducir los tiempos de los procesos e
unifica para que pueda utilizarlos en sus esfuerzos interactuar con los clientes a escala, incluso en tiempo
de marketing. Esto da como resultado una vista real. Las tareas analíticas serán cada vez menos
única del cliente, sin importar cuántas fuentes de importantes, pero se necesitará más intuición y empatía,
análisis esté utilizando. Una vez que sus datos la creatividad de momento no estará en la IA y el criterio
están unificados, BlueConic utiliza modelos de humano seguirá siendo necesario para que la IA pueda
aprendizaje automático para ayudarlo a obtener progresar hasta el punto de aportar sabiduría.
más valor de esos datos, incluida la creación de Para incorporar la IA de forma beneficiosa para las
puntajes de clientes y la construcción de una organizaciones, los empleados y los clientes, es esencial
segmentación sofisticada. diseñar una estrategia esmerada, saber gestionar el
- Unifique los datos y análisis de seguimiento talento e introducir incentivos al desempeño.
de llamadas. Invoca ofrece una plataforma de
análisis y seguimiento de llamadas impulsada por
IA que ayuda a conectar las ventas del centro de Bibliografía
llamadas con las actividades de marketing en una
visión unificada. Eso incluye cerrar el ciclo de la 1. Arpirez J., Lozano Tello A. and Pinto S. “Reference
atribución, generar audiencias y enrutar llamadas Ontology and (Onto)2Agent: The Ontology Yellow
de manera dinámica. Pages”, Knowledge and Information Systems, An
International Journal, Springer- Verlag, 2 (2000) 4,
En KNOWDLER IA, el algoritmo de Inteligencia Artificial 387-412. Mar. 2000.
Colectiva hace todo esto de forma semantizada, lo que 2. Berners-Lee T., Hendler J. and Lassila O, “The
proporciona inferencias colectivas inesperadas y muy Semantic Web”, Scientific American, Volume 284,
disruptivas. Es un campo en pleno desarrollo y que dada Number 5 (May, 2001), pages 34-43.
su complejidad y dinamismo requiere herramientas muy 3. Corcho O., Gómez-Pérez A. “A Roadmap to Ontology
potentes. Sobre todo, cuando la computación cuántica esté Specification Languages”. EKAW 2000 pp. 80-96
disponible, el análisis de múltiples escenarios en muy poco
4. Gruber T. ,“Toward Principles for the Design of Ontologies
tiempo permitirá un salto importantísimo en este campo.
Used for Knowledge Sharing” Technical Report KSL- 93-
04, Knowledge Systems Laboratory, Stanford University,
CA, 1993. [Gru93b] Gruber T., “A Translation Approach
to Portable Ontology Specifications”, Knowledge
Acquisition, 5 (2), 199-220, 1993b.
5. Studer S, Benjamins R., and Fensel D., “Knowledge
Engineering: Principles and
6. Gómez-Pérez A., Methods”, I Jornadas de Ingeniería
Web’01 Data and Engineering, 25, 161-197, 1998.

También podría gustarte