Está en la página 1de 76

La Universidad Autónoma de Nuevo León, en el marco del septuagésimo quinto aniversario de su fundación, presentará el libro

quinto aniversario de su fundación, presentará el libro Adicciones Enfermedades del siglo XXI del doctor Luis

Adicciones Enfermedades del siglo XXI

del doctor Luis Eugenio Todd

el día 3 de marzo del presente, a las 19:00 horas, en el Patio Ala Sur, del Colegio Civil Centro Cultural Universitario

La presentación estará a cargo de:

Ing. José Antonio González Treviño Rector de la Universidad Autónoma de Nuevo León Dr. Juan Ramón de la Fuente Ramírez Ex rector de la Universidad Nacional Autónoma de México Lic. Emiliano Salinas Occelli Posgraduado en Cuestionamiento Racional

Se contará con la presencia del Lic. José Natividad González Parás,

Gobernador Constitucional del Estado de Nuevo León

Al término de la presentación, la Pinacoteca de Nuevo León, (ubicada en el Colegio Civil Centro Cultural Universitario) inaugurará una muestra de obras de arte relativas al tema de adicciones, del artista regiomontano Juan Caballero

(1959-1998)

Entrada libre

EL COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS DEL ESTADO DE NUEVO LEÓN invita a la:
EL COLEGIO DE ESTUDIOS CIENTÍFICOS
Y TECNOLÓGICOS
DEL ESTADO DE NUEVO LEÓN
invita a la:
Presentación de las 37 Investigaciones Educativas realizadas por el
Centro de Altos Estudios e Investigación Pedagógica – CAEIP
publicadas del 2004 al 2007
Miércoles 5 de Marzo, 2008 / 19:00 horas
Patio de Esculturas Planta Baja / Pinacoteca de Nuevo León
Presentadores:
Dr. Reyes S. Tamez Guerra
Secretario de Educación en el Estado de Nuevo León
Dr. Luis Eugenio Todd
Director General del Colegio de Estudios Científicos y Tecnológicos
del Estado de Nuevo León – CECYTE, NL
Dr. Carlos Ornelas
Investigador
Mtro. Ismael Vidales Delgado
Director del Centro de Altos Estudios e Investigación Pedagógica – CAEIP
PINACOTECA DE NUEVO LEÓN
JUÁREZ Y WASHINGTON S/N CENTRO DE MONTERREY | TEL 13404358
(ESTACIONAMIENTO SUBTERRÁNEO POR CALLE 5 DE MAYO)

Tecnologías

Web

Consejo Editorial

Presidente del Consejo de Ciencia y Tecnología de Nuevo León Ingeniero Juan Antonio González Aréchiga N. L. Gob. Licenciado Omar Cervantes Rodríguez Director del Programa Ciudad Internacional del Conocimiento Ingeniero Jaime Parada Ávila CAINTRA Ingeniero Xavier Lozano Martínez ITESM M. C. Silvia Patricia Mora Castro UANL Doctor Mario César Salinas Carmona

Doctora Diana Reséndez Pérez Doctor Alan Castillo Rodríguez Ingeniero Jorge Mercado Salas

Directorio

Director General Doctor Luis Eugenio Todd Subdirector Licenciado Juan Roberto Zavala Director Editorial Félix Ramos Gamiño Educación Profesor Ismael Vidales Delgado Ciencias Básicas y del Ambiente Doctor Juan Lauro Aguirre Desarrollo Urbano y Social Ingeniero Gabriel Todd Ciencias Médicas Doctor David Gómez Almaguer Ciencias Políticas y / o de Administración Pública Contador Público José Cárdenas Cavazos Ciencias de la Comunicación Doctora Patricia Liliana Cerda Pérez

3

4

7

10

12

15

17

20

23

25

27

29

31

34

35

37

39

41

44

48

Editorial

La ola digital El nuevo universo: Web

El Universo de las Tecnologías Web

Qué ofrecen los servicios Web Doctor Arturo Galván Rodríguez

Importancia de la Web 2.0 en la Sociedad del Conocimiento Ingeniero Roberto Ivon Dibildox

La experiencia del usuario en la nueva Web Ingeniera María Imelda González Báez

La Web Semántica: para humanos y para máquinas M. C. Héctor G. Ceballos

La democratización de la Web, un reto mundial Doctora Patricia Liliana Cerda Pérez

Modelos de negocios Web Maestro Rodrigo Soto

Hacia un futuro evolutivo de la Web Doctor José Aldo Díaz Prado

Las Mejores Prácticas de Ingeniería de Software en los Desarrollos WEB Licenciado Rogelio J. Sepúlveda

La Web y los fractales Profesor Ismael Vidales Delgado

La importancia del open source en la Web Ingeniero Jorge Cárdenas Técnico Antonio López Magaña

El alma de un buscador de páginas Web Doctora Elisa Schaeffer

Cómo redactar los textos para la Web Ingeniera Marta Sylvia del Río

El coach que diseña y construye componentes del software Web Licenciado Felipe de Jesús Rodríguez García, MT

Yo necesito una banca segura. ¿Y tú? Licenciada Laura Rodríguez

Implementación de la tecnología Ajax Maestro José Luis Ramos Martínez

Silverlight, nueva y versátil tecnología Web Ingeniero José de León Rodríguez

La zanahoria por delante y el látigo por detrás Alejandro Camino

Mas allá de los buscadores en Internet Doctor Ramón Brena

Invasores en la red Ingeniera Claudia Ordaz

CONTENIDO

Brena Invasores en la red Ingeniera Claudia Ordaz CONTENIDO El doctor Arturo Galván analiza los servicios

El doctor Arturo Galván analiza los servicios Web y lo que éstos ofrecen a los usuarios, página 4; en tanto que el ingeniero Roberto Ivon Dibildox aborda el tema de la Web 2.0 en la Sociedad del Conocimiento, página 7, y la ingeniera María Imelda González hace consideraciones sobre la experiencia del usuario en la nueva red, página 10.

la experiencia del usuario en la nueva red, página 10 . La Web semántica para humanos

La Web semántica para humanos y para máquinas es el tema que desarrolla el M. C. Héctor G. Ceballos, página 12, y la doctora Patricia Liliana Cerda reflexiona sobre el reto que constituye la democratización de la

Web, página 15. El maestro Rodrigo Soto, a su vez, narra, en forma sintética, algunos de los negocios que se han desarrollado en el ámbito de las tecnologías Web, página

17.

Tecnologías

Web

Directorio

La Ciencia es Cultura Licenciado Jorge Pedraza Ingeniera Claudia Ordaz Educación Física y Deporte Doctor Óscar Salas Fraire Las Universidades y la Ciencia Doctor Mario César Salinas Carmona Redacción Licenciada Alma Trejo Licenciado Carlos Joloy Diseño Víctor Eduardo Armendáriz Lindsay Jiménez Espinosa Arte Gráfico Arquitecto Rafael Adame Doria Circulación y Administración Profesor Oliverio Anaya Rodríguez

La revista CONOCIMIENTO es un órgano de difusión del CECyTE, editada por el COCyTE, y abre sus páginas a las instituciones de educación superior para la publicación de artículos y noticias de carácter científico. Teléfonos en la redacción: 8346 7499 y 8346 7351 info@conocimientoenlinea.com Registro solicitado previamente con el nombre de CONOCIMIENTO.

Las opiniones expresadas en los artículos son responsabilidad exclusiva de sus autores.

El Universo de las Tecnologías Web

50

Computación social Doctor José I. Icaza

52

Wikinómica: cómo la colaboración masiva lo cambia todo Doctor Juan Lauro Aguirre

55

El

Manifiesto de Usabilidad y Accesibilidad para Portales

Gubernamentales Mexicanos Ingeniero Luis Carlos Aceves

57

Accesible para ciegos el Portal Internet del Gobierno del Estado

58

La burocracia electrónica

61

Salutaciones

Keith Raniere

64

Inicia operaciones aquí la empresa india ARICENT

66

Capacitará la UR a talentos en Tecnologías de la Información

Especial

67

Felicita el ITESM a IMPLAN San Pedro

68

A

la edad de 94 años

Fallece el papá del gobernador

Cultura y Arte

69

Niña con flores amarillas, en la Pinacoteca Nuevo León

70

La convención del paisaje, conjunción de naturaleza y cultura

72

Reconocimiento

conjunción de naturaleza y cultura 72 Reconocimiento Mapa de Internet 2.0 CONTENIDO Lo que nos depara

Mapa de Internet 2.0

y cultura 72 Reconocimiento Mapa de Internet 2.0 CONTENIDO Lo que nos depara el futuro con

CONTENIDO

72 Reconocimiento Mapa de Internet 2.0 CONTENIDO Lo que nos depara el futuro con la evolución

Lo que nos depara el futuro con la evolución de la Web es tema que analiza el doctor José Aldo Díaz Prado, página 20, mientras que el licenciado Rogelio J. Sepúlveda desarrolla el tema de las mejores prácticas de ingeniería de software, página 23; aunque confiesa su poca experiencia en el mundo de la Web, el profesor Ismael Vidales no oculta la admiración que le han

causado los fractales, página

25.

que le han causado los fractales, página 25 . La doctora Elisa Schaeffer trata de meterse

La doctora Elisa Schaeffer trata de meterse en el alma de un buscador de páginas Web, página 29; y la ingeniera Marta Sylvia del Río explica las diferencias entre un texto normal, y un texto para páginas Web, página 31. Dos nuevas tecnologías Web son objeto de análisis de parte de expertos: la tecnología Ajax, por parte del maestro José Luis Ramos, página 37, y Silverlight, por parte del ingeniero José de León, página 39.

Tecnologías

Web

La ola digital

El nuevo universo: Web

A lvin Toffler, futurólogo a quien conocimos hace

mucho tiempo, describió el término: La tercera

ola, refiriéndose a la nueva época de la comuni-

cación, que desborda la revolución industrial del siglo XVIII, el XIX y la revolución agrícola, que es milenaria. Nosotros nos atrevemos a escribir sobre el tema de la “cuarta ola”, que es la de los súper canales de la infor- mación, que, queramos o no, están trasformando nues- tra civilización. Los cambios dramáticos de la ola digital, que fue- ron producto de investigaciones matemáticas con al-

goritmos muy complejos, y después de la innovación tecnológica, rica en alternativas, del uso de las ondas hertzianas y de la comunicación trasnacional, han pro- ducido cambios en las múltiples áreas del existir coti- diano y vivencial. Algunos ejemplos pueden describir este potencial:

Uno de ellos es el impacto que este proceso tiene

sobre el arte-ciencia del gobernar, el cual se transforma

a gran velocidad en la actualidad con el llamado e-go- bierno, que, aprovechando la denominada banda ancha

y la comunicación intranet, generará, de aprovecharse

bien, una alta eficiencia en el sector gubernamental y

disminuirá las enfermedades de la apología social en- démica, que caracteriza algunas veces a la burocracia. En Nuevo León, Estado de Progreso, se está dando este rumbo de modernización, y nuestra página elec- trónica es ya un ejemplo nacional. Además, la trans- parencia vía electrónica, que es obligación legal del sector público, está resultando un buen antibiótico en contra de la enfermedad de la corrupción. Este proceso, de hacer objetivas las acciones del servidor público, mejora la imagen del gobierno y aumenta la confianza ocular; sin embargo, las leyes de transparencia y la pu- blicación a tiempo real, solas, no nos van a hacer más honestos, pero al menos nos obligan a ser inteligentes

y más eficientes. El verdadero tratamiento de este fenó-

meno está en la educación, en el incremento de nuestra autoestima y en la dignificación del servidor público. También los vientos de la electrónica están modifi- cando los rumbos fenicios del mercado, pues está bien documentado que las compras y ventas por Internet,

y la simbología fantasiosa y conductista de la imagen

están desviando el tradicional mercado persa hacia la

3

EDITORIAL

adquisición de bienes y servicios a través de la banda ancha, que de esa forma amplifica la adicción a las com- pras, enfermedad que caracteriza a la sociedad actual. Por supuesto, no todo “está podrido en Dinamarca”, como diría Shakespeare, pues la ola digital trae profun- dos cambios en la educación, en el arte lúdico del gozo

y en la comunicación interhumana rápida y permanen-

te que la telefonía celular y la informática permiten a tiempo real. De nuestra capacidad de aprovechar y no desvirtuar esta tecnología se producirá un mundo sin analfabetismo y con menores contrasentidos sociales

y mayor justicia en la distribución del ingreso de esta

nueva sociedad del conocimiento. Si a esto le agrega- mos la “sociedad del conocimiento” como aliada de las páginas Web y de la comunicación vía súper canales de información, podremos aprovechar las bondades docu- mentadas de esta nueva ola. En síntesis: este tsunami de la banda ancha digital y de la sociedad E está sacudiendo el interior de nuestro potencial humano creativo, y si logramos que esta nue-

va energía se vectorice en beneficio de la raza humana,

a través de respetar un marco ético de comportamiento,

estaremos satisfechos de que la nueva ola sea condu- cida con los valores de siempre, evitando que la misma nos guíe a desvirtuar la esencia del humanismo virtual, que es la síntesis poética de la libertad del hombre he- cha preocupación, no sólo por el “yo”, sino también por el “nosotros”.

Pienso, luego existo

DESCARTES

Pienso, luego existo DESCARTES 1596 a 1650 De haber sabido que mi método cartesiano iba a

1596 a 1650

De haber sabido que mi método cartesiano iba a producir una revolución digital como la actual, quizás no me hubiera muerto.

4 TECNOLOGÍAS WEB
4
TECNOLOGÍAS WEB

Qué ofrecen los Servicios Web

Arturo Galván Rodríguez

A partir de su invención, a principios de los años 90 y hasta nuestros días, la World Wide Web, o Inter- net, ha sido utilizada principalmente para disemi-

nar información o acceder a ella mediante la publicación

y recuperación de documentos, típicamente en formato

HTML. Los principales usuarios de dicha información son personas, que acceden a ella mediante un navegador o al- gún reproductor de contenido. Esto es lo que comúnmente llamamos Web 1.0. La Web 2.0 se refiere al acceso a información no sola- mente por las personas, sino también por las computa- doras, a fin de que dicha información sea procesada de

manera automática. Los Servicios Web son una parte im- portante de esta nueva Web.

CONCEPTOS BÁSICOS Un servicio web es esencialmente un servicio cuya interfaz de acceso está disponible en Internet. Los Servicios Web son construidos mediante el uso de tecnologías estándar

de Internet. En otras palabras, si es posible acceder a un servicio a través de Internet utilizando protocolos están- dar, entonces dicho servicio es un servicio web. Un servicio web es una interfaz ubicada entre un pro- grama o aplicación y el usuario final de dicho programa

o aplicación. Funciona como una abstracción de la apli-

cación, y hace posible que cualquier lenguaje de progra- mación tenga acceso a la funcionalidad provista por la aplicación. Un servicio Web es independiente del sistema opera- tivo y del lenguaje de programación utilizado.

Doctor Arturo Galván Rodríguez Profesor Investigador Centro de Sistemas Inteligentes / ITESM agalvan@itesm.mx

SERVICIOS WEB HASTA HOY En la actualidad, los servicios web que encontramos comúnmente son sitios web. En dichos sitios, se accede

a las aplicaciones mediante el protocolo estándar HTTP y

se recupera información en el formato estándar HTML. Di-

CONOCIMIENTO

chos servicios web nos permiten, por ejemplo, comprar li- bros o leer noticias. Debido a que tanto HTTP como HTML son protocolos estándar, cuyas definiciones son públicas, cualquier navegador permite a los usuarios acceder a los servicios web actuales. Tanto el lenguaje de programación utilizado para implementar el navegador, como el sistema operativo sobre el cual es ejecutado el navegador son irre- levantes desde el punto de vista del servicio web. Un nave- gador solamente tiene que poder solicitar información mediante HTTP y saber interpretar código HTML. Los Servicios Web actuales están diseñados para presentar la información directamente al usuario final. Esto permite una gran flexibilidad, ya que el ser humano es capaz de interpretar información en cualquier formato:

con o sin indentación, a doble espacio, en columnas, con figuras intercaladas e inclusive con faltas ortográficas o gramaticales.

SERVICIOS WEB A PARTIR HOY Utilizando el ejemplo de la compra de libros en línea, es fácil para un humano interpretar la interfaz de compra. De inmediato se ve dónde es necesario alimentar infor-

mación y dónde hacer clic para que el libro sea enviado. La interfaz de acceso está diseñada para ser usada por seres humanos. Si deseamos, en cambio, automatizar la compra de li- bros de una biblioteca, de manera que un programa busque la disponibilidad de ellos y consiga los mejores precios, entonces la interfaz anterior no le es muy útil a nuestro programa de compra de libros. Es necesario diseñar una interfaz a la cual puedan acceder programas. Esto im- plica necesariamente una estandarización mucho más detallada de la información que se manipula. Se hace necesario el acceso estandarizado a llamadas tales como: “Ejecuta esta subrutina con estos parámetros’’

y a respuestas del tipo: “Éstos son los resultados de la

llamada a la subrutina’’.

EJEMPLO DE SERVICIOS WEB

A continuación presentamos un ejemplo de lo que es po-

sible lograr mediante Servicios Web. La biblioteca municipal de Monterrey está permanente- mente conectada a Internet. Un usuario pregunta si existe el libro El laberinto de la

soledad. El libro no existe en la biblioteca, pero es la cuarta vez en la semana que alguien lo solicita. La biblioteca realiza automáticamente una búsqueda en Internet y descubre que el libro puede ser adquirido en http://www.amazon.com. La biblioteca realiza la compra

y recibe un número de guía UPS, mediante el cual puede

rastrear el paquete enviado. El usuario recibe un mensaje en el que se le indica que el libro no está actualmente en existencia, pero que llegará dentro de tres días. Al día siguiente, el usuario pregunta dónde esta el li-

bro. El sistema consulta el servicio de rastreo de UPS, que

le indica que el paquete está en tránsito en un pequeño

pueblo de Estados Unidos. El sistema accede a los servicios de Google Maps, ubica el pueblo en un mapa y presenta di-

CONOCIMIENTO

TECNOLOGÍAS WEB

5

C O N O C I M I E N T O TECNOLOGÍAS WEB 5 cho

cho mapa al usuario, incluida información de distancia al destino y tiempo de entrega. El responsable estatal de las bibliotecas de Nuevo León solicita información acerca del número de libros en exis- tencia. Se solicita automáticamente dicha información a todas las bibliotecas del estado y se genera un reporte.

TECNOLOGÍAS DE LOS SERVICIOS WEB El día de hoy es posible implementar el ejemplo anterior. Un buen programador cuenta con todas las herramien- tas para llevar a cabo dicha implementación. Lo único que necesita es una manera sistemática de acceder a cada uno de los Servicios Web de los diferentes proveedores de servicios (Google Maps, Amazon, UPS). La necesidad de definir la información de manera de-

tallada implica el uso de una serie de tecnologías para sa- tisfacer dicha necesidad. Se requiere una manera estándar de realizar cada una de las siguientes actividades:

- Transporte de mensajes

- Definición de mensajes

- Descripción de servicios web

TRANSPORTE DE MENSAJES El transporte de mensajes utilizados por los Servicios Web se realiza mediante el protocolo HTTP. Se utiliza dicho pro-

tocolo debido a que está ya bien establecido en la comuni- dad Internet. Está definido de manera pública por el docu- mento RFC--2616 de la Internet Engineering Task Force (IETF), disponible en http://www.ietf.org/rfc/rfc2616.txt, y existen múltiples implementaciones del mismo.

El protocolo HTTP fue creado pensando en el trans- porte de páginas web (esencialmente, documentos HTML) y es posible que no sea el protocolo idóneo para solicitar la ejecución remota de subrutinas; sin embargo, a falta de un protocolo específico cuya utilización haya sido ampliamente probada en Internet, se utiliza HTTP para transportar los mensajes intercambiados por los servicios web.

DEFINICIÓN DE MENSAJES Debido a que un Servicio Web es independiente del siste- ma operativo y del lenguaje de programación, es necesa- rio establecer claramente la manera en que se solicita la ejecución remota de procedimientos. La manera natural en que se hace esto es utilizando XML (eXtensible Markup Language). XML es un lenguaje de uso general utilizado para lo que se conoce como markup. El siguiente segmen- to de código está escrito en XML:

6 TECNOLOGÍAS WEB
6
TECNOLOGÍAS WEB

<?xml version=”1.0”> <persona> <nombre> Juan </nombre> <apellido tipo=”paterno”> Martínez </apellido> <apellido tipo=”materno> Pérez </apellido> <telefono tipo=”casa”> (123) 456-7890 </telefono> <telefono tipo=”oficina”> (123) 789-0123 </tele-

fono>

</persona>

La interpretación del código es bastante obvia para los seres humanos, y es lo suficientemente estructurada para

El World Wide Web Consortium

Abreviado W3C, es un consorcio internacional que produce estándares para la World Wide Web. Está dirigida por Tim Berners-Lee, el creador original de URL (Uniform Resource Locator, Localizador Uniforme de Recursos), HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de HiperTexto) y HTML (Lenguaje de Marcado de HiperTexto) que son las principales tecnologías sobre las que se basa la Web. Creada el 1 de octubre de 1994 por Tim Berners-Lee en el MIT, actual sede central del consorcio. Uniéndose posteriormente en abril de 1995 INRIA en Francia, reemplazado por el ERCIM en el 2003 como el huésped europeo del consorcio y Universidad de Keio (Shonan Fujisawa Campus) en Japón en septiembre de 1996 como huésped asiatico. Estos organismos administran el consorcio, el cual está integrado por:

* Miembros del W3C. A octubre de 2007 contaba con 435 miembros (lista completa)

* Equipo W3C (W3C Team) 65 investigadores y expertos de todo el

mundo (Directorio)

* Oficinas W3C (W3C Offices). Centros regionales establecidos en

Alemania y Austria (oficina conjunta), Australia, Benelux (oficina conjunta), China, Corea del Sur, España, Finlandia, Grecia, Hong Kong, Hungría, India, Israel, Italia, Marruecos, Suecia y Reino Unido e Irlanda (oficina conjunta) (Oficinas W3C)

CONOCIMIENTO

poder ser procesada por un programa computacional. Las

etiquetas nombre’’, “apellido’’, “teléfono’’, etcétera, cuen- tan con una interpretación (intuitiva para nosotros) que debe ser definida en lo que se llama un “namespace’’. La definición de los mensajes utilizados por los Ser- vicios Web tiene una implementación específica de XML llamada SOAP, una aplicación de la especificación de XML que establece significados especiales a las etiquetas uti- lizadas. La World Wide Web Consortium (W3C) es la encargada de mantener la especificación del protocolo SOAP. Es posi- ble consultar dicha especificación en http://www.w3.org/

TR/soap12

DESCRIPCIÓN DE SERVICIOS WEB La descripción estandarizada de servicios web facilita muchísimo el desarrollo de aplicaciones que accedan a di-

chos servicios. Dicha descripción se realiza mediante Web Services Description Language (WSDL). La definición de WSDL es pública y está disponible en http://www.w3.org/ TR/wsdl. WSDL permite la generación automática del código ca- paz de acceder al servicio web en cuestion. WSDL define:

- Las subrutinas accesibles mediante el servicio

Web.

- Los parámetros que reciben las subrutinas.

- Los valores que regresan las subrutinas.

- La manera de acceder al servicio web (por ejemplo,

HTTP)

- La dirección (url) en la cual está disponible el Ser- vicio Web.

CONCLUSIÓN Hemos presentado las tecnologías que se utilizan actual- mente para integrar Servicios Web. Es necesario que los

desarrolladores se apeguen estrictamente a los estándares establecidos, a fin de que todos podamos acceder a los Web que provean. La impresionante explosión de Internet se debió a que todos podían implementar servidores HTTP

y aplicaciones cliente capaces de interpretar HTML y pre-

sentarlos a los usuarios. Antes de la explosión de las computadoras personales, cada fabricante producía equipos que funcionaban única- mente con equipos del mismo fabricante. La computa- dora personal hizo posible que las tarjetas producidas por cualquier fabricante pudieran ser conectadas a las computadoras de cualquier otro fabricante gracias a es- tándares tales como ISA o PCI. Asimismo, antes de la explosión de Internet, cada fa- bricante de equipos de red producía equipos que funcio- naban únicamente con equipos de red del mismo fabri- cante. Estándares tales como Ethernet y TCP/IP hicieron posible que cualquier aplicación transmitiera información

a cualquier otra aplicación, lo cual hizo posible lo que hoy conocemos como Internet. Todos los Servicios Web pue- den interactuar entre sí únicamente si se apegan a es- tándares públicos. El ejemplo que se mencionó es posible debido a que todos los agentes involucrados respetan los estándares de WSDL, SOAP y HTTP.

CONOCIMIENTO

TECNOLOGÍAS WEB

7

C O N O C I M I E N T O TECNOLOGÍAS WEB 7 Importancia

Importancia de la Web 2.0 en la Sociedad del Conocimiento

Roberto Ivon Dibildox

T al y como lo predijo Peter Drucker en 1969, en su libro The Age of Discontinuity, la economía glo- bal ha sufrido un gran cambio, pues la riqueza

y ventajas competitivas ya no giran en torno a los recursos naturales ni a la capacidad productiva convencional. En este nuevo entorno, cada vez cobra más valor el cono- cimiento como activo generador de riqueza; conceptos como productividad y calidad están siendo sobrepasados por otros como innovación y conocimiento, y dan lugar

a

“nuevos” conceptos como sociedad del conocimiento

y

economía del conocimiento. (Aunque el concepto de

economía del conocimiento ya lo maneja Drucker en el li-

bro citado, no considera el papel tan relevante que iba a jugar la tecnología como facilitador). Llegó la era de la información y la consolidación de la internet, pero muy pronto se vio rebasada por la enorme cantidad de datos que había que procesar. Además de esto,

la información vertida en el medio está dispersa y poco es-

tructurada, y en muchos casos es de dudosa procedencia.

A pesar de esto, se reconoce el enorme potencial que tiene la internet como repositorio; es decir, un medio de publicación, con las limitantes estáticas de otros medios convencionales. ¿Éste es el medio idóneo del que se va a valer la sociedad del conocimiento para su desarrollo?

DESARROLLO DE CONOCIMIENTO Es un hecho que la capacidad individual para el desarrollo de conocimiento cada vez es más difícil; en parte, dada la gran cantidad de información acumulada que el individuo tiene que procesar. Además, hay que mencionar que los costos para procesar esta cantidad de información cada vez vuelven más inviable el mismo. Dan Tapscott, autor del libro Wikinomics: How Mass Collaboration Changes Eve- rything, nos muestra un ejemplo de cómo una compañía minera, a punto de cerrar operaciones por agotamiento de sus reservas, comparte información privilegiada a la comunidad en la búsqueda de nuevas minas, y cómo esta

a la comunidad en la búsqueda de nuevas minas, y cómo esta Ingeniero Roberto Ivon Dibildox

Ingeniero Roberto Ivon Dibildox Director de Tecnología / UR rivon@mail.ur.mx

8

TECNOLOGÍAS WEB

CONOCIMIENTO

8 TECNOLOGÍAS WEB CONOCIMIENTO acción de apertura no sólo rescató a la compañía de la quiebra,

acción de apertura no sólo rescató a la compañía de la quiebra, sino la volvió más próspera.

INICIOS En el año 2004, durante un evento auspiciado por O’Reilly Media, el concepto de Web 2.0 adquirió notoriedad. En una sesión de lluvia de ideas, se preguntó cuál sería la evolu- ción de la actual internet (Web 1.0) y se produjo una serie de ideas que confluirían en los conceptos de interacción y colaboración. Algunas tecnologías que están dando vida a la Web 2.0 son:

-Páginas web interactivas -Blogs -Wikis -Folksonomy (red semántica) Éstas nos muestran cómo el concepto de la internet ha cambiado desde sus inicios, cuando el enfoque se concen- traba en la publicación y navegación.

PÁGINAS WEB INTERACTIVAS Originalmente, el diseño de páginas Web consistía en la publicación de texto cuyo formato era desplegado median-

te código html, el cual ayudaba a dar legibilidad y acceso

a la información contenida en una página de internet, con

la adición del concepto de la hiperliga para darle dinamis- mo; sin embargo, el resultado final era una experiencia de navegación más bien estática. Con el surgimiento de nue- vas tecnologías de codificación como dhtml, Flash y AJAX, ahora es posible diseñar páginas web interactivas que pue- den no requerir un acceso a un servidor para actualizar su estado, lo que da como resultado una experiencia de uso más ágil y amigable, y facilita una oportuna retroalimen- tación hacia el usuario.

BLOGS

Las BLOGs son un tipo de servicio de internet que permite

la publicación de bitácoras (de ahí su nombre, Binary LOG).

Éstas, a su vez, permiten a cualquier persona publicar un diario con el contenido que desee, en tanto que los visi- tantes pueden revisar las aportaciones y comentar sobre las mismas, de modo que es posible generar discusiones entre varios usuarios. Esta experiencia de participación e interacción es la que puede facilitar la creación de nuevo conocimiento, si se modera adecuadamente. El potencial de uso de esta herramienta en la nueva sociedad del cono- cimiento es enorme, pues permite la expresión de ideas, conceptos y vivencias, para impactar positivamente en la cultura y el desarrollo de la ciencia.

WIKIS Quizá una de las tecnologías más prometedoras es el concepto de Wiki. Aunque es un concepto simple, su sim- pleza y flexibilidad le otorgan un gran potencial. Un Wiki es una evolución de la página convencional de internet, la cual distinguía a quien la publicaba (con derechos ex- clusivos de edición) de quienes la consultaban. Las wikis permiten a cualquier usuario modificar el contenido del sitio o agregar información, de tal manera que se facilita el desarrollo de conocimiento comunitario. Cada apor-tación es registrada mediante una bitácora detallada de cambios (de tal manera que cualquier cambio se pue- de revertir si es necesario), y cada aportación tiene asig- nada un área de discusión que sirve de base para docu- mentar los cambios o debatir sobre el contenido. La utilidad práctica de esta herramienta ha sido con- trovertida, dado el aparente nulo control de las aportacio- nes en materia de calidad o autoridad editorial. El claro ejemplo en este debate son la Enciclopedia Británica y la Wikipedia, pues se contrasta el rigor editorial de la primera contra la apertura y flexibilidad de la segunda (lo que da lugar a fuertes debates como el ocurrido entre la revista científica Nature y Encyclopaedia Britannica Inc.). Por otro lado, el resultado de la apertura editorial de Wikipedia ha resultado en un repositorio de contenido de más de dos millones de artículos (aproximadamente 20 veces más que la Enciclopedia Británica).

FOLKSONOMY El concepto de folksonomía (etiquetado colaborativo, cla- sificación social) trata de la capacidad de los usua-rios de una fuente de información de agregar etiquetas a par- tes específicas del contenido, de tal manera que se crea una clasificación del mismo que ayuda a los motores de búsqueda a organizar y encontrar información de manera más pertinente. Lo interesante del proceso de “etiquetado”, que es realizado por seres humanos, es que se requiere un proceso de análisis y síntesis de la información para darle sentido a la etiqueta. Por supuesto, este proceso, si bien puede traer consigo una fuerte carga subjetiva que gener- aría ruido, tiene el potencial de agregar conocimiento, al cual se le pueden encontrar ángulos científicos, cultura- les y sociales. Ya en sí, este medio provee una riquísima fuente de información para realizar estudios antropológi- cos. Esta herramienta de etiquetado se puede encontrar en diversas aplicaciones como Flickr, del.icio.us y Furl, por mencionar algunos.

CONOCIMIENTO

TECNOLOGÍAS WEB

9

Por otro lado, el desarrollo de nuevos lenguajes de codificación de texto como XML, que también incluye el concepto de etiquetado del texto, libera al contenido de los sitios de los detalles de estilo y formato, y permite a los robots de búsqueda analizar con mayor facilidad la información, también facilitando el acceso del contenido desde diferentes medios (v.g. celulares).

CRÍTICAS A WEB 2.0 Por supuesto, este nuevo concepto no es ajeno a la crítica, dada su naturaleza abierta (no propietaria), aplicaciones con controles o moderación limitada, y el hecho de que sigue en proceso de consolidación. Las principales críticas son:

-No hay estándares -La tendencia de la industria a creer que la Web 2.0 no es más que blogs y wikis, hace ver al mismo nada más como un término de mercadotecnia. -Contenidos informales, mal organizados y anárquicos.

CONCLUSIONES En resumen, la Web 2.0 es resultado de la evolución del medio, en donde pasamos de sitios web estáticos con claras delimitaciones de quienes consultan y quienes son las fuentes de publicación (autoridad) a sitios donde se fomenta la participación de todos los usuarios, se da total libertad para el desarrollo de los contenidos, y se busca crear una fuente de conocimiento colectivo que rompa las capacidades individuales de desarrollo de nuevo cono- cimiento. Mediante herramientas como BLOGs, wikis, y sitios de interacción social como foros de discusión, intercambio de imágenes, intercambio de videos (youtube) y de catego- rización de contenido (Furl) se busca potenciar la capaci- dad de los individuos para acceder a nuevo conocimiento, a la vez que aporta el propio. Este enfoque no está ajeno a críticas, dado que presenta algunas debilidades por la na- turaleza misma del concepto, la cual busca darle el poder de creación de conocimiento a la comunidad con aparente poco control. ¿Estará la sociedad a la altura del reto?

poco control. ¿Estará la sociedad a la altura del reto? Iconos WEB 2.0 Peter Drucker P

Iconos WEB 2.0

¿Estará la sociedad a la altura del reto? Iconos WEB 2.0 Peter Drucker P eter Ferdinand

Peter Drucker

Peter Drucker P eter Ferdinand Drucker (1909 – 2005) fue un autor austríaco de literatura relacionada

P eter Ferdinand Drucker (1909 – 2005) fue un autor

austríaco de literatura relacionada con el management

o gestión. Tras trabajar en la banca y como periodista,

se doctoró en Derecho Internacional en Alemania. El auge del nazismo le forzó a emigrar a EE.UU. (1937), tras vivir 4 años en Londres, donde se convirtió en profesor y escritor. Dio clases de Management en la Universidad de Nueva York (1950-1971).

Su carrera como pensador del mundo de la empresa despegó en 1943, cuando sus primeros escritos sobre política y sociedad le dieron acceso a las entrañas de la General Motors, que se había convertido en una de las mayores compañías del mundo del momento. Sus experiencias en Europa le dejaron fascinado con el problema de la autoridad. Compartió dicha fascinación con Donaldson Brown, la cabeza pensante tras los controles administrativos en General Motors. El libro resultante de todo ello El Concepto de Corporación (un estudio de General Motors), del que se derivaron muchos artículos y trabajos posteriores. Gracias a él se popularizó la estructura multidivisional de GM.

Drucker se interesó por la creciente importancia de los empleados que trabajaban con sus mentes más que con sus manos. Le intrigaba el hecho de que determinados trabajadores que llegaban a saber más de ciertas materias que sus propios superiores y colegas, aún teniendo que cooperar con otros en una gran organización. Drucker analizó y explicó cómo dicho fenómeno desafiaba la corriente de pensamiento tradicional de cómo deberían gestionarse las organizaciones.

En 1969, Peter Drucker, en su libro más conocido “La era de la discontinuidad”, escribió una sección sobre “la Sociedad del Conocimiento”, basándose en una serie de datos y proyecciones económicas de Fritz Machlup (uno de los primeros autores en acuñar la expresión “Sociedad de la Información”.

10

TECNOLOGÍAS WEB

CONOCIMIENTO

La experiencia del usuario en la Nueva Web

Ingeniera María

Imelda González

Báez

Asesor Tecnológico

Empresarial

SATE-FUMEC

imelda84@gmail.com

Tecnológico Empresarial SATE-FUMEC imelda84@gmail.com María Imelda González Báez H oy en día es muy común

María Imelda González Báez

H oy en día es muy común escuchar que la Web está cambiando en muchos aspectos. Se han desarro- llado nuevas herramientas y esquemas de colabo-

ración e intercambio que muestran que la Web ya no es sólo una cadena de páginas con información estática.

Los Blogs y Sitios Wikis han adquirido mucha fama por facilitar a los usuarios la publicación de cualquier tipo de información accesible para todo el mundo, sin grandes complicaciones y con diseños y estándares listos para la distribución. Los contenidos se desarrollan con RSS (Rea- lly Simple Syndication), que permite el uso de encabeza- dos, descripciones y ligas de forma estándar para que pueda ser leído por cualquier lector de RSS y facilita el modificarlos en cualquier momento.

Pero la nueva Web no sólo trae cambios en lo que se publica en línea, sino que esta evolución se refleja tam- bién en los usuarios, que empiezan a cambiar su forma de interactuar con todo lo que Web2.0 trae consigo. Esto implica que se ponga especial atención a ellos y a su forma de percibir la Web.

EXPERIENCIA DEL USUARIO. ¿QUÉ SIGNIFICA? De acuerdo con el Grupo Nielsen Norman, la experiencia del usuario comprende todos los aspectos de la interac- ción del usuario final con la compañía, sus servicios y sus productos. La verdadera experiencia del usuario va más allá de dar a los clientes lo que quieren o simplemente proveer una lista de funcionalidades; requiere analizar to- das las emociones que pueden experimentar al interactuar

con un portal Web. [2]. Para Jesse James Garrett, la ex- periencia del usuario significa tomar en cuenta todas las posibles acciones que un usuario tomaría para entender adecuadamente sus expectativas a lo largo del funciona- miento y la navegación de un proceso.

La experiencia de los usuarios hoy en día no es tan simple como sólo accesar a un sitio y obtener lo que se busca. Ahora lo que se tiene en cuenta es un conjunto de decisiones que implican desde cómo es la apariencia del sitio, cómo se comporta, qué funcionalidades tiene, qué presenta como información de acceso rápido y qué es lo que permite hacer en él. Todo esto y otra serie de facto- res, en la nueva Web, constituyen la verdadera experiencia para el usuario.

DISEÑAR, MEDIR, CONTROLAR Y PROBAR LOS REQUERIMIENTOS Como parte de todo lo que implica trabajar con la experien- cia del usuario dentro de un proyecto de desarrollo Web y la nueva generación, es necesario tener una metodología que nos permita diseñar, medir, controlar y probar los re- querimientos y aspectos que se tienen que evaluar para mejorar la experiencia del usuario y que se explicarán a continuación.

La metodología de Diseño Centrado en la Experiencia del Usuario, de acuerdo con Garrett, consta de cinco pla- nos [1] que contienen ciertos aspectos por considerar para mejorar la experiencia de la navegación en un sitio Web:

ESTRATEGIA Necesidades de los usuarios: Forman parte del objetivo

del Sitio; sin embargo, desde la perspectiva externa a quien lo está desarrollando, pues es hacia quién está dirigido. Esta información nos permitirá no sólo saber qué buscan, sino definir todo lo que realmente necesitan en el resto de

la aplicación de esta metodología que sugiere Garrett.

Objetivos del Sitio: Todo sitio debe tener su objetivo prin- cipal y una serie de objetivos secundarios que se encamin- en al primero para que todo el contexto lo esté apoyando y soportando. El fijarnos en los usuarios no nos debe hacer perder de vista para qué está el sitio, pues son las metas

o fines que la organización o quien hace el sitio está bus-

cando.

ALCANCE Especificaciones funcionales: Su nombre nos indica que hay que detallar qué hace cada cosa y cómo lo hace. Requerimientos de contenido: ¿Qué es lo que realmente

necesitan de información en el sitio nuestros usuarios? Es

la pregunta clave. Si no sabemos responder con base en lo

que investigamos, la información que ellos quieren tener en el sitio será para ellos algo aburrido y sin sentido. Su experiencia se traduce en que el sitio no les sirve para lo que lo buscaban.

CONOCIMIENTO

TECNOLOGÍAS WEB

11

ESTRUCTURA Diseño de la Interacción: El sistema reacciona. El usuario recibe respuestas según las acciones que ejecuta en el sistema; es aquí donde lo definimos. Muchos mensajes de respuesta o aviso pueden desesperar al usuario, así que hay que definir muy bien cuándo y cómo el sistema reac- cionará. Arquitectura de Información: El orden de los elementos de contenido sin tener la información aún. La Facilidad de localización, tener al alcance las cosas que el usuario usa más seguido o información estática que siempre debe visualizar, son sólo puntos que hay que considerar aquí. Lo interesante está en siempre conocer bien al usuario y pensar qué es lo que está buscando encontrar.

ESQUELETO Diseño de la Información: ¿Cómo presentar la infor- mación de modo que sea fácil de localizar y de entender? Es importante aclarar que no es lo mismo escribir para Web que para un periódico; hay que definir bien qué es lo que hay que desplegar, para quién y cómo (sintetizado con opción a leer más en otro lugar, resumido, con ligas en cada término, etcétera). Diseño de la Interfaz: La interfaz hace referencia a la for- ma en que cada uno de los elementos en la pantalla inter- actúan con el usuario para consolidar las funcionalidades. ¡OJO! Esto es de suma importancia para los sentimientos de desesperación o tranquilidad en la experiencia que el usuario pueda tener. Diseño de la navegación: La navegación permite a los usuarios moverse entre las páginas de la Web. Muchos movimientos o clicks en un sitio hacen que los usuarios se cansen de buscar y de estar cargando nuevas páginas,

se cansen de buscar y de estar cargando nuevas páginas, Figura 1. Los cinco planos de

Figura 1. Los cinco planos de la metodología de Diseño Centrado en la Experiencia del Usuario [1]

que incluso a veces pueden ser muy pesadas. Una nave- gación sencilla pero eficiente en pocos clicks para lle- gar a lo que se busca, trae consigo mejores sentimien- tos y percepciones a los usuarios.

SUPERFICIE Diseño Visual: como su nombre lo indica, es la parte

en la que nos preocupamos por poner “bonito” el sitio

y donde la intención es darle al usuario su primera

percepción para vivir su experiencia.

MEDICIÓN DE LA USABILIDAD Dentro del término usabilidad, lo que se busca es lograr efectividad, eficiencia y satisfacción en los usua- rios después de haber pasado por el cumplimiento de objetivos respectivos al sitio Web.

En este punto, tanto los usuarios como los sitios

son muy distintos, en sus objetivos, en su imagen, en su navegación, en sus funcionalidades; por lo que la usabilidad se mide bajo términos muy variables; pero

lo que finalmente busca es que se haya cumplido el ob-

jetivo del Sitio sin haber dejado sentimientos de frus- tración, enojo o desesperación en el usuario.

ENCANTAR AL USUARIO ES LA CLAVE Hay muchos sentimientos que pueden alimentar la experiencia del usuario; sin embargo, lo que hay que buscar es encantarlo. Su experiencia debe llevarlo a disfrutar al máximo cada sección y funcionalidad del sitio, por la combi- nación de los factores que analizamos con la me- todología de Garrett; permitirle sentir que está en otro mundo cuando entra en el sitio y que se sumerja en cada una de las sensaciones que el Sitio pueda provo- car en él. Todos los aspectos de mensajes, interfaces, venta- nas que se abren aparte, deben ser muy bien cuidados para aparecer. Una vez que se logra meter al usuario en un mundo de encanto, cualquier cosa mal utiliza- da puede sacarlo y mandar toda su experiencia hacia los sentimientos de desilusión y enojo por lo vivido.

Así que, hay que tener mucho cuidado en cómo manejar a los usuarios. La Web ha cambiado y seguirá haciéndolo y con ella lo que los usuarios están buscan- do. Cada vez son más exigentes, y tenemos que estar preparados para ello.

REFERENCIAS

[1] Garrett, Jesse James, The Elements of User Experience –User centered Design for the Web-, Editorial Pearson Education, Estados Unidos, 2002.

[2] Nielsen Norman Group. En: http://www.nngroup.com, 2008.

12

TECNOLOGÍAS WEB

CONOCIMIENTO

La Web Semántica:

para humanos y para máquinas

La Web Semántica: para humanos y para máquinas M. C. Héctor G. Ceballos Asistente de Investigación
La Web Semántica: para humanos y para máquinas M. C. Héctor G. Ceballos Asistente de Investigación

M. C. Héctor G. Ceballos Asistente de Investigación Doctoral Dirección de Investigación y Posgrado Tecnológico de Monterrey, Campus Monterrey. ceballos@itesm.mx, http://hgceballos. wordpress.com/

Héctor G. Ceballos

H oy en día, la gente con acceso a Internet está acostumbrada a usar cotidianamente la Web para buscar noticias, adquirir productos y ser-

vicios, acceder a información variada y, en general, para realizar una variedad de tareas que han dejado atrás las limitaciones espacio-temporales que enfrentaron otras generaciones. Sin embargo, nuestra generación se enfren- ta a un problema distinto: el exceso de información. El navegar entre toda la información existente y encontrar lo que realmente necesita, requiere cada vez mayor esfuerzo de una persona y depende grandemente de su pericia para relacionar conceptos y descubrir sitios que contengan in-

formación especializada. La Web fue diseñada originalmente para integrar texto

y multimedia en un formato que fuera fácil de usar, tanto

para el usuario que buscaba información como para el

que la publicara. El protocolo era simple y fue adoptado rápidamente por la industria y la academia. La sencillez

y flexibilidad del formato permitieron que cada persona

definiera su propio estilo para presentar la información,

y la única restricción en el diseño residía en que la infor-

mación fuera inteligible para las demás personas. Es decir, era una web de y para personas, y las máquinas sólo eran la herramienta y el vehículo.

UNA NUEVA WEB Al reconocer la limitación de la Web para ofrecer a una persona la información específica que necesita, Tim Ber- ners-Lee, creador del World Wide Web, propuso un nue- vo concepto que revolucionaría la forma de ver la web:

una Web Semántica. Como él mismo la definió en el año 2000: “La Web Semántica trae a la Web la idea de definir y enlazar datos de manera que faciliten su descubrimiento, automatización, integración y reutilización a lo largo de diferentes aplicaciones” [1].

Como su definición lo dice, no se trata de hacer una nueva Web, sino de agregar a la Web actual capacidades que transformen el paradigma basado en documentos en uno basado en datos, donde cada dato tenga un signifi- cado común que incluso las máquinas sean capaces de

reconocer y asociar. Finalmente, se trata de hacer que la Web sea inteligible para las computadoras, de tal forma que nos ayuden a encontrar la información que buscamos

y a realizar operaciones de manera automática.

SU CONSTRUCCIÓN El Consorcio World Wide Web o W3C inició en 2001 un proyecto para generar estándares de protocolos y len- guajes para construir la Web Semántica. El W3C es un con- sorcio internacional fundado por Tim Berners-Lee, en el cual participan organizaciones educativas, compañías y público en general, para el desarrollo de estándares para la Web. Los miembros del W3C forman grupos de trabajo con un proyecto y duración específica, y de ellos surgen los estándares.

La apuesta de la W3C ha sido generar una pila de pro-

tocolos o lenguajes que sucesivamente logren el objetivo de la Web Semántica. Estos protocolos están organizados en las siguientes categorías:

1. Interoperabilidad dentro de una aplicación

2. Interoperabilidad entre aplicaciones

3. Una web con significado

4. Consultas y reglas de negocio

5. Sistemas confiables e interoperabilidad entre mo-

tores de inferencia.

En la primera capa encontramos un lenguaje que per- mite a cada usuario o aplicación definir su propia con- vención de marcado (tags) en formato de texto conocido como XML. En la segunda capa podemos encontrar un len-

CONOCIMIENTO

TECNOLOGÍAS WEB

13

guaje que permite describir recursos referenciados en la

Web (RDF), así como su extensión para representar clases

y atributos de objetos (RDFS). En RDF, tanto los recursos

electrónicos disponibles en la web como objetos del mun- do real son descritos por URIs, direcciones similares a los URL que conocemos, mientras que con RDFS se definen clases de objetos y se restringe el tipo de atributos que puede presentar cada instancia.

Para la tercera capa ha sido propuesto un lenguaje de ontologías (OWL), que permite definir conceptos y rela- ciones entre ellos con un gran poder expresivo. Este len- guaje es capaz de definir relaciones transitivas o inversas, por ejemplo, así como definir conceptos a partir de otros conceptos y expresar condiciones que deben tener los in- dividuos para ser considerados parte de una clase. Para la cuarta capa se ha propuesto un lenguaje de consulta (SPARQL), que permite expresar consultas sobre bases de conocimiento codificadas en RDF u OWL. Asimismo, se está trabajando en un formato de intercambio de reglas (RIF) que permita traducir reglas a distintos lenguajes.

Instituciones y compañías se encuentran desarro- llando editores de ontologías, convertidores de formatos, motores de inferencia y software en general que cumplen con estas especificaciones. Entre ellos puede encontrarse

tanto software bajo licencia como software libre. Podemos mencionar por ejemplo a Protegé, un editor de ontologías

y plataforma para adquisición de conocimiento; Jena Tool-

kit, una plataforma en Java para desarrollar aplicaciones semánticas, o Racer, un razonador que soporta reglas, res- tricciones y consultas sobre ontologías de grandes propor- ciones.

SITUACIÓN ACTUAL En la práctica, la Web Semántica se ha venido constru- yendo a partir del acuerdo de grupos o comunidades para definir una terminología común sobre su área de interés. Esta terminología se expresa en los lenguajes y formalis- mos arriba mencionados, mientras que las herramientas desarrolladas alrededor de estos estándares permiten crear aplicaciones con distintos grados de evolución [3]. Por ejemplo, los servicios sindicados de noticias, RSS, utili- zan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme

e inclusive realizar búsquedas sofisticadas en ellas, como

por ejemplo: “Noticias publicadas en enero de 2008, en la

fuente X, que contengan en el título la palabra Yahoo y en

el contenido la palabra Venta”.

En el mismo sentido, podemos encontrar un nuevo buscador propio de la era de la Web Semántica: DBPedia, el cual es un motor de búsqueda que extrae información de Wikipedia y permite realizar búsquedas complejas en las que resuelve asociaciones y dependencias en- tre conceptos. DBPedia puede resolver consultas como:

“Quiénes son los integrantes de un equipó de fútbol soc-

cer que juegan en un club con un estadio de más de 40 mil asientos y que nacieron en países de más de 10 millones de habitantes”. Aun cuando este buscador enfrenta obs- táculos derivados de la flexibilidad con que se escriben los artículos de Wikipedia, es capaz de extraer y relacionar información de naturaleza variada.

Sin embargo, las áreas en que las tecnologías de la Web Semántica han logrado mayor avance han sido la Medicina y las Ciencias de la Vida.

Por ejemplo, en el Cincinnati Children’s Hospital Medi- cal Center se ha construido una base de datos en la que se integran ontologías con información de genes y productos genómicos, de relaciones entre enfermedades y síntomas, y de desórdenes genéticos, que han permitido encontrar probables causas genéticas para enfermedades cardiovas- culares.

Asimismo, en la University of Texas Health Science Center at Houston, desde 2004 se inició el proyecto SAPHIRE, que integra una amplia variedad de información de hospitales, agencias de protección ambiental y litera- tura científica.

de protección ambiental y litera- tura científica. Los servicios sindicados de noticias, RSS, utilizan formatos

Los servicios sindicados de noticias, RSS, utilizan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas

14

TECNOLOGÍAS WEB

CONOCIMIENTO

14 TECNOLOGÍAS WEB CONOCIMIENTO La figura muestra las áreas en las que las tecnologías semánticas están

La figura muestra las áreas en las que las tecnologías semánticas están recibiendo fondos internacionales para investigación y desarrollo, y cuyo monto estimado para 2010 será de dos mil millones de dólares.

M. C. Héctor G. Ceballos

Actual estudiante del Doctorado en Tecnologías de Información y Comunicaciones con especialidad en Sistemas Inteligentes. Ha publicado artículos en revistas y conferencias internacionales sobre Ontologías, Agentes Intelligentes, Sistemas Multiagentes, Administración de Conocimiento y Modelos Causales Probabilísticos. Además ha coordinado varios proyectos Web entre los que destaca la Memoria Corporativa de Investigación y Posgrado del Tecnológico de Monterrey.

Cada diez minutos, SAPHIRE recibe casos de salas de urgencias, descripciones de pacientes y los síntomas que presentan, y de registros clínicos de ocho hospitales de la zona. Las tecnologías semánticas integran esta información en una sola visión de las condiciones de salud y sanitarias

en el área de Houston. SAPHIRE fue usado efectivamente para detectar y contrarrestar epidemias gastrointestina- les, respiratorias y de conjuntivitis en los desplazados por

el Huracán Catrina. La aplicación fue configurada para rea-

lizar esta función en menos de ocho horas, a partir de que abrieron los refugios. Este caso demostró una de las bon- dades de los sistemas de la era de la Web Semántica:

“una vez que se configuran para resolver un problema general, pueden ser adaptados rápidamente para resol- ver múltiples problemas en la misma área” [3].

EL FUTURO DE LA WEB SEMÁNTICA Expertos de Project10x [4] vislumbran las tendencias tec- nológicas y de mercado para la Web Semántica para los próximos años. En cuanto a los avances tecnológicos de la Web Semántica se espera un mayor desarrollo en las siguientes áreas:

1. Interfaces de usuario inteligentes que incrementen

la productividad y satisfacción del usuario; por ejemplo,

a través de la identificación y modelación del usuario y

especificación del contexto.

2. Sistemas colectivos de conocimiento donde los usua-

rios colaboren agregando contenido, semántica, modelos y comportamientos.

3. Aplicaciones semánticas que permitan pasar de da-

tos contenidos en documentos a conocimiento, convertir procesos fijos en procesos autónomos, y finalmente dar el salto de buscar a conocer y tomar decisiones a partir de procesos de inferencia más robustos.

4. La solución de problemas de escalamiento, comple-

jidad y seguridad en bases de conocimiento que provean una infraestructura robusta para el despliegue de aplica- ciones semánticas. 5. Herramientas para modelación semántica que re- duzca tiempo, riesgos y costos en el desarrollo de aplica- ciones.

A partir de un análisis realizado el año pasado [4], es- tos expertos estiman que los mercados para tecnologías semánticas en el sector de Tecnologías de Información y Comunicaciones superarán los 50 mil millones de dólares en 2010.

Como puede observarse, la plataforma está casi lista, las instituciones y compañías están adoptando los nuevos estándares a gran velocidad y empiezan a verse en la prác- tica aplicaciones con un alto valor agregado. Sin embargo, lo que hasta ahora hemos presenciado es sólo la punta del iceberg. Lo mejor está por venir.

REFERENCIAS

[1] Tim Berners-Lee. Semantic Web - XML2000.

http: //www.w3.org/2000/Talks/1206-xml2k-tbl/

[2] Tim Berners-Lee, James Hendler and Ora Lassila.

The Semantics Web, Scientific American, Mayo 2001.

[3] Lee Feigenbaum, Ivan Herman, Tonya Hongser

meier, Eric Neumann, and Susie Stephens. The Se-

mantics Web in action. Scientific American, 297(6), pp.

90-97, Diciembre, 2007.

[4] Mills Davis. Semantic Wave 2008 Report: Industry

Roadmap to Web 3.0 & Multibillion Dollar Market Op

portunities. Project10X’s. Febrero 2008

Ligas de interés

http://www.w3.org/2001/sw/. W3C Semantic Web Ac

tivity

http://protege.stanford.edu/. The Protegé Ontology

Editor and Knowledge Acquisition System.

http://jena.sourceforge.net/. Jena Semantic Web

Framework

http://www.sts.tu-harburg.de/~r.f.moeller/racer/. Rac

er: Renamed ABox and

Concept Expression Reasoner.

http://dbpedia.org/About. DBPedia

CONOCIMIENTO

TECNOLOGÍAS WEB

15

C O N O C I M I E N T O TECNOLOGÍAS WEB 1 5

La democratización de la Web, un reto mundial

Patricia Liliana Cerda Pérez

E s un camino repleto de luces y sombras. Las tec- nologías Web, suscritas en las autopistas de la in- formación global, son utilizadas por millones de

personas que, en medio de un entramado de cables, sa-

télites, redes, computadoras, televisores, decodificadores

e impulsos eléctricos, se integran a la infraestructura del ciber-espacio.

Desde ahí se mueven millones de dólares o euros en

las bolsas de valores; expedientes clínicos de pacientes; los últimos avances de la llamada educación a distancia

y hasta cartas de amor. Con las tecnologías World Wide

Web, los ciudadanos digitalmente ilustrados realizan com-

pras; leen el periódico; escriben y reciben textos oficiales,

y hasta se enamoran y casan; se educan e instruyen con

lecciones enviadas a través del ordenador por sus mae- stros o con discusiones de grupo organizadas por cate- dráticos virtuales.

ECONOMÍA DIGITAL Vivimos en medio de lo que ya se conoce como “econo-

mía digital”, en la cual -aseguran los miembros del famoso Club de Roma, al que están adheridos políticos, científicos e intelectuales de 38 países del orbe-, sólo sobrevivirán aquéllos que estén preparados para manejar y asumir la velocidad y los cambios que tales tecnologías comportan cada año.

El mundo de la educación se ha revolucionado con es- tas tecnologías; la medicina, la ciencia, las relaciones interpersonales y las comunitarias han sido impacta- das desde la época de los 90 con esta sociedad de “la información”, llena de ambivalencias. En ella, la riqueza global del conocimiento se duplica cada cinco años y se torna un factor fundamental para la producción. Empero, las autopistas de la información bien pueden ser califica- das como de “peaje”, porque el acceso a estos bienes no es para nada gratuito.

Existe educación virtual, ocio, entretenimiento y hasta sexo virtual en estas “infopistas”; a través de estas mismas redes, los estados difunden leyes y programas; uti

Doctora Patricia Liliana Cerda Pérez Coordinadora del Centro de Investigaciones FCC / UANL

cerda35@hotmail.com

16

TECNOLOGÍAS WEB

CONOCIMIENTO

Jacques Le Goff J acques Le Goff (Toulon, 1924) es un historia- dor que ha
Jacques Le Goff J acques Le Goff (Toulon, 1924) es un historia- dor que ha

Jacques Le Goff

J acques Le Goff (Toulon, 1924) es un historia- dor que ha vinculado su carrera docente a la

Escuela de Altos Estudios Sociales de París. Rep- resentante destacado de la Nouvelle Histoire, de la tercera generación de la Escuela de los Annales, en su obra ha abordado los temas fundamentales del medievo combinando historia, antropología, sociología y la historia de la cultura y de los sistemas económicos.

Entre sus obras destacan: Los intelectuales en la edad media” (1957), La civilización del Occidente medieval (1962), El nacimiento del Purga- torio (1981), La bolsa y la vida (1986), El hombre medieval (1989), Lo maravilloso y lo cotidiano en el Occidente medieval (1986), Mercaderes y banqueros de la Edad Media (1991), El orden de la memoria: el tiempo como imaginario (1991), Pensar la historia: modernidad, presente, pro- greso (2005), La Edad Media explicada a los jóvenes (2007).

(2005), La Edad Media explicada a los jóvenes (2007). lizan sofisticado software para la localización de

lizan sofisticado software para la localización de redes criminales que hoy operan también digitalmente, uti- lizando el fraude cibernético o la pornografía infantil.

‘INFO-RICOS’ - ‘INFO-POBRES’ Ante esta realidad, la comunidad internacional se cuestio- na filosófica y no virtualmente -con una reflexión tardía-, cómo hacer para afrontar los excesos informativos de la red y la desigualdad potencial que se vive ya entre aquéllos que son “info-ricos” e “info-pobres”.

Los efectos positivos de estas nuevas tecnologías en la

salud, la educación, los negocios, sólo pueden ahondarse

si esta sociedad, la informatizada, se sustenta en una au-

téntica democracia, donde todos estemos conscientes de las consecuencias y la responsabilidad de esta era, porque hablar de economía, educación o información digital no es poca cosa. Todo ello impacta nuestras ideas, valores, hábi- tos y costumbres colectivas y nuestras formas y modos de interrelacionarnos. Frente a este panorama, es necesario entender que la mundialización del mercado reclama tam- bién nuevas leyes.

Urgen acuerdos internacionales en cuestiones básicas

como la regularización del comercio electrónico, el control

y

responsabilidad sobre contenidos, derechos de autor y

el

freno a los monopolios que ya de hecho se tienen. El 85

por ciento del negocio de las telecomunicaciones se con- centra en Estados Unidos, la Unión Europea y Japón.

La concentración de este poder a escala multinacional, en unas pocas manos que tienen dinero, tecnología, y con ello definen los contenidos en los medios de comunicación ma- siva en informaciones y entretenimiento en el mundo oc- cidental, trajo un nuevo orden internacional, y es fecha en que aún no dilucidamos cuáles serán sus consecuencias.

Es claro que no será el mercado, sino el Estado el que acep- tará la carga de impulsar el desarrollo de redes, incluso con inversiones públicas, para garantizar la igualdad de acceso de todos los ciudadanos, y con ello evitar nuevas discriminaciones entre éstos; es decir, entre “info-ricos e info-pobres” que existen en cada nación y que se evidencia aún más cuando se comparan las brechas educativas, de salud, información e ingreso entre los países desarrol- lados y aquéllos que están en vías de serlo.

DESAFÍO DE HOY La democratización de la red es el desafío mundial. El im- pulso a la calidad de información que circula por mi-llones para activar la tolerancia y el diálogo que, en pa-labras de Jacques Le Goff, director de la Escuela de Altos Estudios Sociales de París, equivaldría a “no reducir a unidad la diversidad, sino a lograr una diversidad convergente”. Ésa es, en pocas palabras, una responsabilidad de todos.

CONOCIMIENTO

TECNOLOGÍAS WEB

17

Hacia una democratización de la economía

Modelos de negocios Web

una democratización de la economía Modelos de negocios Web Rodrigo Soto S umergido en sus pensamientos

Rodrigo Soto

S umergido en sus pensamientos emprendedores, Alex

Tew trataba de hallar la forma de conseguir dinero

para cubrir su educación en la Universidad de Not-

tingham; sin embargo, no lograba ningún momento “Eu- reka” que lo convenciera. Pero, entre las múltiples ideas, y viendo que no tenía nada que perder, se le ocurrió crear un sitio Web, con la idea de vender un millón de “pixeles” (acrónimo del inglés picture element; es decir, “elemento de la imagen”). Esta idea de negocio parecía no tener sentido alguno; sin embargo, de acuerdo con datos de Wikipedia, el sitio (http://www.milliondollarhomepage.com) fue lanzado el

26 de agosto de 2005, y para el 11 de enero de 2006 se vendieron los últimos mil pixeles en una subasta. Por in- creíble que parezca, Tew logró la grandiosa suma de un millón 37 mil cien dólares americanos, y lo mejor fue que esto ocurrió en tan sólo poco más de cuatro meses. Es impresionante observar cómo, en este caso, el po- der de la economía descansa en personas y no en cor- poraciones; en emprendedores que logran descifrar la psicología de compra del ser humano. Lo anterior no es un caso aislado; todos los días siguen

prosperando los modelos de negocios basados en la Web, y podemos mencionar diversos ejemplos al respecto.

EL CASO DE FACEBOOK Y SU CREADOR Vivimos en la economía de Mark Zuckerberg, creador de la red social de Facebook (www.facebook.com), a la cual

de la red social de Facebook (www.facebook.com), a la cual Microsoft, según datos del New York

Microsoft, según datos del New York Times, recientemente compró la insignificante cantidad del 1.6 por ciento, por un monto de 240 millones de dólares. ¿Qué está comp- rando Microsoft en este caso? ¿Lealtad de consumidores? ¿Exposición de su marca?

Los datos de Wikipedia arrojan algunas estadísticas interesantes sobre Facebook:

Usuarios activos: Sobrepasa los 60 millones Usuarios al día: 250 mil Búsquedas: Sobrepasa 500 millones al mes Fotos: 1.7 mil millones

Sin embargo, lo más interesante de este modelo Web es que los usuarios se pueden inscribir de forma gratuita en el sitio, con el objetivo de establecer su red social de amigos para el intercambio de ideas, sentimientos, fechas, actividades, relaciones y, por supuesto, fotos, entre mu- chas cosas más. Aquí también es importante preguntarse por qué em- presas como Coca Cola, entre otras, se han preocupado de anunciarse en esta red social, así como por aumentar su número de afiliados a su página. Simplemente, al afiliarse a estos sitios, las empresas han encontrado laboratorios de análisis, exposición de marca y lealtad de consumidores. Coca Cola sabe que la exposición en este tipo de medios actúa como un mecanismo de retroalimentación sobre los productos y servicios que ofrece. Además, se pueden comunicar con grupos compactos de usuarios que comparten ideas y per- cepciones en común hacia la marca en particular, y con- tinuar siendo una imagen mística como marca.

y con- tinuar siendo una imagen mística como marca. Maestro Rodrigo Soto Consultor Economía de las

Maestro Rodrigo Soto Consultor Economía de las Ideas. rsotomoreno@yahoo. com

18

TECNOLOGÍAS WEB

CONOCIMIENTO

18 TECNOLOGÍAS WEB CONOCIMIENTO SECOND LIFE Vivimos también dentro de espacios vir- tua-les, como es el

SECOND LIFE Vivimos también dentro de espacios vir- tua-les, como es el caso de Second Life, mejor conocido como “SL”, que es un mundo virtual que permite a los usuarios recrearse o tener una segunda vida en este lugar. Se basa en que cada uno de los usu- arios o “residentes” crean su avatar (repre- sentación del usuario, de su otro yo, en un modelo computacional tridimensional) para comenzar a vivir en este mundo virtual.

Es interesante observar que SL tiene su propia economía y moneda que son los dólares Linden, conoci- dos como $L y todos los residentes pueden hacer nego- cio entre sí. De acuerdo con Spencer Reiss, Virtual Econo- mics calculó que tan sólo en el mes de septiembre de 2005, la economía de Second Life generó en transacciones alre- dedor de tres millones 596 mil 674 dólares. Esto, toman- do un tipo de cambio de 252 Linden dólar, equivalente a un dólar americano.

de 252 Linden dólar, equivalente a un dólar americano. Pero todavía nos falta tratar un tema

Pero todavía nos falta tratar un tema muy interesante en el modelo de negocios Web, y esto es lo que Chris An-

dersen trata en su artículo “Why $0.00 is the Future of Busi- ness” en Wired, donde se analiza la ciencia de lo gratis. Veamos la taxonomía de lo gratis, de acuerdo con Ander-

sen:

a)Freemium. Lo gratis aquí es el software y servicios, así como algo de contenido. La idea básica en Web es lo que llaman la regla del uno por ciento sobre el 99 por cien- to. Esto indica que el uno por ciento de los usuarios que paga por un servicio o software puede mantener al 99 por ciento que tiene la versión gratis. b)Advertising. Aquí son gratis el contenido, el soft-

ware, los servicios y más. Se basa en el principio de que los ofrecimientos gratis crean audiencias con distintos intere- ses, y de que, expresando sus necesidades, los mercadólo- gos pagarán por conocerlos y llegar a ellos. c)Cross-subsidies. Se pone un producto gratis que pue-de enganchar a los usuarios para que compren otro. d)Labor Exchange. Lo gratis son los sitios de Internet

y los servicios. Al usar el servicio Web, se crea un valor,

ya sea para mejorar el servicio o acumulando información que puede ser útil en otro lugar. e)Zero Marginal Cost. Productos que se distribuyen sin algún costo apreciable para los consumidores. Un ejemplo claro es cuando los artistas ponen su música en línea gratis y de esa forma pueden poner en el mercado otros productos. f)Gift Economy. Todo lo denominado open source o el contenido generado por los usuarios. El ejemplo más claro es la tradicional Wikipedia.

NEGOCIOS DEL FUTURO

Otra de las vertientes en los negocios del futuro son aqué- llos como CBS, que planea ofrecer publicidad basada en la localización de la persona por medio de su teléfono móvil; es decir, analizando los gustos y preferencias de los con- sumidores, la publicidad será personalizada, indicándoles

a los usuarios dónde pueden encontrar un producto o ser-

vicio de su preferencia. Google va más allá, y ya trabaja en un buscador de voz para los celulares. Me imagino que uno, como usua- rio, puede realizar una búsqueda, pero de voz, para que no sólo se nos diga el lugar donde se encuentra el satisfactor que buscamos, sino que también por medio de “Google maps” se nos lleve de la mano, con GPS, sumado con las

coordenadas de nuestro teléfono, al lugar donde podemos adquirir ese producto o servicio. Según el artículo de Chris Andersen en Wired y los da- tos de Jingle Networks, Linguistic Data Consortium, Opus Research, el ingreso esperado para Google aunado a este

servicio de búsqueda en los celulares será de 2.5 mil mil- lones de dólares en el año 2012. Pero el verdadero beneficio de los modelos de nego- cios basados en Web es su búsqueda por democratizar la economía, por darles poder a los consumidores y eliminar

el que ostentan las corporaciones, así como buscan comul-

gar con lo que ha dicho el padre escocés de la economía, Adam Smith: “No puede haber una sociedad floreciente y

CONOCIMIENTO

TECNOLOGÍAS WEB

19

feliz cuando la mayor parte de sus miembros son pobres

y desdichados”.

En realidad, no queremos que existan Leviatanes monopólicos y que solamente exista una verdad universal,

sino que el libre juego de la oferta y la demanda hagan su

papelconjuntamenteconcadaunodenosotroscomousua-

rios, que no solamente somos pasivos, sino activos en la transformación de los negocios sustentados en Web. Los datos del Banco Mundial nos dicen que cada tec- nología es sinónimo de desarrollo económico, y a lo largo de la historia la adopción rápida o lenta de determinada tecnología, por cada país, se traduce en su crecimiento como nación. Aunado a esto, y como lo comenta el Economist en su artículo de Of the internet cafés and power cuts, donde se remarca el estudio del Banco Mundial en el reporte “Global de Prospectos 2008”, se analiza la adopción de una tecnología al 80 por ciento en un determinado país, y podemos observar que de 1750 a 1900, al teléfono le tomó

150 años; al radio, de 1900 en adelante le tomó 60 años; a las computadoras personales, 20 años entre 1950 y 1975

y, por último, a los teléfonos celulares, entre 1975 y 2000,

solamente 16 años. Siguiendo lo antes dicho, podemos concluir diciendo que la convergencia en el modelo de negocios Web, vi- endo en prospectiva, será el potenciar las característi- cas de los smartphones, para que se conviertan en las nuevas computadoras portátiles y se establezcan plata- formas perso-nalizadas de productos y servicios para las necesidades de cada individuo. Además, se premiará a los emprendedores, a los crea- tivos y a los que estén dispuestos a crear mercados dis-

ruptivos sin seguir modelos tradicionales de negocio, sino que se arriesguen a unir la innovación con la imaginación

y desafiar a los gigantes, como David a Goliath. Todo lo que se necesita es una computadora y un buen acceso a

Internet.

El límite será la tasa de procesamiento neuronal, pues la tasa computacional no tiene límites (aparentemente).

REFERENCIAS

Anderson, Chris; Why $0.00 is the Future Business, Wired Magazine, March 2008.

Briefing Technology in emerging economies, Of in- ternet cafés and power cuts, The Economist, Febru- ary 9 th 2008.

www.wikipedia.org

emerging economies , Of in- ternet cafés and power cuts, The Economist , Febru- ary 9

20

TECNOLOGÍAS WEB

CONOCIMIENTO

Hacia un futuro evolutivo de la Web

José Aldo Díaz Prado

E imposible imaginar la vida moderna sin la Web.

Esta tecnología ha venido a ser simple y elegante,

s

y

se ha posicionado en nuestra actividad diaria, al

punto de ser la fábrica central de información hoy en día (ver figura 1). Es difícil reconocer que en las dos últimas décadas una herramienta de laboratorio, se haya posi- cionado estratégicamente en la actividad diaria de los humanos, al grado se llegar a ser tan indispensable para todos en casi todos los ámbitos de actividad productiva de las personas y las organizaciones.

actividad productiva de las personas y las organizaciones. Figura 1. La Web, el gran repositorio mundial.

Figura 1. La Web, el gran repositorio mundial.

Figura 1. La Web, el gran repositorio mundial. Doctor José Aldo Díaz Prado Dirección de Competitividad

Doctor José Aldo Díaz Prado Dirección de Competitividad Tecnológica Dirección de Investigación y Posgrado ITESM Campus Monterrey

Durante los primeros días de la Web, la comunidad Web trabajó aspectos como: integración de bases de datos Web (desatando la explosión de e-business), especialmente el modelo del B2C (Business to Customer), así como las hojas de estilo para asistir las presentaciones consistentes. Conforme el tiempo ha avanzado, la Web ha venido progresando en sus problemas de accesibilidad. Se han desarrollado recomendaciones en las temáticas de gráfi- cas, tales como PNG y SVG. La sincronización multimedia también fue desarrollada (SMIL). Los equipos de investiga- dores alrededor del mundo estuvieron trabajando sobre los temas de: confianza, seguridad y los metadatos, para describir páginas WEB, enfatizando en una Web de con- fianza y la Web semántica.

NIVELES DE ARQUITECTURA El desarrollo de Java permitió la producción de applets y servlets, enfocados principalmente a los ambientes clien-

te-servidor, lo cual produjo que el modelo cliente-servidor fuera desplazado por un nuevo modelo de tres niveles de arquitectura. Los Web services con XML permiten en la actualidad la transferencia de datos e incrementan la capacidad de flujo de datos en las organizaciones. El acceso Web a través de dispositivos móviles viene a ser posible y las iniciativas de “Mobile Web” han sido promovidas y reforzadas por las actividades realizadas por el W3C (World Wide Web Consortium), que proporciona foros para consulta entre sus miembros, y promueve recomendaciones y estándares que hagan más efectiva la Web.

Algunas de las iniciativas mundiales que continuarán revolucionando la Web en el futuro cercano son:

WEB BASADA EN LA CONFIANZA Con conocimientos en PICS (Platform for Internet Content Selection), un grupo de investigadores ha desarrollado sistemas para confianza y seguridad en el ambiente Web. La definición del formato de documento estándar (usando XML) ha permitido el intercambio de información acerca de compañías, productos y servicios. Asimismo, el proveer de SLAs (service level agreement) ha permitido basar e incre- mentar el nivel de confianza en la Web. El encriptamiento del contenido de las páginas codificación/decodificación ha sido uno de los mayores esfuerzos en la seguridad. El tema de privacidad se ha direccionado a través técnicas de autentificación (también la restricción) de usuarios a métodos para autorizar accesos, (ver figura 2).

usuarios a métodos para autorizar accesos, (ver figura 2). Figura 2. Arquitectura de la información en

Figura 2. Arquitectura de la información en la Web basada en la confianza

SEMANTIC WEB El Desarrollo de Resource Description Framework (RFD), esencialmente como una representación binaria, ha per- mitido mayor expresividad a ser codificada en aplicacio- nes Web. Los lenguajes para ontologías tales como: DAML

CONOCIMIENTO

TECNOLOGÍAS WEB

21

y OIL llevaron a la recomendación de OWL para la cons- trucción de ontologías que puedan ser usadas en asistir las interoperaciones (o para validar una entrada, mejorar un query y responder una explicación). Hay todavía mucho camino por recorrer, pero los problemas semánticos son gradualmente administrables en el ambiente Web, (ver figura 3). La Semantic Web es una iniciativa reciente inspirada por Tim Bernes-Lee, para hacer de la Web un sistema dis- tribuido que facilite la representación de conocimiento. El objetivo de la Semantic Web es no solamente soportar el acceso a la información en la Web a través de ligas o mo- tores de búsqueda, sino que también soporten su uso y utilidad, facilitando la búsqueda de documentos que em- paten con las palabras clave; esto se puede lograr a través de combinar información para contestar preguntas tales como: Dame un plan para viajar a Hawai.

preguntas tales como: Dame un plan para viajar a Hawai. Figura 3. Arquitectura tecnológica para WEB

Figura 3. Arquitectura tecnológica para WEB Semantic

MOBILE WEB El incremento en la capacidad de los dispositivos “hand- held” y las redes ha dado lugar a la demanda de acceso a la Web en los dispositivos móviles. Las posibilidades incluyen entrada de datos de dispositivos adjuntos (video), videos

entrada de datos de dispositivos adjuntos (video), videos Figura 4. Aprovechamiento de la inteligencia colectiva a

Figura 4. Aprovechamiento de la inteligencia colectiva a través de dispositivos móviles.

de súper alta calidad y audio de salida. Esto ha empujado

a la tecnología a proveer de dispositivos inteligentes con respecto a los objetivos y demandas de los usuarios.

WEB 2.0 El potencial de la Web como una plataforma para la in- teracción y cooperación está emergiendo con las ideas del llamado Web 2.0. Esto incluye no solamente el uso de servicios, sino también la participación de los usuarios individualmente y colectivamente (inteligencia colectiva). Esto puede ocurrir, por ejemplo, a través de los blogs y Wikis con etiquetas, carga rápida de páginas e interaccio- nes, usando tecnología AJAX, acceso a múltiples fuentes de información y su integración a través de “mashups”, conectividad peer-to-peer y el agresivo incremento de tec-

conectividad peer-to-peer y el agresivo incremento de tec- Figura 5. Mapa mental de la WEB 2.0

Figura 5. Mapa mental de la WEB 2.0

nologías inteligentes (ver figura 5). El Web 2.0 es básica- mente un nuevo camino para explotar las tecnologías de Internet, tales como XML y Javascript, facilitando la participación, interacción y colaboración entre: usuari- os, proveedores de contenido y negocios, en compara- ción con el concepto tradicional de páginas Web estáticas. Hoy en día las aplicaciones del Web 2.0 son abiertamente accesibles y generadas dinámicamente. Esto las hace más interesantes, pero con mayor riesgo en la seguridad. Los hackers pueden agregar contenido malicioso o explotar la vulnerabilidad en los sitios Web 2.0.

AJAX Ajax (asyncronous Javascrip and XML) es una técnica de programación, para la creación de aplicaciones de Internet

ricas e interactivas, que actúan como aplicaciones de escri- torio. Ajax utiliza Javascript asíncrono, una tecnología de plataforma cruzada en donde una página HTML pu- ede acceder a un documento XML a través de llamadas asíncronas al servidor del cual fue cargado. Esta capaci- dad permite que una aplicación haga una llamada al servi- dor, traiga nuevos datos y de manera simultánea actualice

la página Web sin necesidad de recargar el contenido, todo

mientras el usuario continúa interactuando con la apli- cación (ver figura 6).

22

TECNOLOGÍAS WEB

CONOCIMIENTO

Por ejemplo, los Google Maps escritos en Ajax permiten al usuario desplazarse en el mapa alrededor de la pantalla, sin necesidad de tener que esperar que la página se recar- gue en cada instante. WEB SERVICES

que la página se recar- gue en cada instante. WEB SERVICES Figura 6. Modelo clásico de

Figura 6. Modelo clásico de aplicación vs. modelo Ajax de aplicaciones Web.

El desarrollo de Web Services proporciona interfases de programación de aplicaciones (API), que permiten la pro- gramación de la Web, más que simple autoría o generación de contenido. Con la codificación XML de información, así como el trabajo colaborativo, incluyendo flujos de traba- jo, esto es posible. También es posible considerar la in- cursión de SOAP (Service-Oriented Architecture), la cual lleva a tiempos de desarrollo de aplicaciones más corto y mantenimientos más sencillos. Sin embargo, éste también permite la descripción de metadatos y el descubrimiento y uso de servicios y procesos de negocio. Existe una gran explosión en la oferta de metadatos en este dominio y la estandarización es necesaria, ver figura 7.

dominio y la estandarización es necesaria, ver figura 7. Figura 7. Nuevo Paradigma de desarrollo para

Figura 7. Nuevo Paradigma de desarrollo para aplicaciones y Web Services que usan OWL-S

GRID Inició como un metacomputing (supercomputadoras liga- das) en Norteamérica a mediados de los 90. Los europeos propusieron que los servicios GRID se basaran en, AS “Web services”, así que la GRID podría convertirse en un servicio oblicuo. En esta avenida, existe mucho trabajo desarrollado por la Next Generation Grid Expert Group de la Comunidad Europea, la cual ha liderado mucha ac- tividad científica en servicios y sus especificaciones con metadatos.

MASHUPS Los mashups combinan datos o servicios de múltiples si- tios Web en una sola experiencia con el usuario. Por ejem- plo, un mashup puede combinar los mapas de google con aplicaciones que generan datos en línea, en tiempo real o sitios de monitoreo de tráfico en carreteras. Los mashups, típicamente operan vía un conjunto de APIs publicados por proveedores del sitio Web. Los APIs le permiten al mashup tomar información de varios sitios y mezclar características de múltiples fuentes.

CONVERGENCIA Finalmente, podemos concluir que el futuro de la WEB se basa primeramente en la convergencia de la Semantic Web, Web de confianza y la Web 2.0, seguido todo ello por la sintonización con GRIDs. Esto combina lo que lla- mamos e-infrastructure, la cual permite más o menos ac- ceso ilimitado a la información, procesamiento de nego- cio, entretenimiento, educación, investigación entre otras tecnologías.

Figura 8. Web 2.0, hacia una convergencia unificada de la Web.

8. Web 2.0, hacia una convergencia unificada de la Web. Cada día que transcurra, la sociedad

Cada día que transcurra, la sociedad y las empresas se moverán hacia una Web más inteligente e interactiva, basada en Web 2.0.

Referencias:

1.Bettina Berent , A Roadmap for Web Mining:

From Web to Semantic Web. 2.BBC News, The really simple future of the Web. 3. ZDNet.co.uk. Web evolution by number 4.Michalski, R. Bratko, I (eds), M.K: Machine Learning and Data Mining: methods and applications. Jhon Wiley and Sons, Chicherster

(1998).

5 Kleinberg, J.M.: Authorative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632.

CONOCIMIENTO

TECNOLOGÍAS WEB

23

Las mejores prácticas de ingeniería de software en los desarrollos Web

Rogelio J. Sepúlveda Guerrero

I nternet permite brindar atención a los clientes durante

24 horas al día cada vez que éstos necesitan un bien

o servicio. Los horarios y las fronteras pasan a un se-

gundo plano. Si una empresa desea tener éxito, debe ser mejor que las de su competencia, y sus aplicaciones en Internet deberán ofrecer buena imagen, facilidad de uso, seguridad, funcionalidad y tiempos de respuesta rápidos, aun en alta concurrencia; es decir, deberán ofrecer ex- celente calidad. Se ha definido a las mejores prácticas como las tareas que aseguran un excelente trabajo, integro y actualizado en algún tema específico. Si seguimos los estándares de mejores prácticas en el desarrollo de aplicaciones Web, es- taremos ofreciendo a nuestros clientes los beneficios que la ingeniería de software nos marca respecto de las me- todologías y tecnologías más actuales. (Fig. 1)

MEJORES PRÁCTICAS PARA EL DESARROLLO DE APLICACIONES WEB Las mejores prácticas son tareas que seguir en proyectos reales y no hay que suponer que son trabajos meramente

académicos que sólo se ven en aulas de clases. El equipo de trabajo debe comprender que la Ingenie- ría de Software implica disciplina, y hay que aplicarla. Para seleccionar la metodología de desarrollo adecua- da, si la aplicación por desarrollar se desea implementar en corto tiempo, se deberá utilizar un proceso ágil; si es una aplicación que, de acuerdo con sus características, se va a desarrollar en un período mayor, entonces se deberá utilizar un proceso incremental. Se debe contar con todos los estándares de documen- tación, diseño, programación, base de datos, etcétera, y asegurar que el equipo de trabajo los conoce y los sigue. Se deberá desarrollar una buena planeación del tra- bajo en detalle, en donde cada tarea, además del respon- sable y del tiempo asignado, debe tener un entregable definido. Es bien sabido que el seguimiento y control del proyecto se facilitarán si contamos con un buen plan. Debe contarse con el documento de Administración y Control de Riesgos. Se ha de trabajar para comprender y documentar los requerimientos del usuario y no empezar si los re-

los requerimientos del usuario y no empezar si los re- Fig. 1 Estructura de Proyectos de

Fig. 1 Estructura de Proyectos de Desarrollo bajo ingeniería de Software

de Proyectos de Desarrollo bajo ingeniería de Software Maestro Rogelio J. Sepúlveda Guerrero Catedrático

Maestro Rogelio J. Sepúlveda Guerrero Catedrático Subdirector de Operaciones del Centro de Servicios en Informática Facultad de Ciencias Físico Matemáticas / UANL

24

TECNOLOGÍAS WEB

CONOCIMIENTO

24 TECNOLOGÍAS WEB CONOCIMIENTO Fig 2. Diagrama de pruebas en aplicaciones Web. querimientos son vagos, inciertos,

Fig 2. Diagrama de pruebas en aplicaciones Web.

querimientos son vagos, inciertos, confusos o ambiguos. Es necesaria la participación y colaboración del usua- rio en el análisis, diseño y pruebas de la aplicación Web.

Se deben elaborar prototipos de la aplicación Web, para que el usuario visualice cómo se desarrollará. Debe definirse la arquitectura donde se implemen- tará la aplicación Web antes de empezar la programación, con el fin de asegurar su correcta instalación. Es necesaria la aplicación de la administración y con- trol de cambios. Se ha de documentar el análisis (casos de uso) y el modelado (diagramas). El diseño es esencial en este tipo de aplicaciones. Se ha comprobado que muchas personas evalúan una apli- cación Web sólo viendo el diseño estético inicial. Se deberá contar con diseñadores especializados que trabajen en el diseño arquitectónico, de contenido, de navegación y el estético. Se debe generar la documentación de casos de prue- ba necesaria, junto con el usuario, para asegurar su fun- cionalidad. Tenemos que pensar en pruebas de contenido, de navegación, de seguridad y de desempeño en alta con- currencia de usuarios; contar con la matriz de pruebas y asegurar que el usuario firma de aceptado cuando todas las pruebas son positivas. (Fig. 2) El impacto que han tenido las Aplicaciones Web en los negocios ha hecho necesario un enfoque disciplinado como las Mejores Prácticas en el desarrollo de estas apli- caciones, para asegurar su calidad al usuario final y su permanencia de uso. Es seguro que en el futuro la ingeniería del software se adaptará, sin importar la dimensión de los cambios en la tecnología; ésta nos llevará a nuevos procedimientos y metodologías; es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi- dad.

es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi-
CONOCIMIENTO TECNOLOGÍAS WEB 25
CONOCIMIENTO
TECNOLOGÍAS WEB
25

La Web y los Fractales

Ismael Vidales Delgado

H oy en día, cualquier niño sabe que la World Wide Web (o simplemente “Web”) es un siste- ma de documentos de hipertexto y/o hiperme-

dios enlazados y accesibles a través de Internet.

Miles de muchachos que no saben bailar el trompo, ni hacer un capirucho con el balero, son expertos navega- dores de la Web y surcan sus páginas surfeando diestra- mente entre textos, imágenes video y multimedia, utili- zando los hiperenlaces.

Yo no lo sabía, pero mi nieto que cursa el tercer año de secundaria, me enseñó que la Web fue creada alre- dedor de 1990 por el inglés Tim Berners-Lee y el belga Robert Cailliau; el inglés lograría más tarde unir hiper- texto e Internet. La Web, tal y como la conocemos hoy día, propicia el flujo de comunicación global a una escala inimaginable.

COMUNICACIÓN INSTANTÁNEA La Web permite que personas separadas en el tiempo y el

Profesor Ismael

Vidales Delgado

Director Académico

Del CECyTE-NL

ismaelvidales@att.

net.mx

26

TECNOLOGÍAS WEB

CONOCIMIENTO

espacio puedan intercambiar- o incluso desarrollar mutua- mente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emociona-

les, ideas políticas, cultura, idiomas, música, negocio, arte,

todo puede ser compartido y di-

fotografías, literatura

seminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta.

casi de forma inmediata a cualquier otro punto del planeta. Uso del programa Fractint. Robert Cailliau

Uso del programa Fractint.

Robert CailliauI ngeniero Industrial por la Universidad belga de Gante y Máster en Ciencias de la

Robert Cailliau I ngeniero Industrial por la Universidad belga de Gante y Máster en Ciencias de

I ngeniero Industrial por la Universidad belga de Gante y Máster

en Ciencias de la Computación por la Universidad de Michigan

(EE.UU.), es uno de los creadores del World Wide Web junto

con Tim Berners-Lee. Se dice que Berners-Lee concibió la idea de

un proyecto de hipertexto global, en el cual podía adaptar un programa que había creado para su uso particular, el ENQUIRE, a las necesidades del CERN de disponer de un sistema para acceder a la enorme

y diversa cantidad de información que había en sus sistemas informáticos. Se

trataba de un sistema de hipertexto para compartir información basado en Internet. Dicho sistema permitía incoporar multimedia e hipertextos en Internet, almacenando piezas de información y enlazándolas entre ellas. ENQUIRE se ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los mismos datos. En 1989 Berners-Lee entregó su propuesta a varios científicos del CERN pero no obtuvo respuesta. Fue Robert Cailliau quien acudió en su ayuda.

Una de las personas que creyó en el proyecto desde el principio fue el científico belga. Reescribió la propuesta de Berners-Lee en términos que a él le pareció que tendrían más efecto y buscó ayudantes estudiantes y becarios, dinero, máquinas

y espacio en oficinas para poder trabajar. En septiembre de 1990 recibieron el

visto bueno y los dos comenzaron a escribir el nuevo sistema de hipertexto, dando origen a la Web como hoy la conocemos.

Como la Web tiene un ámbito de influencia global, es incuestionable su contribución al entendimiento mutuo de las personas, por encima de fronteras físicas y/o ideológi- cas. Así fue como me interesé en el tema de los fractales. El término fractal lo acuñó Benoit Mandelbrot. Al hojear un diccionario de latín de su hijo fusionó las palabras fractus (roto) y fracture (fractura); y fue en el la IBM donde se fraguó la teoría de la Geometría Fractal, cuya belleza usted puede admirar con sólo escribir la palabra “fractal” en su buscador habitual.

Nacida en la geometría y en la teoría del caos, la visión fractal está en todo: arte, ciencia, literatura, pintura, músi- ca, etcétera, y sólo la Web le permitirá disfrutar de la visión que, con todos sus recursos, no puede hacer la imprenta. Si usted quiere vivir una experiencia inolvidable, incluso iniciarse en la creación de fractales, tendrá que acudir a la Web. Si usted no ha navegado por los fractales, sincera- mente, se está perdiendo de utilizar la Web para vivir una emoción especial, como es la de estar frente a un fractal; es decir una forma geométrica que permanece sin cambio, cualquiera sea el lente de aumento con el que se la observe.

LA TEORÍA DEL CAOS Si cuando usted era estudiante de secundaria o de pre- paratoria no logró entender la Teoría del Caos, hoy sabrá con sencillez asombrosa que no podemos crear un orden perfecto; pero, si nos olvidamos de las limitaciones del pensamiento mecanicista, comprenderá la armonía del caos que nos rodea, y aprenderá a vivir en él, gracias a los fractales. En la educación, especialmente en la asignatura de Geometría, son cada vez más los docentes que piensan que la Geometría Fractal, o al menos algunos elementos de ella, debieran integrarse entre los contenidos de Secunda- ria, en Matemáticas y/o en Informática. Indagando con un aficionado de los fractales, me indica que los estudiantes pueden generar con suma facilidad sus propios fractales, utilizando el programa fractint. Con este programa, asegura mi amigo, cualquier persona puede crear fractales, partiendo de una ecuación, que es la base para generar fractales; luego entra el gusto del autor, manipulando el fractal y moldeándolo como él desea. A quien le interese entrar en ese maravilloso mundo fractal, le recomiendo El mundo de los fractales, de Tim Wegner, Bert Tyler, editorial Anaya, que incluye el programa frac- tint y un CD con los mejores fractales de gente de todo el mundo. La teoría de fractales y la teoría del caos son parte de un mismo y novedoso paradigma emergente en la ciencia, lo mismo que la Teoría de Sistemas de Ludwig von Berta- lanffy y la Teoría de las catástrofes, de René Thom. Como podrá darse cuenta, estimado lector, la Web y los Fractales forman una especie de binomio indisociable que usted puede desentrañar con sólo teclear la palabra fractal en su buscador.

CONOCIMIENTO

TECNOLOGÍAS WEB

27

La importancia del open source en la Web

Jorge Cárdenas Antonio López Magaña

N ormalmente en internet busca uno información y ayuda para hacer tareas; escribe en blogs, busca música y demás. Pero, ¿se ha preguntado

usted alguna vez cómo funcionan esas páginas? La ma- yoría de los servidores en los que están publicadas estas tecnologías, usan programas open source. ¿Qué es open source? El open source, -o programas de código abierto- hace referencia al software libre, adscrito a la licencia GPL que

permite copiar, ver, modificar y distribuir el código fuente y, lo más importante, modificar el programa de acuerdo

a las necesidades del usuario. Una de las ventajas es que

toda una comunidad, de todos los rincones del mundo, comparte sus conocimientos y aporta modificaciones al programa, mejorando las funciones del mismo, y no hay que pagar por ello. ¿En qué plataforma se ejecutan estos programas? El sistema operativo en el que mayormente se usan estos programas es en linux. Hay comunidades que rea- lizan modificaciones, agregan programas, entornos gráficos, lo preparan cd’s, y se les llama distribución. Algunas de las distribuciones más famosas son Ubuntu, Fedora, Suse, Mandrake, Red hat, Free BSD, entre otras.

Fedora, Suse, Mandrake, Red hat, Free BSD, entre otras. CÓDIGO APACHE Por ejemplo, el pro- grama

CÓDIGO APACHE Por ejemplo, el pro- grama de código abier- to que más se usa para publicar páginas Web es el Apache, el cual es un servidor HTTP para plataformas Unix (BSD, GNU/Linux, etcétera.), Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 [1] y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995, se basó ini- cialmente en código del popular NCSA HTTPd 1.3, pero

más tarde fue reescrito por completo. Su nombre se debe

a que Behelendorf lo eligió porque quería que tuviese la

connotación de algo firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y “civilizasen” el paisaje que habían creado los primeros in- genieros de internet. Además, Apache consistía solamente en un conjunto de parches que aplicar al servidor de NCSA.

Era, en inglés, a patchy server (un servidor “parchado”). El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Entre otras características, Apache presenta mensajes de

error altamente configurables, bases de datos de autenti- cación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configu- ración.

de una interfaz gráfica que ayude en su configu- ración. ACEPTACIÓN EN LA RED Apache tuvo

ACEPTACIÓN EN LA RED Apache tuvo amplia aceptación en la red: en 2007; fue el servidor HTTP más usado, empleado en el 48 por ciento de los sitios Web en el mundo. Sin embargo, ha sufrido un descenso en su cuota de mercado en los últimos años. Como alternativas de programación al codigo Asp y Asp.Net de Microsoft, en las cuales no sólo se crea una página Web en codigo html puro, fue desarrollado el len- guaje de programación PHP. PHP es un acrónimo recursivo que significa “PHP Hy- pertext Pre-processor” (inicialmente PHP Tools, o, Personal Home Page Tools). Actualmente, también se puede utilizar para la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica, usando las bibliotecas Qt o GTK+. El gran parecido que posee PHP con los lenguajes más comunes de programación estructurada, como C y Perl, permite a la mayoría de los programadores crear aplicaciones complejas con una curva de aprendizaje muy corta. También les permite involucrarse con apli- caciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones. PHP es un lenguaje de programación usado normalmente para la creación de páginas Web dinámicas. Existen programas ya listos para usarse bajo este código PHP, de los cuales podemos nom- brar a Mambo, Joomla y Drupal por citar algunos. Éstos son administradores de contenido dinámico, ya que toda la información se vacía en una base de datos por medio de una interfaz administrativa, y luego un solo archivo ordena todos los artículos, y cuando alguien quiere ver el contenido, o hace click en una liga, el resultado que se muestra es el que se encuentra en la base de datos ex- traído por el índice de la página Web.

Ingeniero

Jorge Cárdenas

Técnico Antonio

López Magaña

Coordinación de

Tecnologías

CECYTENL

28

TECNOLOGÍAS WEB

CONOCIMIENTO

28 TECNOLOGÍAS WEB CONOCIMIENTO MAMBO Y JOOMLA Joomla surge como el resultado de una bifurcación o

MAMBO Y JOOMLA Joomla surge como el resultado de una bifurcación o me- jora de Mambo, de la corporación Miro de Australia, que mantenía la marca del nombre Mambo en esa época y el grupo principal de desarrolladores. Joomla nace con esta división el 17 de agosto de 2005. La corporación Miro for- mó una organización sin ánimo de lucro, con el propósito inicial de fundar el proyecto y protegerlo de pleitos. El grupo de desarrollo reclamó que muchas de las cláusulas de la estructura de la fundación fueron acuerdos previos hechos por el comité directivo de Mambo, el que no tiene la consultoría necesaria de quienes mantienen el proyecto e incluye cláusulas que violan los valores principales del código abierto. El grupo de desarrollo creo un sitio Web que se llamó OpenSourceMatters para distribuir infor- mación a los usuarios, desarrolladores, diseñadores Web y a la comunidad en general. En ese momento, el líder Andrew Eddie, conocido como “MasterChief”, escribió una carta abierta para la comunidad, que apareció en la se- cción de anuncios del foro público en mamboserver.com. Al siguiente día, miles de personas ingresaron al Sitio Web opensourcematters.org para expresar su apoyo y estímulo por las acciones ejecutadas por el grupo de desarrollo. El sitio Web recibió un aviso de temporalmente fuera de ser- vicio debido al excesivo tráfico. Este evento apareció en newsforge.com, eweek.com, y ZDnet.com.

PROYECTO FRAY SERVANDO En el CECYTE,NL contamos con servidores que co- rren bajo Linux en su distribución Fedora y Ubuntu, en los cuales se monitorea y administra el proyecto educativo denominado Fray Servando, compuesto por una plataforma educativa, correo electrónico, bases de datos y enlaces dedicados hacia nuestros plan- teles, los cuales permiten la realización de videoconferencias en tiempo real, con- ferencias magistrales y capacitación de docentes y alumnos. Un ejemplo aplicado al código abierto es la página http://www.conocimientoen- linea.com, la cual está desarrollada con herramientas como Joomla y hospedada en servidores que utilizan Linux en su distribución Fedora. En conclusión, creemos que los pro- gramas open source desempeñan un im- portantísimo papel en la Web. Gracias a esto, muchas personas pueden publicar sus páginas de una manera amigable e interactiva y muy sencilla, ya que si hay algún problema para instalar un programa, ya sea Joomla o publicar un servidor con Apache, hay toda una comu- nidad presta para ayudar con cualquier problema que se pueda presentar, ya sea en blog o foros. Precisamente, este artículo fue escrito en Open Office, corriendo sobre ubuntu

7.10.

Otra de las ventajas es que la comunidad de código libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera ordenada todos los artícu- los.

libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera

CONOCIMIENTO

TECNOLOGÍAS WEB

29

Google, el motor más popular del mundo

El alma de un buscador de páginas Web

Elisa Schaeffer

G oogle sabe todo. Si necesita un restaurante de

comida italiana, el nombre de un libro que quie-re

comprar, la hora de la función de cine, el hombre

moderno le pregunta a Google, el motor de búsqueda más popular del mundo. Prácticamente cada navegador de pá- ginas web incorpora una barra de búsquedas para con- sultar con Google sobre cualquier tema. Lo que interesa a cualquier proveedor o comerciante es cómo lograr que la página Web de su negocio salga primero en la lista de resultados que muestra el buscador. Para asegurar un buen lugar en esta lista de resulta- dos, uno necesita saber cómo funcionan Google y sus com- petidores: cómo coleccionan los datos de los cuales eligen los resultados, en cada consulta, los millones de usuarios; cómo seleccionan las páginas para ofrecer al usuario y cómo ordenan esas páginas seleccionadas. En este artículo nos enfocamos más en Google, pero varios de estos aspec- tos se aplican también a otros buscadores de la Web.

NAVEGADO RES AUTOMÁTICOS La recolección de datos se basa en “navegadores au- tomáticos” que recorren las páginas web. Esos navega- dores automáticos se llaman crawler en inglés, un sus- tantivo que proviene del verbo crawl, lo que se podría traducir como “arrastrarse”. Un crawler comienza su recorrido desde una cierta página asignada y sigue las li- gas de esta página para llegar a más páginas. Una liga, también conocida como un enlace, es simplemente un tex- to anotado con la dirección de otra página para ofrecer al usuario la posibilidad de ver otra página aparte de la que actualmente está leyendo.

Las páginas visitadas, con toda su información, están guardadas en las computadoras de Google, y las ligas en- tre ellas están analizadas. Múltiples crawlers recorren la WWW simultáneamente, recopilando así una “imagen” de la estructura y el contenido de ella en un momento dado.

El procesamiento hecho a las páginas obtenidas en esta forma es complejo, y sus detalles cambian de un mo- tor de búsquedas a otro. Sin embargo, el proceso general tiene dos componentes principales e importantes de co- nocer: las palabras que aparecen en una página están pro- cesadas según su frecuencia y posición en el texto. Las pa- labras utilizadas en títulos se consideran más importantes que las palabras incorporadas en el texto y una palabra que se usa mucho es considerada la más representativa del documento que una que se usa unas pocas veces. En este proceso se toma en cuenta la frecuencia global de las palabras en todas las páginas procesadas: si alguna palabra (como por ejemplo las preposiciones y otras pa- labras pequeñas) se usa mucho en todos los documentos, su presencia no se considera relevante para determinar el tema de la página. El procesamiento también cuenta con un diccionario de sinónimos para identificar conceptos en vez de limitarse a nivel de palabras.

IMPORTANCIA DE LAS PALABRAS La selección entre todas las páginas guardadas en las computadoras está basada en la consulta hecha por el usuario; o sea, las palabras clave que utilizó el usuario al lanzar la búsqueda. Es importante reconocer que la búsqueda está realizada en las copias almacenadas en las computadoras de Google, en vez de buscar de forma

en las computadoras de Google, en vez de buscar de forma Doctora Elisa Schaeffer Profesor-Investigador Facultad

Doctora Elisa Schaeffer Profesor-Investigador Facultad de Ingeniería Mecánica y Eléctrica / UANL Candidata al Sistema Nacional de Investigadores

Facultad de Ingeniería Mecánica y Eléctrica / UANL Candidata al Sistema Nacional de Investigadores

30

TECNOLOGÍAS WEB

CONOCIMIENTO

Para más información:

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

Una guía de uso de Google (en inglés) está disponible en http://www.googleguide.com/

Un artículo científico The Anatomy of a Large-Scale Hypertextual Web Search Engine sobre la arquitectura de Google, por los fundadores de la empresa, Sergey Brin y Lawrence Page, está disponible en línea, igual que varios otros artículos sobre el tema.

Para buscar publicaciones académicas, es mejor hacerlo en http:// scholar.google.com/ que, en vez de juzgar la importancia por ligas, orde- na resultados considerando referencias bibliográficas entre textos cientí- ficos, como una medida de importancia.

CONSEJOS PARA LOS USUARIOS Tomando en cuenta la función de un motor de búsqueda, es posible ofrecer algunos consejos para asegurar que su página reciba la importancia que merece. Es esencial es- cribir texto claro y bien estructurado sobre los productos, servicios y otros temas relevantes de la empresa o insti- tución en cuestión. Las palabras utilizadas en los títulos (las directivas <H1>, <H2> etcétera del lenguaje HTML) pesan mucho en el análisis de la página por el motor de búsqueda. Colocar texto únicamente en figuras e imágenes perjudica la visibilidad de la página en Google, porque ese texto pasará desapercibido por el análisis de contenido. Otro consejo, particularmente apto para optimizar la visi- bilidad en Google, se refiere a tratar de conseguir ligas que apunten a su página –la importancia de su página proviene de la importancia y la cantidad de las ligas que entran en esa página. Es importante colaborar con los clientes y proveedores, de tal manera que pongan ligas a los sitios de sus colaboradores. También la inclusión en diferentes tipos de directorios en línea puede ayudar a aumentar la importancia relativa de su página. Para asegurarse de que un crawler visite su página, usted puede solicitarlo directamente a Google por la pá- gina http://www.google.com/addurl.html y ellos pro- gramarán una visita al sitio. Los crawlers visitan diferen- tes páginas con diferente frecuencia, buscando mantener las páginas más importantes mejor actualizadas en el almacén. Si su página tiene ligas entrantes desde alguna página que Google ya conoce, tarde o temprano un crawler encontrará su página por las ligas. También las visitas de los usuarios de la Web pueden informar a Google de la existencia de una página –muchos navegadores informan al buscador desde cuál página llegó el usuario a ver la pá- gina de Google. Los consejos para una persona que realiza búsquedas en la Web también se basan en función de los motores de búsqueda, como: poner las palabras clave más importantes primero en la consulta, pues esto ayuda a en- contrar las páginas más relevantes; utilizar palabras más específicas, lo que puede ayudar a limitar los resultados, si son demasiados. Palabras más generales suelen am- pliar la gama de los resultados si originalmente fueron escasos. Es recomendable evitar palabras que tienen doble significado o que son altamente comunes. La búsqueda de información, productos y servicios en línea es una parte importante de la vida diaria de una po- blación creciente. Encontrar y ser encontrado tienen un impacto socio-económico más allá de lo que podíamos haber esperado en los primeros años de la WWW.

 

dinámica en la Web para cada consulta. Las listas de pa- labras clave están comparadas contra las listas de concep- tos de las páginas almacenadas para identificar cuáles pá- ginas manejan los mismos conceptos que la consulta. Google también detecta si una palabra parece estar mal deletreada; si la palabra ocurre en los documentos almacenados con poca frecuencia, pero una variación cer- cana de la palabra ocurre mucho más, Google pregunta al usuario si realmente quería buscar por la variación en vez de la palabra que definió. De nuevo, el motor de búsqueda incorpora el uso de sinónimos y ponderación de la importancia de las pa- labras de la consulta según su frecuencia en la colección de páginas. El orden de las palabras clave está interpreta- do como un orden de prioridad, y típicamente el usuario puede “forzar” la inclusión o exclusión de cierta palabra.

IMPORTANCIA DE LAS PÁGINAS Para ordenar las páginas encontradas en el “almacén” según su importancia, Google hace matemáticas. Una pági- na se considera “importante”, si muchas otras páginas im-

portantes tienen ligas a esa página. Ésta es una definición recursiva de importancia: la importancia está definida en términos de la importancia misma. Matemáticamente se maneja esa definición por crear una matriz que contiene

la

información de la existencia de ligas en una página A

que apuntan a una página B para todos los posibles pares

A

y B. Esta matriz se convierte a otra matriz que contiene

la

probabilidad de que un “buscador aleatorio” vaya a una

página B si actualmente está viendo una página A. Esta matriz de probabilidades tiene una estructura es- pecial algebraica que permite interpretar una propiedad matemática suya, específicamente su eigenvector princi- pal, en forma de valores de importancia de las páginas. Es una matriz enorme, por lo cual no existe una computa-

dora con suficiente memoria para calcular ese eigenvector,

y

aun si existiera, el tiempo de computación no sería nada

razonable. Afortunadamente existen métodos aproxima- dos para rápidamente estimar el eigenvector y así obtener valores numéricos de importancia “estructural” para las páginas Web. La lista de documentos seleccionados por las palabras clave de la consulta del usuario está entonces

CONOCIMIENTO

TECNOLOGÍAS WEB

31

C O N O C I M I E N T O TECNOLOGÍAS WEB 3 1

Cómo redactar los textos para la Web

Marta Sylvia del Río

E xiste la creencia errónea de que, al crear el con-

tenido de un sitio web, bastará con copiar la in-

formación contenida en folletos y documentos

institucionales. Esto se hace cuando se parte de dos premi- sas equivocadas: (a) el texto de un material impreso se pue- de presentar y leer de la misma forma en una pantalla y (b) la gente lee lo que es importante para la organización dueña del sitio. Para el primer punto, ergonómicamente es mucho más cansado leer pixeles en una pantalla que texto en un papel. (CBASSE, 1983) Por ello, cuando el usuario está leyendo un artículo largo que le resulta interesante, muchas ve- ces lo imprimirá para continuar leyendo de un papel. Para la segunda premisa, la gente no lee lo que es impor- tante para la organización. Piense en los últimos tres sitios que haya visitado. ¿Leyó toda la información de la página? Por supuesto que no. Cada usuario lee únicamente lo que resulta importante para él. Por ello es tan relevante co- nocer qué buscan los usuarios que visitan el sitio.

DISEÑO DE INFORMACIÓN Para tener un sitio amigable y funcional, debemos diseñar la información del mismo. De acuerdo con Nathan Shed- roff (2008), el diseño de información “es un campo y un enfoque que intenta diseñar comunicaciones claras e in- teligibles mediante el cuidado de la estructura, el contexto y la presentación de los datos y la información”. Deben cuidarse cuatro aspectos:

¿Qué? El tema central o propósito de la página debe ser lo más claro posible. ¿Quién? Es básico reclamar la propiedad de una página. ¿Dónde? Nunca olvidar la naturaleza internacional del medio?. ¿Cuándo? Indicar la fecha de publicación. Las páginas envejecen. Un ejemplo muy sencillo sería la publicación de una página que hable sobre índices de deforestación en bosques de coníferas. Lo primero que debe quedar claro es por qué se publica esta información. ¿Está diseñada para centros de investigación o para concienciar a niños de escuelas primarias sobre la importancia del tema? El lenguaje empleado y los resultados presentados variarán mucho con base en mi audiencia. En segundo lugar, ¿quién publica esta información? No tendrá la misma credibilidad si lo publica la SEMARNAT, Green Peace o una asociación regional de madereros. En tercer lugar, debe especificar dónde se genera esta información. ¿Se está hablando de los bosques de Querétaro, de México o del mundo? Por último, saber de cuándo son estas cifras. Si son de hace dos años, ya cambiaron.

REDACTAR COMO PROGRAMAR. UIILICE OBJETOS En la programación orientada a objetos, cada uno de ellos tiene su propia información, encapsulada. No se encuentra esparcida por todo el código. De la misma forma, la infor- mación en un sitio Web debe organizarse como objetos, y

mación en un sitio Web debe organizarse como objetos, y Ingeniera Marta Sylvia del Río Directora

Ingeniera Marta Sylvia del Río Directora de los Posgrados en Ingeniería y Diseño Universidad de Monterrey mdelrio@udem. edu.mx

32

TECNOLOGÍAS WEB

CONOCIMIENTO

definir tareas específicas que el usuario podrá realizar. Cuando un usuario entra en un Sitio Web, espera rea- lizar una tarea específica. Si alguien accede a diccionar- ios.com, estará buscando la traducción de un término o la clarificación una palabra. Accederán a gmail.com para enviar un mensaje a un amigo. En cinepolis.com estarán buscando qué películas se exhiben y los horarios de la sala de exhibición más cercana. El hombre piensa de forma natural en objetos, por lo que es algo que debiera resultar intuitivo. Al solicitar información de sillas en target.com, toda la información de la mesa debe aparecer en un mismo lugar, y dicha infor- mación debe estar completa. Sin embargo, existen sitios que muestran toda la información del catálogo de pro- ductos en una misma página. Tanta información satura al usuario.

Si pensamos en tareas, es mucho más fácil definir cómo se manejarán esos objetos y diseñar la información adecuada para la tarea. Por ejemplo, si en un sitio voy a comprar un producto, al momento de seleccionar el ca- rrito de compra debo esconder la información sobre el ca- tálogo. Aun cuando deje una liga para regresar al catálogo, en ese momento me enfocaré en presentar la información de envío y contestar las dudas que deba tener sobre esto. Al momento de haber seleccionado la opción de envío, debo eliminar esta información y ahora apoyarla con las opciones de pago. Aún más importante es el seleccionar nombres re- presentativos. Si un sitio promueve estudios en el extran- jero, los visitantes esperarán encontrar una liga o botón a becas, y si el sitio utiliza el término ayudas financieras, probablemente haya usuarios que no lo encuentren.

SIMPLIFICAR LOS TEXTOS El lenguaje debe simplificarse lo más posible, eliminando adjetivos, juicios de valor, y ambigüedades. Hay que dar un tono positivo al mensaje. Se recomienda dar información completa, en forma amigable y sin tecnicismos. Esto último es especialmente importante para los mensajes de error.

Antes

Después

Existe la necesidad de una revisión tanto de los exámenes preoperatorios como de los postoperatorios para la determinación de la confiabilidad en los resultados.

Deben revisarse los exámenes pre y postoperatorios para determinar su nivel de confiabilidad.

Bienvenido al BuscaChef donde se maneja un concepto revolucionario para simplificar su tarea. Aquí no sólo podrá consultar todo tipo de recetas, sino que podrá hacerlo de varias formas. Si teclea un ingrediente, por ejemplo chocolate, traerá todas las recetas relacionadas con este producto, desde mole hasta pastel selva negra. Por otro lado, puede buscar una receta específica, como puede ser el mole. Por último, puede seleccionar un tipo de comida, como comida mexicana, y traerá todas las recetas que se tengan registradas.

El

BuscaChef le ahorra tiempo encontrando recetas

Por ingrediente traerá las recetas que contengan ese ingrediente, por ejemplo, chocolate Por platillo traerá las recetas de ese platillo, por ejemplo, mole Por tipo de comida traerá las recetas relacionadas, por ejemplo, comida mexicana

Cuidado: no rechace esta oportunidad de renovar su membresía a menos que ya haya utilizado todos los beneficios que se ofrecen.

Por favor reconsidere su cancelación. Lo apreciamos como miembro,

y

esperamos que valore todos los beneficios que la membresía le

ofrece. (Price, 2002)

Podrá subir al servidor, mediante un FTP, las imágenes que se seleccionen en la ventana del Explorador de Windows.

Podrá agregar las imágenes que usted seleccione de su computadora.

No hay recaptura; ingrese en modo reescribir

En este momento no puede modificar el dato; debe seleccionar el modo reescribir del menú

SIMPLIFICAR LAS LIGAS Cuando agregamos ligas, debe especificarse qué contienen, para que el usuario decida si quiere acceder a ellas o no. Conviene incluir referencias a otras páginas del sitio, para facilitar la navegación del usuario. Cuando se trate de descar- gar un documento, conviene especificar tamaño y formato.

Antes

Después

En la siguiente página podrá encontrar …

En la página de seguridad del producto podrá encontrar…

Da clic aquí para ver los resultados

El 63% de los alumnos recomendarían el curso y 23% sugieren mejoras, en base a nuestra encuesta de satisfacción.

 

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

Resumen | Propuesta | Recomendaciones Mayor información con Alejandro Rivera

El manual de identidad especifica los lineamientos a seguir para las aplicaciones.

El manual de identidad especifica los lineamientos a seguir para las aplicaciones. (PDF de 4.3 MB, requiere Acrobat Reader 4.0 o más)

CONOCIMIENTO

TECNOLOGÍAS WEB

33

REDACCIÓN DE PIRÁMIDE INVERTIDA Cuando sea posible, se recomienda utilizar la técnica de la pirámide invertida, escribiendo la idea principal y luego sustentando y agregando detalles. De esta forma, si el usua- rio no termina de leer, habrá captado la idea principal. No es el mejor estilo para un libro o una historia, pero enfoca la atención a la información más relevante. Blanca Nieves se casó con su príncipe azul tras escapar de numerosos peligros, incluyendo un cazador asesino y una manzana envenenada. (Woodtke, 2002, p.16) Busque más información sobre el príncipe, los siete enanos, la ma- drastra, la manzana envenenada y el espejo mágico.

REDACTAR PARA BUSCADORES Otro punto importante de un sitio web es redactar para que los buscadores puedan encontrar fácilmente mi con- tenido. Se les puede indicar qué información existe y cada cuánto tiempo se actualiza. Entre los expertos de diseño de sitios web, se conoce cómo mejorar la buscabilidad (findability). Es importante recordar que los textos em- bebidos en imágenes no podrán ser localizados por los buscadores.

EL LENGUAJE CIUDADANO:

UNA APLICACIÓN EN MÉXICO En Suecia surgió un movimiento que posteriormente se fue adoptando en el resto del mundo, Plain Language, que puede traducirse como Lenguaje Cotidiano, y se ha imple- mentado en muchos países con éxito. México no es la ex- cepción, ya que ha sido una preocupación cada vez mayor para el gobierno. En la Secretaría de la Función Pública acuñaron el término lenguaje ciudadano (SFP, 2008). Esta entidad se dedica a capacitar a dependencias federales, estatales o municipales para mejorar los portales guber- namentales y facilitar el acceso del ciudadano. En el ejemplo de la figura 1 se observa cómo simplifi- can sustancialmente la información para generar párrafos sencillos de entender.

CONCLUSIONES Una vez que se reconoce que el escribir para Web no es igual al escribir para materiales impresos, se ha recorrido la mitad del camino. El hecho de que el usuario esté solo con su computadora, hace que los textos amigables sean más importantes que nunca. Adicionalmente, nunca se sabe quién es el verdadero lector que se tiene al otro lado. Un estudio que realizó en fecha reciente el gobierno de Chile, arrojó como resultado el que en muchas ocasiones el portal de gobierno estaba interactuando con niños, que ayudaban a sus abuelos a realizar algún trámite en línea. (P. Saavedra, comunicación personal, 9 de noviembre de

2007).

Entre más placentera sea la experiencia del usuario, más posibilidades habrá de que regrese a un sitio web. El lenguaje utilizado es parte importante de la usabili- dad del sitio.

utilizado es parte importante de la usabili- dad del sitio. Antes Después   <html> <head>

Antes

Después

 

<html> <head> <meta name=”keywords” content=”usabilidad, testing, card sort, personas, arquitectura de informacion, diseno visual, navegacion”>

<html> <head> <title>Universidad de Monterrey: Maestria en Diseno Grafico:

Usabilidad</title>

<meta name=”description” content=”Informacion basica para el diseno de un sitio web, con referencias a libros y articulos especializados. Ideal para personas que inician en el diseno de sitios web”> <meta name=”robot” content=”all”>

<meta name=”revisit” content=”20 days”>

</head>

<title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title> </head>

 

(Price, 2002)

Bibliografía

Jeney, C. (2006) Writing for the Web: A Practical Guide (1a ed.) USA: Prentice Hall Price, J. Price, L. (2002) Hot Text. USA: New Riders Shedroff, N. Diller, S. Rhea D. (2008) Making Meaning:

How Successful Businesses Deliver Meaningful Customer Experiences (1a ed). USA: New Riders Press Woodtke, Christina (2002). Information architecture. USA:

New Riders Press

Referencias Web

CBASSE Commission on Behavioral and Social Sciences and Education (1983). Video Displays, Work, and Vision. Disponible en: http://www.nap.edu/openbook.php?isbn=0

309033888&page=R9

Secretaría de la Función Pública (2008). Lenguaje Ciudadano. Disponible en:

http://www.lenguajeciudadano.gob.mx/index.

php?option=com_content&task=blogcategory&id=23&Item

id=30.

34

TECNOLOGÍAS WEB

CONOCIMIENTO

34 TECNOLOGÍAS WEB CONOCIMIENTO Licenciado Felipe de Jesús Rodríguez García, MT Subdirector de Investigación

Licenciado Felipe de Jesús Rodríguez García, MT Subdirector de Investigación Tecnológica y DesarrolloCentro de Servicios en Informática UANL – FCFM

El coach que diseña y construye componentes del software Web

Felipe de Jesús Rodríguez García

Q uienes nos dedicamos al desarrollo de software

estamos convencidos de que una de las labores

críticas de los proyectos es, sin duda alguna, la

construcción de los componentes de software; elementos visibles para el usuario y que, de no estar claros, comple- tos y correctos, sencillamente no le resultan de utilidad. Si a esto agregamos el que, para los ambientes Web, su arquitectura y la diversidad de tecnologías que en ella con- fluyen es aún más compleja; y que los requerimientos del usuario se ven con la necesidad de ser automatizados en el menor tiempo posible, a fin de seguir siendo competitivos, entonces no dudaremos en incorporar a nuestros proyec- tos un elemento humano que garantice o incremente la factibilidad de éxito de los mismos. Un rol muy importante en los desarrollos de software, sin duda es el del que ha sido identificado como coach de construcción; un rol con participación activa en el proyecto y que además cumple con una responsabilidad muy importante: la de “asegurar que los componentes de software construidos cumplan con las expectativas funcionales del usuario, el tiempo de entrega, el uso ra- cional de los recursos involucrados y que estén libres de defectos”

ACTIVIDADES IMPORTANTES El coach de construcción tiene que seguir una serie de ac- tividades para cumplir con lo anterior; por lo que aquí, y a manera de checklist enlistaré las más significativas:

•Formalizar y asegurar el uso de un proceso estándar de construcción de componentes, que garantice disciplina y apego a las buenas prácticas. •Establecer modelos de programación que aseguren la efi- ciencia en la construcción de los componentes Web. •Implantar estándares de codificación y del uso racio- nal de las herramientas de desarrollo y lenguajes de pro- gramación. •Establecer los criterios de calidad y aceptación que deben tener todas las especificaciones detalladas de los compo- nentes a construir. •Capacitar a los desarrolladores en metodología y téc- nicas de ingeniería de software orientadas a la progra- mación dirigida a objetos. •Tomar mediciones durante el desarrollo de los compo- nentes de software, para optimizar el proceso de cons- trucción. •Inspeccionar periódicamente el software construido, para asegurar que los componentes estén libres de defec- tos.

asegurar que los componentes estén libres de defec- tos. •Llevar a cabo estrategias de prueba que

•Llevar a cabo estrategias de prueba que aseguren que los componentes de software construidos cumplen al cien por ciento con lo establecido en las especificaciones deta- lladas. •Establecer comunicación efectiva con cada uno de los desarrolladores asignados al proyecto. •Tener la habilidad para formar y manejar equipos de trabajo efectivos, durante la construcción de los compo- nentes de software. Sin duda se trata de una labor interesante y que nos traerá excelentes beneficios en la medida de su aplicación co- rrecta en los proyectos de software que emprendamos.

Y recuerden…

Cualquier trabajo que se haga en la vida es el mejor, si éste satisface y llena de orgullo a quién lo hace. Una de las mejores satisfacciones se experimenta cuan- do ve uno que el trabajo realizado rinde frutos y se desa- rrolla de manera autónoma. Es como si una parte de uno mismo siguiera trabajando continuamente.

CONOCIMIENTO

TECNOLOGÍAS WEB

35

C O N O C I M I E N T O TECNOLOGÍAS WEB 3 5

La línea digital

Yo necesito una banca segura.¿¿Y tú?

Laura Rodríguez

E l servicio de banca en línea se ha vuelto primordial

para todas las personas que viven la vida acelerada

de trabajo, niños, súper y agregados. Esta ventaja ha

llegado a simplificar mi vida en un cien por ciento. Se me hace difícil recordar mis odiseas de filas, estacionamien- tos, horarios. Hoy por hoy, hago transferencias en línea para cualquier tipo de deuda, ya sea el pago de un servi- cio, el pago a una amiga, el pago de mi tarjeta de crédito; en fin, con cinco minitos de mi tiempo puedo efectuar hasta tres pagos, sin la necesidad de levantarme de mi

escritorio o sacar el coche cuando estoy en casa. Hoy por hoy, el tema importante en este servicio es el identificar una Banca en línea cien por ciento segura. Podemos encon- trar en internet muchas opciones; pero, ¿cómo podemos definir si nuestra Banca es segura? Yo podría enumerar algunas recomendaciones para identificar una Banca en Línea Segura:

1.Ofrecerme un portal seguro: esto se puede identi- ficar con la dirección en la parte de arriba de nuestro ex- plorador (https://www.mibanco.com) o bien un icono de

ex- plorador (https://www.mibanco.com) o bien un icono de Licenciada Laura Rodríguez Responsable del Portal Banorte

Licenciada Laura

Rodríguez

Responsable del

Portal Banorte

laurardzvdz@

prodigy.net.mx

36

TECNOLOGÍAS WEB

CONOCIMIENTO

36 TECNOLOGÍAS WEB CONOCIMIENTO candado en la parte de abajo de la página. 2.Filtros de seguridad:

candado en la parte de abajo de la página. 2.Filtros de seguridad: de preferencia el banco nos debe otorgar más de un identificador. Algunos filtros pue- den ser: usuario, contraseña, dispositivo electrónico. 3.Correos de Confirmación: es importante que nos mantengan informados en todo momento sobre las trans- acciones realizadas en nuestra cuenta; esto se maneja nor- malmente por correos electrónicos de confirmación. 4.Certificado de reembolso: algunos bancos han toma- do en serio el tema de seguridad, y ofrecen confiadamente un certificado de reembolso, el cual ampara al cliente en caso de cualquier problema que se pueda presentar. Esto, además de utilizarlo en algún momento.

VENTAJAS DE LA BANCA EN LÍNEA En el año 2006, VISA y AMIPCI realizaron un estudio en el cual revelan que el 44 por ciento de los usuarios prefieren no utilizar la banca en línea, por considerarla insegura. Pero, a diferencia de ellos, tenemos el 56 por ciento de

usuarios que ya utilizan la banca en línea, conocen las ven- tajas y beneficios que ofrece y que no están dispuestos a volver a hacer filas en un banco. En este estudio, se nos indica que el 56 por ciento de los usuarios utilizan la banca en línea dos o más veces a la semana; esto nos da una idea de la importancia que está tomando este servicio.* *Fuente www.amipci.org.mx El sector financiero está consciente de ello, y por esa razón ha ido implementando diferentes niveles de seguri- dad, como la implementación de dispositivos electrónicos que despliegan una clave numérica, misma que, en com- binación con el usuario y contraseña, ofrece un nivel de seguridad más alto.

ASPECTOS QUE HAY QUE CONOCER Además, existe mucha información respecto a los posibles ataques en Internet, para que estemos al tanto de los de- talles y no dejemos que suceda en nuestras cuentas. Algu- nos temas que debemos saber y que debemos evitar son:

1.Phishing: es un término informático que denomina un tipo de delito encuadrado dentro del ámbito de las estafas, y que se comete mediante el uso de un tipo de

ingeniería social caracterizado por intentar adquirir infor- mación confidencial de forma fraudulenta (como puede ser una contraseña o información detallada sobre tarje- tas de crédito u otra información bancaria). El estafador, conocido como phisher, se hace pasar por una persona

o empresa de confianza en una aparente comunicación

oficial electrónica, por lo común un correo electrónico, o algún sistema de mensajería instantánea o incluso utili- zando también llamadas telefónicas. 2.Pharming es la explotación de una vulnerabilidad en

el

software de los servidores DNS (Domain Name System)

o

en el de los equipos de los propios usuarios, que permite

a

un atacante redirigir un nombre de dominio (domain

name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de Inter- net a la página web que el atacante haya especificado para ese nombre de dominio. 3.Spoofing, en términos de seguridad de redes, hace referencia al uso de técnicas de suplantación de identidad, generalmente con usos maliciosos o de investigación. Ex- isten diferentes tipos de spoofing dependiendo de la tec- nología a la que nos refiramos, los cuales se describirán más adelante, como el IP spoofing (quizás el más cono- cido), ARP spoofing, DNS spoofing, Web spoofing o e-mail spoofing, aunque en general se puede englobar dentro de spoofing cualquier tecnología de red susceptible de sufrir suplantaciones de identidad.

*Fuente wikipedia

Ahora ya estás enterado. Si por alguna razón aún no tienes el servicio de Banca en Línea, ¿qué esperas para contratarlo? Puedes ocupar tu tiempo en cosas más im- portantes que hacer filas. Modernízate! ¿O quieres seguir viviendo en la antigüedad?

CONOCIMIENTO

TECNOLOGÍAS WEB

37

Implementación de la tecnología

TECNOLOGÍAS WEB 3 7 Implementación de la tecnología José Luis Ramos Martínez A l menos en

José Luis Ramos Martínez

A l menos en los últimos tres años mis clientes

me han estado solicitando con mayor frecuencia

el desarrollo de aplicaciones para el ambien-

te Web (Internet o Intranet). Las aplicaciones para Win- dows son cada vez menos requeridas; los departamentos de sistemas de las empresas han encontrado en este tipo de ambientes la facilidad de implementación, ya que los equipos PC cliente solamente requieren de un navegador Web instalado, con lo que se facilita lo que se conoce como deployment de la aplicación o sistema por implementar. Actualmente, más del 90 por ciento de las aplicaciones en que trabajo para mis clientes son para Web. Aquí encon-

tramos necesidades de aplicaciones ricas en interactividad (RIA, Rich Internet Applications), las cuales, programadas de la manera tradicional en Web, resultarían ineficientes

y propensas a saturar las redes de cómputo de las orga-

nizaciones. Es aquí donde aparece el AJAX, el cual vamos

a describir a continuación.

DEFINICIÓN DE AJAX AJAX, acrónimo de Asynchronous JavaScript And XML (Ja- vaScript asíncrono y XML), es una técnica para crear apli- caciones RIA basadas en ambiente Web, que se ejecutan para el cliente por medio del navegador, el cual man- tiene comunicación asíncrona con el servidor Web en un segundo plano (background). Esto permite realizar cam- bios sobre una página Web sin necesidad de recargarla, con lo que aumentan la velocidad e interactividad de la misma. El término AJAX fue creado en el año 2005, aunque la tec- nología en que está basado fue creada una década antes.

¿ES AJAX UNA NUEVA TECNOLOGÍA? Podemos pensar que AJAX es una nueva tecnología; sin

embargo, no lo es, más bien es la combinación de tres tec- nologías ya existentes desde hace tiempo:

1.XHTML (o HTML) y hojas de estilos en cascada (CSS) que utilizan el modelo DOM (Document Object Model) para

la

exhibición e interacción en forma dinámica. 2.Intercambio y manipulación de datos, aplicando XML

y

XSLT.

3.Recuperación de datos en forma asíncrona, usando el objeto XMLHttpRequest y Javascript.

MODELO CLÁSICO DE APLICACIONES WEB La mayoría de las aplicaciones Web “disparan” acciones del usuario en la interfaz; estas acciones hacen un re- querimiento HTTP al servidor Web, el cual ejecuta un pro- ceso como recopilar información, hacer cálculos, etcétera, y devuelve el resultado del proceso al cliente por medio de HTML. La figura 1 ilustra este modelo. Es importante observar que en cada petición de proc- esamiento hacia el servidor, toda la página Web es enviada al servidor, se ejecuta el procesamiento requerido, y el servidor envía toda la página Web al cliente en forma de HTML. Esto, en sistemas con mucha interacción del usua- rio, resulta en una total ineficiencia.

EL FUNCIONAMIENTO DE AJAX Una aplicación Web con implementación de AJAX elimina parte de la interacción en la Web entre el cliente y el servi- dor; esto se logra por medio de un motor AJAX (escrito en Javascript y usualmente accesado desde un frame oculto), el cual resulta ser una capa adicional encargada de contro- lar la interacción entre cliente y servidor. Las aplicaciones AJAX se ejecutan en el PC cliente, manipulando la página Web dentro del navegador por medio de DOM, teniendo la capacidad de procesar las peticiones al servidor y sus respuestas, sin necesidad de tener que recargar toda la página HTML cada vez que se realiza una acción o cambio en la interfaz. Generalmente, sólo se requiere enviar pequeñas peticiones al servidor

sólo se requiere enviar pequeñas peticiones al servidor Maestro José Luis Ramos Martínez Catedrático en FACPYA

Maestro José Luis Ramos Martínez Catedrático en FACPYA / UANL Consultor Independiente en desarrollo de software jramos@apysconsultoria. com.mx

Figura 1: El modelo clásico de aplicaciones Web (síncrono).
Figura 1: El modelo clásico de aplicaciones Web (síncrono).
Figura 1: El modelo clásico de aplicaciones Web (síncrono). Figura 2: Modelo de aplicaciones Web implementando

Figura 2: Modelo de aplicaciones Web implementando AJAX.

38

TECNOLOGÍAS WEB

CONOCIMIENTO

(búsqueda, eliminación, actualización de información en bases de datos), y se devuelven respuestas relativamente cortas. Esto permite el desarrollo de aplicaciones más efi- cientes, con interactividad ágil y mejores tiempos de res- puesta hacia el usuario. La figura 2 ilustra el modelo de aplicaciones Web implementando AJAX.

IMPLEMENTACIÓN DE AJAX En mi experiencia personal en el desarrollo de aplicacio- nes Web, principalmente desarrollando en ASP.NET, la implementación de AJAX la he realizado por medio de controles específicamente diseñados para AJAX. Esto me ha permitido ser productivo en los tiempos de desarrollo. Sin el uso de estos controles tendría que escribir “tonela- das” de código Javascript , despidiéndome con ello de la productividad tan importante para mis clientes. Existen numerosas opciones de controles para el de- sarrollo de aplicaciones Web ASP.NET. Por mencionar al-

gunas: TELERIK, INFRAGISTICS, MAGIC AJAX, ASP.NET AJAX, etcétera.

CONCLUSIONES Hoy en día, gracias al AJAX, cuyo modelo de desarrollo es relativamente simple, es posible desarrollar aplica- ciones para el Web con interactividad similar a la de aplicaciones Windows Cliente/Servidor. Desarrollar con AJAX ha sido determinante para mi empresa de desarrollo de software. Mis clientes operan aplicaciones en ambiente Web altamente eficientes, con gran interactividad, y dan la sensación de que se está trabajando con una aplicación Windows. Recomiendo ampliamente el desarrollo de aplicaciones AJAX por medio de controles de terceros. Con una inver- sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

inver- sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

CONOCIMIENTO

TECNOLOGÍAS WEB

39

Silverlight, nueva y versátil tecnología Web

José de León Rodríguez

S ilverlight es una nueva tecnología de presentación Web, creada para su ejecución en distintas platafor- mas. Hace posible un uso más completo, atractivo

visualmente e interactivo, y se puede ejecutar en todos los entornos: con exploradores y en múltiples dispositivos y sistemas operativos de escritorio (como en Macintosh de Apple). Además, para alcanzar a la mayoría de la comuni- dad Web, Silverlight necesita ejecutarse correctamente en diversos sistemas operativos conocidos y en los explora- dores más usados. Como resultado, la primera versión es compatible con los exploradores Firefox y Safari, que se ejecutan en Mac OS X, así como en Firefox y en Internet Explo- rer, Windows. A medida que evolucione el producto, se irán admitiendo más sistemas operativos y exploradores. Además de estas capacidades, Silverlight también es com- pletamente independiente de otros productos, tales como Windows Media Player para la reproducción de vídeo, y de Microsoft.NET Framework 3.0 para el análisis de XAML.

última generación, a partir de Microsoft .NET para Web. Silverlight ofrece un modelo de programación flexible con soporte para AJAX, Virtual Basic, C#, Python y Ruby, y se

integra con aplicaciones de Web antiguas. Silverlight pue- de ofrecer de forma rápida y rentable videos compatibles con todos los buscadores más conocidos. La arquitectura que admite la aplicación Silverlight se muestra en la figura. La interfaz de programación princi- pal es la API de JavaScript DOM. Esto permite responder

a eventos sucedidos dentro del XAML de Silverlight, por ejemplo, cuando el contenido ha terminado de cargarse

o cuando se completa una animación. También puede lla-

mar a métodos para manipular la presentación; por ejem- plo, al iniciar una animación o al detener la reproducción de vídeo. Debajo de esto se encuentra el motor de análisis de XAML. El analizador crea el DOM de XAML en memo- ria que el núcleo de presentación usará y que controla la representación de los gráficos y las animaciones definidos por XAML. Además, el tiempo de ejecución contiene los

DESARROLLO DE SIGUIENTE GENERACIÓN Silverlight es un componente clave en la estrategia de Mi- crosoft para el desarrollo Web de siguiente generación (Web.Next). Anteriormente se denominaba con el nom- bre en código “WPF/E”. Al igual que WPF (Win- dows Presentation Founda- tion), la tecnología de pre- sentación en Microsoft .NET Framework 3.0 (la infra- estructura de programación de Windows), XAML (eXten- sible Application Markup Language, lenguaje de mar- cado de aplicaciones exten- sible), constituye la base de la capacidad de presen- tación de Silverlight. Microsoft Silverlight es un plug-in compatible con va- rias plataformas y buscado- res que le pueden ayudar a crear aplicaciones multi- media interactividad y de

ayudar a crear aplicaciones multi- media interactividad y de Ingeniero José de León Rodríguez CECYTENL

Ingeniero José de León Rodríguez CECYTENL jjdeleon@prodigy .net.mx

40

TECNOLOGÍAS WEB

CONOCIMIENTO

códecs necesarios para la reproducción de contenido mul- timedia WMV, WMA y MP3.

COMPLEMENTO DE EXPLORADOR

Esencialmente, Silverlight es un complemento de explora- dor que representa XAML, y expone su modelo de objetos del documento (DOM - Document Object Model) interno y

el modelo de evento al explorador de manera traducible en

secuencias de comandos. Así, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones

y escalas de tiempo, y un desarrollador puede adjuntarlos

al código de una página para implementar la funcionali- dad. Dado que XAML se basa en XML, el documento que define la interfaz del usuario que se descarga al cliente se basa en texto y, por lo tanto, no da problemas a mo- tores de búsqueda ni firewalls. Además, XAML puede en- samblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experien- cia gráfica enriquecida, sino también una muy personali- zable y dinámica.

sino también una muy personali- zable y dinámica. Silverlight representa el paso siguiente en el desa-

Silverlight representa el paso siguiente en el desa- rrollo del potencial de riqueza en utilización que los de- sarrolladores y diseñadores de aplicaciones pueden pre- sentar a sus clientes. Esto se consigue permitiendo a los diseñadores expresar su creatividad y guardar su trabajo en un formato que funcione directamente en la Web. En el pasado, los diseñadores creaban un sitio Web y ofrecían una utilización a los usuarios a través de herramientas que proporcionaban resultados variados, pero el desarro- llador tenía que solventar las restricciones de la platafor- ma Web y era capaz de ofrecer tales resultados.

UTILIZACIÓN COMPLETA Y VARIADA En el modelo de Silverlight, los diseñadores pueden ge- nerar el tipo de utilización que desean para el usuario, y expresarlo como XAML. De esta forma, se puede trabajar más estrechamente que antes, con el fin de proporcionar una utilización completa y variada al usuario. Como XAML es XML; está basado en texto, lo cual pro- porciona una descripción de sus ricos contenidos, fácil de inspeccionar y totalmente compatible con los firewall. Aunque se pueden usar otras tecnologías —como subpro- gramas en Java, ActiveX y Flash— para implementar con- tenidos más ricos que DHTML, CSS y JavaScript, todas e- llas envían contenidos binarios al explorador. Esto resulta difícil de auditar, sin mencionar la dificultad de actuali- zación, ya que para cualquier cambio es necesario que la aplicación se vuelva a instalar, lo que no es tan fácil para el usuario y podría provocar estancamientos en las páginas. Cuando se usa Silverlight y es necesario realizar un cam- bio en el contenido enriquecido, se genera un nuevo ar- chivo XAML en el servidor. La próxima vez que el usuario vaya a la página, se descargará este XAML y se actualizará la experiencia sin ninguna reinstalación.

APLICACIONES DE SILVERLIGHT En el núcleo de Silverlight está el módulo de mejora del explorador que genera XAML y ofrece los gráficos resul- tantes en la superficie del explorador. Se trata de una descarga pequeña (menos de 2 MB), que se puede instalar cuando el usuario se encuentra con un sitio con contenido de Silverlight o bien se puede descargar de su Web:

http://www.microsoft.com/silverlight/

Para generar aplicaciones de Silverlight, tenemos las siguientes opciones:

Para desarrolladores:

•Microsoft Visual Studio 2008 •Microsoft ASP.NET

Para diseñadores:

•Expression Encoder •Expression Design •Expression Blend 2

Sitio creado con Silverlight:

http://www.tafiti.com/

CONOCIMIENTO

TECNOLOGÍAS WEB

41

C O N O C I M I E N T O TECNOLOGÍAS WEB 4 1

Para que Internet funcione…

La zanahoria por delante y el látigo por detrás

Alejandro Camino

“Ahora permítame explicarle el funcionamiento de nuestro servicio de banca en línea”, procedió la funcionaria de la sucursal bancaria en Nueva York, y continuó: “Al mes tiene usted derecho a sólo cinco cheques sin cargo por comisión, pero las transacciones en Internet son sin cargo alguno”. Sin más trámite que un depósito inicial, la firma de un solo contrato y una sesión de entrenamiento de diez minutos, ya estaba yo en condiciones de utilizar los ser- vicios de banca en línea de Citibank. Esto también expli- caba el porqué esa sucursal, situada en la esquina de No- vena Avenida y Calle 42, una de las zonas más populares de Nueva York, se encontraba prácticamente vacía a mitad del día de trabajo.

NO MÁS IDAS AL BANCO Era el principio del año 2003. Desde entonces realizo to- das mis actividades bancarias con esa institución; pago servicios, como luz, teléfono, cable; transfiero dinero a México; pago impuestos y nunca, desde aquel entonces, he tenido que poner un pie en una sucursal de banco. Todo lo realizo por Internet. Si acaso, he tenido que hablar por

lo realizo por Internet. Si acaso, he tenido que hablar por Alejandro Camino V. P. Marketing
lo realizo por Internet. Si acaso, he tenido que hablar por Alejandro Camino V. P. Marketing

Alejandro Camino V. P. Marketing y Comunicación / Softtek

42

TECNOLOGÍAS WEB

CONOCIMIENTO

teléfono unas tres o cuatro ocasiones para resolver algún problema, siempre de manera satisfactoria.

El 2 de abril de ese mismo año, el periódico Reforma

publicaba los resultados de la décima encuesta anual sobre consumo cultural y medios de comunicación. En ella se se- ñalaba que el 61 por ciento de los usuarios encuestados nunca realizaría una transacción bancaria en Internet.

A la distancia, hoy en día, la situación entre los usua-

rios de servicios bancarios en México pareciera no ser muy diferente. En un estudio publicado por la Asociación Mexi- cana de Internet (AMIPCI) en 2006, acerca de Banca por Internet en el país, se revela que del total de usuarios de la banca en México, sólo el 48 por ciento utiliza servicios en línea, la mayoría sólo para consultar saldos; apenas el 51 por ciento para pagar servicios, y un porcentaje aún menor lo usa para hacer transferencias. Llama la atención el hecho de que el mismo estudio señala que, entre los usuarios bancarios con acceso a In- ternet, el 81 por ciento indican que un factor de decisión al seleccionar un banco es que éste cuente con un buen servicio en línea.

SERVICIOS EN LÍNEA EXPEDITOS Por las funciones que desempeño, me veo en la necesi- dad de viajar frecuentemente. El tener acceso a servicios como expedia.com, travelocity.com y hotels.com, me fa- cilita enormemente el proceso de planeación de viajes. En cuestión de minutos puedo comparar horarios, precios y disponibilidad. Una vez tomada la decisión de adquirir un paquete, no me toma más de cinco minutos el completar la transacción con alguno de los servicios que menciono. No fue así mi experiencia hace un par de años, cuando decidí comprar un boleto en despegar.com, sitio especia- lizado en servicios de viaje en América Latina. En un prin- cipio, la experiencia parecía ser similar: comparé horarios, precios y me decidí por un itinerario para un viaje México- Nueva York. Completar la transacción me requirió media docena de correos electrónicos, tres llamadas de larga dis-

docena de correos electrónicos, tres llamadas de larga dis- tancia, dos faxes y 48 horas. Esto

tancia, dos faxes y 48 horas. Esto parecería que se limita

a la manera de hacer negocios de esta empresa en par-

ticular. Sin embargo, también soy usuario frecuente de los servicios de aeroméxico.com, donde no es una situación extraordinaria encontrarme que, una vez en el aeropuerto, en mostrador me digan que mi boleto comprado vía Inter-

net no ha sido pagado. La razón es que el sistema de cargo

a tarjeta de crédito de aeroméxico.com no opera en línea,

por lo que es muy común que, estando ya en mostrador, el agente tenga que llamar a la central de Houston o la Ciu- dad de México para solicitar el cargo vía telefónica.

CRECIENTE LA BRECHA DIGITAL Utilizo estos dos escenarios: el de mi experiencia como usuario de banca y servicios de viaje en línea, no para señalar las deficiencias de tal o cual empresa, sino para

ejemplificar las carencias que, desde mi óptica, existen en

la cultura de servicios en línea en América Latina en gene-

ral, y en México en particular; y el cómo se sientan las bases para que la brecha digital con los países desarro- llados se siga incrementando.

De acuerdo a un estudio de 2006 (Arbitron), ocho de cada diez estadounidenses tienen acceso a Internet, y el 52 por ciento de ellos han realizado compras en línea, mientras que en México sólo el 25.6 por ciento de la po- blación tiene acceso a Internet y, entre éstos, sólo el 14 por ciento realiza actividades de comercio electrónico, aun cuando más de la mitad considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua- rios de Internet, AMIPCI 2007).

considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua- rios de Internet, AMIPCI

CONOCIMIENTO

TECNOLOGÍAS WEB

43

C O N O C I M I E N T O TECNOLOGÍAS WEB 4 3

Entonces, ¿cuáles son las razones por las que México no avanza más rápidamente en la adopción de Internet? Entre las respuestas más socorridas, están dos: la falta de conectividad y la falta de confianza del usuario hacia los servicios de comercio y banca electrónica por razones de seguridad. Con respecto a la primera: conectividad, aún hay mucho camino por recorrer, pues la penetración de Inter- net en zonas urbanas es de apenas el 36 por ciento, de modo que hay mucho por conquistar en zonas que cuen- tan con una robusta infraestructura de fibra óptica y tec- nologías inalámbricas. Más bien son otras las razones que frenan la penetración. Ahora bien, la segunda razón, la de la confianza, es quizá el problema más importante por atacar, ya que, al resolverlo, se podría detonar la demanda de manera importante. La llave para que esto suceda está del lado de las grandes corporaciones en México, los bancos, las em- presas de comercio detallista, las empresas de servicios y los medios de comunicación.

TRANSACCIONES MÁS ECONÓMICAS Retomando el ejemplo de Banco por Internet, está com- probado que los costos de transacción son mucho más económicos por el canal de Internet que por canales tradi- cionales como una sucursal o vía telefónica. Por ejemplo, de acuerdo a un estudio publicado por Giga Information Group en 2005, resolver una consulta a través de una se- sión interactiva de Internet (vía chat) cuesta al banco la mitad que el hacerlo por teléfono. Más aún, si se atiende

mediante un sistema de autoservicio, el costo se reduce hasta un 20 por ciento. Sin embargo, la realidad es que muchas de las aclaraciones en México se tienen que re- solver en sucursal, con un costo para el banco mucho más alto aún que el teléfono. Ahora bien, quizá el razonamiento del banco para no invertir en robustecer su canal de Internet tiene que ver con que sólo alcanzaría a un 12 ó 13 por ciento de la población (si consideramos que menos de la mitad de los usuarios de Internet en México realizan transacciones ban- carias), por lo que la institución podría preferir focalizarse al grueso de sus clientes. ¿Cómo romper ese círculo vicioso? Alguien tiene que dar el primer paso, orientado a generar confianza entre los usuarios potenciales. Las corporaciones tienen mucho por ganar al adoptar mejores prácticas e integrar mejor su canal de Internet, al tiempo que cuidan más a los clientes que adoptan este medio. Entre los beneficios se cuentan:

reducción de costos, incremento en la satisfacción del cliente, y reducción en el tiempo de introducción de pro- ductos en el mercado. Al hacerlo, además, contribuirían a una adopción más rápida de tecnologías de información en México y a cerrar la brecha digital.

¿Cómo hacerlo? Estableciendo los incentivos adecua- dos, como lo hizo mi ejecutivo de cuenta en la historia que compartí al principio; quien me hizo ver claramente por un lado que el no usar la tecnología me costaría más que sí hacerlo y, por otro lado, me capacitó adecuadamente. La zanahoria por delante y el látigo por detrás.

44

TECNOLOGÍAS WEB

CONOCIMIENTO

44 TECNOLOGÍAS WEB CONOCIMIENTO Más allá de los buscadores en Internet Ramón Brena Doctor Ramón Brena

Más allá de los buscadores en Internet

Ramón Brena

Más allá de los buscadores en Internet Ramón Brena Doctor Ramón Brena Profesor Titular Centro de

Doctor Ramón Brena Profesor Titular Centro de Sistemas

Inteligentes, Tecnológico de Monterrey Director de la Cátedra de Investigación en Conocimiento Distribuido y Agentes Inteligentes ramon.brena@itesm.

D ado el enorme tamaño del Internet, sería imposible encontrar páginas relevantes sin los “buscadores” de Internet, que se han vuelto artículo de primera

necesidad en el uso de la computadora. Sin embargo, los buscadores, basados todos en el uso de palabras clave, no manejan adecuadamente aspectos finos, tales como la exis- tencia de sinónimos, ni son capaces de entender de lo que se tratan las páginas web, por lo que los resultados reci- bidos por los usuarios incluyen mucha “basura”. En este artículo revisamos formas de superar estas deficiencias.

INTRODUCCIÓN Internet es reconocido como una de las grandes revolu- ciones tecnológicas de nuestro tiempo; desde su origen en marzo de 1989, el Internet, o “web” en inglés, o WWW por “World Wide Web”, ha crecido exponencialmente, al- canzando algo así como 109 millones de sitios web 1 [1] con al menos 20 miles de millones de páginas indexadas

mx por los principales “buscadores” de Internet.

Dada esta enorme cantidad de documentos en Inter- net, no sería posible que los usuarios “conocieran” poco a poco o encontraran, así fuera tras horas de navegación en web, las páginas relevantes para lo que les interesa, si no fuera por la existencia de esas maravillas conocidas como “buscadores” de Internet. Con el liderazgo pro- nunciado de Google, compañía creada por estudiantes de Stanford, dirigidos en un tiempo por el investigador de origen mexicano Héctor García Molina, la tecnología de los buscadores de Internet se ha consolidado. Otros buscado- res, como Yahoo, Microsoft Live, así como otras compa- ñías, tratan de alcanzar al líder Google, pero en general sin proponer tecnologías radicalmente distintas.

Hay que subrayar la excelencia tecnológica de los ac- tuales buscadores de Internet, que a pesar del crecimien- to explosivo de la cantidad de páginas existentes, llevan muchos años sin incrementar el tiempo en que realizan una búsqueda.

CONOCIMIENTO

TECNOLOGÍAS WEB

45

La WWW se ha vuelto parte integral de la vida de mil- lones de personas, y no solamente en los países más desarrollados, sino también en América Latina, donde la acción de hacer una búsqueda en Google es costumbre co- tidiana en el trabajo o en las ocupaciones personales. Tan acostumbrados estamos, que no nos damos cuenta de las limitaciones de dichas búsquedas. Por ejemplo, si recurrimos a Web “bass” para buscar bajos eléctricos, en la página de resultados de Google vie- nen páginas sobre pesca, sobre zapatos, sobre cerveza, y sobre bajos. El problema aquí es que “bass” quiere decir muchas cosas, y Google no entiende a qué nos estamos refiriendo. Hasta se nos hace “natural” que Google no en- tienda, y nos contentamos con espulgar los resultados a- rrojados por Google hasta finalmente (a veces tras varias modificaciones a las consultas) llegar a un resultado que nos sirva. Pero, ¿podría un buscador “entender” lo que le esta- mos preguntando?

MÁS ALLÁ DE LOS BUSCADORES ACTUALES Las páginas Web son codificadas utilizando un lenguaje especial llamado “HTML” (HyperText Markup Language, [2]), que tiene comandos llamados “tags” para indicar la forma en que la información debe presentarse al usuario que la consulta. El web semántico.- El problema de fondo con las pági- nas de Internet actuales es que su lenguaje, el HTML, está hecho para presentar información a un usuario humano, no para explicar a otro programa computacional de qué está hablando. Cuando el Internet fue inventado, la necesi- dad de que una máquina comprendiera la información de una página no era vista como algo importante, tal vez ni siquiera como algo posible. Sin embargo, las cosas han cambiado en los últimos años. Por primera vez en la historia de la humanidad, la información ha pasado de ser escasa a ser abundante, y esta abundancia se ha convertido en un problema, pues la información inunda a los usuarios en la forma de bu- zones de correo electrónico, llenos de multitud de pági- nas Web generalmente irrelevantes, etcétera. Ahora bien, ¿cómo sería posible que un documento fuera comprensible para un programa computacional? En primer lugar, existe la posibilidad de mejorar la forma en que los documentos describen su información. El mismo inventor del WWW (Sir Tim Berners-Lee) propuso hacer documentos web “autodescribibles”, que tuvieran su información codificada de forma tal que pudieran ser comprensibles para programas computacionales, y a esto se le llamó “Web semántico” [4]. En palabras del mismo Sir Tim Berners-Lee:

Tengo un sueño para el web, en el cual las computado- ras se vuelven capaces de analizar todos los datos en el web –el contenido, las ligas y las transacciones entre personas y computadoras. Un web semántico, que haría esto posible, aún está por surgir, pero cuando lo haga, los mecanismos para el intercambio día a día, la burocracia, y nuestras vidas diarias serán manejadas por máquinas hablando a máquinas.

Timothy John Berners-Lee Timothy “Tim” John Berners-Lee, OM, KBE (TimBL o TBL) nació el 8

Timothy John Berners-Lee

Timothy “Tim” John Berners-Lee, OM, KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció

en Física en 1976 en el Queen’s College de

la Universidad de Oxford. Es considerado

como el padre de la Web. Básicamente, Tim, ante la necesidad de distribuir e intercam-

biar información acerca de sus investigacio- nes de una manera más efectiva, desarrolló las ideas que forman parte de la Web. Tim

y su grupo desarrollaron lo que por sus

siglas en inglés se denominan: Lenguaje HTML (HyperText Markup Language) o lenguaje de etíquetas de hipertex- to; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de local- ización de objetos en la web URL (Universal Resource Locator). Muchas de las ideas plasmadas por Berners-Lee podemos encontrarlas en el proyecto Xanadu que propuso Ted Nelson y el memex de Vannevar Bush.

Desde luego, a muchos lectores les erizará la piel la frase “nuestras vidas diarias serán manejadas por máqui- nas hablando a máquinas”, pero no vamos a discutir este aspecto aquí.

TECNOLOGÍAS ‘HABILITADORAS’ Para alcanzar estos sueños, se ha desarrollado una serie de tecnologías llamadas “habilitadoras”, tales, como XML, RDF, OWL y otras. XML [5] es un lenguaje parecido al HTML del web actual, pero extensible, para poder añadir “tags” especiales de acuerdo con la aplicación. Otras tecnologías de apoyo a XML son XML Schema, DTD, XML Namespaces, XSL/XSLT, CSS, XLink, XQuery, y muchas otras, en tal can-

tidad que se hace difícil estar al corriente de todas ellas. Han sido propuestos conjuntos de etiquetas específi- camente para representar información del Web semántico,

y el conjunto más importante es el estándar RDF (Resource

Description Framework [6]). Creado en 1999 por la asocia- ción global W3C, RDF permite definir propiedades de re- cursos en Web, afirmaciones sobre estas propiedades, así como clases de objetos, con subclases e incluso herencia de propiedades a las subclases. Las declaraciones de RDF tienen la forma de tripletas formadas por un recurso, una propiedad, y el valor de dicha propiedad. Por ejemplo, para decir que el cielo es azul, hacemos una declaración en que el recurso es el cie-

lo, la propiedad es el color, y el valor es el azul. Es fácil ver que esta estructura corresponde a la triada sujeto – verbo

– complemento del idioma español (y del inglés y muchas

otras lenguas); por esto la expresión de afirmaciones en RDF es muy natural. Actualmente ya existen una serie de aplicaciones de RDF en sistemas computacionales, tales como FOAF, SIOC, MusicBrainz y otros. Sin embargo, tal

46

TECNOLOGÍAS WEB

CONOCIMIENTO

vez la más importante aplicación actual de RDF es como base de otras tecnologías del web semántico, tales como OWL. El Web Ontology Language, abreviado curiosamente como “OWL”, es un lenguaje creado encima de RDF para hacer conjuntos de declaraciones sobre clases, propie- dades e instancias conocidas como “ontologías”. OWL es visto como una de las piezas clave en la realización del web semántico; permite la expresión de propiedades a un nivel conceptual más elevado que RDF, y se considera ade- cuado como lenguaje de representación de conocimiento. Como está basado en RDF, los documentos de OWL son de hecho código en RDF. También se ha definido un estándar de interrogación para el web semántico, llamado SPARQL, con el que en principio se puede utilizar el Internet como una enorme base de datos y conocimientos que se puede interrogar. Existen algunas ontologías en OWL disponibles públi- camente, como por ejemplo en biomedicina [7]. Hay in- cluso un buscador de Internet (Swoogle) especializado en buscar documentos en RDF y OWL.

POTENCIAL DEL WEB SEMÁNTICO El conjunto de tecnologías del web semántico es sin duda un desarrollo impresionante, pero cabe preguntarse cuál es en realidad su potencial en un futuro inmediato, en par- ticular para las búsquedas de Internet. Desde luego, para poder realizar búsquedas enriquecidas con información semántica, haría falta que las páginas buscadas contuvie- ran anotaciones en RDF o equivalente. Sin embargo, actual- mente menos del uno por ciento de las páginas de Internet tienen contenido en RDF, y esto no cambiará en un futuro próximo. Concluimos que, como opción para búsqueda enriquecida con capacidades semánticas, la propuesta del RDF es básicamente irrelevante. Sin embargo, existen otras opciones, además del web semántico de Sir Tim Berners-Lee, para tomar en cuenta el significado de las páginas de Internet en las búsquedas, y dentro de ellas consideraremos en particular las propues- tas de semántica cuantitativa.

LA SEMÁNTICA CUANTITATIVA Aun cuando la información en Internet dista mucho de ser confiable, la
LA SEMÁNTICA CUANTITATIVA
Aun cuando la información en Internet
dista mucho de ser confiable, la
enorme cantidad de páginas
existentes (ver datos al
inicio de este artí-
culo) hacen
que, es-

tadísticamente hablando, la información de Internet sea confiable. Por ejemplo, si tratamos de saber si en inglés la forma usual de decir “vaso de agua” es “glass with water” o bien “glass of water”, lo que podemos hacer es realizar con cada una de estas dos opciones una consulta en un busca- dor. En particular, la primera opción entrega en Google unas 60,000 páginas, lo que es comparativamente poco, pues la segunda opción tiene ¡más de cuatro millones de páginas! Así, concluimos que la forma usual es “glass of water”. El punto aquí no es proponer una forma de corregir nuestro uso del inglés (aunque de hecho sí es buena idea hacerlo), sino poner de manifiesto el hecho de que unos cuantos erro- res en Internet son fácilmente corregidos por un to- rrente de datos correctos. El aprovechamiento del enorme tamaño del Internet para medir estadísticamente el uso de las palabras en los distintos temas, áreas o tópicos puede ser llamado “semántica cuantitativa”, pues usa números para medir proximidad o lejanía de los temas existentes en Internet. 2 Una idea, explorada hoy en día por muchos investi- gadores, es la de medir qué tan próxima es una página Web dada con respecto a un conjunto de referencias. Estas referencias pueden ser, por ejemplo, tópicos o temas ya establecidos con anterioridad. Por ejemplo, diríamos que cierta página web se relaciona en 0.7 con el tema de la música, y en 0.3 con el tema de la comida. Tan sólo ubicar el tema de cada documento en web es extremadamente interesante y útil. Por ejemplo, consi- deremos el problema de hacer búsquedas en Internet con ayuda de buscadores. Aunque los buscadores son, desde luego, de extrema utilidad y forman parte de las vidas co- tidianas de millones de personas, también tienen grandes limitaciones (como comentamos en la introducción a este artículo), y nos obligan a “espulgar” manualmente los re- sultados que arrojan, muchas veces infructuosamente, para eventualmente encontrar lo que realmente quere- mos.

Por ejemplo, la interrogación palm pictures (sin comi- llas), arroja en Google resultados sobre muchos temas, tales como música, palmeras, fotos de dispositivos de cómputo portátiles, software para ver fotos en tales dis- positivos, playas en California, y muchos otros temas. El usuario tiene que recorrer manualmente muchas pá- ginas de resultados, o bien refinar su búsqueda, para llegar a la información que quiere. Para refinar una búsqueda, hay dos enfoques posibles (que pueden ser combinados): aumentar palabras o suprimir palabras. Su- pongamos que el usuario quiere fotos del dispositivo de cómputo móvil, y que empieza eliminando las referencias a música o a palmeras, con la interrogación “palm pictures –music –plant” (sin comillas). Aun así se cuelan páginas que tratan sobre palmeras, pero que usan el término “tree” en vez de “plant”. En resumidas cuentas, el usuario tiene que torcer repetidamente su interrogación, o bien asumir el penoso proceso de espulgar manualmente los resulta- dos. Ambas alternativas requieren mucho esfuerzo, pero tal es el estado actual de los buscadores. Imaginemos aho- ra que un buscador le dice al usuario: “Encontré páginas

CONOCIMIENTO

TECNOLOGÍAS WEB

47

de los siguientes temas: Palmeras, Música, Dispositivos de cómputo móvil, Playas. ¿Cuál de ellos le interesa?” Desde luego, esto ahorraría al usuario muchos dolores de cabeza. Pero, ¿es esto posible? La res-puesta es afirmativa, y una solución viable radica en el uso de los métodos de semán- tica cuantitativa. 3 Hay dos problemas que han recibido soluciones más o menos satisfactorias por los métodos de semántica cuan- titativa:

1.- Detectar los temas existentes en un corpus de documentos. 2.- Medir la relevancia de un conjunto de temas pre- existentes con respecto a un documento o interrogación en particular. De hecho el segundo problema es más simple y ha sido atacado por muchos métodos. Por ejemplo, uno de

los más sencillos (Clasitex [8]) tiene una base hecha previa- mente por humanos, que asocia a cada palabra del idioma qué tanto tiene que ver con cada uno de los temas que se consideran importantes. Claro que esto es muchísimo trabajo, pero sólo se hace una vez, y ya terminada esta base, es muy fácil medir la pertenencia de un documento

a cada tema: simplemente, para cada una de las palabras

que lo componen, se calcula numéricamente su contribu- ción a la relevancia de cada tema, y así hasta terminar las palabras del documento. Al final se comparan los totales de cada tema, y se puede saber cuáles fueron los temas más relevantes.

TEMAS Y TÉRMINOS Otro enfoque parecido, el de la “atribución latente de Dirichlet” [10], considera que cada documento es una “mezcla” de unos pocos temas, y cada uno de ellos con- tribuye con su composición de palabras a la composición del documento considerado. Por ejemplo, si un documento pertenece principalmente a los temas de música y cocina, van a abundar los términos de cada uno de estos dos tópi-

cos, tales como melodía, ritmo, cocción, aceite, etcétera, pero claro que los términos de música no serán tan abun- dantes como si la página fuera únicamente de música. Para un documento en particular, se trata de encontrar la mezcla de documentos que lo componen, por lo que vemos que en intención es similar a Clasitex.

El problema de encontrar en primer lugar los tópicos exis-

tentes es más complejo, y existen básicamente dos en- foques: uno basado en el conocimiento, y el otro basado en algoritmos automáticos. En el primero encontramos a Clasitex y otros enfoques similares, que reposan en el trabajo humano, mientras que en el segundo están traba- jos como los Contextos Semánticos [11], proyecto en el que trabaja el autor de este artículo. Los enfoques basados en el trabajo humano tienen, aparte de la desventaja de

requerir muchísimo trabajo, el problema de no adaptarse fácilmente a distintas colecciones de documentos. Imagine el lector, por ejemplo, que necesitamos obte- ner los temas de los documentos en un repositorio de una empresa en particular; aquí, los temas generales calcula- dos para cualquier documento no serán necesariamente los más relevantes. En consecuencia, es mucho más pro-

Referencias

1 Netcraft, February Netcraft web server survey, 2007.

2 XHTML2 Working Group Home Page, http://www.w3.org/MarkUp/

3 F. Horibe, Managing Knowledge Workers: New Skills and Attitudes to Unlock the Intellectual Capital in Your Organization, John Wiley and Sons, 1999.

4 Tim Berners-Lee, J. Hendler and O. Lassila, The Semantic Web, Scientific

American Magazine, Mayo 2001.

5 T. Bray y otros, Extensible Markup Language (XML) 1.0, W3C Recommendation,

2000.

6 O. Lassila y otros, Resource Description Framework (RDF) Model and Syntax Specification, World Wide Web Consortium W3C, 1999.

7 B. Smith y otros, The OBO Foundry: Coordinated evolution of ontologies to support biomedical data integration, NATURE BIOTECHNOLOGY, v25, n.11, 2007.

8 J. Trinidad y otros, A Tool for Knowledge Discovery from Texts, Lecture Notes in Artificial Intelligence (1510). In Proc. of the PKDD-98, 1998.

9 R. Brena, E. Ramirez, Semantic-Context Guided Internet Search, International Conference on WEB TECHNOLOGIES, APPLICATIONS, AND SERVICES (WTAS 2006), Alberta, Canada, 2006.

10 D. Blei y otros, Latent Dirichlet allocation, Journal of Machine Learning Research

v.3 n.5, 2003.

11 E. Ramirez, R. Brena, Semantically Mapping the Web, Research on Computer

Science, Vol 27, Número especial “Advances in Computer Science and Engineering, Proceedings from the 8th Conference on Computing (CORE 07)”, 2007.

12 M. Blaschka y otros, BabelFish Project Report, Internal Report, FORWISS,

Munich, Alemania, Enero 2000.

13 A. Linden, J. Fenn, Understanding Gartner’s Hype Cycles, Gartner Group, 2003.

metedor el enfoque automático, aunque también requiere vencer varios retos técnicos para ser verdaderamente útil. En primer lugar, está el problema de la eficiencia com- putacional. Dados los enormes números de documentos en Internet, pensar en hacer un catálogo de cada uno de ellos 4 que además tenga la información semántica, es una tarea verdaderamente retadora; tan sólo hacer los catálo- gos como los que hace Google es toda una proeza tec- nológica: a pesar del explosivo crecimiento del Internet, los tiempos de búsqueda de Google no se han incremen- tado por años y años. Hacer esto mismo, pero ahora con la semántica cuantitativa, requerirá otra proeza al menos de similares proporciones.

CONCLUSIONES El Web con capacidades semánticas es, sin lugar a du- das, el futuro del Internet. Sin embargo, esta visión, en todo su potencial, no está a la vuelta de la esquina. Mu- chas veces los proponentes de una nueva tecnología exa- geran las promesas para llamar la atención, pero frecuen- temente el entusiasmo inicial es seguido de una etapa de desilusión, según han establecido los “ciclos” de la em- presa consultora Gartner [13]. Algunas tecnologías, tras un fuerte descenso en las expectativas, llegan a una etapa de estabilidad, en la que entregan al menos algunas de sus promesas. Pensamos que en unos años, pero no dos o tres, será el caso del web semántico, con el apoyo de la semántica cuantitativa.

1 Un sitio web es un conjunto de páginas interrelacionadas que en general son atendidas por una misma computadora que funge como “servidor”, a la que se conectan los “clientes”; por ejemplo, mi sitio web tiene la dirección http://homepages.mty.itesm.mx/

rbrena, pero hay varias páginas en ese sitio, además de la página inicial.

2 El término “semántica cuantitativa” no es estándar en la literatura, pero nos parece bastante adecuado.

3 En el presente artículo no veremos el detalle de los métodos para hacer esto; remitimos al lector a referencias como [9].

4 A estos catálogos de documentos, ordenados por palabra clave, se les llama “índices”.

48

TECNOLOGÍAS WEB

CONOCIMIENTO

48 TECNOLOGÍAS WEB CONOCIMIENTO Ingeniera Claudia Ordaz Catedrática del Departamento de Comunicación / ITESM

Ingeniera Claudia Ordaz Catedrática del Departamento de Comunicación / ITESM cordaz@itesm.mx

Invasores en la Red

Claudia Ordaz

E stoy asustada. Por mi computadora deambula a sus anchas un “hacker”. ¿Qué son los “hackers”? Por lo general son una legión de jóvenes que no han de te-

ner otra meta en la vida que la de dedicar su valioso tiem-

po a surfear por la Internet y entrar en cuanta base de da- tos encuentran en su camino, y cuyo gran desafío es poder accesar a cuanta computadora esté protegida, ya sea la de

y sigo preguntándome: “¿Por

su vecino, la del Pentágono qué a la mía?”.

Hace poco, unos piratas informáticos entraron a la pá- gina Web del gobierno sueco, donde borraron información oficial e insertaron una serie de fotos pornográficas, según informó el periódico Aftonbladet , de Estocolmo. También otros piratas de la Red lograron entrar a un sitio de In- ternet del grupo militante musulmán Hamas y lograron redireccionar a los internautas que trataron de visitarlo, a una Web pornográfica.

ANARQUISTAS CIBERNÉTICOS Imagínese: muchachos y muchachas de todo el mundo que dedican horas y trabajo mental a descubrir códigos secretos, claves de acceso y sistemas de encriptamiento de información para acceder a los datos y curiosear. ¿Qué? ¡Quién sabe! Son, como los llamo: unos anarquistas ciber- néticos, usurpadores, voyeuristas a quienes les causa placer asomarse a vidas ajenas o, si se les pega la gana, depositarnos un virus. Travesuras de alto costo.

Claro que es de asustarse. Invaden tu intimidad, y te pueden borrar de un tirón información en la que has tra- bajado por años. Pero lo más angustiante es cuando abres el correo electrónico y lo encuentras infestado de sitios pornográficos. Y son tantos y tantos los correos del traba- jo o de las amistades devueltos a sus remitentes, porque la cuenta se encuentra saturada.

LUGAR NADA HONROSO México ocupa el octavo lugar como país utilizado por los hackers para atacar sitios de Internet, según Hervert Hurtado, director general de Tráfico y Contrabando de la Policía Federal Preventiva. Nuestro país es un blanco per-

CONOCIMIENTO

TECNOLOGÍAS WEB

49

fecto para los proxenetas y terroristas que surcan con osadía el ciberespacio. En la red, basta con teclear una dirección o escribir la palabra “sexo” y cientos de páginas sobre este rubro se despliegan a la velocidad de la luz.

La Internet es una revolucionaria herramienta de esta era tecnológica y de la globalización, y uno de sus mayo- res atractivos es que es abierta, por lo cual no tiene res- tricciones. Esto permite la libertad de darle un uso ya sea positivo o negativo. Existen investigaciones que han arro- jado los siguientes resultados: se ha encontrado que los sitios que más visitas reciben en la Internet son los de sexo y de pornografía. Una reciente encuesta realizada en cibercafés en San Pedro Sula, Honduras, señaló que, de cada diez accesos, siete son a sitios donde se ofrece sexo y pornografía.

ALERTA A PATERFAMILIAS ¡Estén alertas! Sobre todo los padres de familia, ya que es natural pensar que la internet es una herramienta que facilita las tareas de sus hijos, lo cual es cierto. Pero hay “hackers”, esos cibernautas traviesos que se infiltran en- sus cuentas de correo para llenarlas de páginas porno. Según el New York Times, más de mil hackers alrededor del mundo invaden la seguridad de las computadoras para estos fines. Los hackers no eligen cualquier com- putadora, sino aquéllas con conexión de alta velocidad a Internet, para luego irlas cargando con software que les permita mandar websites con pornografía explícita.

que les permita mandar websites con pornografía explícita. La única manera de prevenir esto es una

La única manera de prevenir esto es una completa

y abierta comunicación con los hijos, porque lo triste

del asunto es que los adolescentes ya no tienen que ir

a la tiendita de la esquina a comprar la revista o a la

casa del amiguito precoz, que siempre los hay; sino que la pornografía está ahí, a la mano, en la pantalla de su computadora, con sólo presionar un botón y darle “clic” a la página que aparece ante la pila de correos recibidos.

Otra solución, tecnológica ésta, es la de proteger sus computadoras usando el famoso firewall ; que evita la entrada de los hackers . El NYT cita a un experto en hackers , Stewart, que lleva ya años trabajando en com- pañías y que está desarrollando un programa llamado “migmaf” o “mafia migrante”, en el que colabora de manera conjunta con compañías para desarrollar de- fensas antivirus en contra de hackers , específicamente aquéllos que depositan direcciones pornográficas.

Y nosotros, ¿qué hemos hecho al respecto? ¿O qué podemos hacer? ¿Qué ha hecho nuestro país con res- pecto a dichas acciones que impactan en los campos sociológico, económico, político? Estamos hablando de una invasión a la privacidad y, sinceramente, el nue- vo orden social y económico en el que vivimos, este mundo globalizado que nos alberga, hace que la tarea resulte aún más difícil.

Policía Cibernética

Se encarga de la Identificación y desarticulación de organizaciones dedicadas al robo, lenocinio, tráfico y corrupción de menores, así como a la elaboración, distribución y promoción de pornografía infantil, por cualquier medio.

Analiza y desarrolla investigaciones de campo sobre actividades de organizaciones locales e internacionales de pedofília, así como de redes de prostitución infantil.

Localiza y pone a disposición ante autoridades ministeriales a personas dedicadas a cometer delitos utilizando computadoras.

Realiza operaciones de patrullaje anti-hacker, utilizando Internet como un instrumento para detectar a delincuentes que cometen fraudes, intrusiones y organizan sus actividades delictivas en la red.

Con el objeto de dar a conocer medidas preventivas para navegar por Internet con mayor seguridad, la Dirección de la Policía Cibernética y Delitos Contra Menores, ofrecen pláticas y conferencias a instituciones públicas y privadas que así lo soliciten.

Para mayor información accesa a la siguiente página de Internet:

http://www.ssp.gob.mx/portalWebApp/appmanager/pcibernetica/desk?_

nfpb=true&_pageLabel=pcibernetica_page_2&nodo=99421&pbname=,pc_DC_Me

xico&displayPage=pcibernetica_page_

CONOCIMIENTO 50 TECNOLOGÍAS WEB
CONOCIMIENTO
50 TECNOLOGÍAS WEB

Fiesta en el Salón Tropicana, de La Habana, tal como está modelado en el mundo virtual de Second Life (http://www.secondlife.com). Las figuras humanas son avatares, cada uno controlado por alguna persona real en algún lugar del mundo. Los avatares pueden comunicarse unos con otros en forma oral o escrita. Second Life cuenta con varios millones de miembros.

Computación social

cuenta con varios millones de miembros. Computación social Doctor José I. Icaza Director del Centro de

Doctor José I. Icaza Director del Centro de Investigación en Tecnología Educativa / ITESM http://copernico.mty .itesm,mx

José I. Icaza

M ucha gente piensa en el internet como un enorme

repositorio de páginas para obtener información

de diversos tipos. Sin embargo, desde sus inicios

el internet ha sido también un medio social, y lo es cada vez más, hasta tal punto que ha surgido ya un área de investigación denominada social computing (computación social) que estudia la intersección del comportamiento so- cial y los sistemas computacionales. El internet surge en 1969 a partir de una iniciativa del Departamento de la Defensa de los Estados Unidos, para facilitar el flujo de información entre investigadores por medio del intercambio de archivos y poco después por

medio del correo electrónico, la primera aplicación con un fuerte impacto social. En 1980 se incorporan al internet los foros de discusión sobre diversos tópicos, otra apli-

cación que permite socializar a distancia. Aunque estos fo- ros ya existían para redes locales de computadoras, cuan- do se incorporan al internet logran una expansión mun- dial, y alcanzan un incremento exponencial en la cantidad de información que se intercambia, desde 4.5 GB en 1995 hasta 3.7 Terabytes en abril de 2007 [1]. Y todo esto ocu- rrió antes de que se inventara la World Wide Web en

1990.

MUNDOS VIRTUALES Aunque las primeras aplicaciones de la WWW se referían

a buscar y consultar páginas de información, nuestra in-

saciable tendencia a la socialización pronto se apoderó también de “la web”. Hoy en día existen ya decenas de aplicaciones con un enfoque social; entre otras la men- sajería instantánea, los wikis (sitios donde varias per- sonas colaboran en la elaboración de documentos en línea), los sitios para subir perfiles personales y formar redes de amigos (social network sites como Facebook [2]), los blogs (diarios públicos en línea –hay ya unos 112 mi- llones de blogs); y los lugares para intercambiar comen- tarios sobre fotografías, libros, productos, videos, noticias etcétera. Y, por supuesto, hay muchos sitios para hacer ci- tas amorosas con otros internautas. Toda esta interacción social comienza a ocurrir en ambientes tri-dimensionales como los videojuegos y otros mundos virtuales en donde pueden interactuar simultáneamente varias personas de todo el mundo. Aplicaciones y ambientes sociales del “espacio real”

como la telefonía, las fiestas y las conferencias se trasladan

a los espacios virtuales, y se transforman en telefonía y

CONOCIMIENTO

TECNOLOGÍAS WEB

51

videoconferencias por internet y en reuniones sociales en mundos virtuales; y en el otro sentido, aplicaciones de internet apoyan la vida social real, como el sitio llamado Meetup [3] que se utiliza para planear por internet reunio- nes presenciales. Se comienza a hablar de Mixed Reality, un término que incluye todas las aplicaciones que com- binan elementos virtuales y reales.

CONOCIMIENTO Y DEMOCRATIZACIÓN

¿Cuál es el impacto de toda esta socialización virtual en la generación de conocimiento? Pues ésta se hace democráti- ca en varios sentidos: primero, al facilitar que cualquier persona con acceso a internet genere conocimiento; se- gundo, al facilitar que el conocimiento más valioso para la comunidad se haga más conocido por medio de los siste- mas de recomendaciones y de votaciones sobre produc- tos, servicios y las mismas recomendaciones; y tercero, al facilitar que grupos de personas generen conocimiento en forma colaborativa, como sucede en la famosa enciclope- dia gratuita, la Wikipedia. A veces, las votaciones por los conocimientos más valio- sos son calculadas en forma transparente por la propia tecnología. Por ejemplo, considerando que cada liga a una página o cada cita a un artículo científico es una especie de voto a favor de la página o artículo correspondiente, los motores de búsqueda cuentan estos votos para deter- minar cuáles sitios o artículos son los más relevantes para

la comunidad.

IMPACTO SOCIOECONÓMICO Hablemos ahora del impacto social y económico de las aplicaciones sociales, por ejemplo entre los jóvenes. No cabe duda que la juventud de hoy se mueve con gran facilidad entre el mundo virtual y el mundo real. danah boyd, quien se ha dedicado a entrevistar a jóvenes de todo Estados Unidos para investigar su uso de la tecnología so- cial, relata cómo una típica joven norteamericana adquiere su ropa hoy en día [4]:

Utilizando Google y una variedad de sitios para com- pras en línea, Mary investiga qué estilos le gustan y qué está de moda. Enseguida va con sus amigas al Mall con su

cámara digital. Se prueban los vestidos y se sacan fotos. Re- gresando a casa, Mary sube sus fotos a Facebook y les pre- gunta a sus amigos y amigas virtuales cuál les gusta más. Entonces toma una decisión y en lugar de regresar al Mall, busca y compra el mismo vestido en línea, más barato, uti- lizando el nombre del fabricante y el número de producto que anotó cuando estaba en la tienda. El impacto social de la tecnología es modulado por los programadores que desarrollan aplicaciones sociales

y por las compañías de software que los contratan. La

y por las compañías de software que los contratan. La Blogger, una palabra creada por Pyra

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP

misma danah boyd reporta [5] sobre lo que parecía un pequeño cambio que se hizo a la aplicación de MySpace, similar a Facebook. En este tipo de aplicaciones, la gente puede declarar públicamente quiénes son sus amigos. A los programadores de MySpace se les ocurrió proporcio- nar a los usuarios una facilidad adicional que les permitía identificar a sus ocho Top Friends –sus mejores amigos-, y además poner en orden esa lista de top friends. Pueden ustedes imaginarse las ofensas, discusiones, “cortes” y reconciliaciones que esto originó en la comunidad en me- nos de una semana –por los que no quedaban incluidos en la exclusiva lista o por el orden en que habían quedado:

¿Quée?!! ¿Yo soy tu tercera mejor amiga? ¡Yo te puse en primer lugar en mi lista! Este detalle nos indica: primero, que las convencio- nes sociales del mundo real cambian al trasladarse al mundo virtual; y segundo, habla sobre el poder de los programadores para influir en la cultura social de un sitio. Lawrence Lessig, en su libro Code [6], proporciona va- rios ejemplos sobre cómo las decisiones que se toman sobre la arquitectura de software del internet y la pro- gramación de las aplicaciones afectan de manera decisiva aspectos sociales tan importantes como la privacidad, la identidad y las amistades, entre otros. Los programadores futuros tendrán que estar preparados en psicología y so- ciología; no sólo en la programación de computadoras.

1.-Dato tomado de varias fuentes por los autores del artículo en Wikipedia sobre Usenet, http://en.wikipedia.org/wiki/Usenet 2.- En un social network site tal como Facebook, MySpace y otros, los miembros de la comunidad del sitio pueden desarrollar páginas personales o “perfiles” que representan su identidad virtual e incluyen datos como nombre o pseudónimo, fotografía, intereses etcétera. En su perfil, pueden también incluir una lista pública de sus amigos, y contactar a los amigos de sus amigos, formando extensas redes sociales. Los amigos pueden enterarse de cualquier modificación al perfil, y enviarse mensajes que se reciben en la misma página del perfil. 3.- En Meetup (http://www.meetup.com) se pueden anunciar y buscar reuniones presenciales que ocurren en cualquier ciudad del mundo y que se organizan alrededor de tópicos de interés. 4.- danah boyd está terminando su doctorado en redes sociales virtuales en la Universidad de Berkeley. Ese comentario aparece en su blog, http://www.zephoria.org/thoughts/

archives/2008/01/10/technology_and.html

5.- danah boyd. Friends, friendsters, and top 8: Writing community into being on social network sites. First Monday, volume 11, number 12 (December 2006) http://firstmonday.org/issues/

issue11_12/boyd/index.html