Está en la página 1de 25

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/28121859

El Profesor 2.0: docencia e investigación desde la Red

Article · January 2006


Source: OAI

CITATIONS READS

33 427

3 authors, including:

César Córcoles Carlos Casado Martínez


Universitat Oberta de Catalunya Universitat Oberta de Catalunya
18 PUBLICATIONS   78 CITATIONS    13 PUBLICATIONS   46 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

EURYKA (H2020) Euryka - Reinventing Democracy in Europe: Youth Doing Politics in Times of Increasing Inequalities View project

Platform cooperatives of agroecological consumption View project

All content following this page was uploaded by Ismael Peña-López on 15 May 2014.

The user has requested enhancement of the downloaded file.


EL PROFESOR 2.0:
DOCENCIA E INVESTIGACIÓN DESDE LA RED

POR:
César Pablo Córcoles
Profesor de los Estudios de Informática, Multimedia y Telecomunicaciónde la UOC
Carlos Casado
Profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC

Resumen
El objetivo del artículo es, primero, hacer una breve presentación de qué es la web 2.0 desde el punto de vista
del docente y el investigador para, posteriormente, ver algunas propuestas para su uso en el aula y acabar
contemplando cómo ha comenzado a afectar, y va a seguir afectando, al mundo de la investigación,
especialmente en lo que se refiere a la publicación de trabajos realizados y al establecimiento de un nuevo
marco para la colaboración entre investigadores.
Así, se hablará de una web 2.0 que, en lo tecnológico, pone a disposición de un amplio público un conjunto
de herramientas sofisticadas de publicación y gestión de contenidos y, en lo social, posibilita la aparición de
una inteligencia colectiva a partir de la agregación de aportaciones individuales no sistematizadas ni guiadas
explícitamente. Ambos puntos convergen en la actividad docente e investigadora del profesor, dándole
herramientas –como blogs y wikis– y modos de hacer que puede aprovechar en diferentes momentos de su
actividad, para incrementar su capacidad de comunicación y motivación en el aula, y para optimizar los
esfuerzos dedicados a la búsqueda de información, el trabajo colaborativo y la comunicación de sus
resultados en el laboratorio.
Se concluye que la confluencia de nuevas herramientas y actitudes debe llevar a un panorama académico
con mayor colaboración entre investigadores y una evolución natural del sistema meritocrático actual.

Palabres clave
web 2.0, investigación, docencia, difusión, blog, Internet

Abstract
The aim of the article is, first, to give a brief presentation of what the web 2.0 is from the teacher and
researcher’s point of view, leading to a consideration of some of its proposed uses in the classroom and to
conclude by considering how it has begun to affect, and will continue to affect, the world of research, especially
in terms of publishing completed work and establishing a new framework for collaboration among researchers.
Consequently, we will be talking about a web 2.0, which, in terms of technology, offers a wide public a set
of sophisticated content publication and management tools and, in social terms, makes it possible for a
collective intelligence to appear, based on the aggregation of non-systematised or explicitly guided individual
contributions. Both points come together in the teaching and research activity of teachers, affording them
tools—such as blogs and wikis—and ways of doing things that they can use at different times during their
activity to increase their communication and motivation capacity in the classroom, and to optimise the efforts
devoted to searching for information, collaborative work and the communication of their results in the
laboratory.
The article concludes that the confluence of new tools and attitudes should lead to an academic panorama
with greater collaboration between peers and a natural evolution of the current meritocracy system.

Keywords
web 2.0, research, teaching, dissemination, blog, Internet
Introducción
El buen profesional de la educación y la investigación siempre se ha mantenido informado
de los cambios tecnológicos que se producen a su alrededor, para poder llevar al aula y a
su laboratorio aquéllos que supongan un avance en su trabajo. En la actualidad, e
independientemente de si se trabaja virtualmente o en la presencialidad, esto pasa por
estar al corriente de las tecnologías web.
En los últimos años ha surgido un fenómeno, que se ha venido a denominar web 2.0,
que ha supuesto una nueva forma de pensar en la web con múltiples vertientes que
pueden aplicarse, con mayor o menor facilidad, en todo tipo de propuestas educativas y
que supone, además, una revolución en la difusión de la investigación.
Es el objetivo de este artículo, primero, hacer una muy breve presentación de qué es la
web 2.0 desde el punto de vista del docente y el investigador. Posteriormente se verán
algunas
propuestas para su uso en el aula, para acabar contemplando cómo afecta y afectará la
web 2.0 al mundo de la investigación, especialmente en lo que se refiere a la publicación
de trabajos realizados y al establecimiento de un nuevo marco para la colaboración entre
investigadores.

1. Fundamentos de la web 2.0

1.1. Qué es la web 2.0


Desde octubre de 2004 se ha popularizado un término para hablar de las últimas
tendencias en Internet: web 2.0. Se puede tomar el 2004 como el año en que se recuperó
la confianza financiera en el «negocio Internet» después del reventón de la burbuja tec-
nológica en 1999. En ese año 2004 la editorial O’Reilly Media toma la iniciativa de
organizar una conferencia aprovechando esa confianza recuperada y la bautiza Web 2.0.
Desde su celebración (de carácter anual desde entonces) el nombre web 2.0 se usa, con
mayor o menor fortuna, para cubrir una serie de conceptos, tecnologías y, sobre todo, una
actitud hacia esas tecnologías y las aplicaciones y servicios web.
Un punto fundamental que se debe tener en cuenta al intentar entender qué es la web
2.0 es que se trata de un término definido por oposición: ese «2.0» intenta diferenciarse
de una presunta «web 1.0» que correspondería a la anterior a 1999. Así, la web 1.0 se
ejemplifica en el buscador Altavista, el correo de Hotmail, el albergado de páginas
gratuitas de GeoCities, la enciclopedia Encarta o el navegador Netscape Navigator 4.7,
cuyo lugar toman progresivamente equivalentes «2.0», como Google, GMail, Blogger,
Wikipedia y Firefox, respectivamente. A pesar de ello, prácticamente todas las tecnologías
que caracterizan esta nueva «versión» estaban ya presentes con notable anterioridad al
2004 y, en muchos casos, incluso en 1999.
El gran valor de la web 2.0 es reducir dramáticamente la distancia entre los que
acceden a la web y los que publican en ella información de «manera sofisticada»:
mientras que en la web 1.0 sólo se podía acceder con facilidad a la publicación de
páginas rudimentarias, actualmente cualquier usuario puede acceder, de forma gratuita, a
un gestor de contenidos en la forma de un blog, que se ha convertido en la aplicación por
excelencia del fenómeno, publicar imágenes en Flickr e incluso vídeo en YouTube.
Además, las barreras tecnológicas y económicas para acceder a soluciones
personalizadas de mayor potencia, o para establecer una identidad única y propia en la
web prácticamente se han desvanecido.
Esto se combina, además, con el hecho de que la web se está convirtiendo en la
plataforma sobre la que se ejecutan nuestras aplicaciones, cada vez de manera más
independiente del sistema operativo del ordenador utilizado, con lo que cambian radical-
mente las normas del mercado del software.

1.2. Inteligencia colectiva


Esas tecnologías y, sobre todo, el consiguiente cambio de actitud, presentan una multitud
de oportunidades. Entre ellas es necesario destacar el concepto de software social, que
se refiere al uso de la comunicación mediada por ordenador para la formación de
comunidades: una aplicación basada en la web se pone a disposición de una multitud de
usuarios que aportan información a cambio de un incentivo. De la suma de esos datos u
opiniones fragmentados emerge lo que se ha dado en llamar the wisdom of crowds: un
sistema complejo formado por una multitud de agentes sencillos que muestra una
inteligencia colectiva. La aplicación paradigmática del software social es del.icio.us, que
suplanta la aplicación de «favoritos» del navegador: cada usuario anota sus parcelas de
interés de la Red para facilitar su propia navegación, sin seguir ninguna regla específica
de catalogación, y del agregado de esas anotaciones emerge una descripción del
conjunto de la Red imposible de obtener mediante un esfuerzo centralizado, por bien
organizado que esté.
En palabras de Dion Hinchcliffe (2006):
«At its core, Web 2.0 is about harnessing collective intelligence, and most of the rest of
the Web 2.0 ideas fall out from that concept.» [‘Fundamentalmente, la web 2.0 consiste
en aprovechar la inteligencia colectiva, y la mayoría del resto de las ideas de la web 2.0
no encajan en este concepto.’]
No se enumerarán aquí todos los conceptos en torno a la web 2.0, pero sí conviene
indicar al menos algunos de ellos, merecedores de mayor investigación por parte del
lector, como las folksonomías, conceptos como beta permanente y long tail, o los retos
para el concepto de propiedad intelectual de un mundo en que la publicación de la
información y el acceso a ella escapan de todo continente físico.

1.3. Tecnologías
Es imposible abstraerse de las tecnologías subyacentes al hablar de las aplicaciones que
las usan. Por ello se ilustran, a continuación, algunos de los cambios de paradigma
tecnológico que han
convertido la web en una plataforma que abre nuevas vías para docentes e
investigadores.
En una aplicación web 1.0 habitual el usuario accede desde el navegador a un servidor
web, introduce una serie de datos, los comunica a un servidor que los procesa y devuelve
una respuesta en forma de una nueva página web. El nivel de interactividad y sofisticación
de una aplicación es, pues, necesariamente muy limitado, y su uso infrecuente. Un
conjunto de tecnologías permite romper esa barrera. Entre ellas destacan AJAX, el uso de
API bien documentadas y la sindicación de contenidos.
AJAX es la abreviatura en inglés de «Javascript asíncrono y XML». Javascript es un
lenguaje de programación especialmente creado para usarse dentro de navegadores web,
mientras que XML es un formato de texto para el intercambio de datos. Mediante la
conjunción de ambos, se puede conseguir, primero, emular con fidelidad suficiente la
riqueza de una aplicación de escritorio estándar en un navegador y, después, transmitir a
través de la Red los datos necesarios para aportar beneficios exclusivos a la arquitectura
cliente-servidor. El ejemplo canónico de aplicación AJAX es GMail, el cliente de correo
desarrollado por Google, pero existe una multitud de aplicaciones que usan tecnologías
similares para diversos fines que, por ejemplo, emulan las suites ofimáticas.
Una API es una interfaz de programación de aplicaciones: una vez que una aplicación
informática de cualquier tipo «sabe hacer algo», como imprimir un texto en una impresora,
por ejemplo, puede publicar una API para permitir a otras aplicaciones el acceso a esa
funcionalidad. Un sistema operativo ofrece multitud de ellas para que cualquier programa
pueda, por ejemplo, crear una ventana en la pantalla con facilidad. Una de las
características prácticamente universales en las nuevas aplicaciones web es que vienen
acompañadas de una API bien documentada que permite a otras aplicaciones (tanto
basadas en la web como de escritorio) acceder a sus funcionalidades y los datos que
almacenan.
Otra tecnología esencial en la web 2.0 es la sindicación de contenidos, simbolizada en
los formatos RSS (Really Simple Syndication). Mientras que anteriormente acceder a la
información de un sitio web implicaba visitarlo, ahora existe la posibilidad de ofrecer en un
archivo un resumen de las últimas actualizaciones de contenido. Este archivo es
consultable de manera automática y eficiente. Existen en el mercado diversas
aplicaciones capaces de acceder a esta información y agregarla en un solo lugar, de
forma que se facilita el acceso a información de un gran número de sitios con frecuencias
de actualización medias o bajas.
La unión de estas y otras muchas tecnologías acerca la aplicación basada en la web a
la tradicional basada en el escritorio y le añade características exclusivas de la nueva
plataforma, como las citadas posibilidades del software social. Parece claro, pues, que
existe una serie de nuevas y no tan nuevas tecnologías y, sobre todo, una nueva actitud.
El profesor puede hacer uso de las nuevas herramientas para mejorar la eficacia de su
actuación, tanto en el aula como en su trabajo de investigación.

2. Docencia compartida y colaborativa

2.1. La web 2.0 en el aula


Diferentes estudios consideran interesante la utilización de Internet en el ámbito docente
(Prats, 2002) e incluso es posible destacar alguna buena propuesta para la preparación
de actividades de aprendizaje en el aula.2 La web 2.0 ofrece nuevas funcionalidades que
permiten hablar de Internet no sólo como gran fuente de recursos, sino, además, como la
plataforma donde trabajar con esos recursos. Y es que el conjunto de mejoras de Internet
que hay detrás del 2.0 hace que las posibilidades de uso de la Red sean mucho mayores
que hace tan sólo tres años.
Una de las características propias de la web es la facilidad de compartir información.
Esta característica se ha reforzado con la aparición de herramientas de gestión de
contenidos (CMS, Content Management System) como blogs y wikis cuyo correcto uso
puede incrementar la eficacia de la actividad de enseñanza-aprendizaje. ¿Por qué? ¿Qué
aportan estas herramientas a las ya existentes?
* Sencillez de uso. No es necesario que ni el docente ni los estudiantes tengan
conocimientos especiales, con unos conocimientos básicos de ofimática basta.
* Muchas posibilidades diferentes de comunicación. Compartir fotos, artículos, trabajos,
vídeos o enlaces, mantener debates, comentar los trabajos de otros e incluso evaluarlos.
El problema, ante tantas posibilidades, es saber escoger la más adecuada para el fin
deseado y el grupo de edad al que se dirige el docente, pero dado que el entorno de
Internet no difiere tanto del entorno natural, no debería ser ningún problema encontrar la
actividad adecuada. Véanse, a continuación, dos ejemplos concretos.
2.2. El blog, información unidireccional
El blog es un caso particular de CMS donde un autor, o un grupo reducido de ellos,
escribe un contenido sobre el que los lectores pueden opinar. Se organiza de manera que
lo último
escrito es lo primero que se puede leer y a los comentarios de los lectores se les puede
dar más o menos relevancia. Un blog con una actualización frecuente suele tener un buen
número de lectores habituales que, además, con su opinión en los comentarios pueden
enriquecer el tema tratado en una determinada entrada.
El aspecto más relevante de los blogs es la universalización del acceso a una
herramienta sofisticada de publicación. En el caso de la enseñanza, esto quiere decir que
incluso en entornos de penetración tecnológica relativamente baja se dispone, por primera
vez, de una solución para la publicación de información pocos-a-muchos accesible tanto a
profesores como a estudiantes, con lo que se dispone de la posibilidad de extender el
aula más allá de sus límites físicos y temporales.
Como comenta Stephen Downes (2004), hay que distinguir entre el uso del blog como
tal y su utilización como gestor de contenidos simple. Para aclarar esta distinción Farrell
(2003) enumera cinco formas posibles de usar el blog en el aula:
* El blog reemplaza la página web estándar de la clase (o actúa como página web de
soporte, si ésta no existía) y por tanto es un tablón de anuncios.
* El instructor utiliza el blog para publicar enlaces a contenidos en la Red.
* El blog se utiliza para organizar el debate de clase.
* El instructor utiliza el blog para organizar seminarios y dar resúmenes de lecturas.
* Se pide a los estudiantes que escriban sus propios blogs.
El primer y segundo punto son usos del blog que divergen del concepto estricto de
«blog» en que no son base de una conversación y, por tanto, son usos del blog como
CMS. Por su parte, los puntos tercero y cuarto se ajustan más fielmente a la definición de
blog. Finalmente, en el punto quinto, el uso que los estudiantes hagan del software
determinará si el blog se usa como tal o no.
Así, sin más, se consigue publicar información del aula de forma eficiente y estimular al
estudiante a profundizar en el aprendizaje realizado en ella. Pero es en la posibilidad de
realizar comentarios donde se da un paso más: el estudiante puede usar los comentarios
para aportar nuevos enlaces, comentar los proporcionados por el profesor o el resto de
estudiantes o para exponer dudas y realizar preguntas, enriqueciendo el aprendizaje y
favoreciendo el debate constructivo. Llevar el debate del aula al entorno virtual supone
diferentes ventajas, entre las que cabe destacar que el debate asíncrono y mediado por
ordenador da lugar a una conversación con un mayor nivel de reflexión previa del que es
posible obtener en el aula en tiempo real. Tampoco puede obviarse que se facilita la
participación de los estudiantes que pueden sentirse excluidos por motivos sociales en el
entorno del aula.
Con el blog liderado por el profesor se consiguen, pues, los siguientes objetivos:
* Estimular a los estudiantes a leer más sobre los temas tratados en el aula.
* Estimular a los estudiantes a buscar información de manera autónoma, usando
fuentes diversas.
* Estimular el espíritu crítico y la reflexión entre los estudiantes.
* Elevar el nivel de la conversación en el aula.
* Facilitar la participación de todos los estudiantes.
Cuando es el estudiante el que usa el blog, los objetivos son, además:
* Mejorar la práctica de la expresión escrita.
* Compartir trabajos y prácticas entre los estudiantes.
También es un buen ejercicio que un grupo de estudiantes vaya escribiendo en el blog
bajo la atenta mirada del resto del aula y el propio docente o, incluso, se puede proponer
un blog comunitario donde los alumnos vayan escribiendo por turnos. El docente deberá
escoger la manera de plantear la actividad según los objetivos que desee cumplir, siendo
este punto clave en el proceso de aprendizaje que se pretenda realizar.

2.3. El wiki, un repositorio colaborativode conocimiento


Si con la creación de Internet la colaboración entre diferentes personas resultó mucho
más fácil a pesar de lo rudimentario de las herramientas, con la llegada de las
aplicaciones web 2.0 el trabajo en grupo se simplifica aún más.
Tal vez, hoy en día, el ejemplo más usado de creación de contenido en grupo en Red y
en la Red sea la Wikipedia. Este proyecto pretende crear una enciclopedia universal
gracias al trabajo de miles de colaboradores desinteresados. Así una persona creará la
entrada de un determinado término que será ampliada o actualizada por cualquier otro
usuario con más conocimientos sobre el tema.
No se discutirá en este artículo la calidad de la información de la Wikipedia, sino el uso
de la herramienta sobre la cual funciona: un gestor de contenidos denominado wiki que
permite una edición sencilla de las páginas y que mantiene un histórico de las
modificaciones realizadas y las personas que las realizaron.
El wiki en el aula puede ser útil como repositorio de información del docente que
permita, si se desea, que los estudiantes aporten también su conocimiento y su
experiencia, pero es en el trabajo en grupo donde más partido se saca al wiki. Creando un
apartado para cada grupo, todos sus componentes podrán modificar el contenido
mejorando el trabajo realizado. Los resultados
que se vayan obteniendo de la agregación de aportaciones se almacenan y pueden ser
consultados y mejorados por los miembros de la comunidad de aprendizaje. El wiki
permite también al docente hacer un seguimiento del trabajo que, al quedar reflejadas las
diferentes modificaciones con sus correspondientes autores, funciona tanto para grupos
como para individuos.
Como en el caso del blog, con el wiki se pueden cumplir diferentes objetivos, que
dependerán de la manera como se use:
* Estimular a los estudiantes a leer más sobre los temas tratados en el aula.
* Potenciar la colaboración en el trabajo en grupo.
* Estimular a los estudiantes a compartir información.

2.4. La comunidad docente y la web 2.0


La web 2.0 facilita la utilización de Internet como una extensión del aula convirtiéndola en
una herramienta más para el aprendizaje y multiplicando las posibilidades del profesor,
que puede dar más dinamismo a su tarea docente. Blogs y wikis no son más que un
ejemplo, pero las aplicaciones web que pueden usarse son cada vez más numerosas. La
comunidad docente debe estar abierta a estos nuevos sistemas de aprendizaje y debe ser
capaz de informar y formar al profesorado de los usos docentes de Internet. La utilización
de las herramientas que proporciona la web 2.0 no debe ser una complicación para el
docente, sino que debe ayudarle en su trabajo. La Red está cada vez más presente en
nuestra sociedad y la comunidad docente no debe quedarse al margen, debe conocer y
saber aprovechar los recursos disponibles en Internet.
3. Investigación y difusión abierta
Si en el caso de la docencia se hablaba de la extensión de la pizarra y la tiza mediante el
ordenador y las aplicaciones web 2.0, en el ámbito de la investigación y su difusión lo que
se amplía gracias a estas aplicaciones es el cuaderno de notas, los congresos y los
tradicionales libros y revistas en papel.

3.1. Escribir en la Red y desde la Red:difusión y la autopublicación


Al afirmar que «Internet es la plataforma» se hablaba de que todo sucede allí. En cuanto a
la difusión de la investigación, lo más evidente es que es casi inmediato subir resultados a
la Red. Esta publicación casi instantánea tiene su referente más intuitivo en la versión
digital de los libros que se han llevado a la imprenta. Es ya habitual encontrar en una
página de Internet asociadas dos opciones en principio contradictorias pero
complementarias: la de comprar el libro impreso desde la tienda virtual y la de des-
cargarse el libro en formato digital. Esto se hace extensivo cada vez a más revistas
científicas. En el fondo, es el mismo modelo de trabajo pero con un nuevo canal de salida.
La principal novedad en este campo es que ya no es necesario pasar por la editorial
para publicar un libro o un artículo. Así, pues, se añade a la inmediatez con que el lector
accede al contenido la inmediatez con la que el autor lo pone a su disposición, saltándose
todo el proceso editorial: basta con convertirlo al formato adecuado y subirlo a un servidor
–esto incluye la propia página del investigador.3 Por otra parte, puede hacerlo en las
condiciones que desee: desde el acostumbrado copyright hasta su cesión libre al dominio
público (Liang, 2004).
No se debatirá aquí el sentido del proceso editorial en el ámbito académico,
especialmente la bondad de la revisión por pares. En cualquier caso, más adelante se
verá cómo esta revisión se sigue dando, aunque de forma algo distinta, especialmente sin
una secuencialidad marcada. Se trata del wisdom of crowds (sabiduría de las multitudes)
tal y como se ha comentado anteriormente.
Sin embargo, lo interesante de este esquema no es solamente la facilidad o la rapidez,
sino que puede extrapolarse hacia atrás en el tiempo, es decir, en todo lo que pasa antes
de que unos contenidos tengan la corrección necesaria para verse publicados como
artículos, capítulos o libros. Una práctica ya habitual es publicar los borradores –o
preprints en la jerga internacional– de dichos artículos. Su principal ventaja es doble.
Primeramente, la ya aludida de la velocidad de su publicación. En este caso, no es tanto
el ahorrarse el proceso de la edición, sino que la aparición en la arena científica sucede al
mismo tiempo que el tema debatido en el artículo, con lo que éste disfruta de la mayor
actualidad y oportunidad posibles. La segunda, y derivada de la primera, es que de forma
automática y tácita se inicia un proceso de revisión por pares, que no se limita a un
reducido número de expertos, sino que incluye a toda la comunidad científica que lea el
documento y que quiera dar retorno al autor.
No hay que perder de vista que la inmediatez material a la hora de publicar no está
reñida con que el proceso de documentarse, reflexionar, elaborar una hipótesis y
contrastarla tome su debido tiempo. Por desgracia, confundir lo uno con lo otro ha llevado
a algunos investigadores a precipitarse y acabar publicando opiniones o comentarios que
después, a la vista del error o la ponderación, no ha sido tan fácil hacer desaparecer de la
Red.

El mundo anglosajón utiliza dos términos distintos para lo que en español es


autopublicación, precisamente para distinguir lo que ha pasado por un determinado
proceso de revisión. Por una parte está el self-publishing, normalmente reservado a subir
a la Red la versión digital de artículos en revistas científicas o libros; por otra parte, el self-
archiving, que como la propia palabra indica, recoge todo lo que signifique archivar en la
Red –y a disposición del público– cualquier tipo de contenido.

Además de las plataformas existentes –muchas de ellas promovidas institucionalmente


por la universidad– para la difusión de artículos ya publicados en papel y preprints,
herramientas como los blogs, los wikis, aplicaciones de «favoritos» y bibliografías
compartidas/abiertas, etc., permiten hacer público hasta el origen mismo de cualquier
investigación: las notas tomadas en el «cuaderno de campo», las referencias y análisis
bibliográficos a modo de fichas, etc. En el límite, se trata de mantener un e -portfolio que
contenga toda la producción científica del investigador, ya sea directamente o enlazando
también a otros sitios que publiquen contenidos del autor.

3.2. La búsqueda de fuentes y el debate científico: los recursos digitales


Leer y ser leído (y citado), esa es la cuestión. Dejando aparte la cuestión de los
contenidos abiertos –también referidos como Open Access Archiving– que hacen más
accesibles las publicaciones por el solo hecho de ser libres,4 se ha documentado5 ya
una creciente tendencia a ir substituyendo las fuentes de información habituales por las
digitales. En otras palabras, el trayecto que se consolida es una consulta en los
principales buscadores, la misma consulta en bases de datos y bibliotecas virtuales y, en
última instancia, las bibliotecas presenciales con sus volúmenes en papel.
Del mismo modo que la Red permite publicar rápidamente, lo mismo sucede con el
acceso a la información digital. El primer impacto, muy cualitativo además de cuantitativo,
es poder seguir en tiempo real la investigación de vanguardia, evitando esperas y
saltándose todos los filtros,6 obteniendo información directamente de la fuente y en
tiempo real. Además, las herramientas más habituales que conforman la nube de
conceptos web 2.0, por haber sido creadas con la misma mentalidad de Internet como
plataforma y el compartir como objetivo final, ya están diseñadas para que sus contenidos
sean fácilmente rastreados por los buscadores, con lo que el impacto se incrementa: las
cosas están en la Red y «se encuentran». Y, por norma general, también informan de qué
es posible hacer con dichos contenidos a través de sus licencias explícitas.
Uno de los motivos por los cuales los contenidos son fácilmente hallables en la Red
mediante buscadores es por estar etiquetados de forma que las máquinas –no solamente
los humanos– pueden (en parte) «entenderlos». Los formatos RSS, XML y otros ayudan
en gran medida a ello. Además, permiten sindicar contenidos de forma que sean éstos los
que llegan a uno y no el investigador el que tiene que ir a buscarlos. Dado que la web 2.0
es, ante todo, una actitud, paulatinamente se va creando una Red de blogs, comentarios,
wikis, e-portfolios, imágenes, etc., enlazados entre sí por sus canales RSS.

3.3. La Academia, comunidad investigadora virtual


No es nada nuevo decir que la comunidad investigadora publica y lee lo que se publica. El
cambio, radical, está en la celeridad con que se suceden las cosas así como en la
facilidad de acceso. Estos aspectos suponen cambios más profundos que los que
aparecen a simple vista. La exposición constante a que se somete la comunidad
científica, con una evaluación continua y a todos los niveles supone, a bote pronto, que se
profundicen los siguientes aspectos:
* Disponer de un repositorio de la producción personal, con carácter público, con
información y documentación pasada y presente (work in progress), y de forma
entrelazada.
* Recopilar recursos digitales, noticias de actualidad, información y materiales bajo una
misma plataforma, accesible desde cualquier ordenador.
* Autoeditar/autopublicar resultados de investigación, así como el trabajo que se está
realizando en el momento, reflexiones, dudas, hallazgos –evitando esperas o demoras.
* Dar a conocer qué se sabe y que se sabe.
Además de estos aspectos en cierta medida instrumentales o competenciales, otro
aspecto que se pone de manifiesto es la necesidad, o la emergencia, de tener una
identidad en la Red. Esta identidad, etiquetada directa o implícitamente por los temas
tratados en blogs, listas, participación en redes sociales, etc., supone estar presente,
globalmente, en el ámbito o área de investigación, declarar unos intereses y orientación
académicos. Además, esta identidad no es estática, sino que a medida que cambian los
intereses personales o la situación profesional del investigador, rápidamente se difunde el
nuevo estado en la Red. Es (relativamente) fácil encontrar nuevos colaboradores, com-
partir experiencias o, simplemente, pedir ayuda.

4. La web constructivista
Es la opinión de los autores que las herramientas web 2.0 y, sobre todo, la actitud que
suponen –que recuerda en muchos aspec

tos a la ética hacker de Himanen (2003)– invierten la tendencia que parecía manifestarse
en el mundo académico de una menor colaboración entre colegas, debida a la presión por
publicar y la competencia surgida del endurecimiento de los conceptos de propiedad
intelectual.
El solo hecho de tener una (¿la?) identidad en la Red, de actuar en Red y en la Red,
subvierte en gran medida las estructuras jerárquicas de una arquitectura del conocimiento
tradicional. La meritocracia en Internet adquiere un nuevo sentido cuando lo que uno hace
digitalmente es lo que uno es, y ello acaba siendo en mayor o menor medida
independiente del estatus o los logros conseguidos en la «vida real», siendo la Red como
es inmune a las pleitesías. Se trata de conservar todo lo bueno acumulado tras siglos de
experiencia, unirlo a lo que aportan las nuevas herramientas y, a la vez, esquivar los
viejos problemas y los nuevos riesgos. Una tarea complicada pero necesaria.
La digitalización del cuaderno de campo, la web como plataforma, la revisión por pares
en tiempo real, etc., conforman un nuevo terreno de juego con todas las cartas a la vista.
Y más importante, no sólo contenidos y aportaciones científicas son públicos: su
gestación, la interrelación entre autores, los flujos de conocimiento son también trazables
mediante los historiales de las páginas, los pingbacks y trackbacks, las redes sociales, los
contenidos sindicados, agregados o comentados, la valoración social –implícita, con
herramientas ad hoc, y explícita, por las métricas de las páginas web– y toda una Red de
interrelaciones entre humanos y computadoras.
Esta conexión entre expertos y saber conforma lo que podríamos llamar una web
constructivista, en el sentido que el conocimiento ya no fluye unidireccionalmente, sino
que se construye de forma que todos y cada uno de los componentes de la Red son re-
cursos que cada usuario puede aprovechar para sí, para construir su propio conocimiento
y revertirlo a la Red para que se convierta en recurso de los demás. En el fondo, como ya
se ha dicho, esto siempre ha sido así: la Red únicamente incrementa la velocidad y da
una creciente eficiencia y eficacia a los logros del investigador.
Las preguntas que surgen son, del mismo modo, también las habituales, aunque
cambiadas de lugar: ¿Quién acredita, pues, unos contenidos o un sitio web? ¿Cómo se
garantiza una autoría en este protocontenido académico? ¿Es una cuestión de confianza,
de buena fe o incluso de una apuesta de futuro incierta?
En absoluto. Estas dudas –razonables– se deben única y exclusivamente al
desconocimiento del medio, a no saberse manejar en un nuevo entorno. Al igual que la
vida de papel, la Red dispone también de herramientas para ayudar a valorar la
información encontrada. La diferencia es que, en términos estadísticos, pueden llegar a
ser mucho más válidas, ya que los evaluadores son toda la población y no una muestra.
Por otra parte, se añaden a las acreditaciones humanas –emitidas por A-list bloggers y
por todos y cada uno de los científicos con identidad en la Red– valoraciones hechas por
las mismas máquinas: Google PageRank, los índices de PubSub, Technorati o Alexa, el
número de suscripciones a un feed RSS, etc. Los primeros son fácilmente equiparables a
los referees de las revistas científicas, mientras que los segundos son los nuevos índices
de impacto de las mismas.
Uno de los mitos en torno al buscador Google es que encuentra todo lo que está en la
Red… y que lo que no está allí, hay que digitalizarlo para que esté. Lawrence Lessig ha
afirmado que apagar el ordenador ya no lo desconecta a uno de la Red. Bajo estas dos
hipótesis, se hace cada vez más difícil oponer resistencia a quedarse fuera del terreno de
juego.

Bibliografía:

ALEXANDER, B. (2006). «Web 2.0: A new wave of innovation for teaching and learning?».
Educause Review [artículo en línea]. Vol. 41, n.º 2, pág. 32-44. Educause. [Fecha de consulta: 8
de septiembre del 2006].
http://www.educause.edu/apps/er/erm06/erm0621.asp

CHAN, L.; KIRSOP, B.; ARUNACHALAM, S. (2005). «Open Access Archiving: the fast track to
building research capacity in developing countries». SciDev.Net [artículo en línea]. SciDev.
[Fecha de consulta: 25 de abril del
2006].http://www.scidev.net/open_access/files/Open%20Access%20Archiving.pdf

DAVIS, P. M. (2006). «Do Open-Access articles really have a greater research impact?». College &
Research Libraries [en línea]. Vol. 67, n.º 2, pág. 103-104. ACRL. [Fecha de consulta: 30 de
junio del 2006].
http://dspace.library.cornell.edu/handle/1813/2881

DAVIS, P. M. (2003). «Effect of the Web on undergraduate citation behavior: guiding student
scholarship in a networked age». Portal: Libraries and the Academy [artículo en línea]. Vol. 3, n.º
1, pág. 41-51. The Johns Hopkins University Press. [Fecha de consulta: 30 de junio del 2006].
http://people.cornell.edu/pages/pmd8/3.1davis.pdf

DAVIS, P. M. (2002). «The effect of the Web on undergraduate citation behavior: A 2000 update».
College & Research Libraries [artículo en línea]. Vol. 63, n.º 1, pág. 53-60. ACRL. [Fecha de
consulta: 30 de junio del 2006].
http://people.cornell.edu/pages/pmd8/bigger_not_better.pdf

DAVIS, P. M.; COHEN, S. A. (2001). «The effect of the Web on undergraduate citation behavior
1996-1999». Journal of the American Society for Information Science and Technology [artículo
en línea]. Vol. 52, n.º 4, pág. 309-314. Wiley Periodicals. [Fecha de consulta: 30 de junio del
2006].
http://people.cornell.edu/pages/pmd8/52.4davis.pdf

FARRELL, H. (2003). «The street finds its own use for things». Crooked Timber [blog]. 15 de
septiembre. [Fecha de consulta: 12 de septiembre del 2006].
http://crookedtimber.org/2003/09/15/the-street-finds-its-own-use-for-things

HIMANEN, P. (2003). L´ètica hacker i l´esperit de l´era de la informació. Barcelona: Editorial UOC.

HINCHCLIFFE, D. (2006). «Five techniques for using Web 2.0 to reinvent the customer
relationship». Dion Hinchcliffe’s Web 2.0 Blog [blog]. 31 de mayo. [Fecha de consulta: 30 de
junio del 2006].
http://web2.wsj2.com/five_techniques_for_using_web_20_to_reinvent_the_customer_re.htm

LESSIG, L. (2004). Free Culture. Nueva York: The Penguin Press.

LIANG, L. (2004). A guide to open content licences [artículo en línea]. Piet Zwart Institute. [Fecha
de consulta: 09 de junio del 2006].
http://pzwart.wdka.hro.nl/mdr/pubsfolder/opencontentpdf

O’REILLY, T. (2005). What is Web 2.0 [artículo en línea]. O’Relly. [Fecha de consulta: 10 de junio
del 2006].
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

PEÑA LÓPEZ, I.; CÓRCOLES, C. (2006). «Web 2.0 and diffusion of research». ICTlogy [en línea].
N.º 31. Presentación hecha en Barcelona el 6 de abril en el seminario homónimo organizado por
la Cátedra UNESCO de e-learning en la UOC. [Fecha de consulta: 23 de abril del 2006].
http://www.ictlogy.net/presentations/20060406_ismael_pena_and_corcoles_cesar_web2.0_and_diff
usion_research.pdf

SIEMENS, G. (2003). «Open Source Content in Education». Elearnspace [blog]. 10 de marzo.


[Fecha de consulta: 11 de mayo del 2005].
http://www.elearnspace.org/Articles/open_source_part_2.htm

SUBER, P. (2005). «Open Access overview». Open Access News [blog]. [Fecha de consulta: 28 de
abril del 2005].
http://www.earlham.edu/~peters/fos/overview.htm

WILLINSKY, J. (2005). The case for Open Access to research and scholarship [en línea]. MIT
Press. [Fecha de consulta: 30 de junio del 2006].
http://mitpress.mit.edu/catalog/item/default.asp?tid=10611&ttype=2

_____________________________________________
CÓMO SERÁ LA WEB 3.0?
Aún inmersos en el impacto de la web 2.0, ya se empieza a hablar de «Web 3.0». ¿En qué
consiste? ¿Web semántica? ¿Microformatos? ¿Qué nuevas posibilidades implica? Descubra la
respuesta en este interesante artículo.

POR
Salvador Pérez Crespo. Telefónica I+D para Telefónica España

El año 2006 fue el de la irrupción de las ideas que hay detrás del “web 2.0” en el
público mayoritario. Sin embargo, el proceso de innovación que había
caracterizado los años anteriores parece querer tomarse un receso, al menos
temporal. Así lo muestra el descontento por la falta de innovaciones de los
asistentes al tercer “Web 2.0 Summit” celebrado en noviembre o las críticas al
evento “Le Web 3” celebrado en París en diciembre. Otro síntoma es la aparición
de servicios tan controvertidos como PayPerPost o ReviewMe dedicados a pagar
a particulares para hacer críticas de productos.

Todo indica que comienza un periodo de maduración y generalización de las ideas


recién llegadas y que para encontrar las próximas revoluciones habrá que buscar
entre los proyectos de más largo plazo que a día de hoy están en marcha. La
prensa generalista apunta a la web semántica como próximo gran hito mientras en
círculos más especializados se mira también hacia mejoras significativas en la
interacción web y a la combinación con la inteligencia artificial. Aunque, tal vez, el
verdadero cambio venga de otro lado.

Los avances del web 2.0

El término web 2.0 es, cuando menos, un concepto difuso. Tanto que el difuso
documento escrito por Tim O'Reilly que acuña la terminología tiene plena vigencia
precisamente por su falta de concreción. Aún así, a lo largo del tiempo la gente ha
ido tomando conciencia, al menos en parte, de su significado.

Un buen resumen de lo que significa es obra de Wade Roush, quien en el


Technology Review del MIT argumentaba que el término web 2.0 se refiere a
tres cosas: nuevos mecanismos de relación y comunicación entre las personas
utilizando las tecnologías de redes sociales (con servicios como MySpace,
YouTube, Digg o Wikipedia), la utilización de estándares web para la creación de
servicios distribuidos en Internet (léase “mashups” como Housing Maps, un
servicios inmobiliario que combina datos propios con mapas de Google Maps) y la
mejora en los interfaces de las páginas web hasta llegar a imitar, casi a la
perfección, la experiencia de usuario de las aplicaciones clásicas que se ejecutan
en un ordenador.
Se superaron ya las “guerras de estándares” que caracterizaron la primera década
de la web, los 90, y que dejaron como triunfador al navegador de Microsoft Internet
Explorer, que pasó a ser casi el único utilizado ante la necesidad de disponer de
una referencia común de desarrollo. La nueva fase, caracterizada por la adhesión
de los desarrolladores de páginas web a los estándares, reabre la guerra de los
navegadores y pone un nuevo y duro competidor en la pelea, Firefox.

La web semántica y los microformatos

El término web 3.0 es asociado por la prensa generalista (léase New York Times o
en España El País) al concepto de web semántica que se está desarrollando bajo
la tutela de Tim Berners-Lee, el mismo que inventó la web a principios de los 90.

La idea subyacente es muy antigua (antigua si hablamos en tiempo de Internet).


Los contenidos publicados en páginas web, salvo raras excepciones, son
difícilmente entendibles por los ordenadores y tienen significado principalmente
para las personas. Se trata, pues, de añadir información adicional con una
estructura tal que pueda ser entendida por los ordenadores quienes por medio de
técnicas de inteligencia artificial serían capaces de emular y mejorar la obtención
de conocimiento hasta el momento reservada a las personas. Se trata de dotar de
significado a las páginas web, y de ahí el nombre de web semántica. Se llega
incluso a acuñar el término de Sociedad del Conocimiento a aquel grado de
evolución de la Sociedad de la Información en el que se alcanza ese estadio.

El ejemplo clásico de web semántica sería aquella que permitiría que se


formularan consultas como “busco un lugar para pasar las vacaciones con mi
mujer y mis dos hijos de 5 y 2 años, que sea cálido y con un presupuesto máximo
de 2000 euros”. El sistema devolvería un paquete de vacaciones tan detallado
como los que vende una agencia de viajes pero sin la necesidad de que el usuario
pase horas y horas localizando ofertas en Internet.

Como se decía antes, la idea es antigua y sin embargo todavía no hay signo claro
de su puesta en marcha y existen dudas de cuando llegará. Sobre este punto los
optimistas creen que el momento está próximo pues aunque la investigación se
circunscribe aún a entornos universitarios está apareciendo capital dispuesto a ser
arriesgado en empresas que saquen partido de este conocimiento. Entre los
ejemplos habitualmente citados se encuentra la empresa RadarNetworks que
busca explotar el contenido suministrado por los usuarios en las redes sociales, o
el proyecto KnowItAll, desarrollado en la Universidad de Washington y financiado
por Google, que busca obtener y agregar información de usuarios de productos.

Los pesimistas aducen que tal grado de complejidad no será alcanzado porque
existirá una fuerte reacción de quienes ahora disponen de la información que no
querrán compartirla o porque fenómenos como el “spam semántico” la harán poco
utilizable.
Para complicar aún más la situación, en la actualidad surge una corriente paralela
de quienes buscan un enfoque más pragmático que pueda tener utilidad a más
corto plazo. Así, frente a la web semántica tradicional, conocida en círculos
especializados como RDFa, aparecen los microformatos.

El modelo RDFa tiene a sus espaldas varias cargas. Tiene una definición
compleja, no asequible para todo el mundo, por el notable componente
matemático de su estructura, lo que puede hacer necesario la creación de
sistemas automáticos para su implantación. Utiliza una versión del lenguaje de
escritura de páginas web que a día de hoy no utiliza casi nadie, aunque se espera
que en el futuro se evolucione hacia él. A cambio, proporciona un marco más
general que el que proporcionan los microformatos.

Los microformatos surgen del trabajo de la comunidad de desarrolladores de


Technorati, uno de los sitios web 2.0 “de referencia”. Su objetivo es estandarizar
un conjunto de formatos en los que almacenar conocimiento básico, como la
información de contacto de una persona (microformato hCard), una cita
(microformato hCalendar), una opinión (microformato hReview), una relación en
una red social (microformato XFN) y así hasta un total de 9 especificaciones
concluidas y 11 en proceso de definición1. La principal limitación es que cada tipo
de significado requiere de la definición de un microformato específico. A cambio ya
es posible utilizarlos, como así lo hace un conjunto reducido de sitios web.

Todo parece indicar que nos encontramos ante la clásica disyuntiva del estándar
“de jure” frente a estándar “de facto”. Por el lado de los microformatos se
encuentran empresas web 2.0 y un grupo desconectado de bloggers, que buscan
soluciones a problemas frecuentes. Por el otro lado se encuentran las
organizaciones de estandarización que tienen el poder moral de dirigir el
desarrollo de la web en nuevas direcciones. Afortunadamente las dos corrientes
no tienen que ser forzosamente disjuntas y podrían adoptarse soluciones de
consenso en el caso de que ambas tendencias evolucionaran por separado con
igual fuerza.

A corto plazo los microformatos serán los triunfadores. Ya están siendo incluidos
en algunas páginas web y, lo que es más importante, en la actualidad se está
estudiando como integrarlo en los navegadores web. De hecho esta será una de
las características principales de la próxima versión del navegador Firefox. Según
su visión, el navegador web se convierte en un gestor que distribuye la
información almacenada en forma de microformatos en una página web a la
aplicación adecuada para su manejo: una cita a la agenda, un lugar a una
aplicación de cartografía, etc.
Propuesta de implantación de los microformatos en Firefox

Mejoras en la interacción web

Como se comentaba anteriormente una de las mejoras significativas de la web 2.0


ha sido la referente a la interacción de los usuarios con los servicios online. La
aparición de herramientas automáticas que simplificaban la creación de páginas
web permitió poder dedicar un mayor número de recursos a las labores de diseño.
El aumento de diseñadores en los productos trajo como consecuencia diseños de
páginas web más limpios y mecanismos de interacción más apropiados para el
uso del público en general que para ingenieros entusiastas. El nuevo estilo se está
imponiendo y extendiendo a los sitios web más tradicionales que con ello mejoran
considerablemente la facilidad de uso. De forma anecdótica es destacable señalar
la excepción de MySpace, cuyo poco atractivo diseño no ha sido óbice para
convertirse durante el año 2006 en el sitio web más visitado del mundo.

El siguiente paso sería alcanzar un grado de homogeneidad en la forma en la que


se utilizan los servicios online de manera que los usuarios no tuvieran que
aprender, por muy sencillo que sea, la forma de utilizar cada nuevo servicio
disponible. Se trataría de reproducir lo acaecido con las aplicaciones informáticas
para ordenadores personales. Originalmente los primitivos procesadores de texto,
hojas de cálculo ó bases de datos, utilizaban procedimientos distintos para realizar
idénticas funciones (como guardar un archivo, imprimir, …). En su versión actual el
funcionamiento de la mayoría de aplicaciones es muy similar lo que reduce
notablemente los tiempos de aprendizaje.

Entre las iniciativas en desarrollo destaca el proyecto Parakey liderado por Blake
Ross, uno de los desarrolladores clave de Firefox. Se trata de un proyecto de
código abierto que pretende crear una especie de sistema operativo web que
permita a un usuario hacer lo mismo que haría con un sistema operativo
tradicional. Se trataría de unificar el escritorio y la web de forma que existiera una
forma única de hacer las cosas y no dos. De esta forma, actividades ya frecuentes
entre los usuarios como subir fotos o vídeos a servidor de Internet se realizarían
siguiendo siempre el mismo procedimiento.

Las nuevas posibilidades para la inteligencia artificial

La web 3.0 sería una revolución si como se ha dicho antes se logra una
combinación efectiva entre la inclusión de contenido semántico en las páginas web
y el uso de inteligencia artificial que saque partido de ella. En este sentido los
recelos son muchos pues tradicionalmente los avances de esta ciencia han sido
lentos y cargados de dificultades.

Lo novedoso podría estar en la combinación de las técnicas de inteligencia


artificial con el acceso a capacidad humana de realizar tareas extremadamente
complejas para un ordenador y de esa forma rellenar los huecos que impiden
progresar esta disciplina.

Ya en la web 2.0 se hace un uso extensivo del “tagging” como forma de


clasificación de la información. En esencia consiste en que los usuarios que suben
contenidos a Internet clasifican el contenido mediante el uso de palabras clave
simples (mar, Madrid, tristeza, …). Gracias a este mecanismo los buscadores son
capaces de identificar información que utilizando técnicas tradicionales hubiera
sido imposible localizar.

Entre los pioneros del nuevo tipo de servicios por llegar podrían mencionarse al
menos dos. El servicio Mechanical Turk de Amazon permite a los
desarrolladores que aquellas partes de un servicio que requieran de intervención
humana puedan ser redirigidas a un grupo pagado de participantes voluntarios de
manera muy similar al modo en el que se desarrollan aplicaciones distribuidas en
Internet. De esta forma el trabajo humano se convierte en parte de un proceso de
actividad que principalmente se realiza de manera automática.

Otro ejemplo primitivo sería el experimento de Google en modo de juego llamado


Google Image Labeler. Durante un periodo de 90 segundos, dos participantes en
el juego, elegidos al azar por el sistema, tienen que etiquetar un conjunto de
imágenes con tantos términos como les sea posible. De esta forma los usuarios
obtienen diversión mientras que Google obtiene miles de imágenes clasificadas
con etiquetas relevantes.
El próximo gran avance puede ser otro

Como se ha visto buena parte de lo descrito va a necesitar de una cantidad de


tiempo significativa antes de que se traduzca en servicios concretos.

Por ello no sería de extrañar que el próximo avance viniera de un lugar


completamente distinto: la movilidad. Tras años de infructuosos intentos por
conseguir lograr una web móvil, los recientes avances en esta área podrían
acelerar la adopción de este tipo de servicios. Pero éste, sería un tema a tratar en
otro artículo.

____________________________________

NUEVAS TECNOLOGÍAS DE LA INFORMACIÓN:


PROBLEMAS ÉTICOS FUNDAMENTALES
POR:
Lic. Leandro Bernal Pérez - Especialista en Información Científico-Técnica
Instituto de Documentación e Información Científico-Técnica (IDICT).
Ciudad de La Habana. Cuba.

Resumen
Se examina el panorama de las nuevas tecnologías de la información, a partir de la identificación
de los principales problemas que, desde el punto de vista ético, afectan a su comunidad de
usuarios. Se destaca el acceso desigual a la información como el problema ético fundamental de
los tiempos actuales, origen de una nueva clase: los ricos en información. Se concluye que la
relación ética/nuevas tecnologías no debe reducirse a lo meramente teórico, sino que ha de ser
una práctica asumida por los individuos, las organizaciones y los estados.
Descriptores (DeCS): INTERNET; ETICA
Descriptores: (DeCI): ACCESO A LA INFORMACION; INTERNET;TECNOLOGIA DE LA INFORMACION;
ETICA

Abstract

The current situation concerning information technologies is reviewed, based on the identification of
the main issues ethically affecting the users community. The unequal access to information is
highlighted as a major ethical problem of today that is the origin of a new social class: the rich in
information. It is concluded that the relation ethics / new technologies should not be reduced merely
to the theoretical aspect, but it must be common practice for individuals, organizations and states.
Subject headings (DeCS): INTERNET; ETHICS
Subject headings (DeCI): ACCESS TO INFORMATION; INTERNET; INFORMATION TECHNOLOGY;
ETHICS
Mucho se ha hablado sobre las nuevas tecnologías de la información: algunos son
sus más devotos e incondicionales admiradores; otros, las pintan con los colores
más negros; muchos olvidan que todo cambio e innovación (sea de tipo
tecnológico, social, ético, moral, político, etc.) posee dos caras que juntas forman
una misma moneda. A esta dicotomía no escapan las nuevas tecnologías, con
Internet a la vanguardia, por lo que además de constituir un evidente progreso en
la vida del ser humano, suscitan una serie de conflictos, que han conmovido de
raíz los supuestos jurídicos, éticos y morales que conforman la base de las
sociedades actuales.

En el mundo de la música, el Napster, un innovador sistema de transferencia de


archivos musicales directamente entre usuarios, puso "en jaque" a las poderosas
compañías discográficas, que vieron amenazados y burlados sus negocios, ellas
entonces se unieron para presentar batalla contra Napster, sus promotores fueron
acusados de violar las leyes del derecho de autor, así como las licencias para
comercializar música. Otro caso aún más sonado, fue el famoso juicio por
prácticas monopólicas, contra la poderosa empresa Microsoft. Ella, a la vez, que
se constituyó en símbolo del software, se convirtió también en símbolo del
monopolio. Además, enfrenta crecientes acusaciones de amenaza a la privacidad
de aquellos usuarios que utilizan sus productos, sin embargo, no es en el campo
de los negocios donde radica la mayor amenaza, a largo plazo, a los principios
éticos y morales que han regido nuestras sociedades hasta el día de hoy. Es en el
campo de la genética y la medicina, donde se librarán, en el futuro, las mayores
batallas entre los defensores de la ética y los tecnócratas a ultranza. Baste
recordar el caso de la oveja Dolly, las declaraciones a favor y en contra de la
clonación humana, así como las controversias con relación a si el patrimonio
genético de las personas debe permanecer secreto e inviolable o, por el contrario,
debe estar a disposición de las empresas que participen en su obtención y
descifrado.

El presente trabajo pretende realizar un acercamiento a los problemas


fundamentales que, desde el punto de vista ético y moral, preocupan a la
comunidad mundial y para los cuales aún no se han dado las respuestas
definitivas.

Principales problemas éticos

Acceso desigual a la información

Es de todos conocido que el problema moral más serio causado por las nuevas
tecnologías de la comunicación, es la exclusión de forma automática de la
inmensa mayoría de la humanidad, que estimula el surgimiento de una nueva
clase: la de los ricos en información.
Se trata de la cuestión del acceso a Internet, al plantearse el problema de las
barreras de acceso de carácter económico, técnico, sociocultural e intercultural.
Debido a estas limitaciones, en la mayoría de las ocasiones, sólo un pequeño
sector de la población tiene acceso a Internet. Esta problemática no se refiere
exclusivamente a la situación en un determinado país, sino también a la relación
entre los países del llamado primer, segundo y tercer mundo. En marzo del 2002,
la empresa Cyberatlas dio a conocer las estadísticas en cuanto a cantidad de
usuarios con acceso a Internet; se evidenció, una vez más, la gran brecha
tecnológica que existe entre países pobres y del primer mundo (tabla, figura).

Tabla. Relación de países con acceso a Internet

No. País No. de usuarios


1. Estados Unidos 149 000 000
2. China 33 700 000
3. Reino Unido 33 000 000
4. Alemania 26 000 000
5. Japón 22 000 000
6. Corea del Sur 16 700 000
7. Canadá 14 200 000
8. Francia 11 000 000
9. Italia 11 000 000
10. Rusia 7 500 000
11. España 7 000 000
12. Holanda 6 800 000
13. Taiwan 6 400 000
14. Brasil 6 100 000
15. India 5 000 000
16. Polonia 4 900 000
17. Tailandia 4 600 000
18. Suecia 4 500 000
19. Hong Kong 3 900 000
20. Turquía 3 700 000
21. Suiza 3 400 000
22. Portugal 3 055 000
23. Austria 2 700 000
24. Bélgica 2 700 000
25. México 2 300 000
26. República Checa 2 200 000
27. Noruega 2 200 000
28. Finlandia 2 150 000
29. Malasia 2 000 000
30. Argentina 2 000 000
31. Filipinas 2 000 000
32. Chile 1 800 000
33. Dinamarca 1 600 000
34. Sudáfrica 1 500 000
35. Grecia 1 300 000
36. Singapur 1 300 000
37. Nueva Zelanda 1 300 000
38. Israel 1 200 000
39. Venezuela 1 200 000
40. Irlanda 1 000 000
41. Emiratos Árabes 920 000
42. Ucrania 750 000
43. Hungría 730 000
44. Eslovaquia 700 000
45. Colombia 700 000
46. Rumania 630 000
47. Bulgaria 585 000
48. Estonia 462 000
49. Egipto 455 000
50. Líbano 420 000
51. Eslovenia 400 000
52. Lituania 320 000
53. Croacia 300 000
54. Arabia Saudita 300 000
55. Jordania 275 000
56. Islandia 167 000
57. Túnez 120 000
58. Bielorrusia 100 000
59. Kuwait 63 000
60. Cuba 60 000
61. Marruecos 50 000
62. Omán 50 000
63. Sri Lanka 50 000
64. Qatar 47 000
65. Bahrein 40 000
66. Viet Nam 22 000
67. Siria 20 000
68. Yemen 12 600
69. Sudan 10 000
70. Libia 7 500
71. Djibouti 1 000

Fuente: cyberatlas.com
Fecha: 21 de marzo del 2002

Fig. Distribución del acceso a Internet por áreas geográficas.

Fuente: cyberatlas.com
Estadísticas del 22 de marzo del 2002
¿Qué legislación aplicar?

Un segundo problema que plantea Internet es qué ley debe aplicarse o qué
tribunal debe juzgar los delitos informáticos. Casi todos los países juzgan
actualmente los delitos cometidos en su país o que perjudican a sus ciudadanos.
Por ejemplo, en España, la ley castiga delitos cometidos en otros países cuando
ocurren en materia de terrorismo, genocidio, falsificación de moneda, entre otros,
pero no cuando se refiere a la mayoría de los delitos, como los de derecho de
autor, injurias, etcétera. Por lo tanto, si en una página web que reside en un
servidor finlandés, se insulta a un gobernante, o a unos empresarios españoles, o
bien se reproduce un reciente best-seller de un escritor español, dichos delitos no
pueden perseguirse en España, porque los usuarios de Internet pueden acceder
electrónicamente a Finlandia. Tales situaciones obligarán a los estados a modificar
sus legislaciones y a establecer tratados internacionales, como los de extradición,
que posibiliten juzgar a los autores de los delitos cometidos en cualquier parte del
mundo, en el país donde resida el ofendido.

Amenazas a la privacidad

Este es uno de los temas más conocidos en materia de ética aplicada a las
nuevas tecnologías de la información. En este milenio, la intimidad de las
personas estará en peligro por causa del aumento de las técnicas de búsqueda en
la red (minería de datos) o en bases de datos, esto va mucho más allá de las
tradicionales búsquedas de información. La Microsoft fue acusada, entre otras
cosas, de incorporar en sus programas mecanismos que posibiliten a la empresa
espiar a los usuarios que utilizan los softwares de esta empresa.

Propiedad de los programas informáticos

Los programas informáticos suponen un enfoque nuevo para entender la


propiedad intelectual, porque el objeto a proteger por vía legal, el software, posee
una naturaleza distinta a la existente. Las leyes antipiratería defienden los
derechos de los productores de software o de los que poseen autorización para
vender licencias de uso de dichos programas. El problema ético consiste no sólo
en buscar una nueva forma de justificar el derecho a una nueva forma de
propiedad, sino en analizar, además, si las leyes de propiedad intelectual son
justas o si deben crearse nuevas formas de entender dichas leyes en beneficio de
la comunidad mundial de usuarios.

Decisiones tomadas por computadoras

Desde hace algunos años, los sistemas de información no sólo toman decisiones
sino que las ejecutan; en algunos casos, se ha demostrado su capacidad para
tomar mejores decisiones que los humanos. El problema que se plantea es la
obligatoriedad de hacer siempre caso a las máquinas. También puede plantearse
de otra manera: si los sistemas expertos son tan completos, ¿es moral no hacer
caso a las máquinas? Cuando se entrega la responsabilidad de las decisiones
riesgosas a sistemas digitales, se presenta un nuevo tema moral: ¿cómo enfrentar
situaciones en las que tomar una decisión equivocada causa graves
consecuencias, donde nadie tiene responsabilidad y, por tanto, no se sufre castigo
o sanción alguna?

Realidad virtual e inteligencia artificial

La problemática de la realidad virtual (RV) no hace principalmente referencia a si


ella representa bien o no la realidad. Se refiere fundamentalmente al peligro de
que en una posible representación de la RV, se realice una selección de ciertos
valores o intereses a expensas de otros. Por su parte, la inteligencia artificial
supone también unos planteamientos que tienen, en principio, consecuencias para
la concepción ética del ser humano.

Violación del respeto interpersonal

El anonimato que provee Internet introduce problemas que podrían calificarse de


"incendiarios", al permitir enviar contenidos emocionales, que, a veces, pueden
tornarse agresivos y amenazantes. La empresa América On Line (AOL) ha
incluido en su contrato de servicio una cláusula donde los usuarios acuerdan evitar
actividades que puedan causar situaciones desagradables a otras personas.
Todavía hay otros servidores que van más allá de estas restricciones y obligan a
los nuevos miembros a aceptar una censura ejercida por el servidor. Otros
establecen distintas formas de vigilancia contra la pornografía infantil, por ejemplo.
En general, existe la preocupación de que el ciberespacio introduce una nueva era
de peligro al respeto de las libertades civiles y a los derechos humanos.

Comunidades virtuales y ciberaislamiento

El éxito de Internet y el increíble crecimiento del correo electrónico, ha aumentado


la preocupación acerca del potencial de las nuevas tecnologías de información y
comunicación para debilitar las relaciones humanas. Se teme que la red social del
futuro podría ser un vasto océano compuesto de individuos aislados, que, a modo
de abejas humanas, interactúen con datos más que con personas. Es
imprescindible lograr que la "comunidad virtual" esté al servicio de las verdaderas
comunidades humanas, y no que las sustituyan.

Ciberalfabetización

Existe un gran problema con cómo ayudar a los usuarios a discriminar entre las
fuentes de información y con cómo evaluarlas para determinar si son verdaderas y
reales. Algunos tienen un gran temor de que se esté creando un mundo donde la
capacidad de discernimiento moral e intelectual se vea aplastada por un mar de
información; por ello, es necesario ayudar a las personas a navegar exitosamente
en este mar virtual. Las aguas no exploradas del web deben conocerse. No basta
la sola preocupación por los partidarios de la pornografía infantil, el racismo, el
terrorismo y las sectas satánicas. Las habilidades para orientarse
satisfactoriamente en la red ayudarán también a las personas a descubrir, usar y
evaluar las fuentes de información que posibiliten su desarrollo, tanto profesional
como humano.

Se concluye que los ejemplos expuestos evidencian la incapacidad y la


obsolescencia de los viejos patrones morales, éticos y jurídicos frente a las nuevas
realidades tecnológicas. La ética en las nuevas tecnologías de la información no
representa algo meramente teórico, sino sobre todo una tarea práctica que debe
asumir cada individuo, las instituciones y la sociedad en general. Se precisa un
nuevo enfoque, nuevos paradigmas mentales, pero sobre todo voluntad política;
esta no es más que un esfuerzo mancomunado que involucre a todos los factores
sociales: desde el ciudadano hasta los gobiernos, que incluya el sector
empresarial privado, las ONG y las instituciones sociales y religiosas de todo tipo,
con el objetivo de construir consensos y elaborar criterios comunes que permitan
enfrentar satisfactoriamente tan traumática y amenazadora realidad.

Referencias bibliográficas
1. Debatin B. Principios de la ética en Internet: áreas de conflicto y perspectivas de solución
[en línea]. En: Conferencia en el marco del seminario "Ética e Internet". Instituto Goethe de
Montevideo, Uruguay, 17 y 18 Agosto 1999. [Disponible en:
http://www.Internet.com.uy/giesler/kinta-dimension/etica/debatin-discurso.rtf]. [Fecha de
revisión: 25 de abril del 2002].
2. The World's Online Populations [en línea]. [Disponible en: http://cyberatlas.internet.com/].
[Fecha de revisión: 10 de abril del 2002].
3. Pla I. La ética en Internet [en línea]. En: Chasqui. No. 72, 2000 [Disponible en:
http://www.comunica.org/chasqui/luna72.htm]. [Fecha de revisión: 20 de abril del 2002].
4. Bustamante Donas J. Dilemas éticos en la sociedad de la información: apuntes para una
discusión [en línea]. Universidad Complutense de Madrid.
[Disponible en: http://www.argumentos.us.es/bustaman.htm]. [Fecha de revisión: 15 de
abril del 2002].
5. Guibert Ucín J. ¿Qué es la ética de la informática? [en línea]. Universidad de Deusto:
Bilbao, julio 1997. [Disponible en:
http://www.eside.deusto.es/profesores/guibert/1etic-info.html]. [Fecha de revisión: 25 de
abril del 2002].
6. Villanueva Mansilla E. El ciberespacio y sus desafíos éticos: una revisión preliminar [en
línea]. [Disponible en: http://macareo.pucp.edu.pe/~evillan/etica.html]. [Fecha de revisión:
25 de abril del 2002].
7. Sánchez A. Una ética para Internet [en línea]. En: Etcétera. 2 diciembre 1999, no. 357
[Disponible en: http://www.etcetera.com.mx/1999/357/as357.html]. [Fecha de revisión: 25
de abril del 2002].

View publication stats

También podría gustarte