Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2.1 Internet
2.2 Herramientas y métodos de búsqueda de información.
2.3 Recopilación y fuentes de datos de contenido confiable.
2.4 Análisis y discriminación de Información.
Instrucciones:
Esta deberá contener lo más importante de cada subtema, además de una conclusión en la
que incluyas la importancia de uso de las tics en la educación.
Qué es Internet:
En español, la palabra internet está considerada como un nombre propio. La Real Academia
Española (RAE), en su diccionario, admite que se escriba con o sin mayúscula inicial. De allí
que, preferentemente, se utilice sin artículo, aunque en caso de usarlo, se recomienda el uso
femenino (la), ya que el nombre equivalente en español vendría a ser ‘red’, que es femenino.
Origen de internet
Existen dos versiones sobre el inicio de internet. La más popular señala su creación como
una respuesta del Departamento de Defensa estadounidense, quienes en los años 60
buscaban la forma en la que todos los ordenadores que se utilizaban dentro de la
organización funcionaran en red, aún y cuando una de las computadoras sufriera una falla
debido a un ataque enemigo.
Sin embargo, otra versión menos extendida señala que en esa misma época, en la Oficina
para Tecnologías de Procesado de la Información (IPTO), un hombre llamado Robert Taylor
(quien se estrenaba como director de la oficina) tuvo la idea de generar un sistema que
permitiera que los investigadores pudiesen compartir recursos a través de la utilización de
enlaces.
Si esta idea funcionaba, les permitiría hacer más eficiente su trabajo y evitar la compra
innecesaria de más computadoras, considerando que para esa época eran sumamente
costosas y complicadas de trasladar e instalar.
El proyecto fue inicialmente aprobado para su desarrollo por ARPA, (Agencia de Proyectos
de Investigación Avanzados), que aunque en principio se dedicaba a la financiación de
investigaciones académicas, luego pasó a ser parte del Departamento de Defensa
estadounidense, llamándose DARPA. Para muchos, de allí se extiende la creencia de que la
internet fue un proyecto desarrollado con fines militares, cuando en realidad se trató de una
solución diseñada y financiada con fines civiles y de investigación.
Servicios de internet
Conexiones de internet
Las conexiones de internet son los medios disponibles para que un usuario pueda utilizar los
servicios que ofrece internet a través de dispositivos que utilizan tecnología informática,
como computadoras, tablets y teléfonos móviles.
Existen distintas maneras de acceder a internet. Algunas de ellas son la utilización de una
línea telefónica (convencional o digital, por ejemplo, ADSL), la conexión por cable (a través
de fibra óptica), la conexión vía satélite o la conexión a redes inalámbricas, también
llamadas wireless.
Internet como medio de comunicación
Las posibilidades que brinda internet como fuente de acceso a información y conocimiento
en múltiples formatos son casi ilimitadas. De allí que en las últimas décadas, los medios de
comunicación tradicionales se hayan visto impulsados a ofrecer plataformas y soluciones
adaptadas a nuevos tiempos y consumidores de información.
En un principio (inicio de los años 90), muchos medios de comunicación usaban la internet
como un apoyo, una herramienta secundaria sobre la que se vaciaba el contenido a través
de la web. Poco a poco, los medios comenzaron a ajustar los formatos de sus contenidos
para que fuesen más compatibles, en forma y fondo, con las características de internet y de
la web.
En este nuevo ecosistema comunicacional, los medios tradicionales y los nuevos medios
han tenido que considerar a los usuarios como parte activa de este nuevo entramado.
Internet cambió las dinámicas de poder entre emisores y receptores y esto se ve reflejado en
la cantidad y variedad de contenidos a los que es posible tener acceso hoy en día, así como
en la creación y actualización de tecnologías de la información que permitan el acceso de los
usuarios a los contenidos digitales.
Los contenidos depositados en la red Internet son ya, por volumen, accesibilidad, calidad y
variedad e incluso coste, el recurso de información en medicina más importante. El tremendo
potencial de la red no es ya sólo valioso para los profesionales, sino que en los últimos años
pacientes y público en general han encontrado respuesta, generalmente rigurosa y
fidedigna, a sus dudas y preguntas.
Ello no impide que exista cierta preocupación tanto por el explosivo crecimiento de la
información ofrecida, a veces a costa de su calidad, como por la dificultad que plantea la
recuperación de recursos críticos entre la maraña de datos que se proporcionan. La
recuperación de información médica en la red requiere herramientas, técnicas y
especialistas que permitan incrementar y profundizar en los resultados básicos obtenidos
desde los portales de gran público, que se han generalizado como fuentes primarias en los
últimos meses. Aun reconociendo la indudable valía de muchos de ellos, cierta ligereza en
su uso contrasta con la necesaria rigurosidad que un profesional médico o un intermediario
especialista deben exigir en las tareas que recaban información de calidad.
El portal, aunque resulta ser una vía de entrada cómoda y potente, no deja de ser un
conjunto de gran diversidad y heterogeneidad en cuanto a la forma y fondo de los
contenidos. A menudo se olvida este carácter y se asume equivalente nivel de calidad a
todos los recursos presentes, lo cual puede distar considerablemente de la realidad. Por ello
es conveniente recurrir directamente a las herramientas individuales, conocer sus métodos
de selección y producción, su estructura y contenidos y los mecanismos de localización y
recuperación de información. Profundizar en las características específicas de estas
herramientas y dominar el manejo de varias de ellas es un reto cuyo cumplimiento es cada
vez más deseable entre los profesionales de la salud.
Estas herramientas son servicios muy conocidos entre los usuarios de Internet e incluyen
tanto los motores de búsqueda como los índices y directorios. Los más populares entre los
primeros suelen ser los generales (Altavista, FAST, Google), con una gran cobertura de
contenidos, pero que ofrecen mucho ruido documental en sus respuestas por la falta de
precisión de sus mecanismos de recuperación. Todo lo contrario ocurre con los segundos,
donde se prefieren los especializados, dada su mayor calidad en las respuestas y el valor
añadido de una descripción realizada por profesionales, es decir, no de forma automática.
Aunque haya índices generales muy utilizados (Yahoo, Lycos, Terra), los servicios
especializados, auténticas supersedes, tanto por la calidad de la información como por la
fiabilidad de las fuentes, suelen ser un referente básico en la recuperación de información
médica de la red. Aunque frecuentemente tienen carácter internacional o cobertura
geográfica amplia, no pueden ser exhaustivos en la recopilación de los recursos disponibles
en la red. Por ello, a la hora de elegir herramientas para trabajar en la red (no
necesariamente aquellas «impuestas» en un determinado portal), además de evaluar
criterios tales como el seguimiento de normas o estándares, la frecuente actualización y la
incorporación de uno o varios mecanismos de evaluación de la pertinencia, debe asumirse la
necesidad de utilizar varias de las citadas herramientas de forma simultánea o consecutiva
para solventar las carencias individuales.
Asimismo la tabla 1 recoge una importante, muy conocida y utilizada, parte de Internet, la
constituida por las grandes bases de datos bibliográficas de medicina, los catálogos de
bibliotecas, el creciente número de revistas electrónicas y los nuevos depósitos de
documentos y separatas, una tendencia emergente en los últimos años. Llamamos a este
heterogéneo conjunto «Internet invisible», dado que su información, al estar accesible sólo a
través de pasarelas, resulta imposible de indizar por los motores de búsqueda y es por tanto
invisible a éstos. Es una información de elevada calidad y a menudo de difícil localización,
por lo que en la tabla 3 se describe no sólo su estructura y clasificación, sino las
herramientas de recuperación más adecuadas en cada caso.
Los mayores motores búsqueda (Google, FAST o Altavista) apenas cubren un 20-25% del
web, mientras que los principales índices es dudoso que lleguen a un 5%. Otras desventajas
de este ingente volumen de información es que, por razones de celeridad en la respuesta,
obliga a limitar las prestaciones de búsqueda de forma que suelen faltar ciertas capacidades
avanzadas. Otros problemas importantes derivan de la diferente cobertura de la red (las
sedes comerciales y de los países desarrollados están mejor indizadas), el elevado
porcentaje de enlaces no activos y la desactualización de los recursos debido a frecuencia
de revisión muy baja o inadecuada.
Las citadas herramientas están instaladas en el ordenador remoto (server side) y por tanto
limitadas por restricciones generalmente ajenas al usuario final. Una nueva generación de
herramientas y la adopción de nuevas estrategias pueden ayudar significativamente, así
como el reconocimiento de nuevas realidades y el descubrimiento de fuentes ocultas de
datos relevantes hasta la fecha frecuentemente infrautilizados.
Clientes Z39.50
Los programas que permiten realizar esta proeza son estrictamente clientes (tabla 6) a los
que se puede configurar para atender simultáneamente cientos de peticiones. Bookwhere
2000 (fig. 1) es una herramienta excelente, que resulta potente tanto para búsquedas
concretas como para la elaboración de listados y bibliografías.
Figura 1:Bookwhere 2000.
Volcadores
Uno de los más importantes problemas desde el punto de vista documental de Internet es la
gran volatilidad de los recursos, lo que unido a un inexistente sistema de archivo hace que
información muy relevante pueda perderse o ser inaccesible en períodos de tiempo muy
cortos. Se ha desarrollado una serie de programas que permiten no sólo almacenar
automáticamente sedes con un gran volumen de información, sino que mantienen la
estructura y elementos dinámicos de las páginas, respetando así su integridad y reflejan
fielmente su objetivo original (tabla 7).
El sistema es muy eficaz y, dado el discreto tamaño físico de la mayoría de las sedes,
permite mantener un archivo «offline» de un elevado número de páginas con mecanismos
elaborados de actualización de la información y programación de la labor de volcado que
alcanza elevados niveles de automatismo y sofisticación. Así, resulta posible el archivo
periódico de aquellas sedes médicas que se actualizan con mucha frecuencia sin necesidad
de la intervención directa del usuario, que puede fijar la hora de volcado a períodos de poco
tráfico y bajo coste (horario nocturno), tarea que es realizada y controlada automáticamente
por el programa.
Nuestra recomendación es Teleport Pro (fig. 2), que permite ejecutar el volcado utilizando
hasta 10 agentes simultáneamente, lo que lo convierte en una de las herramientas más
rápidas del mercado.
Multibuscadores
Este grupo de programas supone uno de los intentos más logrados de mejorar el
rendimiento de los motores de búsqueda, mediante el sencillo procedimiento de realizar la
recuperación en varios de dichos motores de forma simultánea. Aunque tal procedimiento ya
está disponible en forma de multibuscadores (tabla 8) «tradicionales», la segunda
generación proporciona la ventaja de la perspectiva cliente: los programas multibuscadores
disponen de opciones de automatización de tareas y son extremadamente flexibles en su
configuración, lo que les permite resolver labores específicas. Esta posibilidad es
particularmente interesante en temas médicos, pues permite seleccionar las fuentes contra
las que realizar la interrogación formando grupos de motores especialmente perfilados
según temáticas o cualquier otro criterio que se estime conveniente.
Uno de los programas más interesantes es Copernic (fig. 3), que permite no sólo diseñar e
interrogar grupos de motores a voluntad, sino que elimina duplicados y direcciones erróneas,
filtra con criterios definibles, vuelca contenidos y exporta los resultados en formatos
reutilizables.
Figura 3:Copernic 2001.
Trazadores (tabla 9)
Este grupo explora la naturaleza hipertextual del web, por lo que al contrario que en el caso
anterior los resultados se obtienen por rastreo o exploración del árbol hipertextual a partir de
una sede determinada. Dicha sede, que recibe el nombre de «semilla», puede ser cualquier
página web especializada con un elevado número de enlaces (una supersede médica) o un
buscador en el que se ha introducido una estrategia de búsqueda. A partir de ahí se
comprueban todos las páginas enlazadas con la primera (hijas) de acuerdo a una serie de
criterios de pertinencia que pueden estar ponderados. Aquellas seleccionadas se utilizan
como fuente para una exploración hipertextual ulterior (nietas) y así sucesivamente hasta un
nivel prefijado o hasta agotar el tiempo programado.
Esta técnica indirecta es lenta y proclive a bucles y ruido documental, pero resulta muy
valiosa para encontrar respuestas inesperadas. Hay que indicar que el rendimiento mejora
considerablemente con una adecuada retroalimentación del sistema (aprendizaje).
Este grupo es el más heterogéneo de los presentados, ya que no todos los programas
ofrecen las mismas posibilidades. Las semillas suelen ser los grandes buscadores, mientras
que los mecanismos de evaluación de la pertinencia pueden ser muy pobres o
extremadamente sofisticados sistemas multilingües.
Indizadores
Mapeadores
Aunque originalmente diseñados para asistir a los editores de páginas web, los programas
mapeadores proporcionan descripciones gráficas («mapas») y cuantitativas muy detalladas
de las sedes y sus contenidos (tabla 11). Los datos numéricos que se obtienen pueden ser
utilizados para evaluar dichos contenidos y constituyen una importante ayuda para discernir
la calidad hipermedia de una sede. Las relaciones que se ilustran a través de los enlaces y
la calidad de su mantenimiento son fuentes adicionales de información sobre la pertinencia y
utilidad del recurso analizado.
Los datos extraídos se pueden utilizar con fines comparativos, ya que los valores absolutos
tienen relativo valor, pero aun así podremos obtener valores del tamaño, densidad
hipertextual y multimedia de la sede, su estructura de niveles, la diversidad de los enlaces y
en estudios temporales la evolución del conjunto.
Conclusiones
El problema de la recuperación de información médica en Internet se agudizará en el futuro
debido a la explosión de la información en el web, fenómeno que no alcanzará una asíntota
en el crecimiento ni a corto ni a medio plazo. Dicho problema se agravará con un incremento
asimismo incontrolado de la heterogeneidad de la calidad de dicha información.
Sólo es posible solventar ambos retos con un acercamiento profesional que implica conocer
mejor las herramientas disponibles y aplicar criterios más rigurosos y exhaustivos.
Sin embargo, incluso una selección cuidadosa deja en evidencia las carencias de muchas de
las herramientas disponibles en los servidores remotos, por lo que la disponibilidad de
clientes especializados, las llamadas herramientas de segunda generación, ha permitido
afrontar con ciertas garantías de éxito el control individualizado del ciberespacio de la salud.
Estas herramientas, entre las que se incluyen robots y agentes, permiten automatizar tareas,
profundizar en la cobertura de ciertas labores, incrementar el rendimiento de la recuperación
y, en fin, hacer viables proyectos de localización y recuperación de datos que de otra
manera no serían posibles realizar desde el escritorio de un usuario final que no domine la
programación avanzada.
Bibliografía general
Aguillo IF. Herramientas de segunda generación. Anuario SOCADI. Barcelona, 1998; p. 85-112.
Aguillo IF. Del multibuscador al metabuscador: los agentes trazadores en Internet. IV Congreso ISKO
Aguillo IF. Internet invisible o infranet: definición, clasificación y evaluación. VI Jornadas Españolas
Aguillo IF. A new generation of tools for search, recovery, and quality evaluation of world wide web
Información 2000;8:15-26.
Información 2000;9:40-6.
Tramullas J, Olvera MD. Recuperación de la información en Internet. Madrid: RA-MA, 2000.
Si bien es cierto que hoy en día el Internet cuenta con una indefinida cantidad de información
valiosa y de gran calidad, también es cierto que una búsqueda puede arrojarnos un tumulto
de resultados llenos de fuentes de información poco confiables que en vez de facilitarnos las
tareas, se convierten en desinformación al no tener cuidado de identificar, entre todo los
resultados, qué información si es confiable y cuál no.
Tengamos en cuenta que, hoy en día cualquiera puede publicar lo que quieran en la Web.
Por lo tanto, es muy difícil determinar la autoría de las fuentes de información en la Web,
incluso si aparece el nombre de quien lo escribió pues eso no quiere decir que lo que ha
publicado represente a ésta persona de una manera honesta, o incluso, la mayoría de las
veces simplemente representan la opinión de ésta persona.
http://tinyurl.com/lg5n92j
Autoría
¿Se encuentra nombrado el autor o el creador del contenido? ¿Aparece la ocupación, años
de experiencia, posición o educación de éste? ¿En autor está cualificado para escribir ése
tipo de temas? ¿Se cuenta con información de contacto, tal como un correo electrónico? ¿A
la hora de Googlear su nombre qué tipo de páginas web se asocian al autor? ¿Hay algún
link que te lleve a la página principal? ¿Qué te dice el tipo de dominio/URL de la fuente?
.edu = educacional
.com = comercial
.mil = militar
.gov = gubernamental
.org = no lucrativa
*La persona que se identifica como Webmaster (diseñador del sitio), no necesariamente es
quien elabora los contenidos.
Propósito
¿Cuál es el propósito del sitio? ¿Por qué el autor lo escribió o lo publicó? ¿Para vender un
producto? ¿Lo escribió como pasatiempo? ¿Cómo un servicio público? ¿Para profundizar
más sobre un tema? ¿Para proporcionar información general sobre un tema? ¿Para
persuadir de algún punto de vista en particular? ¿Para qué tipo de audiencia está enfocado?
(Estudiantes, expertos o público general) ¿Para qué grupo de edad fue creado? ¿Está
dirigido a un área geográfica en particular? ¿Está dirigido a los miembros de una
profesión/formación específica?
Objetividad
Es necesario que un sitio web de calidad disponga la información de manera objetiva, ya que
si un sitio web presenta a sus autores, éstos deben ser especialistas en los temas que trata,
los financia una institución de prestigio y tiene propósitos claros, no debieran necesitar
mucha publicidad o pop-ups emergentes que interrumpen la lectura. Por ejemplo, si un sitio
web plantea que es “educativo”, debe demostrar que su objetivo es “educar” y no sólo
entretener o entregar contenidos.
¿La información es un hecho, una opinión o propaganda? ¿Es el punto de vista del autor?
¿Está el lenguaje usado libre de emociones o despierta prejuicio alguno? ¿El autor está
afiliado a alguna organización? ¿La afiliación del autor con una institución u organización
parecen sesgar la información? ¿El contenido de la página tiene la aprobación oficial de la
institución, organización o empresa?
Precisión
La información que hay en un sitio web de calidad debe estar bien escrita, con un estilo de
redacción acorde con sus objetivos y su público. Por lo tanto, es importante considerar que
la información esté claramente presentada y las ideas bien definidas. Por ejemplo, si se
entrega alguna cifra, hay que revisar si están las fuentes bibliográficas que las respalden y si
se presentan opiniones personales, más vale que estén bien fundamentadas.
¿Las fuentes de información fáctica están claramente listadas para que la información pueda
ser verificada? ¿Está claro quién tiene la responsabilidad última de la exactitud del contenido
del material? ¿Puede verificar la información en fuentes independientes o por su propio
conocimiento? ¿Se ha revisado o arbitrado la información? ¿Está la información libre de
errores gramaticales, ortográficos o tipográficos? Fiabilidad y Credibilidad ¿Por qué
debería alguien creer la información de este sitio?¿La información parece ser válida y bien
investigada, o no está respaldada por pruebas?¿Hay cotizaciones y otras afirmaciones
fuertes respaldadas por fuentes que usted podría verificar a través de otros medios?¿Qué
institución (empresa, gobierno, universidad, etc.) apoya esta información?Si es una
institución, ¿ha oído hablar de ella antes? ¿Puede encontrar más información al respecto?
¿Existe un equivalente no-Web de este material que proporcionaría una forma de verificar su
legitimidad?
Actualización
*A veces se explicita la actualización y en otros sitios webs se observan temas nuevos que
revelan movimientos en la web.
Confiabilidad (fuentes)
¿Existen enlaces relacionados con el tema y útiles para el propósito del sitio? ¿Los enlaces
siguen vigentes, o se han convertido en callejones sin salida? ¿Qué tipos de fuentes están
vinculadas? ¿Se evalúan o anotan los enlaces de alguna manera? Nota: La calidad de las
páginas Web vinculadas a la página Web original puede variar; Por lo tanto, siempre debe
evaluar cada sitio Web de forma independiente.
Una web confiable siempre expone sus fuentes bibliográficas si los temas lo requieren.
Cada quien es libre de publicar en su blog o web lo que quiera, pero nosotros no podemos
creer que todo lo que dice la web es verdad.
Navegabilidad y usabilidad
Una buena navegabilidad consiste en qué tan simple sea para un usuario navegar por todo
un sitio web que visita sin salirse de él y sin dar click a enlaces rotos. Por ende, es
importante que los sitios web tengan sus enlaces funcionando correctamente, que sus
botones lleven a un sub-sitio relacionado con el título y que posea una estructura simple y
fácil de navegar. Otra cosa de total importancia, es el hecho de que el sitio cargue fácil y
rápido.
Conclusión
Hay que aprender a ser muy críticos con cualquier información que encontremos en la Web
y examinar cuidadosamente cada sitio. Comparemos la información que elijamos de acuerdo
a nuestras necesidades informativas, pues no todas las páginas web nos son de ayuda para
determinado propósito de estudio. Por ejemplo: una página web puede estar bien para
encontrar información general sobre alguna enfermedad, puede no ser de calidad para un
trabajo académico de un estudiante de medicina.
Fuentes consultadas:
Advocates for Youth. . (s.f.). Finding and Evaluating Information on the Internet. Recuperado
de http://www.advocatesforyouth.org/publications/publications-a-z/490-finding-and-
evaluating-information-on-the-internet
Riverstone Family Medical Practice. (s.f.). How to use the Internet to find accurate
information. Recuperado de http://rfmp.com.au/how-to-use-the-internet-to-find-accurate-
information/