Documentos de Académico
Documentos de Profesional
Documentos de Cultura
html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Es habitual que los humanos busquemos explicaciones sobre lo que vemos, sentimos y oímos, que una
vez encontradas suelen ser complejas y variadas. Es la forma de trabajar de nuestra mente, que usa la
inteligencia para comprender mejor nuestras experiencias.
Con frecuencia es suficiente designar con un nombre a una situación sucedida. Por ejemplo, un agricultor
escucha un sonido fuerte procedente del cielo y dice "es un trueno". Pero no siempre el nombre nos da
suficiente información sobre el tema, aunque si es tranquilizador el hecho de ser capaces de asignar un
nombre, esto significa que hemos tenido una experiencia similar previamente y que podemos reconocerla.
Nos indica que otras personas también han percibido el mismo tipo de hechos.
A partir de nuestra experiencia podemos deducir lo que ocurrirá a continuación. El agricultor dirá "lloverá
pronto". Hemos sido capaces de organizar nuestras percepciones de forma que podemos reconocerlas
como modelos comunes y hemos aprendido a utilizar una información que nos ayuda a comprender
aquello con los que nos encontramos en la vida cotidiana. El agricultor puede decir "dios se ha enfadado y
manda estos rayos contra nosotros, pronto se compadecerá y enviará lluvia". En otras ocasiones el mismo
dios enviará sol, o viento, o nieve.
Teorías
Las teorías se desarrollan como respuestas a preguntas del tipo ¿por qué? o ¿cómo?. Se observa alguna
secuencia de hechos, alguna regularidad en torno a dos o más variables y alguien se pregunta por qué esto
es así. Una teoría intenta explicar los hechos y consiste en:
Un conjunto de definiciones que claramente describen las variables que se van a utilizar
Un conjunto de supuestos que delinean las condiciones bajo las cuales se va a aplicar la teoría
Una o más hipótesis sobre el comportamiento de estas variables
Predicciones que se deducen de los supuestos de la teoría, y que se pueden contrastar con datos
efectivos obtenidos de observaciones o experimentos.
Una de las principales consecuencias de las teorías es que nos sirven para predecir hechos que todavía no
han sucedido. De esta forma podemos comprobar si una teoría es correcta o no, haciendo experimentos
cuyos resultados pueden no sólo demostrar que la teoría es falsa, sino también sugerir dónde se equivoca,
y de esta forma se pueden proponer teorías corregidas.
La pregunta que lógicamente aparece a continuación es ¿cuáles son los criterios necesarios para convencer
a alguien que una explicación dada es correcta?. Por supuesto, la respuesta depende del tipo de persona.
2 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Para alguien que se inclina por aceptar una explicación teísta puede ser suficiente con verificar que la
explicación coincide con la de los libros religiosos, otras personas aceptan una idea si está avalada por
alguien al que se le considera instruido e inteligente. Ambos argumentos seguro que no convencen a un
auditorio científico.
Puede haber más de una explicación científica sobre una cuestión. A veces una explicación puede incluir
a otra, por ejemplo la teoría cinética de los gases engloba la ley de Gay-Lussac. Un examen de casos en
los que las nuevas teorías sobre la naturaleza han sido aceptadas puede ser de mucha ayuda.
Supongamos que en un período de la historia se haya aceptado una teoría sobre la naturaleza que
proporciona una explicación de los sucesos y que es válida en muchos casos, llamémosla primera teoría
aceptada. Supongamos que esta teoría tenga algunos defectos que son reconocidos por lo menos por
algunos científicos, en estas condiciones debe proponerse una nueva teoría, en cierto modo para subsanar
estos defectos. Seguidamente se comentan factores de gran ayuda con vistas a convencer a la comunidad
científica que acepte una nueva teoría:
A) Reductibilidad
La nueva teoría debe ser por lo menos tan buena como la antigua. La norma que se sigue para demostrar
este criterio consiste en demostrar que en las situaciones pertinentes la nueva teoría se reduce a la antigua.
Cuando se ha acumulado un gran cuerpo de información en un campo, cualquier modificación debe tener
en cuenta todos los logros de las teorías existentes. Esto significa que toda persona que desee aportar algo
en este campo, debe conocerlo muy bien, una teoría expuesta por un individuo inexperto es muy difícil
que llegue a ser considerada.
El primer criterio puede resumirse de la siguiente forma: una teoría nueva debe conducir a los mismos
resultados obtenidos con las teorías aceptadas previamente en todos los casos que se ha probado que son
útiles.
B) Innovación
La nueva teoría debe ser mejor que la antigua, no es suficiente dar los mismos resultados que la anterior.
Se dice que ambas teorías son equivalentes cuando en todos los casos las predicciones de la nueva teoría
son las mismas que las de la antigua y la elección entre una u otra es cuestión de gustos. Si
verdaderamente la nueva teoría debe reemplazar a la anterior, debe añadir algo nuevo.
Por ejemplo, la teoría cinética de los gases no sólo reproduce todos los
logros de Gay-Lussac y Arquímedes, sino que ayuda a explicar
fenómenos sobre los que las antiguas teorías no tenían nada que decir.
Con ayuda de la teoría cinética podemos calcular, por ejemplo la
velocidad del sonido y la resistencia que el aire ofrece a los proyectiles
que lo atraviesan.
3 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
C) Testabilidad
Existen teorías tan indefinidas o complicadas que se resisten a una comprobación experimental. El
Oráculo de Delfos en la antigua Grecia, proclamaba que era capaz de predecir el futuro, pero sus
aseveraciones eran siempre tan indefinidas que si la predicción no resultaba cierta podía argumentarse que
había sido mal interpretada. Una teoría que siempre puede reajustarse de forma que explique cualquier
resultado experimental no puede ser satisfactoria.
Deben poderse obtener consecuencias de una nueva teoría que difieran de las demás teorías similares, y
además estas consecuencias deben prestarse a comprobación experimental.
D) Elegancia
Una teoría sobre la naturaleza debe ser bella. Este es otro elemento (llamémosle elegancia o belleza) que
ayuda a que una nueva teoría tenga mejor acogida. Los científicos creen que las formas de las leyes de la
naturaleza son simples, las teorías físicas más importantes del pasado son muy simples, como F=ma,
E=mc2.
Una nueva teoría debe inclinarse por un enunciado universal de sus principios que sea breve y de gran
contenido.
... ¿cuáles son las entidades matemáticas a las que les atribuimos este
carácter de belleza y de elegancia, las que pueden producirnos tal
emoción estética? Son las que tienen sus elementos armoniosamente
dispuestos, de tal forma que la mente puede captar sin esfuerzo su
totalidad, al tiempo que percibe sus detalles ...
E) Otras consideraciones
Finalmente se ha de llamar la atención sobre los criterios que no deben tenerse en cuenta. Por ejemplo no
es necesario que una teoría científica esté de acuerdo con las ideas de V. I. Lenin, por poner un ejemplo,
sin negar en ningún momento la gran importancia de dicha persona. O tampoco es necesario que esté
conforme con respecto a lo que nos dice la Biblia sobre la creación, aunque mucha gente lo crea, sin darse
cuenta que dicho documento es una novela.
4 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Método científico
La elección no es entre teoría y observaciones, sino entre mejores o peores teorías para explicar las
observaciones; los hechos son intocables. Pero esto no quiere decir que las teorías sean humildes
sirvientes de las observaciones, de hecho casi todos los científicos están más interesados en las teorías,
viéndose los experimentos como unos sirvientes que permiten decidir entre varias teorías.
1. Plantear un problema
2. Observar algo
3. Buscar una teoría que lo explique
4. Hacer predicciones usando esa teoría
5. Comprobar esas predicciones haciendo experimentos u observaciones
6. Si los resultados están de acuerdo con la teoría, volver al paso cuatro, si no, volver al tercero
En la práctica, el método científico es más complicado. No siempre está clara la metodología para hacer
los experimentos, que cambia de un área de la ciencia a otra. Hay "experimentos" que se pueden hacer en
un ordenador, y otros donde esto no está tan claro. Los resultados han de ser aceptados por expertos en el
área correspondiente antes de ser publicados. Los experimentos deben repetirse independientemente, y a
veces no se consiguen los mismos resultados. Las demostraciones han de ser verificadas, y
5 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
En matemáticas se admite el especular sobre las consecuencias de alguna famosa conjetura no demostrada
con ¡muchísimo cuidado de anunciar esta dependencia! Algunos experimentos son tan laboriosos que
deben hacerse entre varios científicos, o partes del experimento se asignan a otros expertos (análisis
estadístico, construcción de instrumental e instalaciones, programas informáticos). Hay experimentos que
requieren años o incluso decenios para realizarse (exploración espacial), para construir el instrumental
(CERN), o para analizar los datos.
¿Es infalible?
Nótese un aspecto importante del método científico, no acaba nunca; no existe una "verdad científica
absoluta". Pero esto no disminuye el valor de las aplicaciones de la ciencia; el principio de Arquímedes
sigue explicando por qué los barcos flotan. ¿El método científico es infalible? Sí y no. No, en el sentido
que suele producir teorías provisionales que son falsas. Hablaremos más de esto después.
Sí que es infalible en dos sentidos, por una parte, el método científico nunca asegura nada de forma
conclusiva, así que no puede equivocarse. Dicho de otra forma, si demuestras que alguna teoría científica
está equivocada, estás formando parte del mismo método científico, que se está autocorrigiendo gracias a
tu ayuda. Esto puede parecer una tontería hasta que se compara con otras formas de obtener conocimiento.
Pero en estos casos tampoco se equivoca, porque, dada la naturaleza inexperimentable de estos
fenómenos, el método científico no valida nada al respecto ni cierto ni falso. De nuevo, esto puede
parecer una tontería hasta que se recuerdan los problemas que otras doctrinas tienen para delimitar su
alcance.
6 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
A mediados del siglo XIV, el filósofo inglés Guillermo de Occam, formuló lo que se podría llamar un
principio, un principio del pensamiento, y que ha pasado a la historia de la filosofía de la ciencia. Es el
llamado "principio de economía del pensamiento", o "principio de parsimonia", o más comúnmente, la
"navaja de Ockam".
En su formulación original, esta regla dice "Entia non sunt multiplicanda sine necesitate", que los que
saben de latín dicen que se traduce como que "los entes no deben ser multiplicados si no es necesario".
Según este principio, si tenemos dos modelos científicos para explicar un fenómeno, aquel que sea más
"sencillo" será digno de mayor consideración. En realidad, esto no es así. Como el método científico
impone, ha de ser la comprobación experimental, la verificación empírica, la que ha de decidir entre los
dos modelos. Pero, en muchas ocasiones, la complejidad del fenómeno a estudiar impide una eficaz
comprobación empírica, o la misma prueba experimental no permite decidir entre los distintos modelos.
Un símil simple sería éste: si las teorías científicas fuesen programas de ordenador, y tuviésemos tres
"programas" para explicar lo mismo, nos quedaríamos con el que ocupase menos espacio en nuestro
ordenador. Esta podría ser, por tanto, una formulación más elaborada, o más próxima a una formalización,
del célebre principio.
Diversos filósofos se han hecho famosos por sus aportaciones a esta faceta de la filosofía: Paul K.
Feyerabend (1924-1994), Imre Lakatos (1922-1974), Thomas S. Kuhn (1926-1996) y Karl Popper
(1902-1997).
Según esta posición, la ciencia se distingue de otros conocimientos por ser "falsable" (y no
"verificable"), es decir, porque contiene mecanismos orientados a determinar su posible falsedad.
La base de este criterio está en la misma crítica al empirismo y al inductivismo: por más que un
enunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nada
impide que de pronto aparezca un caso contradictorio.
Si, por ejemplo, observamos milones de cuervos y vemos, además, que todos son negros, no hay
razón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la
7 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
posibilidad de que aparezca alguno de otro color. Y, dado que el conjunto completo de todos los
casos posibles escapa a la observación del ser humano, nunca será posible VERIFICAR o
comprobar la verdad de un enunciado como "todos los cuervos son negros". Pero, en cambio, sí
será siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no se
cumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sino
exponerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá ser
mantenido sólo provisionalmente (aún cuando transcurran siglos), mientras no aparezca un caso
que lo contradiga (es decir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sí
podrá ser refutado y desechado definitivamente apenas surja un dato que lo niegue.
En síntesis, los enunciados científicos se distinguen justamente por estar siempre expuestos a
pruebas de FALSEDAD. De esta forma, el "falsacionismo" viene a ser el criterio de demarcación
entre ciencia y no-ciencia y, por tanto, es la magnitud de su "contenido de falsedad" lo que hace
más o menos científico a un conocimiento dado. De lo anterior se infiere que la meta de la ciencia y
de la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la
"verosimilitud", o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas de
falsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de cobertura
ante los datos de la experiencia.
En resumen, el esquema de Popper del método científico es muy sencillo y él mismo lo expresó en
su forma más condensada en el título de su famoso libro, Conjeturas y refutaciones. La ciencia es
simplemente asunto de tener ideas y ponerlas a prueba, una y otra vez, intentando siempre
demostrar que las ideas están equivocadas, para así aprender de nuestros errores.
Actualmente se están viendo gran cantidad de anuncios y artículos sobre métodos o técnicas
pertenecientes a la pseudomedicina. Son claros ejemplos de irracionalidad, y de lo que no debe ser nunca
una teoría científica.
Seguidamente se comentan escuetamente algunas terapias pseudocientíficas muy llamativas, que algunos
de los lectores habrán sufrido alguna vez.
Homeopatía .- Inventada por el médico alemán Samuel Christian Hahnemann (1755-1843), trata las
enfermedades con disoluciones extremadamente diluidas (de hecho suele ser agua edulcorada). Su no
validez se justifica de forma comprensible sin ser experto en ciencias ni en medicina, sólo con el sentido
8 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
común.
9 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Esta introducción puede parecer algo extensa pero será muy útil a la hora de discutir
algunos puntos relativos a la homeopatía.
La Ley de Similia asegura que una sustancia curará una cierta enfermedad si suministrada
a una persona sana provoca los mismos síntomas o sintomas muy parecidos a los que
produce dicha enfermedad. De esta ley, o supuesta ley, deriva el nombre de homeopatía:
homois "similar" y pathos "sufrimiento", en griego. Para ser uno de los principios básicos
de la homeopatía no deja de ser bastante sorprendente. Si alguien sufre una intoxicación
por arsénico. ¿se curará administrándole más arsénico? Yo diria que no. De todos modos,
dado que cualquier sustancia puede emplearse como un remedio homeopático, ¿cómo se
sabe que síntomas produce una sustancia determinada?. Según Hahnemann se debia
realizar un proceso de prueba. Se debía administrar a una persona sana cantidades cada
vez mayores de esa sustancia hasta que aparecieran los primeros síntomas de
intoxicación, dichos síntomas debían compararse con las enfermedades catalogadas y si
eran parecidos a los síntomas de alguna enfermedad, esa sustancia pasaba a considerarse
útil para el tratamiento de dicha enfermedad.
La Ley de los Infintesimales nos dice que cuanto más pequeña sea la dosis más poderoso
será el efecto de la sustancia. Los efectos de la sustancia se potencian con la dilución de
la misma; cuanto más diluida esté la sustancia más poderoso será su efecto. Los remedios
homeopáticos se preparan siguiendo diluciones decimales. Se parte de una cierta cantidad
de disolución, se extrae una décima parte y a dicha fracción se le añaden nueve decimos
de agua destilada, se agita la nueva mezcla resultante y se repite el proceso varias veces
hasta llegar al grado de dilución deseado. Son muy habituales grados de dilución de
1/1000000 o 1/10000000, y en algunos casos se llega a grados de dilución tan extremos
que la probabilidad de encontrar alguna molécula de la supuesta sustancia activa en la
preparado final es inferior al 50%. Si la sustancia no es soluble en agua puede molerse
muy finamente y mezclarse con lactosa, siguiendo un proceso de dilución similar pero
empleando la lactosa en lugar de agua destilada. Un compuesto que es prácticamente
agua destilada o lactosa debería resultarnos familiar, no es más que un placebo como los
que se emplean en los ensayos clínicos doble ciego!!. Del mismo modo que en nuestro
Grupo B había pacientes que se curaban, algunos de los pacientes que acuden a un
homeópata se curarán, ¿significa eso que los remedios homeopáticos son efectivos?
Después de lo explicado en la introducción vemos que la respuesta es un NO rotundo.
10 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
precedentes. Por otra parte, ningún preparado homeopático ha superado nunca un ensayo
doble ciego realizado con un mínimo de garantías contra el fraude o el engaño.
Después de todo lo dicho cabe preguntarse ¿por qué la homeopatía sigue siendo popular?
¿cómo se las arreglan los homeópatas para justificar lo injustificable?. Un punto que
suele destacarse a menudo es que la medicina trata enfermedades mientras que la
homeopatía trata enfermos. Se arguye que la medicina sólo mira de atacar los síntomas
de las enfermedades, mientras que la homeopatía trata al paciente como un todo, (sea eso
lo que sea). Por supuesto,esto es un disparate, porque si bien es cierto que hay casos en
que se prescriben medicinas para eliminar o mitigar los síntomas, (la más típica sería la
aspirina), se olvida que esto no constituye la norma. Por ejemplo, la medicina dió un paso
de gigante con el descubrimiento de los antibióticos, y precisamente una sustancia como
la penicilina lo que hace es atacar la raiz del problema en ningún caso los síntomas. Por
su parte, ¿qué hace la homeopatía?
Otro punto que se destaca de la homeopatía es que las disoluciones infinitesimales que
prescribe sólo incluyen productos naturales. Esta es una falacia que se podría aplicar a un
montón de "medicinas lternativas".
Parece que los productos naturales son per se beneficiosos pero se olvidan de que la
naturaleza está llena de venenos y tóxinas de origen vegetal o animal potentísimos. Los
antibióticos, empleados por la medicina no por la homeopatía, tienen su origen en un
producto natural pero no olvidemos que los productos naturales están expuestos a la
contaminación; por lo tanto la purificación de estas sustancias o su síntesis artificial
representa un gran paso hacia adelante.
En relación a esto será interesante destacar el caso del Dr. Benveniste. Benveniste
encabezaba un artículo publicado en el año 1988 en Nature, en el que parecía establecer
que una disolución muy diluída de un cierto anticuerpo podía desencadenar una reacción
en leucocitos humanos. Lo sorprendente era que "muy diluido" significaba en este caso
una dilución de una parte entre 10120!!.
Parecía que este estudio daba una cierta credibilidad a la Ley de los Infinitesimales; sin
embargo, habría que advertir primero que ese estudio estaba en parte subvencionado por
una importante empresa francesa de productos homeopáticos. Por supuesto, esto por si
11 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Senoterapia .- Inventada por un médico italiano, hace pocos años. Se trata de diagnosticar enfermedades
por la forma de los pechos femeninos y curar con un masaje suave sobre los mismos.
Magnetizadores.- Para imanar al agua, engañan a mucha gente, pues el agua y fluidos análogos no se
pueden imanar.
"Los átomos de hierro de un iman están atestados juntos en un estado sólido en el que un
átomo está junto a otro. En tu sangre solo 4 atomos de hierro se encuentran en cada
molécula de hemoglobina, y están separados por distancias demasiado grandes como para
formar un imán. Esto es fácilmente comprobable pinchando tu dedo y colocando una
gota de sangre cerca de un imán." - Michael Shermer
12 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Los más rabiosos abogados de la terapia magnética son atletas como Jim Colbert y John
Huston (golf), Dan Marino (fútbol americano) y Lindsay Davenport (tenis). Su creencia
está basada en poco más que razonamiento post-hoc. Es posible que el alivio que un
cinturón magnético proporciona a un golfista con un problema de espalda, por ejemplo,
no sea simplemente una función del efecto placebo o de la falacia regresiva. Bien puede
ser debida a la ayuda de la aportación de calor adicional que el cinturón provoca. El
producto funcionaría igual de bien sin los imanes. Además, los deportistas no son dados
a los tests científicos más de lo que lo son los fabricantes de magnetocacharros.
Los atletas no son los únicos enamorados de los poderes curativos de los imanes. El Dr.
13 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Mientras las ventas de productos magnéticos continuan aumentando hay unos pocos
estudios científicos en marcha. La Universidad de Virginia está testando imanes en
pacientes de fibromialgia. Las universidades de Miami y Kentucky estan haciendo
pruebas en gente con síndrome de tunel carpiano (Collie), En el presente, sin embargo,
no tenemos ninguna buena razón para creer que los imanes tienen ningún poder curativo
más que los cristales o los brazaletes de cobre.
Ionizadores de aire.- Dicen aumentar los iones negativos en el aire por que son maravillosos para todo.
Estudiados los aparatos, muchos ni siquiera son capaces de formar iones.
Acumulador de orgones.- El orgón es una energía telúrico-sexual, son como las partículas elementales
de la energía sexual (como los quars que forman el óctuple sendero, pero de orgasmo), y tener muchas,
dice el alemán que promociona este engaño, es muy conveniente.
Psicoanálisis.- Fascinante forma, inventada por Freud para sacar dinero a la burguesía y crédulos por el
estilo.
Curación espiritual.- Los espíritus benéficos de los cielos o incluso el mismo Dios curan nuestras
enfermedades siempre que tengamos fe y a veces dinero que donar.
a) Ciencia Cristiana.-Especie de Iglesia médica, que cura a base de fe. La curación es la salvación
eterna. La oración y no cometer pecados la mejor profilaxis.
b) Lourdes, Fátima. Mendujorge y más.- Milagros católicos para todos los gustos. La Virgen María
en plan enfermera.
Las religiones casi siempre han considerado de alguna forma la persistencia de vida después de la muerte,
incluso hay personas que han estado muy graves que relatan hechos que aparentemente están fuera de la
normalidad. Todas estas creencias son falsas, estando actualmente justificados dichas situaciones desde el
punto de vista puramente científico.
Astrología.- En todo el mundo se publican miles de secciones astrológicas, los tan conocidos
"horóscopos", aparecen indiscriminadamente en periódicos, revistas, folletos y en los últimos años en
Internet. La astrología presupone que la posición de los planetas y el Sol en una determinada franja del
cielo; llamada constelaciones del zodiaco, influyen en nuestras vidas. Según dicen los astrólogos (no
14 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
confundir con astrónomos) la posición del Sol a la hora de nacer marca de por vida las características
particulares de una persona.
Carece de cualquier base científica, las fuerzas gravitacionales de los planetas son insignificantes sobre
una persona en el momento de nacer; además es absurdo que cada doceava parte de la población terrestre
tenga un futuro igual. Cualquier intento de verificación experimental no corfirma la validez de esta
pseudociencia.
Grafología.- Es otra pseudociencia que entre las muchas "utilidades" que ofrece, está la de adivinar el
carácter de una persona en base a su escritura. No se debe de confundir con la valoración de igualdad
entre dos escritos o firmas, que es función de los "peritos caligráficos". Lamentablemente se enseña como
ciencia en una asignatura de los estudios de Licenciatura en Criminología en la Universidad de Murcia.
La percepción pública de la ciencia viene mediada por numerosos factores, que a menudo
nada tienen que ver con el contenido y alcance real de las investigaciones, sino con ideas
populares que se van asentando, propiciadas desde los medios de comunicación y, a
menudo, alentadas desde sectores interesados en hacer valer sus opiniones. En general,
siempre se suele comentar que existe un analfabetismo científico funcional en una parte
de la ciudadanía: el desconocimiento sobre aspectos fundamentales de la ciencia y la
tecnología actuales se suele poner de manifiesto en encuestas de opinión. En diferentes
encuestas que se han ido realizando en los últimos decenios se muestra cómo la gente
puede creer que el hombre convivió con los dinosaurios, cómo no entienden la estructura
atómica de la materia o muchas otras "lagunas" en los conocimientos objetivos. En el
Eurobarómetro, una encuesta que se viene realizando desde hace quince años se incluía
en 1996 una pregunta para valorar el conocimiento de las tecnologías genéticas por parte
de los europeos. Dos terceras partes de los encuestados decía que era correcta la
15 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
afirmación "los tomates naturales no tienen genes, sólo los transgénicos los tienen".
Sin embargo, la valoración que se establece sobre la ciencia es mucho más positiva que
lo que cabría concluir del estado de desconocimiento. En los mismos Eurobarómetros, se
ve cómo el ciudadano europeo concede en general mucho valor a la ciencia, depositando
en ella una confianza alta a la hora de la resolución de importantes problemas como los
ambientales, las enfermedades o en general, por su capacidad de mejorar la calidad de
vida. Recientemente se ha publicado el estudio "Percepción social de la ciencia y la
tecnología en España", promovido por la Fundación Española Ciencia y Tecnología
(FECyT). Los encuestados en este trabajo, valorando en una escala de 1 a 5 en la que 1
significaba que no había asociación alguna y 5 una asociación completa, relacionaban la
ciencia con "progreso" (4,35), "bienestar" (3,74), "riqueza" (3,55), "oportunidades"
(3,55). Hacen notar los autores cómo la asociación con el progreso es mayor que otras
características que se suelen relacionar con los avances científico-tecnológicos.
De esta manera, la idea que podríamos obtener del estado de la percepción social de la
ciencia sería en cierto modo positivo: valoramos la ciencia, aunque la desconocemos.
Una conclusión obvia, precisamente en la dirección que trabajan los planes comunitarios
en este sentido, sería favorecer la comunicación sobre ciencia, la educación, y fomentar
las vocaciones a la vez que realizar políticas de inversión en ciencia que permitan la
creación de un verdadero espacio científico europeo no sólo como motor de la industria,
sino con la capacidad de involucrar al ciudadano.
La realidad, sin embargo, muestra que hay sectores de la ciencia en los que esa
valoración cae, o en general, en los cuales se establece una duda o incluso un temor ante
la propia ciencia. El asunto de los organismos transgénicos es un buen ejemplo donde se
muestra cómo la investigación científica y la opinión popular se separan de manera
importante. Las efectivas campañas de alerta (a menudo sin justificación racional alguna)
por parte de algunos sectores del activismo ecologista han conseguido que la percepción
de lo "transgénico" sea muy negativa. De poco sirve que las grandes multinacionales de
la biotecnología hayan promovido una imagen casi idílica del avance que podría suponer
estas técnicas en solucionar el hambre en el mundo, o mejorar la calidad de los cultivos.
La sombra de la duda sobre la inocuidad de los productos ha conseguido que, incluso (o
principalmente) en los planos políticos se hayan establecido moratorias o programas de
contención ante estos nuevos productos.
En anuncios de televisión podemos oír cosas como que un producto "protege contra las
16 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Nada tiene que ver una con otra, pero en un mundo que sobrevivió a una tensión de
decenios con la amenaza de la guerra nuclear, todo lo relacionado con ese mundo nos
sigue pareciendo peligroso y desasosegante. Lejos están los años en que los detergentes
proporcionaban un "blanco nuclear":hasta los años cincuenta la ciencia del átomo era
percibida como uno de los mayores avances, a pesar del uso bélico de la misma a finales
de la II Guerra Mundial. Pero posteriormente todo un activismo antinuclear consiguió
hacer cambiar a la opinión pública: todo lo radiactivo es peligroso.
Es evidente que tales maximalismos no son acordes con una actitud científica que ha de
valorar siempre los riesgos y las consecuencias de forma menos apasionada. Pero
también es evidente que nos movemos de forma mucho más gregaria y menos crítica que
lo que sería conveniente. El hecho de que cuando un médico solicita para un paciente un
diagnóstico mediante resonancia magnética nuclear casi sistemáticamente oculte las dos
últimas palabras, por la asociación casi instantánea que establecemos entre "nuclear" y
cáncer, es un síntoma de que las cosas no se están haciendo bien.
El hecho de que mucha gente prefiera una "medicina natural" indica el desconocimiento
y el prejuicio que establecemos: de hecho, unas dos terceras partes de los medicamentos
convencionales tienen principios activos que son "naturales", pero el proceso industrial
permite, adecuadamente, establecer la forma de aplicación y la dosis adecuada que lo
hacen un tratamiento efectivo. Por el contrario, y sirva como ejemplo, un cocimiento
(natural) de plantas recetado como una verdadera panacea por una medicina que se dice
alternativa supone una dosificación incontrolada: ni se puede saber exactamente cuánto
medicamento estamos ingiriendo ni podemos controlar otras sustancias que se están
introduciendo a la vez.
(cortesía de J. Merelo)
Carl Sagan
17 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Carl Sagan hace un análisis muy interesante sobre el caso de Lourdes. Resulta que desde
la "aparición" de 1858, unos cien millones de personas han visitado Lourdes con la
esperanza de ser curados de una enfermedad que la medicina "oficial" no ha logrado
vencer. La Iglesia Católica (ICAR) ha rechazado la autenticidad de una enorme cantidad
de casos, y sólo ha aceptado 65 en casi un siglo y medio.
Existen casos bien documentados de personas "desahuciadas" que se han curado sin
intervención médica, aunque son muy escasos. Esto no es el caso del efecto placebo. Se
atribuye simplemente a "curación espontánea", no hay razón alguna aparente para que la
curación se dé, y sin embargo se da.
Si se consideran los 65 casos en casi siglo y medio aceptados por la ICAR, estos casos
son de tumores, tuberculosis, optalmitis, bronquitis, parálisis, etc. Pero ninguno es por,
digamos regeneracion de un miembro o de una espina dorsal cercenada. De las 65
curaciones, hay una proporción de diez a uno más de mujeres que de hombres. La
probabilidad de curación después de visitar Lourdes es entonces, de aproximadamente
una en un millon, se tienen tantas probabilidades de curarse despues de visitar Lourdes,
como se tienen de ganar el premio mayor de la loteria, o de morir en un accidente aéreo,
por ejemplo.
La curación espontánea de todos los tipos de cáncer juntos se estima en algo entre uno en
diez mil y uno en cien mil. Si sólo un cinco por ciento de aquellos que van a Lourdes
fueran por cáncer, tendría que haber habido entre 50 o 500 curas "milagrosas"
unicamente por cáncer. Dado que sólo tres de las 65 curas comprobadas eran casos de
cáncer, el índice de curación espontánea en Lourdes parece ser inferior que el de
cualquier otro lugar. En otras palabras, un enfermo tendría más probabilidad de curarse
espontáneamente (o "milagrosamente" si prefiere) quedándose en casa sin hacer nada en
vez de ir a Lourdes. Evidentemente, si se habla con uno de los 65 curados, va a ser muy
difícil convencerlo de que no fue su viaje a Lourdes lo que curó su cáncer.
Esta es una ilustracion clasica de la falacia post hoc ergo propter hoc (despues del
hecho, por lo tanto, debido al hecho)
Esto no tiene que ver con el efecto placebo, que en la mayoria de los casos produce una
"cura falsa", lo cual es fatal para pacientes que tienen una enfermedad tratable por la
medicina.
CARL SAGAN
18 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
de comportamiento a corto plazo. Hemos hecho una especie de acuerdo con la naturaleza: nuestros
hijos serán difíciles de criar, pero su capacidad para nuevos conocimientos aumentará en mucho la
capacidad de supervivencia de la especie humana. Además, los seres humanos hemos inventado, en
las más recientes pocas décimas de porciento de nuestra existencia, el conocimiento no sólo
extragenético sino también extrasomático; información almacenada fuera de nuestros cuerpos, de la
cual, la escritura es el más notable ejemplo."
No hay garantía de que el universo se conformará a nuestras predisposiciones. Pero no veo cómo
podremos tratar con el universo - tanto el universo exterior como el interior - sin estudiarlo. La
mejor manera de evitar abusos es que la población en general sea científicamente literata, para
comprender las implicaciones de tales investigaciones. A cambio de la libertad de investigación, los
científicos están obligados a explicar sus trabajos. Si la ciencia es considerada un sacerdocio
cerrado, muy difícil y arcano para la comprensión de la persona promedio, los peligros de abuso son
mayores. Pero si la ciencia es un tópico de interés y preocupación general - si tanto sus delicias
como sus consecuencias sociales se discuten regular y competentemente en las escuelas, la prensa,
y en la mesa familiar - habremos mejorado enormemente nuestras posibilidades para entender cómo
es realmente el mundo y para mejorarlo a él y a nosotros."
Sus contribuciones
Carl Sagan fue central para el descubrimiento de las altas temperaturas superficiales de
Venus y las causas de los cambios estacionales observados en la apariencia de Marte.
Ganó el Premio Pulitzer para no-ficción en 1978 por Los Dragones del Edén:
Especulaciones Sobre la Evolución de la Inteligencia Humana.
En 1980, su serie en 13 capítulos para los servicios de televisión pública "Cosmos", se
convirtió en una de las series más populares en la historia de la televisión pública
Americana.
Carl Sagan fue el "David Duncan Professor of Astronomy and Space Sciences" y el Director
del Laboratorio para Estudios Planetarios en la Universidad de Cornell.
Fue un importante contribuyente a las misiones de exploración Mariner, Viking y Voyager.
Obtuvo las Medallas de NASA por Excepcionales Logros Científicos, Logros en el Programa
Apollo, y Servicio Público Distinguido (dos veces).
El premio internacional de Astronáutica: el Prix Galbert.
El premio Joseph Priestley "por distinguidas contribuciones al bienestar de la humanidad".
El Premio Masursky del American Astronomical Society.
Y en 1994, el Public Welfare Medal, el honor más elevado del National Academy of
Sciences.
Director de la División de Ciencias Planetarias de la Sociedad Americana de Astronomía.
Director de la Sección de Astronomía de la Sociedad Americana para el Avance de la
Ciencia.
Presidente de la Sección de Planetología de la Unión Geofísica Americana.
Editor en Jefe de Icarus, la principal revista profesional de estudios del Sistema Solar.
Cofundador y Presidente del Planetary Society, el más grande grupo de intereses espaciales
del mundo.
Hay un asteroide, el 2709 Sagan, en su nombre.
Más de 400 artículos científicos y populares publicados.
19 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Estafa pura y dura..- Hasta ahora hemos visto efectos más o menos subjetivos tanto por el lado del
paciente como por parte de pseudomédico. Sin embargo gran parte de las técnicas de curanderismo se
tratan de una auténtica estafa. El método habitual utilizado es el de diagnosticar una enfermedad
inexistente, montar toda una parafernalia espíritual-mágico-médica y decir que el mal ha desaparecido.
Las mayores o menores dotes escénicas del supuesto sanador la darán fama y dinero. Más graves aún son
las estafas sobre enfermos reales (y a veces muy graves) que depositan su confianza, lo único que les
queda, en estos vendedores de ilusión, suelen ser los casos más sangrantes y tristes de familias
destrozadas o arruinadas por las "artes" de estas gentes.
Cirugía psíquica
Sin apoyo, equipo quirúrgico o anestesia curanderos inprovisados hacen curaciones
complejas, como extracciones de tumores usando sólo sus manos o, ¿algo más?. La gente
desesperada recurre a medidas desesperadas. Los que han sido victimas de este engaño
han pagado el precio, pero el embuste no se limita a los filipinos. La cirugia psíquica se
ha vuelto un fenómeno latinoamericano, lo vemos por todos los países en pequeñas
iglesias y grupos y lejos de la vista del publico. Sus magos y timadores se hacen pasar
por verdaderos curanderos y les quitan a las personas su dinero y también la oportunidad
de un verdadero tratamiento médico. Las operaciones se realizan en cuartos oscuros
donde la trampa es facil de ocultar, pero aún en las condiciones más abiertas el ardid es
dificil de detectar. El procedimiento empieza pidiéndole al paciente que se acueste en una
mesa mirando hacia el cielo para ver hacia Dios pero enseguida se verá la verdadera
razón de esto. No hay ningún intento por mantener condiciones de asepsia.
Al terminar el procedimiento el falso cirujano limpia el área de insercción con las toallas.
Toda la operacion puede realizarse en minutos. Cuando termina el paciente puede
20 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
examinar los resultados, no hay huellas de ningún tipo de corte, incisiones o cicatrices.
Antes de la llegada del paciente el cirujano psíquico prepara las herramientas para su
farsa:
sangre simulada, algodón colorante alimentario, una bolsa de plástico y varias tiras de
tocino con mucha grasa. Estos artículos se usan para crear unos pequeños recipientes
llamados cargas. Funcionan asi: El tocino se pone en la bolsa y se satura con colorante.
Esto será el convincente tumor que se extrae del estómago del paciente, luego la bolsa se
llena con una buena dósis de sangre simulada, los guantes evitan las evidencias
incriminatorias en las manos del cirujano, forma una bola con la bolsa y la carga está
lista. la carga se oculta donde sea menos evidente, el recipiente del algodón por ejemplo.
El timador se asegura de que no se vea y luego pasa el paciente. A este se le dice que
mire hacia arriba, en algunos procedimientos se le coloca boca abajo. En cualquiera de
los casos, esto da al supuesto cirujano una posición propicia para disfrazar su artimaña.
El algodón no tiene nada que ver con la higiene, el propósito de frotar el estomago es
darle opotunidad de ocultar la carga con la palma de la mano antes de masajear el area.
Los curanderos psiquicos no son más que unos timadores
Él asegura que es un 'cirujano psíquico' porque con la sola ayuda de un bisturí simple y
sus manos, dice él, se mete en las entrañas de sus pacientes y 'extirpa' tumores y 'arregla'
lo que los médicos son incapaces de curar en los quirófanos.
A través de las incisiones imaginarias extrae el tumor o la causa del mal del enfermo, que
no es otra cosa que vísceras de cerdos, corderos o aves.
21 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
El día que la policía le detiene, Andrés está llevando a cabo una delicada operación en los
testículos de su primer paciente.
Supongamos una bolsa de material ligero. Un extremo de la bolsa tiene una boca, que puede mantenerse
abierta, por ejemplo mediante un aro; este extremo se sostiene sobre algo que caliente el aire como un
hornillo o un mechero.
La bolsa se levanta y se hincha en todo su volumen. En este momento se suelta, y se eleva hasta el techo
de la habitación, permanece en el techo durante un momento, y luego cae lentamente hasta el suelo. ¿Qué
ha ocurrido? ¿Por qué ha ocurrido?
Existen muchas formas de explicar los sucesos que se producen en la naturaleza. El tipo de explicación
que aceptemos depende de nuestros conocimientos y de los supuestos que hayamos aceptado. La
explicación que convence a una persona, puede no satisfacer a ninguna otra. Haciendo la pregunta ¿Por
qué se eleva la bolsa hasta el techo?, se pueden dar distintas respuestas.
A) Respuesta animista
"Porque quiere alejarse del fuego". Esta respuesta satisfaría a muchos niños e incluso a algunas personas
primitivas (aunque actualmente hay quienes "encuentran" una relación con la parapsicología).
El animismo es la creencia de que todos los objetos naturales se encuentran vivos y poseen alma. El hecho
de que la bolsa se eleve no es más sorprendente que el que un niño ande hacia una puerta. Un ejemplo es
el Chamanismo.
El mundo animista es un mundo caótico pues todos los objetos se comportan de acuerdo con sus impulsos
naturales. Sobrevivir en este mundo implica ser capaces de conocer qué es lo que va a ocurrir a
continuación, y si es posible controlarlo en alguna medida.
B) Explicación mágica
La magia se define como el arte de producir efectos o controlar sucesos mediante encantamientos,
hechizos y rituales.
La imagen del científico como mago de salón, capaz de realizar todo tipo de trucos, no es posible
encontrarla actualmente. Hace más de un siglo era corriente que los científicos ganaran dinero haciendo
demostraciones de salón sobre chispas y productos químicos capaces de producir espumas.
El hombre primitivo debía enfrentarse con situaciones que no podía controlar. Entonces creía en la
existencia de seres superiores que podían hacer cosas que a los humanos no les estaban permitidas.
22 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
C) Explicación sobrenatural
Ha sido un "milagro". En otras palabras, existe algún ser que es capaz de interferir en los procesos
naturales y de producir sucesos que ordinariamente no ocurrirían. De igual forma que algunos reyes y
gobernantes, este ser tiene la propiedad de violar las leyes de la naturaleza, aun cuando originalmente
estas hayan sido creadas por él. Un caso curioso, que denota el bajo nivel cultural existente en España, es
que se anuncian cursos de milagros en Málaga, por 150 euros.
D) Explicación teísta
Teísmo es la creencia en un dios al que se le considera creador y gobernador del universo. "Es la voluntad
de dios". Haya habido o no, un milagro, todas las cosas ocurren de acuerdo con un esquema ordenado por
un ser supremo. Si existen leyes obedecidas por la naturaleza, es él quien las ha creado; si algún suceso
viola estas leyes, él es el único responsable. En última instancia, todo ocurre porque él lo desea y directa o
indirectamente lo produce. Esta creencia es soportada por mucha gente, incluso por algunos científicos.
Sin embargo desde el punto de vista científico explica muy poco, porque explica demasiado. Si todas las
cosas se deben a la voluntad divina y si esa voluntad se encuentra por encima del conocimiento humano,
es que no conocemos nada. Por otra parte si existe, o existió una divinidad que estableció originalmente el
sistema natural y sus leyes, de cualquier forma que se establecieran, es deber del científico descifrar la
naturaleza de estas leyes.
E) Explicación teleológica
Teleológico, significa dirigido hacia un fin definido, o que posee un último propósito. "El aire caliente por
naturaleza tiende a elevarse", según dijo Aristóteles. Mediante varios experimentos se puede comprobar
que el calor se encuentra asociado con la elevación de la bolsa.
Es el aire que llena la bolsa el que origina que ésta se estire y se hinche. Es el aire del interior de la bolsa
el que absorbe calor, calentándose y transportando la bolsa hasta el techo. ¿Por qué se acepta la existencia
de una sustancia invisible como el aire?. No es por que lo podamos sentir directamente, sino porque nos
ayuda a explicar otros fenómenos que podemos percibir. No todos los conceptos de este tipo sobreviven al
paso del tiempo.
En el esquema teleológico encontramos explicaciones más profundas que buscan propósitos más
generales. Así podemos decir que el aire caliente se eleva para que la tierra pueda enfriarse y las plantas
puedan crecer, y así nosotros tengamos alimentos para comer, y la cadena pueda alargarse enormemente.
Estas explicaciones dan lugar a discusiones filosóficas.
F) Explicación empírica
Empírico significa basado en la experiencia práctica, sin intentar comprender por qué se ha producido el
hecho.
* Principio de Arquímides: Cuando un cuerpo se sumerge en un fluido, es empujado hacia arriba por
una fuerza que es igual al peso del fluido desplazado.
Arquímedes vivió en la ciudad griega de Siracusa hacia el año 200 ane. Su principio lo
descubrió cuando el rey Hiero, le preguntó cómo podía saber si la corona que se había
comprado era realmente de oro. Este objeto tan valioso debía tratarse de forma no
destructiva. Arquímedes mientras se encontraba en los baños públicos tuvo una idea, y
23 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
salió corriendo por las calles de Siracusa, vestido a la usanza de los baños públicos
grecorromanos, es decir desnudo, gritando Eureka ("Lo he encontrado").
A continuación se muestra una simulación en Java, de un experimento que permite verificar el principio
de Arquímides, relativo al empuje en líquidos. Un sólido colgando de un dinamómetro se sumerge en un
líquido (mediante el arrastre del ratón). En este caso se reduce la fuerza medida, siendo igual a la
diferencia entre el peso y la fuerza de empuje.
Se pueden cambiar (dentro de ciertos límites) los valores preseleccionados de las densidades y del área de
la base y altura del cuerpo actuando sobre los campos de texto correspondientes. Tras presionar la tecla
"Intro", el programa indica los nuevos valores de la profundidad, volumen desplazado, fuerza de empuje,
peso y fuerza medida. Se supone un valor g = 9.81 m/s2 para la aceleración de la gravedad. Si aparece el
mensaje "Máximo excedido" con letras en rojo, es necesario seleccionar otro rango de medida adecuado.
* Ley de Gay-Lussac: Cuando se calienta (o enfría) un gas a presión constante, se expansiona (o contrae)
proporcionalmente al aumento (disminución) de la temperatura.
Explicación
Cuando la temperatura aumenta, el aire del interior de la bolsa aumenta igualmente de
temperatura. Se constata que cuando aumenta la temperatura el volumen del gas crece igualmente
24 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Estos dos principios difieren de las explicaciones previas en dos aspectos importantes: son cuantitativos,
nos dicen la magnitud que cabe esperar de un efecto, y se pueden aplicar a otros experimentos además del
que estamos describiendo.
Estos principios se pueden aplicar al caso de la bolsa con aire caliente. De acuerdo con la ley de
Gay-Lussac, al calentar el aire se expansiona, por lo tanto desplaza una cantidad de aire más frío, exterior
a la bolsa, que es más pesado que el aire caliente del interior. Luego por el principio de Arquímedes, el
cuerpo sumergido (es decir la bolsa con aire caliente) es empujado hacia arriba por una fuerza que es
mayor que su propio peso. De esta forma la bolsa se eleva hasta el techo. Cuando el aire en su interior se
enfría, se vuelve tan pesado como el aire que le rodea y el peso extra de la bolsa, es suficiente para hacerla
descender.
Ambos principios son ejemplos de leyes empíricas, que describen lo más fielmente posible, qué es lo que
sucede.
25 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Fue precisamente en una de sus estancias en Brasil donde tuvo lugar la anécdota que hoy
les cuendo, recogida en ¿Está Vd de broma Mr Feynman? Nuestro hombre había pasado
varios meses dando clases a universitarios brasileños, asombrado por el carácter
memorístico de los estudios de física e ingeniería: sus alumnos conocían al dedillo todas
las definiciones pero eran incapaces de aplicarlas a problemas reales; anotaban
atentamente todo lo que decía el profesor pero nunca, jamás, hacían una pregunta sobre
lo que escuchaban. Al final del curso fue invitado a contar sus experiencias como
profesor ante una nutrida representación de la comunidad universitaria.
La sala de conferencias estaba llena. Comencé definiendo la ciencia como una forma de
comprender el comportamiento de la naturaleza. Luego pregunté: ¿Hay alguna buena
razón para enseñar ciencia? Desde luego, ningún país puede considerarse civilizado a
menos que triqui, triqui, triqui...? Y allí estaban todos diciendo que sí con la cabeza,
porque así es como piensan.
Luego dije, ¿Esto por supuesto es absurdo, porque ¿qué motivos tenemos para pensar que
debemos estar a la altura de otros países? Tiene que haber alguna razón seria, no sólo que
otros países también lo hacen. Hablé entonces de la utilidad de la ciencia, de su
contribución a la mejora de la condición humana y todo eso, provocándoles un poco.
(...) Así que sostuve el libro de física elemental que ellos usaban y dije: En ningún lugar
de este libro se mencionan resultados experimentales, excepto en un sitio donde hay una
bola que rueda por un plano inclinado y se cuenta hasta dónde ha llegado la bola al cabo
de un segundo, dos segundos, tres segundos, etc. Los datos incluso vienen con errores de
modo que si uno los analiza parecen auténticos resultados experimentales, un poco por
arriba o por debajo de los valores teóricos. Hasta se menciona la necesidad de corregir
los errores experimentales, lo que es estupendo. El problema es que si calculamos el
valor de la aceleración a partir de estos datos obtenemos la respuesta correcta. Sin
embargo, una bola que rueda por un plano inclinado, si realmente se hace el experimento,
debe emplear parte de su energía para vencer la inercia y empezar a rodar, lo que hace
que con los datos reales obtengamos un valor de la aceleración que es 5/7 del valor
teórico. Así pues, este único ejemplo de un experimento es algo totalmente ficticio.
¡Nadie ha hecho rodar nunca esa bola, o no habrían obtenido este resultado!.
También he descubierto otra cosa, continué. Pasando las hojas al azar y poniendo el dedo
en cualquier página puedo mostrarles el problema; lo que allí aparece no es ciencia, sino
memorización. Así que seré lo suficientemente valiente como para hacerlo ahora, frente a
esta audiencia, y poner el dedo en cualquier sitio y leerles una frase cualquiera.
26 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Las personas tendemos a agrupar nuestros conocimientos y queremos saber la razón por lo qué ocurre una
cosa determinada. Nos preguntamos cuál es la relación entre una experiencia concreta y alguna otra
experiencia. A lo largo de la historia de la humanidad han existido grandes pensadores, que han influido
mucho en el desarrollo posterior. La mayoría de las veces dudamos de las diversas razones que se nos
presentan para explicar un fenómeno, algunos, incluso creemos en muy pocos hechos, esta visión de la
realidad es lo que se denomina escepticismo.
Con frecuencia a los escépticos se nos describe como personas inhumanas, frías y robóticas, esto es falso.
Como todo el mundo tenemos creencias (o convicciones como algunos prefieren denominarlas),
generalmente de tipo racional, fundamentadas en la lógica, en conocimientos científicos y en hechos
comprobados, nunca en el mero deseo de que algo sea cierto. En cuanto a la frialdad, es completamente
falso, posiblemente apreciamos cosas diferentes. Los escépticos no somos menos apasionados,
imaginativos o sensibles que los crédulos, y solemos tener mucho mejor sentido del humor.
A pesar de todas las facilidades y el gran avance tecnológico que la ciencia ha logrado para la
humanidad a lo largo de su historia, actualmente, como siempre, existe una enorme desinformación
sobre varios aspectos del conocimiento humano. Se observa que por muchos motivos (¿educación
deficiente seria uno?), que un gran número de personas no consigue distinguir fácilmente entre una
realidad posible y una realidad ficticia.
¿Cómo curar rápidamente una enfermedad terrible? ¿Cómo saber el futuro y así prevenir posibles
desventuras? ¿Existe alguna entidad superior que se preocupa por mí y me protege?
Estas son preguntas obvias que una persona con el mínimo de discernimiento ha realizado en
alguna etapa de su vida. ¿Quién no ha tenido veces incontables problemas de salud, de dinero o
sentimentales, problemas que ponen a prueba hasta la última pizca de resistencia física y
emocional?
Lamentablemente, la vida para una enorme mayoría de la población es una sucesión de penurias sin
27 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
fin, cuyos orígenes muchas veces vienen del propio ámbito y educación familiares, pasando por una
deficiente educación escolar, y finalizando en una sociedad desorganizada y no preparada para
resolver problemas elementales e inmediatos.
En este contexto, nada más natural que buscar una tabla de salvación en cualquier mano que se
extienda para aparentemente ayudar, buscando respuestas fáciles e inmediatas a problemas difíciles
y complicados.
Derecho a la duda
La rígida educación que nuestras sociedades han impuesto, limita desde temprano nuestra
capacidad de rebelión contra ideas y preconceptos adquiridos, y por esta razón, tendemos a aceptar
casi todo lo "establecido" como siendo algo intrínsecamente verdadero e irrevocable. La conclusión
es que hay millones de personas que no saben que tienen un derecho elemental, tanto como comer y
respirar, y es el derecho a la duda. Todos nacemos con este derecho, el de preguntar, indagar,
cuestionar y exigir pruebas ante cualquier afirmación realizada, sea del cuño que fuere, científica,
política, religiosa o económica, pero muy pocas personas ejercen este derecho natural.
El escepticismo es la escuela que pregona el uso de este derecho, el irrenunciable derecho a la duda,
el derecho que toda persona tiene a no ser engañada, manipulada o dirigida con fines excusos y
escondidos. El escepticismo es la sana actitud que hace rodar con suavidad el progreso de la
ciencia, invitándonos a cuestionar continuamente las bases de las disciplinas que dieron al hombre
la supremacía sobre el planeta, como son la Física, la Biología, la Química y otras, y que soportan a
nuestra tecnología.
Un escéptico no acepta ninguna verdad establecida a priori, sino que la acepta al final de una larga
cadena deductiva, o sea, cuando ya no hay argumentos que puedan invalidarla. Por el contrario,
otras escuelas de pensamiento pregonan algunas verdades como siendo legítimas por derecho
propio, y que necesitan argumentos propios para negarlas.
Exije pruebas
Así, la próxima vez que alguien te prometa una cura milagrosa a través de una piedra, pregúntate
antes: ¿cómo una piedra puede influir en mi salud?, cuando alguien te hable de energías espirituales
que realizan milagros, piensa si existe algún tipo de energía que no pueda ser medida ni estudiada
(sin necesidad de ser un experto en Física), y cuando te digan que ha sido visto un habitante de otro
planeta, pregúntate antes, cómo es que millares de astrónomos profesionales que vigilan el cielo día
y noche nunca han visto nada.
Exije pruebas, no te conformes con cualquier cosa. La persona que duda es la que debe ser
convencida, y así, tiene todo el derecho de escoger que armas prefiere, como le gustaría ser
convencida, y que método lógico desea emplear.
Cabe al proponente responder a todas y cada una de las dudas levantadas y dejar satisfecho al
escéptico en cuestión. Si alguna duda persiste después de presentadas todas las pruebas posibles,
entonces el escéptico tiene todo el derecho de continuar siendo escéptico.La carga de la prueba
siempre recae sobre quien afirma algo.
28 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Lo increíble es que aún hoy se siga usando este argumento continuamente: demuestra que
no he visto un ovni, demuestra que no hay fantastmas en tal hotel abandonado, demuestra
que mi péndulo no te adivina el futuro, etc.
Por último un texto de Locke en el que cataloga los argumentos en cuatro clases:
Antes de abandonar este asunto deberíamos reflexionar un poco sobre estas cuatro clases de
argumentos.... El primero consiste en recibir las opiniones de aquellos hombres que, por su aprendizaje,
por su eminencia, por su poder o por alguna otra causa, han adquirido una reputación y la han asentado
con autoridad ante los demás. Cuando los hombres han sido elevados a cualquier clase de dignidad, se
considera una falta de modestia, en otros, contradecirles en cualquier asunto, o poner en duda la
autoridad de aquellos hombres que ante los demás la tienen. Se suele censurar el que un hombre no
abandone rápidamente su propuesta ante la de otros autores ya consagrados, considerándolo como un
acto de orgullo desmedido; ....El que basa sus tesis en unas autoridades semejantes, piensa que siempre
debe de triunfar en su causa, y se muestra dispuesto a calificar de imprudente a cualquiera que ose
contradecirlas. Esto es lo que pienso se puede llamar «argumentum ad verecundiam»...En segundo lugar,
otra forma de la que los hombres se valen comúnmente para acallar a los demás, y para obligarlos a
aceptar sus juicios y a recibir las opiniones en debate, estriba en exigir al adversario que admita lo que
ellos alegan como una prueba, o que designen otra mejor Y a esto es a lo que llamo «argumentum ad
ignorantiam».... Una tercera forma consiste en obligar a un hombre mediante consecuencias extraídas de
sus propios principios a concesiones. Esto es lo que ya se conoce con el nombre de «argumentum ad
hominem»..... La cuarta manera consiste en el empleo de pruebas extraídas de los fundamentos del
conocimiento o de la probabilidad. Es a lo que llamo «argumentum ad judicium». Este, entre los cuatro,
es el único que conlleva una verdadera instrucción y que nos hace adelantar en el camino del
conocimiento...ya que, tal vez, me puede llevar hacia la reflexión de la verdad. ( Referencia)
Fuente: Ciencia en el XXI. Mirando con la mente.
Bajo licencia Cretaive Commons
29 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
¿Es posible adivinar el futuro? ¿Visitan la Tierra seres de otros planetas? ¿Convivió el
ser humano con los dinosaurios? ¿Está próximo el fin del mundo? ¿Ha demostrado la
NASA que Jesucristo resucitó? ¿Es peligroso viajar por el triángulo de las Bermudas?
¿Tiene Satanás debilidad por la España profunda? ¿Hay gente capaz de operar sin causar
dolor ni cicatriz alguna? ¿Está el futuro escrito en las estrellas? ¿Existen las casas
encantadas? ¿Se pueden doblar cucharas con el poder de la mente? ¿Es posible
comunicarse con el mundo de los espíritus? ¿Dejó Dios escrito en la Biblia el pasado y el
futuro de la humanidad? ¿Son las pirámides egipcias obra de seres venidos de otros
mundos? ¿Se manifiestan los espíritus a través de la ouija?
Puede que parezcan estúpidas algunas de dichas preguntas, pero como decimos, muchas
personas responderían convencidas con un sí. Para Manuel Toharia, director del Museo
de Ciencias de Valencia y miembro de la ARP- Asociación para el Avance del
Pensamiento Crítico, la postura escéptica nace como reacción a la enorme cantidad de
creencias basadas en afirmaciones de personas que se arrogan cierta autoridad y/o que
tienen suficiente credibilidad entre personas crédulas ("si no hubiera bobos no habría
engañabobos").
Tal vez haya más de uno que le suene mal aquello de ser "escéptico". En opinión de Félix
Ares, director del Museo de Ciencias de San Sebastián y actual presidente de la
Asociación, "en castellano la palabra escéptico tiene connotaciones negativas que no lo
tenía la palabra griega "esketikos".
El movimiento escéptico surge hace 25 años en Estados Unidos de la mano del filósofo
Paul Kurtz, que ayudado por científicos de la talla de Carl Sagan, Isaac Asimov, Martin
Gardner o Stephen Jay Gould crean la CSICOP, el Comité para la Investigación
30 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Sin embargo, la lucha es desigual. Para Toharia, "el combate contra las seudociencias
tiene pocos apoyos oficiales. En realidad, parece como si a los rectores de la sociedad no
les importase el nivel de engaño que sufren sus conciudadanos, generalmente por un
deficiente nivel cultural en lo científico". Según Gámez, "el gobierno norteamericano ha
preferido que la gente crea en OVNIs, para que no se hable de proyectos secretos
gubernamentales".
Y es que la red ha permitido que el mensaje de ARP llegue a los escépticos de habla
hispana de todo el mundo bien a través de las webs de la asociación y sus simpatizantes,
bien a través de la lista de correo escéptica hispana. Según Gámez, "Internet es ahora
para nosotros una herramienta básica tanto de proyección hacia el exterior como a la hora
del trabajo interno: reuniones de la directiva, intercambio de opiniones con los socios,
sesiones del consejo de redacción de nuestra revista, etcétera. Es un frente en el que no
pasa semana sin que recibamos alguna solicitud de adhesión."
Más de uno podría pensar que los escépticos se limitan a luchar contra las
pseudociencias. Sin embargo, ser escéptico supone algo más, tal y como se refleja en los
estatutos de la asociación: "La ARP impulsa el desarrollo de la ciencia, el pensamiento
crítico, la educación científica y el uso de la razón; promueve la investigación crítica de
las afirmaciones paranormales y pseudocientíficas desde un punto de vista científico y
racional, y divulga la información sobre los resultados de estas investigaciones entre la
comunidad científica y el público en general."
Por otra parte, los escépticos no tratan de eliminar las creencias por sí mismas. Como
bien dice Toharia, "una creencia, sin más, podría ser criticada pero la libertad de las
personas para creer lo que quieran está por encima de lo demás (otra cosa es que quieran
imponer esa creencia por la fuerza, claro). Pero un creencia que se disfraza de ciencia no
es más que un fraude que hay que denunciar ante la sociedad como tal".
Por su parte, según Félix Ares, "Nunca nos hemos metido con las creencias; nos hemos
metido con aquellos que dicen que sus creencias están demostradas científicamente. Por
ejemplo, nunca nos hemos metido con los que creen que la Sabana Santa es la mortaja de
Jesucristo. Sí lo hemos hecho con los que dicen que la Ciencia ha demostrado que es la
mortaja de Jesucristo."
31 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Mensajes de solidaridad para ayudar a niños enfermos que no existen, falsas alertas de virus, dudosos
métodos para hacerse millonario. Cualquier cadena es buena para recolectar direcciones de correo
electrónico y saturar los servidores.
Hay otros que repiten el esquema de las viejas cadenas de la suerte que recibíamos por correo postal que
te auguran calamidades si cortabas la cadena y te prometen convertirte en millonario si la sigues. He
recibido muchas cadenas en las que se decía "no sé si será cierto pero por las dudas yo lo reenvío". Para
los temerosos, supersticiosos y magufos, la realidad es que yo he roto infinidad de cadenas y no me ha
sucedido nada.
32 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
* Leyendas urbanas
* Métodos para hacerse millonario
* Regalos de grandes compañías
* Otros
* Mensajes tomando el pelo a la gente que envía hoaxes
Hay otros mensajes que no nacen como hoaxes pero pueden ser considerados como tales:
* Poemas y mensajes de amor y esperanza (suelen venir en un archivo de Power Point pesadísimo).
* Mensajes para unirte a programas de afiliados.
* Chistes y fotos que circulan en cadena.
No rompan la cadena, es milagrosa, pidan algo!!! Recuerden sus palabras: "No estoy yo aqui
que soy tu Madre?"
33 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Oh Santa Madre de Dios, no desprecies las suplicas que te dirigimos en nuestras necesidades.
Queridos hermanos, antes que nada quiero decirles que la Virgen de Guadalupe es buena y
milagrosa y siempre nos acompaña en cualquier lugar.
Esta carta tiene como fin darle la vuelta al mundo para recibir milagros con esta hermosa
cadena.
Debes hacer 19 copias y repartirlas en los siguientes diez dias y a cambio recibiras una prueba
de la Virgen por muy imposible que sea.
Esta carta es sagrada, por favor no te burles de ella, si la recibes y la repartes antes de los 10
dias, tendras una sorpresa y una felicidad muy grande.
Todos los usuarios de correo electrónico estamos acostumbrados a recibir cada día mensajes publicitarios
no solicitados. Esta práctica, aunque no es ilegal en muchos países, ya que no hay leyes que la prohiban,
perjudica a todos los usuarios de internet, inclusive a quienes la realizan.
Actualmente, se calcula que más del 50% de los e-mails que se envían son no solicitados, o sea, son
spam. Esto quiere decir que en el momento en que estás leyendo este tema, se están enviando varios
millones de e-mails no solicitados. El spam es perjudicial para todos, hasta para la empresa que lo envía.
Por lo general, las direcciones son robadas o compradas. Yo mismo recibo cada día dos o tres ofertas de
bases de datos con millones de direcciones de email al increible precio de US$ 35.
Esta gente aclara, con gran dignidad, que no copia ni vende software. También ponen en sus mensajes
(que dicho sea de paso son spam porque no son solicitados) "no compre bases truchas, todas nuestras
bases cuentan con direcciones reales y activas".
Aunque hay algunos spammers que te envían solamente un mensaje, también hay muchos que te
bombardean todas las semanas con el mismo mensaje con archivos adjuntos sobre la necesidad de filtrar
el agua de la ducha con un análisis de varias páginas, que nadie lee. De todos modos, si cada persona que
abre una página web te va a enviar un mail, el correo electrónico sería absolutamente inservible.
Tampoco es lógico que me envíen un mensaje en formato HTML promocionando un nuevo servicio de
distribución de videos, exclusivo para la ciudad de Lima, cuando yo vivo a miles de km de distancia.
34 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Esto, además de ofrecer una imagen negativa sobre la empresa que envía el spam, muestra la poca utilidad
de las bases de datos compradas.
Por otro lado los spammers invocan una supuesta ley por la cual el mensaje que están enviando no puede
ser considerado spam si tiene una forma de ser removido. Esto es falso, esa ley no existe. Además, la
mayoría de las veces si uno contesta el mail pidiendo ser eliminado de la lista, lo único que hace es
confirmar que su dirección existe. Por lo tanto, es conveniente no responder nunca a un mensaje no
solicitado.
Lo mejor es aplicar filtros o reglas de mensaje para evitar recibir mensajes de esas direcciones, un
programa para el entorno Windows, gratuíto y muy bueno, es K9. Otra opción, es quejarse al postmaster
del que envía el spam.
Lo más peligroso de muchos correos no solicitados, es que pueden incluir archivos con virus o troyanos, y
ser activados ya sea de forma involuntaria al intentar leerlos o incluso si se tiene un programa de correo
como Outlook (de Microsoft)se activan automaticamente.
Es imprescindible el tener siempre un programa antivirus y otro que detecte los troyanos, el detector de
troyanos (o programas espía) más completo y gratuito es Ad-Aware, que se puede descargar de Lavasoft.
Se ha de tener mucho cuidado con este tipo de programas, pues algunos eliminan los troyanos, pero ellos
son otros troyanos.
Un troyano reciente, Whiter.F, está diseñado para eliminar todos los archivos del disco duro. Se propaga
mediante correo electrónico, redes P2P, canales de IRC o transferencias FTP. EL usuario ve un mensaje
que dice "cometiste un acto de pirateria, te lo mereces" y seguidamente borra los ficheros del disco duro.
La proliferación de filtros y virus se esta convirtiendo en un problema para los "spammers" profesionales.
Resulta que muchos proveedores de internet impiden que los mensajes comerciales no solicitados llegen a
los buzones de los usuarios. Por supuesto que no están dispuestos a ver como ese millonario negocio se
derrumba y ahora han centrado sus esfuerzos en bombardear a los usuarios de las aplicaciones de
mensajería instantánea.
AOL IM, Yahoo Messenger, ICQ y por supuesto MSN Messenger son desde hace unas semanas un lugar
donde no es raro encontrarse con un mense promocionando un producto y que no sabes como ha llegado
hasta allí. Se trata de spim, durante el 2003 se enviaron 1000 millones de spims, aunque en el 2002 fueron
500 millones, según recoge en una investigación Ferris Research. Y para este año se prevén nada más ni
nada menos que 4000 millones.
35 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
La lengua inglesa goza de una inventiva peculiar para crear palabras, y también de una
capacidad especial para consolidarlas en el habla. Así se ha visto con "spam", el término
con que ya todos los usuarios del correo electrónico denominan a los mensajes
parasitarios que entran en su buzón. Hay quien piensa que la palabra es un tecnicismo de
la informática formado bien mediante siglas, bien por abreviatura de otra voz más larga.
Pero no nació así. "Spam" es el nombre de una marca de comida popularizada a
mediados del siglo XX. Se trataba de una variedad de carne en lata, puesta en el mercado
norteamericano por la empresa charcutera Hormel Foods en 1937. Sirvió de alimento a
los soldados estadounidenses y rusos en la II Guerra Mundial, y en los años 50 y 60
empezó a exportarse a varios lugares del mundo. Fue entonces cuando lo que en
principio se había llamado "Hormels Spiced Ham" quedó reducido a las cuatro letras de
"Spam", de mayor pegada comercial. Nada de esto explicaría cómo pudo "spam" llegar a
la jerga informática, ni siquiera metafóricamente, si no fuera porque los tronchantes
Monty Python la usaron hasta la saciedad en un sketch de su "Flying Circus" en 1969. En
él, unos vikingos entraban en una taberna y pedían la carta a la camarera, quien les
recitaba una inacabable retahíla de platos... en ninguno de los cuales faltaba el "spam":
«huevos con spam, spam con tomate, bacon y spam...». Al igual que el correo electrónico
no querido, el spam lo invadía todo y había que tragarlo de todas formas.
José María Romera
PHISHING
Recientemente se han popularizado los ataques phishing. Es una estafa que utiliza mecanismos
electrónicos, como puede ser un mensaje de correo o una página web, para convencer al usuario que
revele información sensible, que va desde datos personales y privados hasta las claves de acceso a
servicios.
Los ataques phishing son posibles por la combinación de unos mecanismos débiles de protección de
acceso que generalmente no son otra cosa que una simple combinación de usuario y contraseña, y la
capacidad innata de las personas a revelar cualquier información a quien nos la pregunte.
El método utilizado con más frecuencia en los casos de phishing masivo consiste en el envío de mensajes
que simulan ser enviados por alguien sobre quien en teoría confiamos (habitualmente bancos) y donde se
nos informe que, por cualquier circunstancia, es preciso revelar nuestra contraseña de usuario o bien
"verificar" nuestros datos rellenando un formulario.
36 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
La experiencia demuestra que la mayoría de las personas simplemente actúa de buena fe y se cree
cualquier petición de datos privados.
SMISHING
El SMiShing es como se denomina a un reciente tipo de delito usando técnicas de ingeniería social
mediante mensajes de texto dirigidos a los usuarios de telefonía móvil celular. Las víctimas reciben
mensajes cortos de texto con contenido similar a este: "Estamos confirmando que se ha dado de alta para
un servicio de citas. Se le cobrarán dos euros al día a menos que cancele su petición: www.?????.com",
cuando accedemos a la dirección web, las víctimas son incitados a descargar algún programa que suele ser
un troyano y si operamos bajo Windows es fácil que se instale en el ordenador. Otras veces el mensaje
señala un número para anular el servicio y una grabación pedirá datos personales, entre ellos un número
de cuenta bancaria o tarjeta de crédito. Hay otros que avisan de que hemos recibido una foto, premio,
video, tarjeta de felicitación, etc, con el mismo resultado final de ser víctima de un fraude.
- Es una variante del Phishing que solo busca un propósito, robar datos bancarios a los usuarios. Detrás de
llamativas ofertas prometiendo recargas más económicas (habitualmente de telefonía móvil celular) se
puede esconder una estafa, que lo único que busca es hacerse con información del usuario.
-Este tipo de fraude puede ser algunas veces mas peligroso que el tradicional phishing, el ataque no es
directo, se encuentra en los anuncios de los enlaces patrocinadores de buscadores de Internet.
El Scam es la captación de personas por medio de correos electrónicos, anuncios en web de trabajo, chats,
irc, etc... donde empresas ficticias le ofrecen trabajar cómodamente desde casa y cobrando unos
beneficios muy altos. Sin saberlo, la víctima esta blanqueando dinero obtenido por medio del phishing
(procedente de estafas bancarias).
* Su trabajo consiste en recibir transferencias bancarias a su cuenta bancaria, sacar este dinero
posteriormente para enviarlo a países extranjeros por medio de empresas tipo Western Union,
Money Gram.
Una vez obtenidos los datos de la victima y no colabora la victima será amenazada.
37 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Captación de compradores de coches a un coste muy bajo, la venta nunca se efectúa, esta persona realiza
un pago como señal, se queda sin dinero y sin coche.
Se producen por medio de llamativas ofertas en vehículos lujosos, incluso tienen web trampas con
nombre de dominios muy similares a empresas con mucho prestigio que se dedican a la venta de
vehículos de ocasión, pero todas los fraudes tienen algo en común:
* El pago se realiza por medio de empresas de envió de dinero a otros países (Western Union,
Money Gram).
* En un 90% el vehículo que venden esta fuera de su país, de esta manera usted solo puede verlo en
fotos.
* Le piden primero el 30% o el 40% del precio ofertado como primera señal.
* Captan a las victimas por medio de anuncios en web de venta de coches o de segunda mano y por
supuesto la recepción de correos electrónicos.
* Muchas veces el vendedor dice que es un español que vive en Gran Bretaña y por motivos
laborales de estancia en el país ingles, tiene que cambiar de forma urgente de coche por que se
conduce por la izquierda y su coche al estar matriculado en España el volante esta al lado contrario
y no se adapta, por este motivo vende el coche de forma muy económica, te enseñan un coche
matriculado en España.
* La mayoría de los estafados enviaron el dinero a Reino Unido, esto no quiere decir que cambien.
PHARMING
Es una técnica para llevar a cabo estafas "online", aunque en muchos medios comentan que no es
necesario usar ingeniería social esta definición no es totalmente cierta ya que es necesario que nuestra
maquina o la remota "sea manipulada". El pharming consiste en manipular las direcciones DNS que
utiliza el usuario, con el objetivo de engañarle y conseguir que las paginas que visite el usuario no sean
realmente originales aunque su aspecto sea idéntico.
Resumiendo desvía el tráfico de Internet de un sitio web hacia otro sitio de apariencia similar, con la
finalidad de engañar a los usuarios para obtener sus nombres y contraseñas de acceso, que se registrarán
en la base de datos del un sitio falso que fue creando antes y donde simula a la web que suplantan.
LOTERIAS FALSAS
Falso premio de loterías, el usuario recibe un correo electrónico donde le notifican que tiene un premio de
38 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
loteria, si un usuario contesta a este correo le solicitaran a continuación todos datos bancarios para un
falso ingreso del premio.
En otros casos se le solicita un parte del premio que tendrá que enviarlo a un país para poder cobrar el
premio completo.
(Fuentes: Ministerio de Industria, julio de 2006 y Guia Rápida sobre el Fraude en la Red. Comisión de
seguridad en la red de la Asociación de Internautas a cargo de José María Luque Guerrero.")
BOTNET
Una botnet, o red robot, consiste en cierto número de ordenadores que, sin el conocimiento de sus
propietarios, han sido infectados por código malicioso y están siendo manipulados para enviar programas
maliciosos, como spam y spyware, hacia otras computadoras en Internet. Tales ordenadores, llamados
bots en el argot informático, operan bajo el control de un solo hacker (o un pequeño grupo de ellos)
conocido como botmaster.
Una vez que el botmaster ha creado la botnet, los ataques pueden ocurrir de diferentes maneras:
denegación de servicio distribuido Negación del Servicio (DDoS -Distributed Denial of Service), spam,
keyloggers programas espías que capturan la actividad del teclado de los usuarios- o ataques remotos.
Una de las principales estrategias de captación de atención de esta amenaza se basa en la ingeniería social.
Por ejemplo, a través del envío de un mail cuyo título indica: Check out this picture! (¡Mira esta foto!) .
Así, en un archivo adjunto infectado que simula ser una imagen .JPG, los hackers pueden inspeccionar en
búsqueda de vulnerabilidades dentro del sistema operativo o navegador. En cuestión de segundos, la red
queda infectada.
Los síntomas que puede detectar el usuario para determinar si su red ha sido infectada son:
Bibliografía recomendada:
39 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Enlaces recomendados:
La página racionalista
Rompecadenas
Sin dioses
Maguferías en criminología
Fraudes en medicina y psicología
Enlaces de interés:
Creer es más fácil que pensar. He ahí la razón de que hayan más creyentes.
"Si la gente es buena sólo porque temen al castigo y porque esperan una recompensa,
entonces verdaderamente somos un grupo lastimoso."
Albert Einstein
"Si ese ser es omnipotente, entonces cada ocurrencia, incluyendo cada acción humana,
cada pensamiento humano y cada sentimiento y aspiración humana también es Su obra;
¿cómo es posible pensar en hacer responsable al hombre por sus actos y pensamientos
ante tal Ser todopoderoso? Al dar castigo y recompensas, hasta cierto punto estaría
juzgándose a Sí mismo. ¿Cómo puede combinarse esto con la bondad y justicia que se le
adjudican?
Albert Einstein, Out of My Later Years (New York: Philosophical Library, 1950),
p. 27.
"No puedo concebir un Dios que recompensa y castiga sus criaturas, o que tenga una
voluntad del tipo que experimentamos en nosotros. Tampoco puedo ni quiero concebir
un individuo que sobrevive a su muerte física; dejemos que los espíritus débiles, por
40 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
miedo o por egoísmo absurdo, valoren tales ideas. Yo estoy satisfecho con el misterio de
la eternidad de la vida y con la consciencia y el atisbo de la maravillosa estructura del
mundo existente, junto con la lucha dedicada a comprender una porción, así sea
minúscula, de la Razón que se manifiesta a sí misma en la naturaleza."
Albert Einstein, The World as I See It.
"Si 50 millones de personas creen una tontería, sigue siendo una tontería."
Anatole France
Eh! supongo que somos gente horrible y realmente inmoral porque nos rehusamos a
acoger la idea de un tipo grande en el firmamento que exige ser adorado y alabado todo el
tiempo y que, si Ud. pertenece a la religión equivocada o no tiene religión, lo enviará a
un campo de concentración subterráneo y eterno a freirse para siempre.
Kel Crum
El problema con el mundo es que los estúpidos están seguros de todo y los inteligentes
están llenos de dudas.
Bertrand Russell
Bien, la evolución es una teoría. También es un hecho. Y los hechos y las teorías son
cosas distintas, no escalones en una jerarquía de certeza creciente. Los hechos son los
datos acerca del mundo. Las teorías son estructuras de ideas que explican e interpretan
los hechos. Los hechos no desaparecen cuando los científicos debaten teorías rivales para
interpretarlos. La teoría de la gravitación de Einstein reemplazó la de Newton en este
siglo, pero las manzanas no se quedaron suspendidas en el aire esperando el resultado. Y
los humanos evolucionaron de ancestros simiescos ya sea por medio del mecanismo
propuesto por Darwin o por otro que falte por escubrirse.
Stephen Jay Gould, "Evolution as Fact and Theory" Science and Creationism,
(New York: Oxford University Press, 1984), p. 118.
41 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html
Su artículo sobre las supercherías de los creacionistas afirma que en Alabama, todos los
textos de biología ahora deben llevar adhesivos advirtiendo al lector de que la evolución
es una "creencia sin probar" y "debería considerarse como (sólo) una teoría." Con miras
en el juego limpio, uno asumiría que los creacionistas igualmente insisten en que estos
adhesivos sean adheridos a las Biblias.
John R. Harris, Carta al Editor, L.A. Times
Las creencias antiguas son difíciles de erradicar incluso aunque sean demostrablemente
falsas
Edward O. Wilson, Consilience: The Unity of Knowledge, (First edition, New York:
Alfred A. Knopf, 1998), p. 256.
Cuando el cristianismo tomó el control del Imperio Romano, suprimió los escritos de sus
críticos e incluso los echó a las llamas.
Robert L. Wilken, The Christians As the Romans Saw Them (New Haven: Yale,
1984), p. xii.
La fe ciega puede justificar lo que sea. Si un hombre cree en un dios diferente, o incluso,
si usa un ritual diferente para adorar al mismo dios, la fe ciega puede decretar que debe
morir - en una cruz, empalado, atravesado por la espada de un Cruzado, con un disparo
en una calle de Beirut, o dinamitado en un bar en Belfast. Los memes de la fe ciega
tienen sus propias formas inmisericordes de propagarse a sí mismos. Esto es cierto en la
fe ciega patriótica y política al igual que en la religiosa.
Richard Dawkins, The Selfish Gene (New edition, New York: Oxford University
Press, 1989), p. 198.
Fuente: La Página Racional
Buscar en la web
Búsqueda escéptica
42 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Ciencia en general
1 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Biología
Criminología
Inicio
Contacte
Introducción
Openoffice (StarOffice)
Editor de textos
Hoja de cálculo
Selecciona un texto y
pulsa aquí para oírlo
2.1 Introducción
La informática, tan versátil y polimórfica comenzó a aplicarse a diferentes campos, empezando el uso de
ordenadores en primer lugar en el ámbito militar, ocupando entonces gran espacio y consumiendo mucha
energía, a través de las sucesivas generaciones, en base a los adelantos de la ciencia, fueron reduciendo su
tamaño y consumo, haciéndose asequible a cualquier tipo de actividad, habiéndose extendido en la
actualidad al mundo económico, empresarial y personal, siendo imprescindibles en la oficina para tener
una eficaz gestión de la empresa. La fusión de los trabajos de oficina y de la informática dio lugar a la
Ofimática.
Se entiende como Ofimática todo lo relacionado con la organización de flujos de trabajo en oficinas,
despachos, etc. y el respectivo apoyo a estos procesos mediante el ordenador. Dicho de paso, esta vez el
español es más preciso que el inglés, con el nebuloso "System-engineering" y el más limitado "Business
Process Re-engineering" (BOP).
La ofimática no trata del uso del ordenador individual, promueve la reingeniería de los procesos y sus
etapas en su totalidad usando la informática como instrumento de eliminar, reducir y agilizar los mismos.
2 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
En el entorno ofimático no son necesarios grandes equipos, sino que es suficiente con ordenadores
personales sencillos conectados entre sí y a internet, formando redes locales entre los que se comparte
información y se abaratan los costos. La ofimática de esta manera se ha convertido en algo que crece y
que se usa cada vez más.
La ofimática, por sus peculiares características, suministra un buen campo para ejemplificar acerca del
impacto de la convergencia e integración de las tecnologías. La oficina, y por lo tanto la ofimática, que no
es más que la tecnología aplicada a la oficina, es un entorno donde no existen tareas muy determinadas,
entran actividades tan diversas como el tratamiento de documentos o la comunicación telefónica. En un
entorno así es lógico pensar que se necesitan tecnologías combinadas, no soluciones aisladas encaminadas
a resolver un problema en concreto. La ofimática ha de proporcionar herramientas que faciliten al usuario
(sea éste un individuo o un grupo) la tarea a realizar.
Definiciones de ofimática:
Aplicaciones
El software de ofimática comprende una serie de aplicaciones que se distribuyen de forma conjunta para
ser empleadas simultáneamente en diversos sistemas. Usualmente estas herramientas de ofimática
incluyen:
Es un conjunto completo (suite) para oficina creado por Star Division, una empresa alemana adquirida por
Sun Microsystems. Está compuesta por una serie de aplicaciones de productividad entre las que hay
procesador de textos, hoja de cálculo, gestor de bases de datos, programa para crear presentaciones,
programa para diseño gráfico, navegador y unos cuantos accesorios más.
En sus comienzos fue muy popular en el entorno Linux, quienes podían conseguir versiones gratuitas a
través de Internet, aunque Star también ofrecía versiones comerciales. Sun decidió darle un gran impulso
3 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
y adoptó la filosofia de distribuirla gratuitamente, de manera que actualmente es posible bajarla desde la
web de Sun y otros muchos lugares de internet.
OpenOffice está disponible en versiones para sistemas operativos: Windows, Linux, Solaris. Mac OS y
OS/2. Sun también lo distribuye en un CD-ROM. La empresa en realidad no cobra por la suite sino por el
costo de producir el CD y de imprimir los manuales.
Esta suite de oficina, resulta muy típica en cuanto a las aplicaciones que incluye. Sin embargo lo
interesante es su origen, pues fue diseñada inicialmente para el sistema operativo Linux, sin embargo tuvo
tal acogida entre el público que Star Division decidió crear una versión aparte de la misma para Windows.
En la actualidad no se emplea de forma intensiva con este sistema, pero según los expertos, ha logrado
salir bien librada de muchas pruebas.
La suite está compuesta por varias aplicaciones básicas, más una serie de accesorios bastante útiles. Los
componentes del paquete son (es indistinto considerar StarOffice u OpenOffice):
A partir del tres de mayo de 2006 el formato Open Document, con el que se almacenan los documentos
escritos bajo Openoffice (o Staroffice), ha sido aprobado como estándar ISO 26300, hecho que no poseen
otros editores de textos, como por ejemplo Microsoft Office. Este formato ocupa mucho menos que los
tan conocidos .DOC y .RTF.
4 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Las computadoras modernas de esa época, como la VAX o el 68020, tienen sus propios
sistemas operativos, pero ninguno de ellos es software libre: usted debe firmar un
"acuerdo de no revelar" (nondisclosure agreement) aún para obtener una copia
ejecutable.
Esto quiere decir que el primer paso para poder utilizar una computadora era prometer
que no ayudaría a su vecino. Se prohibía la existencia de una comunidad cooperativa. La
regla hecha por los dueños de software propietario era: "si usted comparte con su vecino,
usted es un pirata. Si desea algún cambio, ruéguenos para que lo hagamos nosotros".
La idea de que el sistema social del software propietario--el sistema que dice que usted
no tiene permitido compartir o cambiar el software-- es antisocial, que no es ético, que
está sencillamente equivocado, puede ser una sorpresa para algunos lectores. ¿Pero qué
otra cosa podríamos decir sobre un sistema que se basa en dividir el público e impide
socorrer a los usuarios? Los lectores que se sorprendan por esta idea es porque han
tomado el sistema social del software propietario tal como se lo han dado, o porque lo
han juzgado en función de los términos sugeridos por las empresas que hacen software
propietario. Los publicadores de software han trabajado duro y parejo para convencer a
las personas de que solamente hay una manera de ver este tema.
5 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Cuando los publicadores de software habla de "hacer valer" sus "derechos" o de "detener
la piratería", lo que *dice* es secundario. El mensaje real de estas declaraciones está en
las presunciones no declaradas que ellos dan por sentado; se supone que el público debe
aceptarlas de manera acrítica. Así que examinémoslas.
Una de las presunciones es que las compañías de software tienen un derecho natural
incuestionable que las habilita para ser dueñas de un software, y por lo tanto a disponer
de poder sobre todos los usuarios del mismo. (Si éste fuera un derecho natural, entonces
sin importar cuánto daño le causare al público, no podríamos objetarlo.) De manera muy
interesante, la Constitución de los Estados Unidos de América y la tradición legal
rechazan esta visión; el copyright no es un derecho natural, sino un monopolio artificial
impuesto por el gobierno que limita el natural derecho a copia de los usuarios.
Otra presunción no declarada es que la única cosa importante sobre del software es qué
trabajo le permite realizar a usted--que a nosotros los usuarios de computadoras no nos
debe importar qué clase de sociedad nos permiten tener.
Una tercera presunción es que no tendríamos software utilizable (o, que nunca
tendríamos un programa para hacer tal o cual trabajo en particular) si no le ofrecemos a
una compañía poder sobre los usuarios de dicho programa. Esta presunción puede haber
sonado plausible, antes de que el movimiento por el software libre demostrara que
podemos hacer abundante software útil sin ponerle cadenas.
Si nos resistimos a aceptar dichas presunciones, y juzgamos acerca de estos temas sobre
la base moral que nos da el sentido común ordinario y ponemos al usuario en primer
lugar, arribaremos a conclusiones muy distintas. Los usuarios de computadoras deben
tener libertad para modificar los programas para ajustarlos a sus necesidades, y libertad
para compartir el software, porque la base de la sociedad está en ayudar a las otras
personas.
No se dispone aquí del espacio necesario para explayarnos en el razonamiento que hay
detrás de esta conclusión, y por ese motivo pido al lector que vea la página web
http://www.gnu.org/philosophy/why-free.es.html.
La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de no
revelar, y prometer que no iría en ayuda de mi amigo hacker. Es muy probable que
desarrollara software que se entregaría bajo acuerdos de no revelar y de esa manera
incrementara también las presiones sobre otra gente para que traicionen a sus
compañeros.
Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendo
código. Pero sabía que al final de mi carrera, al mirar atrás a los años construyendo
paredes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo.
Ya había estado del lado en que se reciben los acuerdos de no revelar, por experiencia
propia, cuando alguien se negó a entregarme, a mí y al Laboratorio de IA del MIT, el
código fuente del programa de control de nuestra impresora.(La ausencia de ciertas
características en este programa hacía que el uso de la impresora fuera frustrante en
extremo.) Así que no podía decirme a mí mismo que los acuerdos de no revelar son
6 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
inocentes. Me enojó mucho cuando él se negó a compartir con nosotros; no podía ahora
cambiarme de lugar y hacerle lo mismo a todos los demás.
Otra elección, fácil pero dolorosa, era abandonar el campo de la computación. De esta
manera no se usarían mis habilidades para mal, pero aún así se desperdiciarían. Yo no
sería culpable por dividir y restringir a los usuarios de computadoras, pero ello sucedería
igual.
Así que busqué la manera en la cual un programador podría hacer algo para bien. Me
pregunté: ¿habrá algún programa o programas que yo pueda escribir, de tal manera de
otra vez hacer posible una comunidad?
La respuesta era clara: lo primero que se necesitaba era un sistema operativo. Este es el
software crucial para empezar a usar una computadora. Con un sistema operativo usted
puede hacer muchas cosas; sin uno, ni siquiera puede funcionar la computadora. Con un
sistema operativo libre, podríamos tener de nuevo una comunidad de hackers
cooperando--e invitar a cualquiera a unírsenos. Y cualquiera sería capaz de utilizar una
computadora sin que de movida conspire a favor de la privación de sus amigas o amigos.
Como desarrollador de sistema operativo, tengo las habilidades apropiadas para esa tarea.
Así que aún cuando no tenía garantías de éxito, me dí cuenta que había sido elegido para
hacer ese trabajo. Decidí hacer que el sistema fuese compatible con Unix pues así sería
portable, y los usuarios de Unix podrían cambiarse a él con facilidad. El nombre GNU se
eligió siguiendo una tradición hacker, como acrónimo recursivo para "GNU's Not Unix".
Un sistema operativo es más que un núcleo, apenas suficiente para hacer funcionar otros
programas. En los 1970s, todo sistema operativo digno de llamarse así incluía
procesadores de órdenes, ensambladores, compiladores, intérpretes, depuradores, editores
de texto, programas de correo, y muchos otros. ITS los tenía, Multics los tenía, VMS los
tenía, Unix los tenía. El sistema operativo GNU también los incluiría.
(1) Como ateo que soy, no soy seguidor de ningún líder religioso, pero algunas veces
encuentro que admiro alguna cosa que dijo uno de ellos.
Libre como en libertad El término "free software" [N. del T.: en inglés free = libre o
gratis] se malinterpreta a veces--no tiene nada que ver con el precio. El tema es la
libertad. Aquí, por lo tanto, está la definición de software libre: un programa es software
libre, para usted, un usuario en particular, si:
- Usted tiene la libertad para modificar el programa para adaptarlo a sus secesidades.
(Para que esta libertad sea efectiva en la práctica, usted debe tener acceso al código
7 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
- Usted tiene la libertad para redistribuir copias, tanto gratis como por un cánon.
- Usted tiene la libertad para distribuir versiones modificadas del programa, de tal manera
que la comunidad pueda beneficiarse con sus mejoras.
A causa de esta decisión, el sistema GNU no coincide con la suma de todo el software
GNU. El sistema GNU incluye programas que no son software GNU, programas que
fueron desarrollados por otras personas y proyectos para sus propios propósitos, pero que
nosotros podemos utilizar porque constituyen software libre.
Sin embargo, el Profesor Winston, por entonces a cargo del Laboratorio de IA del MIT,
me invitó amablemente a que continúe utilizando las instalaciones del Laboratorio.
Los primeros pasos Poco después de comenzar en el proyecto GNU, escuché acerca del
Free University Compiler Kit [Kit de Compilador de la Universidad Libre], también
conocido como VUCK. (La palabra alemana para free comienza con una V.) Se trataba
de un compilador diseñado para manejar múltiples lenguajes, C y Pascal entre ellos, y
para admitir múltiples máquinas destino. Le escribí a su autor para consultarle si GNU lo
podría usar.
8 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Con la esperanza de evitar tener que escribir todo el compilador por mí mismo, obtuve el
código fuente del compilador Pastel, que era un compilador multiplataforma desarrollado
en el "Lawrence Livermore Lab". Admitía, y estaba escrito en una versión extendida de
Pascal, diseñada para usarse como lenguaje de programación a nivel de sistema. Le
agregué un front end para C, y comencé a transportarlo a la computadora Motorola
68000. Pero tuve que abandonar la idea al descubrir que el compilador necesitaba varios
megabytes de espacio en la pila, y los sistemas Unix basados en 68000 sólo permitían 64
kbytes.
GNU Emacs Comencé a trabajar sobre GNU Emacs en setiembre de 1984, y al principio
de 1985 ya empezaba a ser usable. Esto me permitió usar sistemas Unix para las tareas de
edición; como no tenía ningún interés en aprender a usar vi o ed, había realizado mis
tareas de edición en otras clases de máquinas hasta ese momento.
A estas alturas, la gente comenzó a querer usar Emacs, con lo que apareció el tema de
cómo distribuirlo. Por supuesto, lo puse en el servidor de FTP anónimo de la
computadora del MIT que usaba. (Esta computadora, prep.ai.mit.edu, se transformó a
causa de ello en la sede principal de distribución a través de FTP de GNU; cuando fue
decomisada unos años después, transferimos el nombre a nuestro nuevo servidor FTP.)
Pero en aquella época, mucha gente interesada no estaba en Internet y no podía obtener
una copia por FTP. Así que la pregunta era: ¿qué tendría que decirles a ellos?
Podría haber dicho, "Busque un amigo que esté en la red y que haga una copia para
usted". O podría haber hecho lo que hice con el Emacs para PDP-10 original, decirles:
"Envíeme por correo una cinta y un sobre con su dirección y los sellos de correo
necesarios, y yo le devolveré la cinta con Emacs dentro". Pero no tenía trabajo, y estaba
buscando de qué manera podía hacer dinero con el software libre. Entonces anuncié que
le enviaría la cinta a quien me la pidiera, mediante el pago de un cánon de $150. De esta
manera, inicié un negocio de distribución de software libre, el precursor de las compañías
que en la actualidad distribuyen completos sistemas GNU basados en Linux.
9 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
MIT, y entregado como software libre con un licencia permisiva, fue rápidamente
adoptado por varias compañías de computación. éstas agregaron X a sus sistemas Unix
propietarios, sólo en formato binario, y lo cubrieron con el mismo acuerdo de no revelar.
Estas copias de X eran tanto (software) libres en cuanto lo era el Unix.
Esto nos lleva a una situación paradójica en la cual dos maneras distintas de contabilizar
la cantidad de libertad dan por resultado dos respuestas distintas a la pregunta "¿Es libre
este programa?". Si usted juzga en base a la libertad que se proporcionaba con los
términos de distribución de la entrega del MIT, diría que X es software libre. Pero si
usted mide la libertad del usuario promedio de X, diría que X es software propietario. La
mayoría de los usuarios de X usan las versiones propietarias que vienen con los sistemas
Unix, no la versión libre.
Copyleft y la GNU GPL La meta de GNU era dar libertad a los usuarios, no sólo
popular. Por lo tanto, debíamos usar términos de distribución que impidieran que el
software GNU se transformara en software propietario. El método que utilizamos se
denomina "copyleft".(1)
La idea central del copyleft es que le damos a cualquiera el permiso para correr el
programa, copiar el programa, modificar el programa y redistribuir versiones
modificadas--pero no le damos permiso para agregar restricciones propias. De esta
manera, las libertades cruciales que definen al "software libre" quedan garantizadas para
cualquiera que tenga una copia; se transforman en derechos inalienables.
Para que el copyleft sea efectivo, las versiones modificadas deben ser también libres.
Esto asegura que todo trabajo basado en el nuestro quedará disponible para nuestra
comunidad si se publica. Cuando los programadores que tienen trabajo como
programadores se ofrecen como voluntarios para mejorar un software GNU, es el
copyleft lo que impide que sus empleadores digan: "no puede compartir esos cambios,
porque los queremos usar para hacer nuestra versión propietaria del programa".
El requerimiento de que los cambios deben ser libres es esencial si queremos asegurar la
libertad para cada usuario del programa. Las compañías que privatizaron el X Window
System en general realizaron algunos cambios para transportarlo a sus sistemas y
hardware. Estos cambios fueron pequeños comparados con el gran tamaño de X, pero no
fueron triviales. Si el hacer cambios fuera una excusa para negar libertad a los usuarios,
sería fácil para cualquiera tomar ventaja de la excusa.
Un tema relacionado trata la combinación de un programa libre con código no libre. Tal
combinación será inevitablemente no-libre; cualesquiera libertades que falten a la parte
no-libre, le faltarán también al todo. Si se permiten tales combinaciones se abriría un
agujero lo suficientemente grande como para hundir el barco. Por ello, un requerimiento
crucial para el copyleft es que se tape este hoyo: cualquier cosa agregada a o combinada
con un programa bajo copyleft debe ser tal que la versión combinada total sea también
10 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
La implementación específica de copyleft que usamos para la mayoría del software GNU
es la Licencia Pública General de GNU (GNU General Public License) o LPG GNU para
abreviar. Tenemos otras clases de copyleft que se usan en circunstancias específicas. Los
manuales GNU también están bajo copyleft, pero utilizamos un copyleft mucho más
simple, porque no es necesaria la complejidad de la LPG GNU para los manuales.
(1) En 1984 o 1985, Don Hopkins (un compañero muy imaginativo) me envío una carta
por correo. En el sobre, escribió varios dichos divertidos, entre ellos éste: "Copyleft--all
rights reversed" [Copyleft--todos los derechos "reversados"]. Utilicé la palabra
"copyleft" para denominar al concepto dedistribución que estaba desarrollando en esa
época.
La FSL acepta donaciones, pero la mayoría de sus ingresos han provenido siempre de las
ventas--de copias de software libre, y otros servicios relacionados. En la actualidad vende
CD-ROMs de código fuente, CD-ROMs con binarios, manuales agradablemente
impresos (todos con libertad para redistribuir y modificar), y las Distribuciones De Lujo
(en las cuales incorporamos toda la colección de software lista para usar en la plataforma
de su elección).
Los empleados de la Fundación para el Software Libre han escrito y mantenido una
cantidad de paquetes de software GNU. Dos notables casos son la biblioteca C y el shell.
La biblioteca C de GNU es lo que usa todo programa que corre en un sistema
GNU/Linux para comunicarse con Linux. Fue desarrollada por un miembro del staff de la
Fundación para el Software Libre, Roland McGrath. El shell que se usa en la mayoría de
los sistemas GNU/Linux es BASH, el Bourne Again SHell(1), que fue desarrollado por
Brian Fox, empleado de la FSL.
Hemos provisto los fondos para el desarrollo de esos programas porque el proyecto GNU
no se queda solamente en herramientas o un entorno de desarrollo. Nuestra meta era tener
un sistema operativo completo, y esos programas eran necesarios para esa meta.
(1) "Bourne again shell" es una broma sobre el nombre "Bourne Shell", que era el shell
usual en Unix.
Asistencia para el Software Libre La filosofía del software libre rechaza una práctica
específica de negocio ampliamente difundida, pero no está contra el negocio. Cuando los
negocios respetan la libertad de los usuarios, les deseamos éxito.
La venta de copias de Emacs demostró una clase de negocio con software libre. Cuando
la FSL se apropió de ese negocio, necesité de otro medio de vida. Lo encontré en la venta
de servicios relacionados con el software libre que había desarrollado. Esto incluía la
enseñanza, sobre temas tales como cómo programar GNU Emacs, y cómo personalizar
GCC, y desarrollo de software, en la mayor parte transportar GCC a otras plataformas.
11 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
En la actualidad cada una de esas clases de negocios con software libre está puesta en
práctica por una cantidad de corporaciones. Algunas distribuyen colecciones de software
libre en CD-ROM; otras venden asistencia en niveles que van desde responder preguntas
de usuarios, reparación de errores, hasta el agregado de nuevas características mayores.
Incluso estamos viendo compañías de software libre basadas en el lanzamiento de nuevos
productos de software libre.
Metas técnicas La meta principal de GNU era el software libre. Aún en el caso que GNU
no tuviese ventajas técnicas sobre Unix, tendría una ventaja social, al permitir cooperar a
los usuarios, y una ventaja ética, al respetar la libertad de los usuarios.
Pero era natural que se apliquen los estándares conocidos de buenas prácticas al
trabajo--por ejemplo, reservar dinámicamente las estructuras de datos para evitar límites
de tamaño fijo arbitrarios, y manejar todos lo posibles códigos de 8 bits cuando tuviese
sentido.
Computadoras donadas A medida que la reputación del proyecto GNU crecía, la gente
comenzó a ofrecer al proyecto donaciones de máquinas con UNIX corriendo. Fueron
muy útiles porque la manera más fácil de desarrollar componentes de GNU era hacerlo
en un sistema UNIX, y luego ir reemplazando los componentes del sistema uno a uno.
Pero ellas trajeron una cuestión ética: si era correcto para nosotros siquiera tener una
copia de UNIX.
UNIX era (y es) software propietario, y la filosofía del proyecto GNU dice que no
debemos usar software propietario. Pero, aplicando el mismo razonamiento que lleva a la
conclusión que la violencia en defensa propia está justificada, concluí que era legítimo
usar un paquete propietario cuando ello era crucial para desarrollar un reemplazo libre
que ayudaría a otros a dejar de usar el paquete propietario.
Pero, aún cuando esto era un mal justificable, era todavía un mal. En la actualidad ya no
tenemos más copias de Unix, porque las hemos reemplazado por sistemas operativos
libres. En los casos en que no pudimos reemplazar el sistema operativo de una máquina
por uno libre, se procedió al reemplazo de la máquina.
12 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Aún los juegos están incluídos en la lista de tareas--y han estado desde el principio. Unix
incluía juegos, así que GNU debía incluirlos también. Pero la compatibilidad no es un
problema para los juegos, así que no seguimos la lista de juegos que Unix tenía. En lugar
de ello, listamos un espectro de diferentes clases de juegos que les podrían gustar a los
usuarios.
La LPG para Bibliotecas de GNU La biblioteca C de GNU usa una clase especial de
copyleft denominada "GNU Library General Public License" [Licencia Pública General
para Bibliotecas de GNU] que da permiso para enlazar software propietario con la
biblioteca. ¿Porqué hacer esta excepción?
No es una cuestión de principios; no hay ningún principio que diga que debemos incluir
código de los productos de software propietario. (¿Porqué contribuir con un proyecto que
se rehusa a compartir con nosotros?) El uso de la LPGB para la biblioteca C, o para
cualquier otra biblioteca, es un tema de estrategia.
HAy un sistema que es una excepción a esto: en un sistema GNU (y esto incluye los
sistemas GNU/Linux), la biblioteca C de GNU es la única biblioteca C. Así que los
términos de distribución de la biblioteca C de GNU determinan si es posible compilar un
programa propietario para un sistema GNU. No hay ninguna razón ética para permitir
aplicaciones propietarias en un sistema GNU, pero estratégicamente parece que si no se
permite, ello hará más para desalentar el uso del sistema GNU que para alentar el
desarrollo de aplicaciones libres.
Por estas razones es que el uso de la LPG para Bibliotecas es una buena estrategia para la
biblioteca C. Para otras bibliotecas, la decisión estratégica necesita considerarse en cada
caso particular. Cuando una biblioteca hace un trabajo especial que puede ayudar a
escribir cierta clase de programas, y luego entregarla bajo la LPG, limitándola sólo a
programas libres, es una manera de ayudar a otros desarrolladores de software libre, al
proporcionarles una ventaja contra el software propietario.
13 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Los desarrolladores de software propietario tienen las ventajas que el dinero proporciona;
los desarrolladores de software libre necesitan crear ventajas entre sí. Tengo la esperanza
de que algún día tendremos una gran colección de bibliotecas cubiertas por LPG que no
tengan parangón entre el software propietario, que proporcionen útiles módulos que
sirvan como bloques constructivos en nuevo software libre, y que sumen una mayor
ventaja para adelantar el desarrollo de software libre.
¿Rascarse una comezón? Eric Raymond dice que "Todo buen trabajo de software
comienza con un desarrollador rascándose una comezón personal". Puede que ocurra
algunas veces, pero muchas de las piezas esenciales de software GNU se desarrollaron a
los fines de tener un sistema operativo libre completo. Vinieron desde una visión y un
plan, no desde el impulso.
Por ejemplo, desarrollamos la biblioteca C de GNU porque un sistema del estilo Unix
necesita una biblioteca C, el shell Bourne-Again (bash) porque un sistema del estilo Unix
necesita un shell, y el tar GNU porque un sistema del estilo Unix necesita un programa
tar. Lo mismo se aplica a mis propios progamas--el compilador GNU C, GNU Emacs,
GDB y GNU Make.
Por supuesto, la gente que escribe estos programas se interesa en el trabajo, y varias
personas han agregado muchas características para satisfacer sus propias necesidades e
intereses. Pero ése no es el motivo por el cual existe el programa.
El proceso hizo que dichos programas sean más potentes, y atrayeran tanto fondos como
contribuyentes al proyecto GNU. Pero también demoró el completamiento de un sistema
mínimo en funciones por varios años, a medida que el tiempo de los desarrolladores
GNU se usaba para mantener esos transportes y en agregar características a los
componentes existentes, en lugar de adelantar la escritura de los componentes faltantes.
14 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
El GNU Hurd En 1990, el sistema GNU estaba casi completo; el único componente
importante faltante era el núcleo. Decidimos implementar nuestro núcleo como una
colección de procesos servidores corriendo sobre Mach. Mach es un micronúcleo
desarrollado en Carnegie Mellon University y luego en la University of Utah; el GNU
HURD es una colección de servidores (o "manada de ñus") que corren sobre Mach, y se
ocupan de las tareas del núcleo Unix. El inicio del desarrollo se demoró mientras
esperábamos que Mach se entregue como software libre, tal como se había prometido.
Una razón para elegir este diseño había sido evitar lo parecía ser la parte más dura del
trabajo: depurar el núcleo sin un depurador a nivel de código fuente para utilizar. Esta
parte del trabajo ya había sido hecha en Mach, y esperábamos depurar los servidores
HURD como programas de usuario, con GDB. Pero llevó un largo tiempo hacer esto
posible, y los servidores multihilo que se envían mensajes unos a otros han sido muy
difíciles de depurar. Hacer que HURD trabaje sólidamente se ha tardado varios años.
Alix El núcleo GNU no se iba a llamar originalmente el HURD. Su nombre original era
Alix--denominado así a partir de una mujer que era mi amor de aquella época. Ella era
administradora de sistema Unix y había hecho notar que su nombre seguía el patrón de
nomenclatura común a las versiones de sistema Unix; a modo de broma, le dijo a sus
amigos, "Alguien debería darle mi nombre a un núcleo". Yo no dije nada, pero decidí
sorprenderla con un núcleo llamado Alix.
Pero antes que estas cosas sucedieran, un amigo de ella encontró el nombre Alix en el
código fuente de HURD, y se lo mencionó. Así que el nombre cumplió su objetivo.
15 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Hardware secreto Los fabricantes de hardware tienden cada vez más a mantener las
especificaciones de hardware secretas. Esto hace difícil la escritura de controladores
libres, y de esa manera, que Linux y XFree86 puedan admitir nuevo hardware. Tenemos
sistemas libres completos por hoy, pero no los tendremos mañana si no podemos usar las
computadoras del mañana.
Existen dos maneras de lidiar con este problema. Los programadores pueden hacer
ingeniería reversa para darse cuenta como usar el hardware. El resto de nosotros puede
elegir el hardware que admite software libre; a medida que nuestro número crezca, el
secreto de las especificaciones se transformará en una política contraproducente.
Bibliotecas no libres Una biblioteca no libre que corre sobre un sistema operativo actúa
como una trampa para los desarrolladores de software libre. Las características atractivas
de la biblioteca son el cebo; si usted usa la biblioteca, cae en la trampa, porque su
programa no puede ser parte útil de un sistema operativo libre. (Estrictamente hablando,
podemos incluir su programa, pero no funcionará sin la biblioteca faltante.) Peor aún, si
el programa que usa la biblioteca se hace popular, puede hacer caer a otros
programadores incautos dentro de la trampa.
La primer instancia de este problema fue el kit de herramientas Motif, allá en los 80s.
Aunque aún no había sistemas operativos libres, era claro el problema que Motif iba a
causarles más adelante. El proyecto GNU respondió de dos maneras: solicitando a los
proyectos individuales de software libre que admitan tanto los widgets del kit libre de
herramientas de X como el de Motif, y solicitando a alguien que escriba un reemplazo
libre para Motif. El trabajo tomó varios años; LessTif, desarrollado por Hungry
Programmers [Programadores hambrientos] tomó la potencia necesaria como para
admitir la mayoría de las aplicaciones Motif recién en 1997.
Entre 1996 y 1998, otra biblioteca kit de herramientas GUI no libre, denominada Qt, se
usó en una sustancial colección de software libre: el escritorio KDE.
Los sistemas libres GNU/Linux no podían usar KDE, porque no podíamos usar la
biblioteca. Sin embargo, algunos distribuidores comerciales de sistemas GNU/Linux que
no eran tan estrictos al adherirse al software libre, agregaron KDE a sus
sistemas--produciendo un sistema con más capacidades, pero menos libertad. El grupo
KDE instaba activamente a más programadores a usar Qt, y millones de nuevos "usuarios
de Linux" nunca escucharon la idea de que había un problema con esto. La situación se
presentaba lúgubre.
La comunidad del software libre respondió a este problema de dos maneras: GNOME y
Harmony.
16 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
tales como admitir una variedad de lenguajes, no sólo C++. Pero su propósito principal
fue la libertad: evitar el uso de cualquier software no libre.
Existen maneras de tratar con las patentes: podemos buscar evidencia de que la patente
no es válida, y podemos buscar maneras alternativas de realizar el trabajo. Pero cada uno
de estos métodos trabaja sólo ciertas veces; cuando ambos fallan, una patente puede
forzar a que todo software libre carezca de alguna característica que los usuarios desean.
¿Qué haremos cuando esto suceda?
Aquellos de nosotros que valoremos el software libre por la libertad nos apegaremos al
software libre de cualquier manera. Nos las arreglaremos para tener nuestro trabajo
realizado sin las características patentadas. Pero aquellos que valoren el software libre
porque esperan que sea técnicamente superior, cuando las patentes lo obliguen a
mantenerse atrás, es más probable que piensen que se trata de una falla. Por lo tanto, si
bien es útil hablar acerca de la efectividad práctica del modelo "catedral" de desarrollo, y
de la confiabilidad y potencia de cierto software libre, no debemos detenernos allí.
Debemos hablar acerca de libertad y principio.
El permiso para modificarlo es también crucial. Como regla general, no creo que sea
17 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
esencial que las personas tengan permiso para modificar toda clase de artículos y libros.
Por ejemplo, no creo que usted o yo estemos obligado a dar permiso para modificar
artículos como este, que describe nuestras acciones y nuestra visión.
Pero existe una razón particular debido a la cual la libertad para modificar la
documentación es crucial para el software libre. Cuando la gente ejercita su derecho a
modificar el software, y agrega o cambia características, si son concientes también
cambiarán el manual--así proporcionarán documentación precisa y útil con el programa
modificado. Un manual que no permite a los programadores ser concientes y terminar el
trabajo, no satisface las necesidades de nuestra comunidad.
Sin embargo, debe ser posible modificar todo el contenido *técnico* del manual, y luego
distribuir el resultado en todos los medios usuales, a través de todos los canales usuales;
si esto no es así, las restricciones obstruyen la comunidad, el manual no es libre, y
necesitaremos otro maual.
Debemos hablar acerca de la libertad En la actualidad se estima que hay unos diez
millones de usuarios de sistemas GNU/Linux, tales como el Debian GNU/Linux y Red
Hat Linux. El software libre ha desarrollado ciertas ventajas prácticas que hacen que los
usuarios estén congregándose hacia allí por razones puramente prácticas.
Pero el interés en el software crece más rápido que la conciencia acerca de la filosofía
sobre la cual está basado, y esto crea problemas. Nuestra capacidad de enfrentar los
desafíos y amenazas que se describieron más arriba depende de la voluntad de
mantenerse firmes del lado de la libertad. Para asegurarnos de que nuestra comunidad
tiene esta voluntad, necesitamos esparcir la idea entre los nuevos usuarios a medida que
ellos llegan a nuestra comunidad.
Pero estamos fracasando en esto: los esfuerzos realizados para atraer nuevos usuarios a
nuestra comunidad sobrepasan por lejos a los esfuerzos dedicados a la enseñanza cívica
acerca de nuestra comunidad. Necesitamos hacer ambas cosas, y es necesario que
mantengamos ambos esfuerzos balanceados.
"Open Source" La enseñanza acerca de la libertad a los nuevos usuarios se hizo más
18 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
difícil en 1998, cuando una parte de la comunidad decidió dejar de usar el término
"software libre" y usar "open source software" en su lugar.
Algunos de los que favorecieron este término tenían como objetivo evitar la confusión de
"free" con "gratis"--una meta válida. Otros, sin embargo, apuntaban a apartar el espíritu
de principio que ha motivado el movimiento por el software libre y el proyecto GNU, y
resultar así atractivos a los ejecutivos y usuarios comerciales, muchos de los cuales
sostienen una ideología que pone las ganancias por encima de la libertad, de la
comunidad, y de los principios. Por lo tanto, la retórica de "open source" se centra en el
potencial de realización de potente software de alta calidad, pero esquiva las ideas de
libertad, comunidad y principio.
Las revistas sobre "Linux" son un claro ejemplo de esto--están llenas de propagandas
acerca de software propietario que funciona sobre GNU/Linux. Cuando aparezca la
próxima Motif o Qt, ¿incentivarán estas revistas a los programadores a apartarse de ellas,
o pondrán propagandas de las mismas?
"Software libre" y "open source" describen la misma categoría de software, más o menos,
pero dicen diferentes cosas acerca del software, y acerca de los valores. El proyecto GNU
continúa utilizando el término "free software" [software libre] para expresar la idea de
que la libertad, no solamente la tecnología, es lo importante.
¡Pruébelo! La filosofía de Yoda ("No hay 'para probar'") suena linda, pero no funciona
conmigo. He realizado la mayor parte de mi trabajo con ansiedad por saber si podría
llevarlo a cabo, y con la inseguridad de que no sería suficiente alcanzar la meta si lo
lograba. Pero lo intenté igual, porque no había otro entre el enemigo y mi ciudad. Para mi
propia sorpresa, algunas veces he tenido éxito.
Algunas veces he fallado; algunas de mis ciudades han caído. Luego he encontrado otra
ciudad amenazada, y me preparé para otra batalla. A lo largo del tiempo, aprendí a buscar
las amenazas y ponerme entre ellas y la ciudad, y llamar a otros hackers para que se unan
a mí.
Por favor envíe sus preguntas (en inglés) sobre FSF & GNU a gnu@gnu.org. También
hay otras maneras de contactar a la FSF.
19 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Está permitida la copia textual y distribución de este artículo en su totalidad por cualquier
medio, siempre y cuando esta nota se preserve.
Actualizada: 30 Nov 1999 Cesar Javier Bolaños Vizcarra (México) < cesarbv@netspace.com.mx>
Actualizada: 08 Feb 2003 Luis Bustamante
Los editores o procesadores de texto son unos de los programas más importantes y usuales en la
utilización de cualquier ordenador personal. La posibilidad de escribir largos o repetitivos documentos,
corregirlos, modificarlos e imprimirlos es una ventaja sustancial del ordenador sobre la máquina de
escribir.
Los procesadores o tratamientos de textos son programas que permiten realizar todas las operaciones
necesarias para crear, guardar, recuperar, modificar e imprimir un texto. Al escribir con un procesador de
textos, no hay que preocuparse del final de la línea, ni tampoco del fin de página, ya que el programa pasa
automáticamente a la línea siguiente o a la hoja siguiente cuando una esté completa. El propio procesador
delimitará el tamaño de la hoja, líneas por página.
Mediante sencillos procedimientos podemos mover, borrar, subrayar o repetir párrafos, frases y palabras
dentro de un texto. Una vez finalizada la manipulación del documento, podemos guardarlo en un soporte
magnético u óptico, imprimirlo o ambas cosas. (Cuando se edita o crea un texto, éste reside en la memoria
interna, luego solo permanece temporalmente, perdiéndose al desconectar el equipo. Para evitar la
pérdida, antes debe guardarse en un soporte, si deseamos conservarlo).
Los procesadores tienen acceso y comunicación con otros programas: bases de datos, hojas de cálculo,
diccionarios, otros archivos, etc, aunque esto ya no es imprescindible en los entornos Linux o Windows,
dada las facilidades que ofrecen para la interrelación entre programas.
Todos los procesadores de textos permiten establecer cabeceras y piés de página, definir la anchura del
documento, el número de caracteres por línea, definir longitud de páginas, marcar márgenes y tabuladores,
mover, copiar o borrar bloques de textos, definir atributos de texto (negrita, subrayado ...).También
ofrecen la posibilidad de crear de forma sencilla tablas, gráficos, dibujos e insertar incluso imágenes. Es
normal la la posibilidad de visualizar el documento en pantalla en su formato definitivo, es decir tal y
como va a imprimirse. Esta muestra previa es muy interesante para comprobar su aspecto final sin
necesidad de imprimirlo; se conoce como WYSIWYNG (se obtiene lo que se ve). Un programa que no es
WYSIWYNG, aunque es el más potente de todos es Tex, escrito por Donald Knuth de la Universidad de
Stanford (EE.UU.), muy utilizado por los matemáticos y científicos en general, contando con muchos
defensores.
20 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
Respecto a la seguridad, guardan automáticamente una copia del documento anterior; otros tienen claves
de acceso (PASSWORD) que protegen el texto, permitiendo su manipulación sólamente a los usuarios
que conozcan la contraseña. Sin embargo Microsoft WORD tiene niveles de seguridad muy deficientes.
Los procesadores de texto tienen la posibilidad de disponer de los tipos de letras del respectivo sistema
operativo, aunque es el tipo de impresora la que realmente determina la variedad y calidad que se puede
utilizar.
Los procesadores actuales cuentan con programas auxiliares como los diccionarios ortográficos, de
sinónimos o bilingües. Los ortográficos sirven para revisar el documento completo detectando los errores
de mecanografía y faltas de ortografía. Los de sinónimos (tesauros) permiten consultar posibles
alternativas a una palabra. Los diccionarios bilingües permiten buscar la palabra en otro idioma. Otras
posibilidades hasta hace poco tiempo consideradas como avanzadas son: editores de fórmulas, posibilidad
de definir macros, sombreados de marcos, escritura en columnas.
Es también muy importante la existencia de una ayuda lo más sencilla y completa posible que evite la
consulta constante del manual. Algunos programas incluyen discos tutores y libros de aprendizaje con
ejemplos.
Otros programas interesantes son los comprobadores de estilo que comparan los textos con una serie de
reglas gramaticales. Detectan errores de puntuación, mayúsculas, palabras repetidas, palabras en desuso.
Los procesadores de textos son programas de usurario que permiten realizar todas las operaciones
necesarias para crear, guardar, recuperar, modificar e imprimir un texto.
Aunque se piense que el ser un buen mecanógrafo es importante para escribir en un programa editor de
textos, hay algunas aptidudes de la mecanografía que son contraproducentes. Seguidamente se listan los
nuevos hábitos a tener en cuenta al pasar al uso de un editor de textos:
Utiliza la tecla intro (o retorno de carro) sólo cuando debas. Los ajustes de línea se producen
automáticamente.
Utiliza sólo un espacio después de un punto. Se deben evitar los espacios dobles
Benefíciate de los caracteres especiales. Caracteres no comunes de las máquinas de escribir hacen
que los escritos parezcan más profesionales.
Los procesadores de textos han evolucionado rapidamente, las nuevas tendencias han dado lugar a
grandes cambios:
Procesamiento de textos escritos a mano. Es algo que requiere programas muy complicados, pero
actualmente existen los ordenadores denominados tablet PC, basados en las modernas Otro ejemplo
son los equipos denominados PDA (asistente personal digital) como por ejemplo los Palm, en los
que se introduce el texto con una especie de lápiz.
Procesamiento de texto con el habla. Hablando frente a un micrófono se le dice al ordenador lo que
21 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
debe escribir e incluso se le pueden dar órdenes de cómo hacerlo. Los programas de reconocimiento
de voz buscan patrones en las ondas de sonido interpretando las palabras. Actualmente hay algunos
disponibles, con resultados buenos, siempre que se les haga un aprendizaje previo para cada
interlocutor. El más conocido es Voice Type de IBM.
Procesadores web en línea (online). El usuario usa un programa residente en un servidor, a través de
internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más
conocidos son: Zohowriter, AjaxWrite, Google Docs , proveniente de la adquisición de Writely por
Google y gOFFICE. Algunos incorporan otras aplicaciones ofimáticas.
Hasta hace bien poco tiempo era frecuente encontrar trabajos mecanografiados con las
fórmulas escritas a mano. Con la llegada de los ordenadores personales y el uso de
sistemas que operan en un entorno gráfico (Windows, Mac, X-Windows,...) algunos de
esas dificultades han quedado obsoletas, pero han aparecido otras:
22 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
universiades utilizan TeX para escribir en sus publicaciones y trabajos científicos, buena
parte de las revistas mas importantes especializadas en matemáticas utilizan TeX (desde
luego todas las que publica la AMS) y algunas solo publican originales que les sean
remitidos en este formato. Los ficheros con formato TEX viajan constantemente por las
redes informáticas de todo el mundo como mensajeros de investigaciones realizadas y
resultados científicos obtenidos.
Actualmente está en fase de elaboración, entre todos los usuarios que deseen participar,
la versión 3 del dialecto LaTeX , el más extendido de los dialectos del TeX, coordinada
por un equipo "The LaTeX team" que pone libremente a disposición de la comunidad
científica, semestralmente en servidores Internet, los progresos que se van realizando con
las ideas y colaboraciones de todos. La aproximación asintótica a esa versión 3 se llama
LaTeXe.
Las hojas de cálculo (hojas electrónicas o planillas) nacieron cuando surgió la necesidad de adaptar los
sistemas de planificación utilizados en los grandes ordenadores a los nuevos microordenadores. Son una
combinación de calculadora, lápiz y papel, que unido a la potencia y capacidad de almacenar datos de los
ordenadores, las convierten en una herramienta de primerísima importancia en el mundo empresarial.
En 1961 se desveló el concepto de una hoja de cálculo electrónica en el artículo "Budgeting Models and
System Simulation" de Richard Mattessich. Pardo y Landau merecen parte del crédito de este tipo de
programas, y de hecho intentaron patentar (patente en EE.UU. número 4398249) algunos de los
algoritmos en 1970. La patente no fue concedida por la oficina de patentes por ser una invención
puramente matemática. Pardo y Landau ganaron un caso en la corte estableciendo que "algo no deja de ser
patentable solamente porque el punto de la novedad es un algoritmo". Este caso ayudó al comienzo de las
patentes de software. La primera hoja de cálculo comercializada masivamente (Visicalc, posteriormente
comprada por Lotus) nació en 1977 de una idea de un estudiante, Dan Bricklin, de administración de
empresas de la Universidad de Harvard (EE.UU.).
Los cálculos empresariales manejan unas cantidades de datos que suelen variar dependiendo de los
supuestos, por lo que hasta la invención de la hoja electrónica se había desechado aplicar la informática a
ese entorno de trabajo, donde cada caso originaría un programa distinto.
La hoja de cálculo se presenta como una tabla o matriz de dos dimensiones (actualmente existen de tres)
que consta de un número de filas y columnas variable según el modelo del que se trate. (Ej. en LOTUS
123, una de las primeras, tiene 8192 filas y 256 columnas, en total más de 2000000 de celdas). Con los
23 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html
datos se pueden representar variados tipos de gráficos, de gran utilidad en ambientes empresariales.
Las filas son los datos horizontales y las columnas los verticales. El lugar donde se produce la
intersección de una fila y una columna se denomina celda. Las columnas habitualmente se nombran con
letras (A,B, ... AA, AB, ....) y las filas desde 1 en adelante.
Análogamente a como sucede con los editores de textos, el usuario emplea un programa residente en un
servidor, a través de Internet, no siendo preciso el disponer del editor de textos en el propio ordenador.
Los más conocidos son: EditGrid, ThinkFree, IRows, GoogleDocs, Zohowriter, Xcellery.
Buscar en la web
Búsqueda escéptica
Imprimir
Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software.
Tutorial sobre la nueva versión de Google Docs
Actualización en Software.
Tutorial sobre el programa HTTrackl
Actualización en Avisos.
24 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Introducción
Las ondas, portadoras de la información
La información como magnitud fundamental
Información y mensajes
Selecciona un texto y
pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar
en la esquina inferior derecha
3.1 Introducción
Información es una de las palabras más empleada en los entorrnos tecnológicos actuales tiene unos
orígenes que en nada se parecen al significado actual. En latín in-formare era dar forma (ej.:: informare
effigiem significa hacer el retrato de persona u objeto), y también significaba dar forma mental, es decir
hacerse una representación o concebir una idea a partir de algo.
En el siglo XVII ya aparece el término información en castellano, cuyo sentido era de averiguación legal
(por ejemplo, de delitos), y hasta el siglo XIX no adquiere el significado de educación o instrucción.
Como sucedía habitualmente, mientras tanto el francés llevaba la palabra hasta el inglés, donde se en el
siglo XIV aparece con el significado de "comunicación del conocimiento". En el siglo XX muchas
lenguas compartían ya la palabra en este último sentido.
Bajo el término información consideramos cualquier conocimiento susceptible de ser transmitido. Sin
emabrgo en los entornos tecnológicos información es algo estructurado: "datos ya sea en la forma de
números, gráficos o palabras que han sido organizados, sistematizados y presentados de modo que los
patrones subyacentes queden claros", según Bryan Pfaffenberger, en su obra "Diccionario para usuarios de
computadoras e internet, México, 1998".
R. W. Hamming (1915-1998) ha calculado que, desde los tiempos del físico Isaac Newton (1642-1727), el
acervo de conocimiento se viene duplicando aproximadamente cada 17 años, lo que equivale a decir que
aumenta exponencialmente y se desglosa en miles de ramas especializadas. Aunque por ahora no parezca
ser capaz de dar respuestas convincentes a sus preguntas fundamentales, el saber acumulado por los
humanos alcanza unas cotas asombrosas de complejidad y ha transformado, sobre todo en los últimos 200
años, casi todos sus conceptos y formas de vivir, incluyendo sus relaciones con ellos mismos, con los
demás seres vivos, con la Naturaleza, hasta con el espacio y el tiempo.
Las abejas
Si ponemos un recipiente con un jarabe dulce en las proximidades de una colmena, en cuanto una abeja
accede a él y lo prueba, pasa poco tiempo antes de que lleguen gran parte de las restantes de la misma
colmena. De alguna forma, la primera en acudir ha transmitido la información sobre la existencia del
2 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
jarabe a las otras. El científico austríaco C. Frisch (1886-1982) realizó una serie de experimentos sencillos
de los que dedujo la forma en que se trasmitía la información, como se indica seguidamente.
Si el jarabe se ha situado a menos de 100 m de la colmena, la abeja que llega con la noticia transmite la
información mediante un baile circular. Pero si el jarabe se pone a más distancia, el baile cambia por
completo, la abeja corre un poco en línea recta, rápidamente meneando el abdomen por los lados, después
de una vuelta completa a la izquierda, de nuevo corre en línea recta y da una vuelta entera por la línea de
un arco de circunferencia, pero hacia la derecha. Además el ritmo del baile depende de la distancia, a 100
m la abeja en 15 s hace 10 ciclos enteros, a 200 m hace siete ciclos, a 1000 m hace cinco ciclos y a seis
km sólo hace dos. El baile contiene la información que indica en la dirección en la que se debe volar.
Como la información la da dentro de la colmena, efectúa la parte rectilínea de su baile con un ángulo
determinado respecto a la fuerza de la gravedad.
Marcando abejas, se ha comprobado que el 88% de ellas, con la información recibida de la que descubrió
el jarabe, llegan al sitio donde se ncuentra.
Observando la vida de las hormigas, se descubrió que a las muertas otras las transportan, fuera del
hormiguero, en cuanto se transmite de alguna forma la información de que está muerta, que no suele ser
de inmediato, es decir que una hormiga puede estar muerta varios días bajo la indiferencia del resto, hasta
que aparece de golpe cierta señal y las hormigas la llevan a un lugar alejado.
Por lo que respecta a los escarabajos descortezadores del pino, es de gran interés el estudio de la
comunicación química de esta especie de gran importancia como plaga forestal, comenzando desde el
aislamiento e identificación de feromonas y atrayentes volátiles del árbol hospedador, estudio de los
mecanismos presentes durante el proceso de colonización, estudio de relaciones interespecíficas a nivel de
semioquímicos hasta el diseño de las técnicas para el uso de feromonas con fines de control.
Las mariposas
El lenguaje de las feromonas y olores está muy difundido en el mundo de los animales. Entre ellos los
más fuertes y de largo alcance son los relacionados con instinto de la reproducción. Por ejemplo la
hembra de la mariposa llamada "los grandes ojos del pavo real" manda sus señales hasta una distancia de
20 km, mediante un transmisor químico de potencia ínfima. La industria de la perfumería no está en
condiciones de competir con la naturaleza, el olor de los perfumes como mucho se aprecia a una decena
de metros.
Los peces
En el año 1942, las falsas alarmas del sistema norteamericano de defensa de costas en el Atlántico, fueron
la causa del descubrimiento de los sonidos que emiten unos peces, conocidos como tamborileros. Se
estableció que "suenan" aproximadamente en el mismo rango que la voz humana, de 5000 a 10000 Hz
3 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
(vibraciones por segundo). Unas especies emiten un chirrido, otras murmullos, otras golpes sueltos y así
se pueden clasificar en muchos tipos.
Los sonidos no son la única forma de transmitir información por parte de los peces. Los que habitan en
grandes profundidades, tienen su fuente de luz. Esta consiste en faroles biológicos con lentes, reflectores y
hasta diafragmas, estos impulsos de luz pueden tener distintas frecuencias y diversas duraciones.
En África los peces de la familia mormínidos, que habitan en ríos turbios y agitados, emplean impulsos
eléctricos para las comunicaciones. Estos peces tienen una especie de radares portátiles. Sus cuerpos son
dipolos eléctricos, la cola tiene carga negativa y la cabeza positiva. Generando un campo eléctrico de una
frecuencia dada, de forma que los objetos que se encuentran a su alrededor deforman el campo del dipolo,
detectándolos de esta forma.
Las serpientes
Los zoólogos desde hace tiempo han comprobado que ciertas serpientes venenosas, como por ejemplo el
ancistrodon (conocida como mocassin), tienen cuatro fosas nasales, las complementarias forman dos
agujeos profundos. En estos hoyos se ha descubierto una membrana que los divide en dos cámaras, y que
está atravesada por un sinfín de terminaciones nerviosas, se ha comprobado que son termolocalizadores.
Perciben la irradiación de calor, por lo que determinan la dirección hacia su origen.
Las serpientes tienen una vista muy débil, un olfato que casi no vale nada y un oído muy malo. Por eso
durante el proceso de la evolución se desarrolló el sistema localizador de calor. Análogo a las cámaras de
fotografíar que captan imágenes en la frecuencia del infrarrojo del espectro electromagnético.
El hombre
Según una hipótesis, nuestro antepasado común con los monos, dryopithecus, vivía en los árboles, se
alimentaba de vegetales y bajaba con poca frecuencia a la tierra, pues era peligrosa para él. Millones de
años vivió en un laberinto de ramas y su organismo se adaptó a esta forma de vida en los árboles. Estos
saltos de rama en rama, exigían no sólo músculos, sino vista aguda, cálculo y orientación rápida. Los ojos
que en la mayoría de los animales miraban en diferentes direcciones, comenzaban a aproximarse y a mirar
hacia delante, se les creó la visión del volumen y del color. Se les complicó el cerebro y el sistema
nervioso.
El cambio de clima provocó que los dryopithecus bajaran a la tierra, tomando una posición casi vertical
(así podían observar mejor el terreno) y las extremidades delanteras se quedaron casi sin ocupación. La
lucha por la existencia pronto les encontró empleo, armadas con una piedra o un palo se convirtieron en
un recurso para conseguir alimentos y para defenderse. Lo demás lo hizo el trabajo. Se perfeccionó el
cerebro y en respuesta el cerebro hizo más hábiles a las manos del hombre.
El trabajo era colectivo y por lo tanto exigía comunicación. Las muecas y sonidos inarticulados
eran insuficientes, siendo reemplazados a lo largo de la evolución por la palabra oral y la
escritura. Transición que duró muchos miles de años.
La población del mundo aumentaba rápidamente, formándose tribus y pueblos aislados, apareciendo la
4 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
necesidad de la transmisión de la información a largas distancias. Para este propósito se han empleado
muchos medios, corredores incansables, mensajeros a caballo, combinaciones de hogueras (indios),
tambores gigantes, palomas mensajeras.
Llegó un momento en que esto era insuficiente, la vida exigía una transmisión de la información más
rápida. La electricidad hizo la revolución, apareció el telégrafo por cable. El paso siguiente fue el invento
del teléfono, en la exposición mundial de París miles de personas hacían cola para hablar a través de él
con otros visitantes.
"La vida y obra de Antonio Meucci deben obtener el justo reconocimiento, y su trabajo
en la invención del teléfono debe serle atribuido", dice el texto, que fue aprobado por
simple exclamación a partir de la propuesta de un legislador republicano de origen
italiano, Vito Fosella, del estado de Nueva York. De este modo, los legisladores dieron
por terminada una discusión histórica.
La resolución es una revancha póstuma para Meucci, un florentino que emigró primero a
Cuba y luego a Estados Unidos. Meucci tiene en Staten Island, estado de Nueva York, un
museo, el "Garibaldi-Meucci", que es una especie de templo de la italianidad
neoyorquina.
Emily Gear, la directora del museo, dijo: "El teléfono lo inventó él, pero no tuvo suerte".
Su historia, siguió, "refleja el drama de tantos inmigrantes todavía hoy, discriminados
porque no pueden hablar la lengua del país que los hospeda".
Meucci descubrió los principios que guían el funcionamiento del teléfono en 1849 y
desarrolló un aparato que funcionaba en 1859. En 1860 lo presentó en un diario local,
escrito en italiano. Y el 28 de diciembre de 1871 dejó registrado su primer intento de
solicitud provisoria, cinco años antes de que Bell llenara los papeles. Su patente
temporaria N° 3.335 se venció al no poder afrontar los costos del trámite.
El juicio que inició Meucci contra la Compañía Bell fundada por Alexander no llegó a
buen puerto. Los papeles de su patente temporaria se perdieron misteriosamente.
Según la resolución que aprobaron los legisladores la semana pasada, la patente fue
acordada a Bell, quien trabajaba en el laboratorio en el que Meucci había depositado su
material.
Siguiendo el proceso por fraude, en 1887 las autoridades intentaron anular la patente
entregada a Bell, pero en 1889 después de la muerte de Meucci, ocurrida en 1896 el caso
fue cerrado.
Tampoco se conoció jamás quién fue el comprador del primer aparato creado por él, que
vendió por 6 dólares cuando estaba necesitado. "Dejémosle a Meucci el honor de ser
5 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
reconocido como ''el Padre del Teléfono''. Dejemos Bell que tenga el dinero", dijo John
La Corte, presidente de Sociedad Histórica Italiana en América.
El paso siguiente fue la transmisión de señales sin el uso de cables, el siete de mayo de 1895 Popov creó
la radio. Pero surgió un problema, el espectro de ondas que pueden llevar la información a cualquier
punto del planeta, las ondas cortas, sólo pueden transmitir pequeñas cantidades de información y además
no en cualquier hora del día y tiempo del año. Mientras que las ondas ultracortas que transmiten gran
cantidad de información, sólo se propagan dentro de los límites de la visión directa.
La solución al problema fueron los satélites artificiales de la Tierra. Con sólo tres satélites a una distancia
de 36000 km y equidistantes entre sí se puede solucionar el problema de las comunicaciones (excepto las
zonas muy próximas a los polos).
Cada día, cada uno de nosotros se ocupa de transmitir información por el tiempo, pero sólo en un sentido,
del presente al futuro. Por ejemplo, si apuntamos un número de teléfono en una agenda, estamos
transmitiendo esa información al futuro, esta transmisión durará el tiempo que exista la agenda. El
periódico de hoy, que como es normal trae malas noticias, se convierte en un transmisor de datos al
futuro. Si alguien dentro de 30 años, desea enterarse de lo que pasó hoy, podría encontrarlo en una
hemeroteca. Por consiguiente, habiendo registrado la información, la ponemos en poder de un futuro,
lejano o cercano, en dependencia del tipo de dispositivo de memoria que empleemos.
¿Es posible tener información del futuro, por ejemplo como vivirá la humanidad en el año 2040? Es
posible una solución, mediante el estudio de tendencias del desarrollo de la humanidad en el pasado,
suponiendo su validez para el futuro. A veces estas predicciones no son fiables.
Otra solución (no es real, es una paradoja) es tripular una nave a velocidades próximas a la de la luz.
Según la teoría de Albert Einstein (1879-1955), la marcha del tiempo al aumentar la velocidad del
movimiento se retrasa, mientras que en la Tierra todo seguirá a su ritmo habitual. Al regresar la nave
espacial, se tendrá el planeta con cientos o miles de años transcurridos, por lo que no encontrará a sus
familiares, aunque sobreviva el tripulante de la nave, pues todos sus procesos biológicos se habrán
ralentizado. Por ahora sólo es una realidad la transmisión de información del pasado y del presente hacia
el futuro.
El primer dispositivo de memoria fue el cerebro de los animales, que apareció en el proceso de evolución
de muchos millones de años. Sobrevivía aquel que mejor recordaba el lugar donde se encontraban los
peligros, los refugios, los alimentos.
El hombre gracias al trabajo comenzó rápidamente a perfeccionar su cerebro y por lo tanto su memoria.
Existen estimaciones del volumen de la memoria humana, que la consideran superior a la información
contenida en una gran biblioteca (que puede ser de 1013 bit). La velocidad de percepción de la
información por el hombre no sobrepasa los 25 bit por segundo lo que equivale a una palabra por
segundo. Si un individuo capta información durante 70 años, y diez horas diarias, no cogerá más de 3*109
bit.
Alguien le robó la mayor parte del cerebro y usted probablemente no lo sabía. Bueno, no
significa exactamente que le hayan quitado el cerebro, pero han decidido que Ud. no lo
usa. Se trata del viejo mito, escuchado una y otra vez, que dice que la gente usa sólo el
diez por ciento del cerebro.
6 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Mientras que para aquellos que repiten ese mito esto probablemente sea verdad, los
demás felizmente usamos todo el cerebro.
Ese remanido supuesto del diez por ciento aparece todo el tiempo. El año pasado, los
avisos publicitarios de la revista nacional para la U.S. Satellite Broadcasting mostraban el
dibujo de un cerebro. Debajo figuraba la leyenda: Ud. sólo usa el 11 por ciento de su
potencial. Bien, estuvieron más cerca que el mito del diez por ciento, pero todavía les
faltó un 89. En julio de 1998, la cadena de televisión ABC emitió unos spots
promocionales del programa The Secret Lives of Men (Las vidas secretas de los
hombres), para la temporada de otoño. El spot consistía en una propaganda en la que se
podía leer, Los hombres sólo usan el diez por ciento del cerebro ocupando toda la
pantalla.
Una de las razones por las cuales este mito ha permanecido, es que ha sido adoptado por
videntes y otros integrantes del mundo paranormal para explicar los poderes
parapsíquicos. En más de una ocasión he escuchado a videntes que le dicen a la audiencia
Solamente usamos el 10 por ciento de la mente. Si los científicos no saben lo que
hacemos con el 90 por ciento restante, ¡entonces debemos estar usándolo para los
poderes parapsíquicos! En Reason To Believe: A Practical Guide to Psychic Phenomena
(Razón para creer: guía práctica para los fenómenos parapsíquicos), el autor Michael
Clark menciona a un hombre llamado Craig Karges. Karges cobra un montón de dinero
por su programa Intuitive Edge (Al filo de la intuición), el cual está diseñado para
desarrollar habilidades parapsíquicas naturales. Clark cita a Karges diciendo:
Normalmente utilizamos sólo del 10 al 20 por ciento de la mente. Piense cuán diferente
sería su vida si Ud. pudiera usar ese otro 80 ó 90 por ciento, que conocemos con el
nombre de mente subconsciente (Clark 1997, 56).
También ésta fue la razón que dio Caroline Myss intentando explicar sus poderes
intuitivos en una sección de Eye to Eye with Bryant Gumbel (Ojo a ojo con Bryant
Gumbel, o Frente a frente con Bryant Gumbel), que se emitió en julio de 1998. Myss, que
ha escrito libros sobre el desarrollo de los poderes intuitivos, dijo que todo el mundo
tiene dones intuitivos, y lamentó que usáramos tan poquito del potencial de la mente.
Para empeorar las cosas, apenas una semana antes, en el mismo programa, se había
presentado información correcta acerca del mito. Entre el programa y la publicidad,
aparecía en pantalla un spot con una breve encuesta: ¿Qué porcentaje del cerebro
usamos? Las respuestas, tipo multiple-choice (de elección múltiple) iban desde el 10
hasta el 100 por ciento. Apareció la respuesta correcta, lo cual me alegró. Pero si los
productores sabían que lo que había dicho una de las entrevistadas era clara y
manifiestamente erróneo, ¿por qué permitieron que saliera al aire? ¿El cerebro derecho
no sabe lo que está haciendo el cerebro izquierdo? Tal vez la entrevista a Myss era una
repetición, en cuyo caso los productores presumiblemente chequearon los hechos después
de que se emitió al aire y sintieron la responsabilidad de corregir el error en la emisión de
la semana siguiente. O posiblemente las emisiones se difundieron en secuencia y los
productores simplemente no se preocuparon y emitieron a Myss y a su desinformación de
todos modos.
Incluso Uri Geller, quien construyó su carrera tratando de convencer a la gente de que
podía doblar metales con la mente, salió al ruedo con esta perlita. Esto aparece en la
introducción de su libro Uri Gellers Mind-Power Book (El libro de los poderes mentales
de Uri Geller): Nuestras mentes son capaces de proezas notables, increíbles, y todavía no
7 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
las utilizamos en su plenitud. De hecho, la mayoría de nosotros usamos sólo cerca del 10
por ciento del cerebro, con suerte. El otro 90 por ciento está lleno de habilidades y
potenciales aún no descubiertas, lo cual significa que nuestras mentes operan en forma
muy limitada en lugar de funcionar a pleno. Creo que alguna vez tuvimos pleno poder
sobre nuestra mente. Lo hacíamos para sobrevivir, pero a medida que el mundo se
sofisticó y se hizo más complejo nos olvidamos de muchas habilidades que alguna vez
tuvimos (énfasis en el original).
El argumento que dice que los poderes parapsíquicos provienen de la vasta parte del
cerebro no utilizada se basa en la falacia lógica del argumento por ignorancia. En esta
falacia, la falta de pruebas para sostener una posición (o simplemente la falta de
información) se usa para tratar de apoyar una suposición determinada. Aunque fuera
cierto que la mayor parte del cerebro humano no se usa (lo cual no es cierto), eso de
ninguna manera implica que haya alguna capacidad extra que pueda darle a la gente
poderes parapsíquicos. Esta falacia surge constantemente en las afirmaciones
paranormales, y prevalece especialmente entre los partidarios de los OVNI. Por ejemplo:
dos personas ven una extraña luz en el cielo. El primero, un creyente en los OVNI, dice,
¡Mira allí! ¿Puedes ex-pli-carme eso? El escéptico contesta que no, que no puede. El
creyente en los OVNI se regocija. ¡Ja! ¡No sabes lo que es, por lo tanto debe tratarse de
extraterrestres! dice, argumentando desde la ignorancia.
Lo que sigue son dos de las razones por las cuales el mito del diez por ciento resulta
sospechoso. (Para un análisis más extenso y detallado del tema, véase el capítulo de
Barry Beyerstein en el nuevo libro Mind Myths: Exploring Everyday Mysteries of the
Mind, 1999 [Mitos de la mente: explorando los misterios cotidianos de la mente]).
1) Las técnicas de investigación por imágenes tales como los PET (Tomografía por
emisión de positrones) y la FMRI (resonancia magnética funcional por imágenes)
muestran claramente que la mayor parte del cerebro no permanece inactiva. En verdad,
aunque ciertas funciones menores pueden utilizar sólo una pequeña parte del cerebro en
un momento determinado, cualquier conjunto de actividades o patrones de pensamiento
complejos usarán muchas partes del mismo. Así como una persona no utiliza todos los
músculos a la vez, tampoco utilizan todo el cerebro a la vez. Para ciertas actividades,
tales como comer, mirar televisión, o leer The Skeptical Inquirer, usted puede usar unas
pocas partes específicas del cerebro. Sin embargo, en el transcurso del día se utilizarán
casi todas las partes del cerebro.
2) El mito presupone una localización extrema de las funciones cerebrales. Si las partes
usadas o necesarias estuvieran dispersas por todo el órgano, esto implicaría que de hecho
se necesita gran parte del cerebro. Pero el mito implica que la parte utilizada del cerebro
es un área discreta, limitada, y la parte no utilizada es como un apéndice o amígdala, que
ocupa espacio pero es esencialmente innecesaria. Pero si todas esas partes del cerebro no
se usan, el hecho de remover o dañar las partes no usadas no conllevaría grandes efectos
o ni siquiera se notaría. Sin embargo las personas que han sufrido traumas cerebrales, un
infarto, u otro daño cerebral, frecuentemente se encuentran severamente impedidos. ¿Ha
escuchado Ud. a algún médico decir, afortunadamente cuando la bala penetró en el
cráneo, solamente dañó el 90 por ciento del cerebro, que no usaba? Por supuesto que no.
8 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
adaptabilidad le da una vida más prolongada que la que tiene un spam laqueado. En su
versión básica el mito afirma que años atrás un científico descubrió que nosotros
utilizamos verdaderamente sólo el 10 por ciento del cerebro. Otra variante se refiere a
que sólo el 10 por ciento del cerebro ha sido mapeado, y que esto se malinterpretó
mapeado por usado. Antes, Craig Karges había presentado una tercera variante. Ésta dice
que, de alguna manera, el cerebro se encuentra ingeniosamente dividido en dos partes: la
mente consciente que se usa del 10 al 20 por ciento del tiempo (presumiblemente a plena
capacidad); y la mente subconsciente, en donde el restante 80 ó 90 por ciento del cerebro
permanece inutilizado. Esta descripción revela un profundo malentendido de la
investigación de las funciones cerebrales.
La larga vida del mito se debe en parte a que si una variante resulta incorrecta, la persona
que cree en ella puede simplemente cambiar la razón de su creencia y apoyarse en otra
base, mientras la creencia misma permanece intacta. Así, por ejemplo, si a un individuo
se le muestra un examen PET en donde se observa actividad en todo el cerebro, todavía
puede seguir argumentando que lo del 90 por ciento se refiere a la mente subconsciente, y
por lo tanto la figura del mito queda a salvo.
Los orígenes del mito no son del todo claros. Beyerstein, del Laboratorio de
comportamiento cerebral de la Universidad Simon Fraser en British Columbia, lo ha
rastreado hasta principios del siglo veinte. En una reciente columna de la revista New
Scientist también se sugirieron otras fuentes, incluyendo a Albert Einstein y Dale
Carnegie (Brain Drain 1999). Probablemente tenga un sinnúmero de fuentes,
principalmente la malinterpretación o malentendido de los hallazgos científicos legítimos
así como los gurúes de autoayuda.
El más poderoso atractivo del mito es probablemente la idea de que podemos desarrollar
poderes parapsíquicos o al menos lograr ventajas competitivas tales como mejorar la
memoria y la concentración. Todo esto se encuentra a nuestra disposición, como dicen
los avisos, si aprovechamos el más poderoso de nuestros órganos, el cerebro.
Benjamin Radford
Traducción de Alejandro Borgo. Benjamin Radford es Jefe deb Edición de la revista The
Skeptical Inquirer y es graduado en psicología.
Agradecimientos
9 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Estoy en deuda con el Dr. Barry Beyerstein por sus sugerencias y ayuda en la
investigación.
Referencias
Beyerstein, Barry. 1999. Whence cometh the myth that we only use ten percent of our
brains? In Mind-myths: Exploring Everyday Mysteries of the Mind and Brain, edited by
Sergio Della Sala. New York: John Wiley and Sons.
Brain Drain. 1999. The Last Word (column). New Scientist 19/26 December 1998-2
January 1999.
Geller, Uri, and Jane Struthers. 1996. Uri Gellers Mind-power Book. London: Virgin
Books.
El siguiente vídeo trata sobre el asunto del mito del 10% del cerebro, por parte del profesor Carlos J.
Álvarez, psicólogo de la Universidad de La Laguna. (Fuente: Magonia)
A pesar de la perfección de la memoria humana, esta tiene defectos, el principal es que su contenido no se
transmite por vía biológica a los descendientes, sino que se destruye al morir las células del encéfalo. Otro
defecto es que no siempre se consigue en el momento necesario reproducir y emplear la información
previamente memorizada.
Los humanos hablaron durante unos doscientos mil años antes de que plasmaran sus ideas para la
posteridad. Cuando los habitantes de Mesopotamia, conocidos como sumerios, rasparon unos símbolos
sobre unas tablas de arcilla hace 5000 años, sin saberlo iniciaron una nueva era de la humanidad, lo que
conocemos como historia. La presencia de fuentes escritas denota la línea técnica divisoria entre lo que
10 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
los expertos clasifican como prehistoria. La escritura apareció casi al mismo tiempo en diversos lugares, y
por las mismas razonesr, fue creada cuando las civilizaciones comenzaron a crecer lo suficiente como
para querer llevar un control del concepto que comenzó a tomar importancia con la sociedades
sedentarias, agricultoras, el concepto de la propiedad.
Nuestros antepasados lejanos para superar estos defectos emplearon unos dispositivos de memoria muy
simples, cortaban ramas, amontonaban piedras, hacían cortes en los árboles. La lucha por la
existencia les obligó a encontrar métodos más perfectos. Los indios empleaban conchas de
colores, los incas cartas de nudos llamadas quipos. Aparecieron los petroglifos, signos e
imágenes grabados en las piedras.
En el cuarto milenio antes de nuestra era aparecieron las escrituras del antiguo Egipto, los
jeroglíficos. Otros dispositivos de memoria fueron placas de arcilla, pieles, papiro,
pergamino, cortezas de abedul y posteriormente el papel.
Jeroglífico
El paso siguiente fue el invento de la imprenta por el alemán Johannes Gutenberg (1398-1468). A su
ayuda llegó la fotografía y más recientemente el cine. Más tarde se inventaron dispositivos para grabar y
reproducir los sonidos. Al principio era un sencillísimo fonógrafo, siendo desplazado por el magnetófono
y sus posteriores versiones actuales.
La primera posibilidad del hombre de transmitir la información aparece junto con el primer grito que da al
nacer, después empleamos este medio toda la vida.
Hay quien piensa que cualquier información de por sí misma tiene la propiedad de pasar por el espacio sin
ayuda de algún portador que circule. El sonido viaja por el espacio debido a las oscilaciones del aire. El
que habla, con sus cuerdas vocales hace oscilar el aire, que transmite esta información a las siguientes
capas de aire y así sucesivamente, si creamos un vacío alrededor de un orador, por ejemplo de los que leen
monótonamente una conferencia, ya no se le oirá, y el auditorio podrá dedicarse a dormir.
Aproximadamente lo mismo ocurre al difundir cualquier información en el espacio. Un barco que pasa
lejos se detecta en la orilla por las olas que llegan, las han traído las oscilaciones de las partículas de agua.
11 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
de la luz, mientras que otras transmiten la información muy despacio, como por ejemplo las ondas en los
líquidos viscosos. Este movimiento ondulatorio aparece en casi todas las ramas de la Física.
El movimiento de una onda únicamente depende del tipo de onda y del material a través del cual se
propaga, pero no depende del movimiento del cuerpo que provoca la onda. Cuando una fuente emisora
lleva una velocidad mayor que la velocidad de la onda se produce una onda de choque (utilizadas para
desintegrar cálculos renales con equipos de litotricia), como por ejemplo los estampidos sónicos de los
aviones y la radiación de Vavilov-Cherenkov. Una onda de choque transporta toda la energía ondulatoria
emitida a lo largo de la trayectoria del movimiento de la fuente en un estallido violento.
Supongamos un muelle metálico muy largo (el juguete conocido en EE.UU como "slinky") y lo ponemos
de lado a lado de una habitación. Entonces agrupamos con la mano unas cuantas espiras, cerca de uno de
los extremos del muelle.
Este grupo de espiras comprimidas parece moverse como un rizo hacia el otro lado del muelle. Viaja de
esta forma hasta el extremo más alejado, una vez allí parece rebotar y vuelve al punto en el que se inició
el proceso. Este proceso se repite sucesivas veces, pero la región comprimida se hace más ancha y su
contorno menos definido. Al final es difícil reconocer esta región. El movimiento se ha extendido a todo
el muelle y se observa un temblor y una agitación general, al final el muelle permanece en reposo.
Cualquiera que efectúe el proceso antes descrito con el muelle debe de comprobar que algo se mueve
hacia delante y atrás en el muelle. Sin embargo ni un solo trozo de metal se ha desplazado más de unos
pocos centímetros de su posición inicial. ¿Qué fue lo que se movió a través de la habitación?
Lo que se movió fue la silueta de espiras del muelle, la región en donde estas espiras estaban más juntas
de lo normal. Cualquier silueta o forma que se desplace se puede llamar una onda.
Ondas
Podemos ser más precisos y definir como perturbación cualquier distribución de las partes de un sistema
que sea diferente de su condición de reposo natural. Una onda física es una perturbación que se mueve
debido al efecto que las partes del sistema ejercen entre sí.
Una onda se puede utilizar para enviar información. Supongamos que apagamos las luces, y que en cada
extremo del muelle se pone una persona. Las señales se envían mediante la contracción de espiras en un
extremo, notándose en el otro extremo la región comprimida. Una vez finalizado el movimiento se puede
enviar otra señal. Para enviar mensajes largos se puede utilizar un código semejante al Morse.
La onda que se enviaba a través del muelle, se producía comprimiendo algunas espiras del muelle. Las
ondas en las que la perturbación coincide con la dirección del movimiento se conocen como ondas
longitudinales o de compresión. Sin embargo las conocidas como ondas transversales, la perturbación
forma un ángulo recto con la dirección de propagación de la onda. Las ondas sonoras son longitudinales,
mientras que las que se producen en la superficie del agua son en su mayor parte transversales. Las ondas
luminosas son transversales.
12 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Hasta el momento se han comentado ondas en las que la perturbación inicial dura muy poco tiempo, y en
las que la perturbación no se volvía a repetir. Se conocen como pulsos. Cuando una perturbación que
produce la onda se repite a intervalos regulares de tiempo, se tiene un tren de ondas. Por ejemplo, al
cantar se produce un tren de ondas sonoras. Los trenes de ondas difieren entre sí en la rapidez con que se
repiten los pulsos. El tiempo transcurrido entre la repetición de los pulsos recibe el nombre de período,
que se representa por T. La frecuencia es el número de repeticiones por segundo y se representa por la
letra f.
La longitud de onda es la distancia entre dos pulsos consecutivos, por lo que en este caso la longitud de
onda será de 350 m. Si se dan dos palmadas por segundo, la longitud de onda será de 175 m. Entonces se
llega a la conclusión de que el producto de la longitud de onda por la frecuencia de cualquier tren de
ondas es igual a la velocidad de propagación de la onda.
El efecto Doppler
En una autopista, si estamos parados, es habitual oír el sonido de los vehículos que circulan por ella,
procedentes de los ruidos de los motores. Es fácil advertir la variación del sonido cuando nos adelanta
otro vehículo. Es obvio que la mayoría de los vehículos no disminuyen su velocidad al sobrepasarnos. El
tono varía en función de la trayectoria seguida hasta llegar a nuestros oídos. Este desplazamiento de la
frecuencia se llama efecto Doppler, muy utilizado en diversos campos, por ejemplo en los radares de la
Guardia Civil, astronomía y medicina (ecografías abdominales, patologías del sistema circulatorio,
patologías testiculares).
Este efecto se debe al cambio de frecuencia de una onda, debido al movimiento de la fuente que emite las
ondas, o al del observador que recibe la energía de la onda.
Si se considera un coche desplazándose a la velocidad de 35 m/s, y cuyo conductor hace sonar el claxon
cada segundo, al pitar por segunda vez, el pulso primero se ha desplazado 350 m (la velocidad del
sonido), pero durante este tiempo el coche se ha desplazado 35 m desde el lugar de partida. Los dos
pulsos mantendrán una distancia de 315 m entre sí. Un observador alejado recibirá más de un pulso por
segundo. La distancia de cada pulso es 315 m y la velocidad en el aire es 350 m/s. El tiempo transcurrido
desde que el observador escucha un pulso sonoro y el siguiente es 315/350 ó 0.9 s. Si el claxon continúa
pitando se pueden llegar a oír diez pitidos en nueve segundos. En general se puede decir que: un
observador situado frente a una fuente sonora en movimiento recibirá los pulsos sonoros con una
frecuencia mayor que la emitida por la fuente. En caso de alejamiento la frecuencia será más baja.
13 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Las ondas electromagnéticas se pueden detectar debido a la energía que transportan. Estos detectores
pueden ser muy variados, como por ejemplo los electrones que se encuentran en la antena de un coche, o
bien las cargas eléctricas que poseen los átomos de la retina de nuestros ojos.
El espectro de ondas electromagnéticas es muy amplio, varía desde las ondas de radio, de muy baja
frecuencia, hasta rayos gamma, cuya longitud de onda es más pequeña que el núcleo de un átomo.
Una representación esquemática y animada muy buena del espectro electromagnético se encuentra en :
Atlas of Electromagnetic space
14 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
15 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
La longitud de onda es la característica fundamental de estas ondas. Un sistema eficaz para detectar o
producir estas ondas debe ser un dispositivo del mismo tamaño que la longitud de onda delas ondas que se
quieren producir o detectar. Por ejemplo, una antena de radio es demasiado grande para generar ondas de
luz visible, los átomos de nuestros ojos son demasiado pequeños para detectar ondas de radio.
Se ha de cosniderar que las radiaciones más energéticas son ionizantes y por lo tanto susceptibles de
generar cáncer, dentro de este grupo se encuentran los Rayos, Rayos Gamma y parte del espectro de la
radiación ultravioleta (UV). Contrariamente a las afirmaciones alarmistas e injustificadas de grupos
"ecólatras", los teléfonos móviles y sistemas de internet medante Wifi no son perjudiciales para la salud,
pues su rango de frecuencias cae dentro del grupo de las no ionizantes. El informe Moulder es muy
completo y aclaratorio sobre el asunto.
Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)
16 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Ondas de radio AM y FM. Una señal de radio que transmite siempre la misma onda no transporta
mucha información. Pero al menos informa al receptor de que la estación que envía la señal está en
funcionamiento. Para obtener más información, hay que variar y comprender la señal que se detecta. Es el
proceso de la modulación.
El tipo de modulación más simple consiste en variar la duración de los intervalos de tiempo entre señales.
Puede transmitirse una secuencia de trenes de ondas más largos o más cortos mediante el código morse o
algún otro conocido. A principios del siglo XX la primera utilidad de las señales electromagnéticas fue el
envío de mensajes telegráficos a través del océano para grandes distancias.
Es muy fácil variar gradualmente la intensidad de la señal desde su valor máximo al mínimo, a lo largo de
muchos ciclos de la onda repetitiva elemental, este método se conoce como modulación de la amplitud
(AM).
Un parámetro importante es el porcentaje de modulación, que indica la amplitud mínima o nivel cero de
la onda modulada. Una modulación al 100% indica que la amplitud mínima será cero. Se puede demostrar
matemáticamente que la onda modulada final se puede descomponer en tres señales: una de frecuencia
igual a la portadora y otras resultado de sumar y restar la frecuencia de la moduladora a la de la portadora.
Es decir, si tuviéramos una portadora de 500 KHz y la onda moduladora posee una frecuencia máxima de
20 KHz (como las señales musicales) obtendremos tres ondas: una de 500 KHz y dos bandas laterales de
480 KHz y 520 KHz.
Esto es importante para saber el ancho de banda que ocupa la transmisión (en este caso 20+20=40 KHz).
Con este sistema pueden aparecer algunos problemas, la intensidad de la señal puede variar por razones
distintas a las de la modulación que provoca la emisora, las cargas de la atmósfera pueden crear efectos no
deseados. Esto provoca distorsión y ruido en el receptor.
17 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Para evitar el problema previo, se utilizan ondas de frecuencia modulada (FM), muy popular en la
actualidad. En este sistema la onda que transporta la información no posee una frecuencia única. Su
frecuencia varía en función de la intensidad de la señal de modulación. Para descifrar estas señales hace
falta un circuito más complicado que las de AM, pero la distorsión atmosférica afecta poco en la
transmisión, por lo que la calidad de recepción es mucho mejor.
Supongamos que tenemos una señal moduladora cuya máxima amplitud es de 1V (valor de pico) y una
onda portadora de 1000 KHz. Si suponemos que para este valor de amplitud la frecuencia de la portadora
se desvia 15 KHz (simétricamente, es decir +15 KHz y -15 KHz), conforme oscile la señal moduladora la
frecuencia de la portadora oscilará entre 985 KHz y 1015 KHz, ocupando un ancho de banda de 30 KHz.
En este sistema de modulación también tenemos un problema práctico, y es que rara vez el ancho de
banda de la transmisión es inferior a diez veces el de la señal moduladora.
Las bandas de frecuencia más baja se reservan para las emisoras que transmiten en AM, mientras que las
de FM transmiten sobre los 100 MHz. La única banda que está libre para cualquier uso (como
radiocontrol) y para cualquier persona es la banda de los 27 MHz, pero debido a esto está bastante
saturada y sólo es conveniente utilizarla para practicar con montajes caseros y sistemas de poco alcance
(no más de 100m).
La información nos sale al paso en cualquier momento, ya sea en sistemas técnicos como en los naturales:
en la elaboración de datos, en la tecnología de las comunicaciones y en la de regulación, en las lenguas
naturales, en los sistemas de comunicación biológicos, incluso en la transmisión de informaciones en la
célula viva. La información se ha convertido, pues, en la tercera magnitud básica universal. Debido al
enorme desarrollo realizado por la tecnología de ordenadores, el sector de la informática ha alcanzado una
18 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
importancia que era escasamente predecible. Además la palabra información se ha convertido en una
expresión aplicable a las más diversas disciplinas. Alcanzando al mismo tiempo una importancia esencial
en los sectores más dispersos como por ejemplo, la técnica, la biología y la lingüística. Por lo tanto el
concepto de información requiere un tratamiento profundo, especialmente en el sentido de precisar su
significado, definir sus características más primordiales y formular teoremas.
Los núcleos de todas las células contienen los denominados cromosomas, en número constante para cada
especie, el hombre 46, el mosquito zumbador 6, la carpa 104 y el chimpancé 48. En los cromosomas están
las moléculas de ácido desoxirribonucleico (DNA o ADN), descubierto 1869 por un médico alemán
llamado Friedrich Miescher (1844-1895), al que la evolución ha confiado la misión de ser el portador de
la información genética puesto que tiene gran capacidad para duplicarse.
El ADN está formado por los nucleótidos, y cada uno de ellos consta de moléculas de azúcar
desoxirribosa (D), de un grupo fosfato (F) y de una de las cuatro bases nitrosas: adenina (A),
timina (T), citosina(C) o guanina (G). Dos cadenas de ADN se unen en una espiral doble como si se
enrollasen la una en la otra, las bases nitrosas se encuentran en el espacio interior entre las espiras y están
unidas entre sí con enlaces de hidrógeno. La Adenina siempre hace pareja con la timina y la guanina con
la citosina. El número de nucleótidos en la molécula de ADN es de muchos miles.
Si se supone que el hombre tiene menos de cienmil genes (actualmente se estima en 30000) y se quisiera
19 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
codificar la información hereditaria en el sistema binario, se tendrían del orden de 2 107 bit. Si se grabala
información en cinta magnética, la longitud sería de dos kilómetros, mientras que si se desenrolla la
espiral hereditaria del ADN y se estira en línea recta, la longitud sería solamente de unos dos metros. Lo
cual da idea de lo compacto que es el embalaje de la información hecho por la naturaleza.
Preguntaba Rigel, hace algunas entradas, ¿Cómo se almacenan los kilómetros de escalera
adenosa en sitio tan chiquitito como es una célula?
Procedamos al susto:
Matemáticos, a mí: leí hace tiempo que el tipo de empaquetamiento que usa el ADN es el
más eficiente que existe. No lo sé. Pero sé que a la célula le va muy bien. Paso a
describirlo, poco a poco.
20 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Así que, ¿cómo se almacena el ADN en la célula? Pues, la verdad... la mar de bien.
Y como fin de fiesta, para aquellos a los que les dé pereza lo negro, todo lo anterior está
perfectamente explicado en este bello dibujo, que además (astucia supina) es un enlace a
una página anglosajona donde se explican más cosas aún. El que no sepa más de
cromatina después de esto, es ya porque no quiere. De nada.
La Biblioteca de Babel Toda la materia viva, desde el virus más primitivo hasta el
hombre son cadenas transportadoras para transmitir la información hereditaria, son
sistemas de comunicaciones perfectamente construidos, que tienen una asombrosa
exactitud para transmisión de sus datos, con una gran defensa contra la acción de
21 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Redacción Ondasalud.com
La determinación de la estructura en doble hélice del ADN se considera uno de los hitos
científicos del siglo XX. James Watson y Francis Crick la publicaron por vez primera
vez en la revista Nature y ahora, cincuenta años más tarde, este medio festeja el hallazgo
que culminó con la concesión del Premio Nobel de 1962 en Medicina y Fisiología a la
célebre pareja.
Antecedentes
Pero hacía falta mucha más información para convencer a toda la comunidad científica.
¿Cómo justificar desde un punto de vista químico el papel del ADN en la herencia?, se
preguntaban. La respuesta la aportó el trabajo de James Watson y Francis Crick.
Describieron los pares de bases, donde la adenina fabrica uniones de hidrógeno con
timina, y la guanina con citosina (las famosas cuatro letras A, T, C y G que forman el
gran libro del genoma). "Este emparejamiento sugería un posible mecanismo de copiado
para el material genético", escribieron en su artículo y, dos meses después añadieron:
"Hasta ahora no se había presentado ninguna evidencia que mostrara de qué forma puede
consumarse el proceso esencial para el material genético, la duplicación exacta".
22 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
La investigación siguió su curso hasta llegar al punto y seguido de esta bonita historia
que fue la concesión del Premio Nobel de Medicina en 1962 a Watson, Crick y Wilkins.
Un retrato idealizado
Según refleja este artículo, la doble hélice es una de las razones del éxito de los trabajos
realizados sobre el ADN. "Ahora bien, no nos tenemos que dejar engañar por este retrato
idealizado y debemos ser conscientes de la complejidad que posee la estructura de ADN
y, por ello, reconocer el trabajo tan importante de sus descubridores".
Supongamos un ejemplo de la vida real, se va por una carretera y se llega a una bifurcación. Si se desea
saber por ejemplo cual de las dos conduce a Murcia, lo lógico ería ver los rótulos indicativos que suelen
existir en las carreteras, pero en este caso sólo hay grandes carteleras publicitarias (aunque están
prohibidas, pero como el alcalde se preocupa de pocas cosas), por lo tanto la información recibida es nula,
igual a cero. Si vemos a otro coche que se acerca, se puede preguntar al conductor sobre cual de las dos
vías conduce a Murcia, respondiendo por ejemplo, la de la derecha. Esta información recibida permite
hacer una elección entre dos posibilidades, es decir entre las dos posibles salidas. Se ha recibido un bit de
información.
¿Cuánta información obtenemos cuandonos dicen que cierta persona tiene el pelo oscuro, o que es
una mujer? Parece de locos intentar cuantificar de forma precisa este concepto, pero lo vamos a
hacer partiendo precisamente de su idea intuitiva.
Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al de
disminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más información
cuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno.
En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio, canoso), al
igual que en la segunda, (hombre, mujer, lesbiana, "gay", bisexual), por tanto la primera y la segunda nos
dan igual información, sin embargo si en el segundo caso simplificamos y sólo consideramos dos
posibilidades (hombre, mujer), obtenemos más información al disminuir mucho más la incertidumbre que
teníamos con respecto a la persona.
23 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Otro ejemplo: El alfabeto español se compone de 27 letras. Si un ordenador genera letras al azar, la
información que nos suministra el conocer que letra ha salido será mayor que en cualquiera de los casos
anteriores porque el número de estados posibles es mayor (27).
Los matemáticos y los físicos se han puesto de acuerdo que es lógico y cómodo tomar por unidad de
información una dosis de información tal que disminuye nuestra ignorancia en dos veces y permite hacer
una elección entre dos posibilidades equitativas. Claro está que se ignora la importancia de esta elección.
Un caso más complicado es la elección entre cuatro salidas posibles. Por ejemplo, si hace falta prever en
qué trimestre se desean las vacaciones, se seguiría el proceso siguiente:
Otro ejemplo es el esconder una moneda debajo de una de entre cuatro tazas. ¿Cómo encontrar la moneda
con sólo dos preguntas a las que se contesta si o no?
De los dos ejemplos previos, se deduce que al hacer una elección entre cuatro opciones posibles, hacen
falta dos unidades de información y no una.
Si se escondiera la moneda debajo de una de entre ocho tazas, para encontrarla harían falta tres unidades
de información. Así de forma sucesiva, aunque al aumentar el número de tazas es más probable que
rompamos alguna buscando la moneda. Se puede observar una dependencia entre la cantidad de variantes
N, u orígenes, y la cantidad de unidades de información J, necesarias para tomar una decisión,
N=2J
y tomando logaritmos, se tiene
J=log N
Esta fórmula fue propuesta en 1928 por Hartley, y dice, la información necesaria para la elección entre N
variantes equitativas es igual al logaritmo del número de variantes.
La función logarítmica crece muy despacio al aumentar el número, esto implica que la cantidad necesaria
de información crece muy despacio al aumentar el número de variantes. Por ejemplo, para tomar una
decisión entre 512 variantes, sólo hacen falta 9 unidades de información, y si N es 4096, hacen falta 12.
Un ejemplo real de esta dependencia logarítmica es cuando un juez de instrucción, recibiendo del acusado
ávidas contestaciones sólo en forma de las unidades de información "si" o "no", rápidamente aclara un
asunto. Sin duda, a él ayuda la dependencia logarítmica previamente deducida.
Si en la fórmula ponemos N = 2 (log 2 = 1), se obtiene la dosis que tiene la unidad de información que ha
recibido el nombre de bit.
Claude E. Shannon fue el primero que formuló una definición matemática del concepto de información en
su trabajo " A mathematical theory of communication" (1948). La medida que él utilizó, el
bit (binary digit), brindó la ventaja de permitir la definición cuantitativa de causalidades
24 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
que hasta ahora no había sido posible expresar de una forma matemática exacta. La
desventaja, no obstante, es evidente: la información según el concepto de Shannon, no
implica su contenido intrínseco, sino que se limita a un aspecto especial, que es
significativo sobre todo para su transmisión y registro desde el punto de vista técnico. En
este caso, no se tiene en cuenta que un texto sea razonable, comprensible, correcto o incorrecto o
simplemente no tenga significado alguno. Se desatienden aquí también cuestiones importantes como el
saber de dónde procede la información (emisor) y a quien va destinada (receptor).
Para la definición "información" de Shannon no tiene transcendencia alguna si una serie de letras
representa un texto de alto contenido temático o si, por el contrario, constituye el resultado de un juego de
dados. Efectivamente, y aun bajo el riesgo de parecer paradójico, puede afirmarse que una serie de letras
generadas al azar ofrece, desde el punto de vista teórico informático, un contenido máximo de
información, mientras que un texto cuyo lenguaje sea congruente, el valor correspondiente es menor.
La definición informática de Shannon se limita a un aspecto de la información, esto es, el hecho de que a
través de ella se exprese algo nuevo. Nuevo implica el mayor efecto de sorpresa que se obtiene al aparecer
un signo menos usual. Información es, por lo tanto en este caso, la medida de improbabilidad de un
acontecimiento. Por esta razón, a un signo con alto grado de improbabilidad se le concede un mayor
contenido informativo.
Antes de que un emisor de signos origine un signo, existe la duda de que signo especial va a emitirse de
entre los signos disponibles. Esta inseguridad desaparece tras haber recibido la señal. Según la forma de
discernir de Shannon se define lo siguiente: Información es la inseguridad que desaparece al recibirse la
señal correspondiente. Teniendo en cuenta que Shannon sólo está interesado en determinar la
probabilidad de aparición de los signos, automáticamente sólo registra el carácter estadístico de la
información. Con ello, el concepto de la palabra información queda reducido a su aspecto carente de
significado. Según Shannon el contenido de la información queda definido de forma que reúna las
siguientes propiedades:
El interés más evidente de la medida de la cantidad de información aportada por el resultado de una
experiencia, aparece cuando se trata de transmitir este resultado a distancia. A continuación se describe un
ejemplo muy ilustrativo, supongamos que tu trabajas en una oficina en un pequeño grupo formado por
cuatro empleados y el jefe. Este último por comodidad empleó para llamar a sus empleados un sistema de
comunicación muy sencillo: un timbre suena y en un panel se enciende una de las cuatro lámparas en las
que están escritas las primeras letras de los nombres de los empleados. Estas son A(Antonio), M(María),
P(Procopio) y U(úrsula). Supón que tu código sea A. Los primeros meses se desarrollaba un proyecto
conjunto con la participación por igual de los cuatro y por lo tanto las llamadas del jefe implicaban que las
cuatro luces se encendieran con la misma frecuencia. (La información era el log 4, es decir 2 bit). La
probabilidad de que aparezca la luz en tu lámpara o en cualquier otra, es .25
25 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
En un momento tu hiciste una proposición muy original al jefe, y desde entonces casi se encendía
solamente la lámpara A. Esto hizo que en cuanto sonaba el timbre acudías a la llamada del jefe, sin ni
siquiera mirar la lámpara que se encendía. Haciendo cálculos se llegó a que la probabilidad de que
apareciera la A era .97, mientras que para cada uno de los otros tres empleados era .01, evidentemente la
suma de las tres probabilidades es la unidad.
Se aprecia fácilmente que cuantas más señales o códigos de igual probabilidad se emplean, tanto menor es
la probabilidad de cada uno de ellos. Según Shannon, para las señales de igual y diferente probabilidad la
cantidad de información en su envío o código se determina por la probabilidad de su aparición. Esta
dependencia es también inversa: cuanto más frecuentemente aparece el código, tanto menos información
lleva. Por eso tu no mirabas la lámpara al sonar el timbre, a pesar de que de cada 100 llamadas había tres
que no eran tuyas. La aparición de la luz en la lámpara A era segura y la cantidad de información que
llevaba esa luz disminuyó mucho, hasta log(1/.97), igual a 0.04 bit. Mientras que la información de las
señales poco frecuentes aumentó considerablemente a log(1/0.01)=3.32 bit.
La lotería puede ilustrar esto, supongamos un sorteo, el individuo mira la lista de los número premiados,
después de estar un rato buscando ya ha perdido la esperanza y cada nueva búsqueda no le aporta ninguna
información, de repente se pone radiante, ganó un millón de euros , si sólo hay un premio como este por
cada millón, recibió de golpe una información de log(1/.000001) lo que equivale a 20 bit.
Volvamos a la oficina, pasado cierto tiempo la situación cambió por completo, poco a poco la lámpara A
dejó de encenderse. Entonces al comprobar que al sonar el timbre ya no aparecía la luz de la letra A, te
tapaste los oídos con algodón. En esta situación el encenderse la luz de la A, supone una gran cantidad de
información, lo que pasa es que no las notas al tener tapados los oídos, y son los compañeros quienes te lo
indican.
Fórmula de Shannon
Shannon dio una receta generalizada: hay que calcular la información comunicada por cada código (en
este caso cada lámpara) y mediarla por todos los códigos (por todas las lámparas). Pero no hay que
mediarla del modo corriente, sino por las reglas de las magnitudes causales: la información comunicada
por cada código se multiplica por la probabilidad de su aparición y se suman todos los productos
recibidos.
H = p1*log(1/p1)+p2*log(1/p2)+ .. pm*log(1/pm)
donde H es la entropía, las p son las probabilidades de que aparezcan los códigos y m el número total de
códigos.
En el caso de las luces, para la situación en la que el jefe llamaba continuamente, se tendría,
es evidente que para el período en que las cuatro luces se encendían con igual probabilidad, con esta
expresión se llega a 2 bit, como se dedujo de la fórmula de R. Hartley.
Información y significado
26 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Existe una clase muy amplia de fenómenos observables que se pueden asociar a cantidades numéricas, o a
una sucesión de cantidades numéricas, distribuidas en el tiempo. Su estudio pertenece a la estadística.
estas cantidades, o sus medidas estadísticas, dan información sobre los fenómenos observados.
En una línea telefónica, o en un circuito de televisión, o en un radar, tenemos unas cantidades, las
medidas de los voltajes de la corriente eléctrica que en un cierto momento fluyen por el lugar donde
hacemos la medida, que varían muy rápidamente en el tiempo y que son susceptibles de ser estudiadas
desde un punto de vista estadístico. Los receptores telefónicos, los filtros de onda, las redes de
modulación de frecuencias, etc., han de poder procesar la información inherente a los cambios de voltaje a
un ritmo tan rápido como la variación de éste.
La información se ha de poder registrar, conservar, trasmitir y usar. Las ideas fundamentales sobre la
cuestión de medir la información, pueden ser atribuidas a Claude E. Shannon, aunque hay otras personas
que ayudaron a aclarar algunos conceptos fundamentales, como por ejemplo Norbert Wiener.
Una teoría de la información es, de hecho, una teoría de la medida de la información como consecuencia
de la idea de que ésta es medible. En 1922, R.A. Fisher proponía una definición cuantitativa de la
cantidad de información contenida en datos experimentales susceptibles de tratamiento estadístico. Más
tarde, el desarrollo de las telecomunicaciones impuso la necesidad de medir la información transmitida a
través de un canal, en este caso el hilo metálico.
La cronología del desarrollo del estudio de la teoría de la información podría resumirse del siguiente
modo:
1948, C.E. Shannon, partiendo del problema concreto de la transmisión por hilo, halla la
medida de la cantidad de incertidumbre asociada a un campo de probabilidades finito,
inspirada en el modelo de entropía termodinámica de Boltzmann (1894). Fue él mismo
quien dio las nociones de fuente, canal, perturbación, etc., así como algunos de los
teoremas fundamentales de la codificación que son la base de esta teoría de la
información que nos disponemos a estudiar.
1962, M.L. Minsky desarrolló las ideas de R.J.Solomonoff sobre la teoría algoítmico de
la información basada en la complejidad asociada a la realización de un cierto algoritmo,
por medio de una cierta máquina de Miring. Posterior-, mente, esta teoría se ha ido
desarrollando por otros autores como A.N.KoImogorov, P.Martin-L5f y G.J.Chaitin.
1963, S. Winograd y J.D. Cowan publicaron un buen trabajo sobre la teoría de autómatas
fiables, construidos a partir de partes no fiables, estableciendo una conexión entre la
27 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
(Agencia CyTA-Instituto Leloir. Por Bruno Geller) - Los CD, DVD y los discos duros
son soportes físicos que pueden almacenar una gran cantidad de información, sin
embargo, tienen la desventaja de que pueden romperse fácilmente. Por ese motivo,
científicos de diversos países pretenden crear a partir de materia biológica dispositivos de
almacenamiento de memoria más resistentes, que podrían durar miles de años. Esto
quizás no sea importante para la finita vida de un individuo, pero tal vez sí podría serlo
para la humanidad.
El experimento
Ohashi y sus colegas utilizaron la adenina (A), la guanina (G), la citosina (C) y la timina
(T) -cuatro unidades básicas que conforman junto a otros elementos el ADN- para crear
el mensaje. La unión de las bases representaban los números del sistema binario que a su
vez representaban las letras y números del mensaje.
Una vez creado el mensaje mediante la unión de las bases del ADN, fue insertado en el
genoma de la bacteria Bacillus subtilis. Días después, los investigadores recuperaron el
mensaje tras descifrar la región del genoma donde fue inscripta la información.
Según Ohashi, la secuencia de nucleótidos ?compuestos por las bases de ADN- que
puede ser artificialmente insertada en el ADN de organismos vivientes puede ser una
alternativa viable para almacenar información por dos razones: el ADN es un material
resistente y por otro lado la información podría ser transmitida por herencia a las
sucesivas bacterias durante miles de años.
28 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html
Sin embargo, quedan varias cuestiones por resolver. Si bien las bacterias heredan copias
idénticas de genes de sus precursoras, como si fueran clones, el ADN de las bacterias
puede experimentar mutaciones que podrían modificar la información guardada. En ese
sentido, los autores del trabajo consideran necesario desarrollar técnicas que de forma
simultánea descifren el mensaje e interpreten la lógica de las mutaciones.
Enlaces recomendados:
Límites en la compresión de la información
¡Más barata! ¡Más barata! (1ª parte)
Información a precio ~0: revolución social, peligros y soluciones
Buscar en la web
Búsqueda escéptica
29 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
1 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Divulgación
Informática
Ciencia en general
Biología
Criminología
Inicio
Contacte
Antecedentes
Cálculo matemático
Las generaciones de ordenadores
Historia de los ordenadores personales
Historia de internet
Selecciona un texto y
pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar
en la esquina inferior derecha
4.1 Antecedentes
El ser humano siempre ha necesitado medios para hacer cálculos y procesar la información. La
complejidad de estos se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y ha
estado subordinada a los progresos de la tecnología. En cuanto al cálculo, primero surgieron los
instrumentos aritméticos, como el ábaco, a partir de los que se ha llegado a las calculadoras y ordenadores
actuales.
El origen del procesamiento automático de la información, se remonta al año 1896 cuando Herman
Hollerith (1860-1929) fundó una empresa que daría lugar a IBM. Actualmente casi todas las necesidades
de cálculo, se han visto satisfechas con los ordenadores.
Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto
son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción del
primer ordenador. Desde tiempo inmemorial los hombres se han valido de instrumentos para
realizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar y
al mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistema
decimal de numeración.
El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e.,
surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como los
aztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. En
el chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos y
cinco bolas respectivamente. El japonés consta de cuatro y una bola
respectivamente. En Japón existe un Instituto de Investigación del ábaco y
un Comité Central de Operadores de ábacos. El 12 de noviembre de 1946
compitieron, el soldado Wood del ejército de EE.UU., que era el operador
de máquinas de calcular más experto, con una calculadora eléctrica de las
de su época y Kiyoshi Matsuzaki del Departamento de Ahorros del
Ministerio de Administración Postal, dotado de un ábaco. Se trataba de resolver cinco cálculos
comprendiendo las cuatro operaciones elementales, la victoria fue para el japonés, por cuatro frente a uno.
2 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
En la página Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.
EL ÁBACO
Considerado como el instrumento más antiguo de cálculo, adaptado y apreciado en
diversas culturas. El origen del ábaco esta literalmente perdido en el tiempo. En épocas
muy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo.
Es probable que su inicio f uera una superficie plana y piedras que se movían sobre líneas
dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en
China, donde el uso de este instrumento aun es notable al igual que en Japón.
La palabra ábaco es latina y tiene sus orígenes del griego "abax" o "abakon", que significa
"superficie plana" o "tabla", es posible que se ha originado de la palabra Semítica Abaq
que significa "polvo". Otros nombres son: del ábaco Chino es "Suan Pan", el Japonés es
"Soroban", en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban Tien", en Rusia
"Schoty", Turquía "Coulba" y Armenia "Choreb".
Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas
desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue
imposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco son
comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322)
escribió la necesidad del uso de piedras para realizar cálculos difíciles de realizar en la
cabeza. Y los métodos de calculo encontrados en los comentarios de Herodoto (484-425),
hablando de los egipcios decía: “Los Egipcios mueven su mano de derecha a izquierda en
los cálculos, mientras los Griegos lo hacen de izquierda a derecha".
Se sabe que los Romanos empleaban su ábaco con piedra caliza o mármol, para las cuentas
a las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo".
En el siglo XIII se estandarizó una mesa de ábaco en Europa, consistiendo en una mesa
cubierta de paño en la que se dibujaban unas líneas con tiza o tinta. Existieron dos intentos
por reemplazar la mesa de ábaco por otros más modernos. El primero fue ideado por el
filósofo romano Boethuis, quien escribió un libro sobre geometría dedicando un capítulo al
uso del ábaco, describió como en lugar de emplear cuentas se podía representar el numero
con sólo una cuenta que tuviese los dígitos del 1 al 9 marcados. El segundo intento fue
realizado por el monje Gerbert de Avrillac (945-1003), quien fue papa con el nombre de
Silvestre II. Tomó ideas del libro de Boethius, y describió el uso de una nueva forma de
ábaco en el año 1000. Ninguno de estos dos ábacos fueron populares.
La mesa de ábaco fue usada extensamente en Bretaña, al igual esta fue abandonada por la
3 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
mayoría de la gente. El libro "The Grounf of Artes" escrito por Robert Recorde
(1510-1558) en 1542, claramente muestra el método de aritmética con la mesa de ábaco.
En otras partes del mundo, se encuentra en China la primera evidencia del inicio del ábaco
chino que se descubrió, fueron cuentas de cerámica hechas en el occidente de la Dinastía
Zhou1 con más de 3000 años. Respecto a los materiales históricos a mano, el libro que
registra el comienzo del cálculo con un ábaco se llama Crónica Aritmética escrito por Xu
Yue en el oriente de la Dinastía Han (206-220), hace 2000 años. Esto indica que el ábaco
tenia una cuenta en la parte superior y cuatro en la inferior.
Los ábacos modernos existieron en la Dinastía Song (960-1279) lo que puede ser
verificado por alguna evidencia, por ejemplo, en una pintura de Wang Xhenpeng's,
muestra el uso extenso entre la gente del sur de la Dinastía Song.
Durante la Dinastía (mongol) Yuan (1279-1368)los ábacos tuvieron una etapa donde se
fueron popularizando paulatinamente en todo el país, posteriormente entró en la etapa en la
que su uso ya era algo común a mediados de la Dinastía Ming (1368-1644) y la técnica de
uso paso a ser un sistema algorítmico completo. Un libro escrito por Wu Ching-Hsin-Min
en 1450, tiene descripciones acerca de el ábaco, así como una gran numero de libros
publicados a finales de la Dinastía Ming, que aseguran el hecho que el ábaco entró en el
uso popular. Existen dos trabajos representativos en el cálculo del ábaco en la Dinastia
Ming. Uno fue Wang Wensu's Principios matemáticos 1524, y el otro es Cheng Dawei's
reglas generales del método de conteo 1592, los cuales plantearon un mayor papel en
extender el uso del ábaco. Durante el período de la Dinastía Ming, el ábaco chino se
propagó hacia Corea en el 1400 y en Japón en el 1600, así como al sureste de Asia.
Durante la Dinastia Ming había un solo tipo de ábaco en China, con una cuenta en la parte
superior y cinco en la parte inferior, fue encontrado en la tumba de Lu Weizhen
(1543-1610). Después de la Dinastía Qing (1644-1912), el ábaco contó con dos cuentas en
la parte superior y cinco en la parte inferior, fue extensamente usado como actualmente ha
sido, mientras que el ábaco japonés se diseñó empleando una cuenta en la parte superior
(cielo) y cuatro en la inferior (tierra).
A finales de la edad media los mongoles propagaron el uso del ábaco en Rusia, que
provenía de los chinos y los tártaros.
Un hecho muy importante del uso y la potencia del ábaco fue que el 12 de Noviembre de
1946, una competencia, entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés de
comunicaciones utilizando un ábaco japonés y el americano Thomas Nathan Wood de la
armada de ocupación de los EE.UU. con una calculadora electromecánica, fue llevada a
cabo en Tokyo, bajo patrocinio del periódico del ejército americano (U.S. Army), Stars and
Stripes. Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cinco
pruebas, perdiendo en la prueba con operaciones de multiplicación.
4 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
1) Las fechas de inicio de la dinastía Zhou son dudosas, y varían entre los años 1122, 1050
y 1027 a.n.e., cuando al parecer expulsaron a la débil dinastía Shang. En cuanto a la fecha
de su fin, casi todo el mundo coincide en señalar el año 221 a.n.e.
Antes de aparecer las calculadoras surgieron otros dispositivos de entre los que cabe comentar dos, en los
que el matemático escocés John Neper (1550-1617) tuvo un papel destacado. Es conocido por la
invención de los logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad es tema de
controversia, no obstante el primero en usarla, en 1621, fue el sacerdote inglés William Oughtred
(1575-1660). En 1617 Neper dio a conocer un instrumento sencillo para realizar multiplicaciones
basándose en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes en libros árabes.
La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica es una especie de ábaco, pero
con ruedas dentadas en lugar de varillas y bolas, dotada de un mecanismo para el transporte de las
unidades que se lleven, de una posición digital a la siguiente más significativa.
Hasta hace pocas décadas se creía que el filósofo francés Blas Pascal
(1623-1662) había sido el creador de la calculadora. Pascal diseñó su "machina
arithmetica", posteriormente denominada Pascalina, a la edad de 19 años, para
que su padre que era recaudador de impuestos tuviera tiempo libre para jugar
con él a la paume.
Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida en 1967 a partir de uno de sus
códices. En 1935 el historiador Franz Hammer, revisando la correspondencia del astrónomo Johannes
Kepler descubrió que el alemán Whilem Schickard (1592-1635) había inventado una calculadora que era
una combinación de los rodillos de Neper con una sumadora-restadora similar a la de Pascal, obviamente
no sólo era superior a la pascalina, sino que se construyó el año en que nació Pascal.
El primero en construir una calculadora, en 1671, fue el filósofo y matemático alemán Gottfried Leibniz
(1646-1716),inventor junto con Isaac Newton del cálculo infinitesimal, aunque de forma independiente.
Fue denominada calculadora universal, su elemento característico era un tambor
cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada, que
se encuentra en prácticamente todas las calculadoras mecánicas posteriores,
incluso las del siglo XX. Las técnicas de producción tan poco eficientes de
aquella época, impidieron que el invento de Leibniz se fabricara masivamente. Se
llegaron a construir 1500 unidades, pero hubo que esperar hasta 1820 para que
Carlos Thomas, director de una aseguradora diseñara un modelo capaz de ser
producido a bajo coste y a escala industrial.
En 1872 el estadounidense Frank Baldwin construyó una calculadora a la que años más tarde le añadió la
denominada rueda Odhner. Esta fue la antecesora de la clásica calculadora de sobremesa, con manecilla
lateral, difundida universalmente desde 1910 y que todavía se encuentra en rastros. De ella deriva la
popular caja registradora inventada en 1879 por James Ritty, comercializada bajo la marca National y una
sumadora provista de impresora inventada por William Borroughs (1855-1898) en 1884, fundador de la
empresa que llevó su apellido.
En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea García (1833-1899) patentó
en Nueva York una calculadora por la que se le otorgó la medalla de oro de la exposición de Matanzas
(Cuba). Aseguraba que no había fabricado la máquina para patentarla y venderla, sino para demostrar que
era posible que un español pudiera inventar tan bien como un norteamericano. A partir de entonces sólo
5 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
se dedicó al periodismo, combatiendo la política de colonialismo de EE.UU., por lo que tuvo que exiliarse
en Guatemala y posteriormente en Argentina.
Una calculadora no es un dispositivo automático, lo cual implica que requiere la acción constante de un
operador, que es un obstáculo para la velocidad y fiabilidad de los resultados.
En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo constatado que las tablas
trigonométricas estaban plagadas de errores al haber sido calculadas a mano,
concibió la denominada máquina de diferencias, un instrumento mecánico para
calcular e imprimir tablas de funciones. En realidad se trataba de una máquina
que calculaba el valor numérico de una función polinómica sobre una progresión
aritmética, pues las funciones se pueden aproximar por polinomios.
Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852), condesa de Lovelace, publicó
una serie de programas para resolver ecuaciones trascendentes e integrales
definidas, con la máquina analítica. En dichos programas se hacía uso de
bifurcaciones, hacia delante y atrás y de bucles. Fue la primera programadora de la
historia, por eso el departamento de Defensa de EE.UU. denominó ADA al lenguaje
de programación oficial en sus dependencias.
Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres Quevedo (1852-1936). Logró
renombre universal gracias a sus inventos. Construyó transbordadores (uno en las cataratas del Niágara),
un aparato teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por franceses e ingleses
durante la Primera Guerra Mundial y un sinfín de máquinas para cálculo científico. De estos destacan los
aritmómetros en los que introdujo la aritmética de punto flotante, eran máquinas de cálculo matemático
sobre la base de relés, y dotadas de memoria, que se gobernaban a distancia mediante una máquina de
escribir, la cual servía para entrar operandos, operaciones y para obtener los resultados. Asimismo realizó
estudios sobre los hoy denominados robots, y sus aplicaciones en la industria, por lo cual no sólo es
considerado un precursor de la informática sino también de la cibernética; como ejemplo práctico
construyó una máquina de jugar al ajedrez, un autómata capaz de dar mate de rey y torre contra rey y que
reaccionaba ante las jugadas irreglamentarias del contrario.
En los años 1920 tuvo en sus manos de dar a España la primacía en la informática, si no sucedió fue
porque en aquella época no hacía falta. La necesidad de un ordenador surgió con la Segunda Guerra
Mundial, por lo que se construyeron los primeros ordenadores basándose en los trabajos de Babbage y de
Torres Quevedo.
6 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Otra gran empresa, Unisys, tiene su remoto origen en esta época. Al dejar Hollerit la
Oficina del Censo, lo sustituyó James Powers, quien fundó en 1911 la Powers
Accounting Machine Co., que pasó a formar parte en 1927 de la Remington-Rand
Corporation. Esta empresa años más tarde construyó los primeros ordenadores
Univac.
Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibz
construyó en 1949 en los laboratorios Bell una máquina programable que trabajaba con
números complejos, el Complex Calculator, se considera que el primer ordenador fue
desarrollado en 1941, el Z3 del alemán Konrad Zuse (1910-1995), cuya empresa fue
adquirida por Siemens. Le siguió en 1944 el Mark I de Howard Aiken (1900-1973) y
Grace Hopper (1906-1992), construido en la Universidad de Hardward con la
colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km de
cable.
Durante la década de 1950 Aiken trabajó activamente con investigadores españoles del Instituto de
Electricidad y Automática del CSIC, fundado por Torres Quevedo.
La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores
electrónicos. El primero fue fabricado en 1945,el ENIAC (Electronic Numerical Integrator and
Calculator) de los estadounidenses John Eckert (1919-1995) y John Mauchly
(1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada la
guerra se utilizó para calcular el número pi con unos 2000 decimales, y para
hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y
pesaba 30000 kg. Era 300 veces más rápido que el Mark I y costaba 400000
dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20
registros de memoria, de 10 dígitos; estaba pues muy lejos de cualquier ordenador personal. En un test de
prueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamente
habría requerido 100 años de trabajo humano. Lo que lo caracterizaba como a los ordenadores modernos
no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía
realizar tareas que previamente eran imposibles.
7 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador del
físico John Atanasoff (1903-1995) que no era automático ni
programable y varias máquinas británicas para descifrar los
mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batalla
legal por la palabra "Computer" la ganó en el año 1973 póstumamente
Atanasoff.
Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primeros
ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y
Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962),
respectivamente. Bull comercializó los Gamma 30 y 60. Durante esta
época se introdujeron las unidades de cinta y discos magnéticos, y las
lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo
aparecieron algunos lenguajes de programación, COBOL (1959), Algol
(1960), el LISP(1962) y FORTRAN que fue creado en 1954 para IBM,
por John Backus (1924-2007).
El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era un
UNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de la
informática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó un
IBM 1401.
Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galerías
Preciados (Actualmente propiedad de El Corte Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donó
a la Universidad Complutense de Madrid un ordenador científico, modelo 7094.
8 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
La principal característica de esta generación fue el uso del circuito integrado, que se incorporó a
mediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000
millones de dólares de aquella época (1964) y sobre todo la IBM 370 (1970), el producto más
famoso de esta generación. Sperry Rand, en 1965 introdujo la famosa serie 1100.
Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar la
denominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se
estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También
datan de esta generación el BASIC (1964) y el Pascal (1971).
En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y
prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e
distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunas
cajas de ahorros.
Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones
tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y
medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11
de la desparecida Digital Equipment Corporation.
El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta
controversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. El
primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida
empresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él,
MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable,
dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, que
a su vez lo adquirió a otra empresa. Las imágenes siguientes muestran
microprocesadores bajo distintas escalas de ampliación.
9 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 de
Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-)
y Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair
ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito
vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la
informática, aunque sigue con equipos musicales y antenas de televisión, de
muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a la
difusión masiva de la informática personal.
Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas
últimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron
28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar.
En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una
iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la
primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación.
Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados,
algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las
personas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajes
naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores
de esta generación se están diseñando para ser manejados por personas no expertas en informática.
Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran
número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia
y una interfaz de usuario inteligente.
Los avances se sitúan en materia de teleinformática, y una progresiva disminución de tamaño y coste del
equipo, así como de técnicas de programación y desarrollo de inteligencia artificial, y de control de
procesos (robotización).
A los 10 años, se vio el fracaso del proyecto, actualmente no están desarrollados estos ordenadores,
aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron:
El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con lo
cual se comprenderán fácilmente las limitaciones existentes en la primera generación.
10 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Externamente estaba integrado por tres piezas, la unidad central, de sobremesa y de gran tamaño, la
pantalla, monocroma y de modo texto y un teclado. A esto se podía añadir una impresora de nueve agujas,
con la marca IBM pero fabricada por la japonesa Epson.
Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximo
el precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente a
los productos domésticos de la competencia, y a un precio que le permitiera mantener los grandes
márgenes comerciales.
El siguiente vídeo muestra uno de los primeros PCs de IBM, el 5150 mostrando la ejecución de un
programa escrito en ensambaldor para el Intel 8088.
11 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una de
disco flexible de 160 kOctetos de capacidad, y como es lógico con su controladora. A su vez se introdujo
el sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sólo
era conocida por su lenguaje BASIC) a IBM.
La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de que
disponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetas
electrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes.
Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, un
estándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, la
cantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MO/s.
El éxito de este equipo fue superior al previsto por IBM, prueba de ello es que no estuvo disponible en
Europa hasta casi dos años después de su lanzamiento en EE.UU., momento en que se empezó a fabricar
en Escocia (R.U.). Este éxito se debió a la gran fama de IBM, pués en esa época había equipos muy
superiores, como los antes citado de Olivetti y Victor, y a precios más asequibles.
Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, como
se ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptables
al bus. Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la hora
al apagarlo, tajetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico y
a veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchas
posibilidades.
IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC, conocido como IBM PC XT,
en el que incorporó un disco duro de 20 MO con interface MFM (actualmente desaparecida), con su
controladora, y una tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una resolución
baja (640*200 puntos), que para lo único que servían era para destrozar la vista de los usuarios. A su vez
incluyó disqueteras para soportes con capacidad de 360 kO.
La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó el
liderazgo de los PC's de IBM.
También surgió un equipo de IBM conocido como portable (no portátil), que además de ser bastante
voluminoso, no tenía autonomía eléctrica, es decir había que enchufarlo a la red. Otro inconveniente fue
que la pantalla era de tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de pequeñas
dimensiones, pero con toda la problemática que conllevan para su transporte. Este equipo no era muy
12 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
asequible ni en precio ni en portabilidad, por lo que otras empresas intentaron mejorarlo, así surgió, con
este propósito, Compaq, empresa comprada por Hewlett Packard.
El PC AT de IBM
Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que por
otra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles,
decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluía
una CPU de 16 bit, superior a la 8086, era la 80286 de Intel, cuya principal diferencia repecto a la 8086
era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria,
aunque en aquella época no era una gran necesidad.
Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitía
utilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este bus AT se ha convertido en
un estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó a
ser de 6 u 8 MHz, frente a los 4.77 del PC original.
Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens,
AMD, Harris, ...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos tal
como lo conocemos actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se distribuía
entre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox,
AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos de
investigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos a
precios imbatibles, aunque la mayoría de las veces con una calidad y seguridad para el usuario ínfimas.
Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que las incluyeron el la placa base,
dejando así más zócals libres en le BUS AT, para posteriores ampliaciones.
Ante la situación de competencia en la que se vió inmersa IBM, actuó de dos formas, la primera fue exigir
a todos los fabricantes que le habían copiado sus productos el pago de los "royalties" corrspondientes, a lo
cual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos,
legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2.
Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado,
en el que se introducian las tarjetas de expansión, pues IBM lo cambió por completo, llamándole
"Microchannel", lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura Microcanal). Otra
13 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron los
monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con una
variedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior y
que además los clónicos, en principio se verían desplazados del mercado.
A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con mejoras significativas frente a sus
predecesoras.
La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejemplo
Olivetti, pero con muy poco éxito. Además dado que estos equipos, incluso los de IBM se difundieron
poco todas las tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de esta arquitectura un
producto poco atractivo.
A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, que
comprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dos
microprocesadores 486 (a 267 MO/s) y un bus EISA (que se describirá en el apartado siguiente).
El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pués una nueva
generación de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizaban
arquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializar
clónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo.
Actualmente IBM ha vendido la división de PC's a la empresa china Lenovo, debido a los bajos márgenes
de beneficios.
EL BUS EISA
Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, AST
Research, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE y Zenith Data
Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatible
con él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de
33 MO/s y frecuencia de reloj 8 MHz.
EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de sus
ventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataran
los precios.
Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses.
Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, la
solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus
local. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un
14 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus las
controladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidades
se mantienen en el bus ISA.
Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o tres
tarjetas, además el diseño de la placa base ha de hecerse de forma que las distancias sean mínimas para
evitar retrasos. También es conveniente usar memorias caché.
Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soporte
de DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas a los dos buses,
el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda.
Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA,
hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Para
equipos Pentium sólo se llegaron a fabricar algunas placas VESA.
Introducción
PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otras
compañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollo
de PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes.
Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte de
interrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un coste
superior.
Las especificaciones del bus local PCI ofrecen un número de beneficios clave:
Altas prestaciones
Compatibilidad
Independencia del procesador.
Flexibilidad de plataforma
Bus Local PC rentabilidad
Soporte futuro
Altas prestaciones
Al contrario del bus local VESA que sólo está pensado para acelerar las
aplicaciones gráficas, PCI es una solución de sistema global. Proporciona
mayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos y
otros periféricos que requieren gran velocidad.
Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de banda
de 132 MO/s, frente a 5 MO/s del bus ISA.
Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y minimizar
los estados de espera de la CPU, son:
15 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Ráfagas Lineales.
Es un método de transferencia de datos que asegura que el bus siempre tenga datos. Estas
ráfagas permiten utilizar más ancho de banda para enviar datos en vez de direcciones.
Además PCI es único, pues soporta tanto lecturas como escrituras en ráfaga, muy importante
con aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, son
escrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseños
se está dando otro tratamiento más eficaz a los sistemas gráficos.
Los dispositivos diseñados para soportar PCI tienen una baja latencia de acceso, lo que
reduce en más de un orden de magnitud el tiempo requerido para que un periférico obtenga el
control del bus después de requerir el acceso. Por ejemplo una tarjeta de red Ethernet, puede
tener grandes ficheros de datos llegando a su tampón. Esperando acceder al bus, la tarjeta no
puede transferir los datos de los ficheros a la CPU lo bastante rápido para evitar una
sobrecarga del tampón, lo que obliga a almacenar en una RAM adicional los contenidos de
los ficheros. Como los dispositivos PCI soportan tiempos de acceso, la tarjeta de red puede
envBus Local PCiar datos más rapidamente a la CPU, redundando en un precio inferior al no
necesitarse RAM adicional.
Las mejoras de prestaciones también se logran mediante la posibilidad de PCI de ser maestro
de bus y permitir la concurrencia. En la mayoría de los buses existe el dominio de bus, que
permite a cualquiera de un número de periféricos inteligentes tomar l control del bus para
acelerar las tareas de proceso intensivo de alta prioridad. La posibilidad de concurrencia,
única de PCI, asegura que el microprocesador opera simultáneamente con estos maestros, en
vez de esperarlos.
Compatibilidad
Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentran
placas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatible
PCI, sin que importe el tipo de bus de expansión o Bus Local PCde CPU en uso.
Rentabilidad
PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean
fabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporar
funciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados con
la circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, pues
multiplexan los buses de datos y direcciones.
16 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos de
acuerdo con esta versióm, permiten el intercambio de placas en el bus, sin necesidad de apagar el
ordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muy
superior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de los
controladores gráficos al micrprocesador del ordenador.
Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio.
Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámaras
digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's,
sistemas de almacenamiento magnetoópticos e impresoras.
Fundamentos de Firewire. Proporcionados por Embedded Systems Programming. Ofrece una visión
de esta tecnología.
IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas Teener of Zayante (formato PDF).
P1394a & P1394b Sumario.
IEEE 1394 visión técnica. Proporcionada por Texas Instruments.
1394 Open Host Controller Interface.
Visión de FireWire/1394 . Proporcionada porAdaptec.
17 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Este bus serie, creado por un amplio consorcio de empresas, permite conectar más que ordenadores y
periféricos. Puede conectarse con hasta 127 dispositivos como fotografía digital, monitores, teclados,
ratones impresoras y escáneres. Está reemplazando rapidamente a otras interfaces como la centronics y la
serie RS 32C.
El estándar más reciente es el 2.0, que permite una velocidad de transmisión desde 12 Mb/s hasta 480
MB/s y es compatible con la versión previa. La conexión se transmite mediante un par de cables, de hasta
cinco metros de longitud, mientras que por otro par circula la información de retorno.
Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas no
convencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organización
reducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. ARPA será
la responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácter
innovador en EE.UU. durante los próximos años.
Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas grandes e inmóbiles, no podían
comunicarse entre ellas y la transmisión entre usuarios tampoco era posible. Para usar un ordenador
diferente del propio, el usuario debía trasladarse físicamente al otro o usar soportes de almacenamiento
con los programas y datos a usar. Científicos de diferentes universidades estaban frustrados, compartir
información con sus colegas era una labor muy ardua y compleja. Los investigadores más afortunados
eran capaces de comunicarse mediante terminales que usaban modems. Pero el uso de teléfono era
costoso, y los científicos trataron de encontrar mecanismos más eficientes de usar las líneas telefónicas
para transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener una fracción de tiempo
en la línea telefónica.
Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y sus colaboradores en Rand
Corporation mantenían sus mentes fijas en un problema: Si las redes de ordenadores fueran dañados por
una guerra nuclear, ¿cómo podría el ejército estadounidense continuar comunicándose?
Una de las respuestas fue mediante una nueva forma de multiplexor que debería descomponer cada
comunicación en pequeños segmentos llamados "mensajes". Una red - consistente en ordenadores
conectados por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada mensaje debería
contener información de la ruta a seguir, de modo que cada máquina del sistema debería saber a donde
enviar cada mensaje. Esta combinación de mensajes titulados más componentes de red pequeños
permitiría que la información siempre estaría disponible y que la red siempre se mantendría funcionando.
El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la noción de que el camino más
corto entre dos puntos es la línea recta, en cambio, estuvo diseñado para el mejor servicio posible, lo más
18 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
duradero posible, para el mayor número de usuarios posible y bajo las peores condiciones imaginables.
Esta técnica se denominó "conmutación de paquetes". Los primeros nodos de conmutación fueron
creados bajo la dirección de Donald Davies en el Laboratorio Nacional de Física, Inglaterra.
Los laboratorios de red en 1960 eran locales, operaban solamente en un edificio. Grandes aplicaciones
empezaron a aparecer con el nuevo invento.
JCR Licklider, pionero de la computación, tuvo por primera vez una visión de algo parecido a un sistema
Internet. El líder de la Oficina de tecnología de procesamiento de Información de la Agencia Americana
de Proyectos de Investigación Avanzados (ARPA) envió un memorando premonitorio a los "Miembros y
afiliados de la Red Intergaláctica de Computadoras"
En esta comunicación Licklider sostenía que los ordenadores podrían ayudar a los investigadores a
compartir información. También predijo un día en el que comunidades de personas con intereses comunes
podrían comunicarse con otros - Presentaba una visión nueva.
En el laboratorio de Lincoln en Massachussets el experto en ordenadores Larry Roberts tuvo una visión
similar. Roberts vislumbró los beneficios potenciales de las redes de ordenadores trabajando juntos; como
Licklider, él creía que el trabajo de red debería constituir una comunidad de uso de sistemas informáticos.
Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada para conectar su computador
TX-2 al ordenador de Systems Development Corporation en Santa Mónica.
Mientras este enlace rudimentario permitió a su ordenador ingresar en el otro y ejecutar programas en
este, se hizo, pero con costos prohibitivos y no prácticos. Pero era sólo el inicio.
Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres terminales en su oficina.
Cada con una línea telefónica separada que conectaba a un ordenador distante. Las tres terminales de
Taylor lo conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas en Santa Mónica,
respectivamente.
Pero Taylor no estaba conforme. Un día, sentado frente a sus tres ordenadores, se preguntó ¿Por qué
necesitaba él todo aquello? Por qué no se hacía que un terminal pudiera conversar a todos los ordenadores
a través del país o una red que conecte a ellos. ¿Porqué un terminal no podría hacer todo esto?
ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la construcción de una red de
ordenadores experimental. Basados en la tecnología de intercambio de paquetes de Paul Baran, esta Red
de la Agencia de Projectos de Investigación Avanzada (Advanced Research Projects Agency Network) o
ARPANET, ayudaría a los investigadores a trabajar más eficazmente y explorar rumbos para las redes de
computadoras.
19 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman ganó el contrato para construir
los conmutadores de paquetes, o Interface Message Processors (IMPs), que serían usados como nodos de
ordenadores para esta nueva RED.
En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de investigación fundado por ARPA.
Los científicos de Computadoras Len Kleinrock y los estudiantes graduados Vinton Cerf llamaron a la
matriz de UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación del Centro de
Medición de Red de ARPA. EL equipo haría el seguimiento de todo lo que podría hacer la comunidad
ARPA
Pocas semanas después los IMPs fueron cambiados al Instituto de Investigación Stanford en Menlo Park,
California. El cual proveía el nuevo Centro de Información de Red; la Universidad de California en Santa
Bárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la Universidad de Utah en Salt Lake City,
donde ordenadores para gráficos estaban en su inicio. Una vez que ellas hubieron conectado por medio de
líneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar paquetes a larga distancia y
nació ARPANET
La Red ARPANET inicialmente brindó tres servicios: Acceso a ordenadoras remotos y otros dispositivos
como un terminal de usuario remoto (actualmente denominado Telnet), compartir información a través de
la transferencia de archivos, e impresión remota o salida a impresoras en otras ubicaciones.
Sorprendentemente, el e-mail entre ordenadores conectados no estuvo entre la oferta inicial. "No
sabíamos que e-mail era importante" confesó después Vint Cerf de UCLA "No estábamos seguros de qué
es lo que ocurriría con el tiempo", no fue sino hasta años después que primer mensaje de e-mail de
ARPANET fue enviado.
A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos y en 1972 incluía 37, los
miembros no estaban satisfechos.
ARPANET tuvo su presentación en octubre del año siguiente, cuando ARPANET IMP y un terminal
multiplexor fueron configurados en la Conferencia Internacional en Comunicaciones de Computadora. En
Washington DC. "Esta fue la primera demostración en público de los que podía hacer la conmutación de
paquetes, y esto haría que la gente tome esta tecnología seriamente", dijo Bolt, Beranek and Newman's
Alex McKenzie.
El evento fue un éxito, los expertos dijeron que el potencial de la Red estaba en crecimiento. En la década
siguiente en un ordenador se conectaba a la red cada 20 días con la posibilidad de que cientos o miles de
personas compartieran una de cualquiera de esos equipos.
Las dos redes más importantes formadas para centros de educación y enseñanza fueron CSNET
(Computer Science NETwork; posteriormente the Computer+ Science Network), and BITNET ("Because
It's Time" or "Because It's There" NETwork). Muchas otras redes para propósitos especiales se
desarrollaron en todo el mundo como la red de paquetes por satélite, paquetes para la comunicación de la
voz y las paquetes de radio.
20 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Por enlazar usuarios con intereses comunes, ARPANET y sus redes compañeras tuvieron un importante
impacto técnico y social. Quienes compartían entusiasmos extracurriculares formaron la "comunidad
virtual de interés", usuarios con una curiosidad común dentro de Internet misma que formaron los "net
communities" para explorar todo desde algoritmos de rutas hasta la demografia de la red.
Los científicos empezaron a comunicarse colectivamente por medio de las listas de correo electrónico
rápidamente desarrolladas. Miles de discusiones florecieron sobre todos los tópicos inimaginables. A
nadie sorprendió que uno de los primeros y mejor enterados grupos de discusión fue los "sf-lovers"
conformado por los admiradores de la red de ciencia ficción.
Ante esto ARPA auspició el desarrollo de un nuevo estándar de comunicación llamado Transmission
Control Protocol/ Protocol Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían la
conexión de las redes, ordenadores de diferentes redes podrían ahora comunicarse una con otra. Cada red
utilizó IP para comunicarse con las otras. Debido a que los científicos se referían a la "red de redes" como
"Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser conocido como Internet.
El Nacimiento de "Internet
A finales de la década de 1970 muchas redes de investigación, del gobierno y educativas utilizaban
TCP/IP. Pero el ARPANET y la red de información de defensa no realizaron el cambio oficialmente sino
hasta el uno de enero de 1983. Fecha del nacimiento oficial de Internet
A pesar de su gran crecimiento, Internet permaneció siendo desconocida para el publico hasta Octubre de
1988 cuando un programa intruso o "worm" origino algo devastador.
Internet worm empezó su vida como un simple programa lanzado por el estudiente Robert Morris Jr. Más
destructivo que un virus de computadora el "worm" activaba el envío de copias de si mismo por Internet a
otros ordenadores donde a su vez cada copia se multiplicaba. Antes que el "worm" fuera exterminado
miles de ordenadores habían sido sobrecargadas o fueron deliberadamente desactivadas por cuestiones de
seguridad.
Por primera vez, pero difícilmente la ultima, Internet apareció en las noticias.
Desde ese entonces programadores y expertos en seguridad crean nuevas herramientas para combatir
cualquier escalada de guerra tecnológica y en búsqueda de informes y problemas de abuso de la red.
Como es de suponer el crecimiento del número de usuarios y el volumen de información disponible había
originado una especie de jungla de información, en la que no existía mapa o referencia alguna. A finales
de los 80 y principios de los 90 desconcertados usuarios idearon herramientas para localizar y ordenar la
21 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
información.
Estos lineamientos ayudaron a su vez a otros usuarios a encontrar el camino y transformaron a Internet en
un mundo amigable para el usuario.
"Archie fue el primero de estos programas que permitía a los usuarios obtener una lista de direcciones de
Internet "FPT holdings" con una simple consulta.
El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde ARPANET había sido
originalmente conectado fueron reemplazados por otras redes nuevas en Internet.
1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se convirtió en el "Navegador en
Internet" más popular. Les permitía a los propietarios de la información organizar sus datos en menús.
Los usuarios podían entonces ver, desplazarse y hacer selecciones desde ese menú
El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher se unieron a la red en todo el
mundo, cada uno con su colección de directorios, archivos y punteros a información en otros Gophers.
Pero su éxito creaba un problema obvio: ¿Cómo encontrar algo en el "gopherespacio" ya que el plan
original no contemplaba un índice?
La solución fue una solución similar al Archie, llamado Verónica (Very Easy Rodent Oriented Net-wide
Index to Computarized Archieves) desarrollado por dos estudiantes, la base de datos Verónica tenía hacia
1993 más de un millón de entradas desde el menú Gopher.
Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la información basada en Internet
y los recursos que él necesitaba para sus investigaciones . Llamó a su sistema el World Wide Web,
conocida también como WWW o W3.
Para conectar piezas individuales de información, Berners-Lee usó hipertextos, que contienen punteros y
direcciones a otros temas.
Señalando un hipertexto el usuario le dice a su ordenador "toma la dirección asociada y vamos para allá")
Las direcciones en un documento Web, llamados URL (Universal Resource Locator) apuntan a enlaces en
cualquier lugar de Internet.
Berners-Lee diseñó la Web para investigadores en alta energía. El WWW también empezó a ser usado
para navegar y ver su propia información en Línea.
1993 Mosaic
Marc Andersen, del National Center for Supercomputing Applications (NCSA) diseñó MOSAIC, un
navegador por el Web que hizo más accesible y amigable.
MOSAIC permite a los usuarios recuperar elementos multimedia con una simple pulsación de ratón y no
necesitan elaborar documentos complicados para publicar gráficos, imágenes, etc.
La combinación de Web y Mosaic y programas similares como Netscape Internet Navigator y Opera han
transformado la apariencia de la red, formando una red mundial de texto y recursos, la red empezó a
22 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
A lo largo de su historia, Internet se ha transformado a sí mismo no sólo para las necesidades y deseos de
sus usuarios, sino la visión de sus pioneros como Paul baran, J.C.R. Licklider y (más recientemente) Tim
Berners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través del mundo formar parte de esta
comunidad Global.
Durante los últimos años, Internet se ha ido haciendo virtualmente accesible para cualquier persona. Más
del 80% de los estadounidenses puede tener acceso a internet por 20 US$ mensuales, este uso está
incrementándose exponencialmente. Se han creado abundantes empresas proveedoras de acceso a
Internet, quienes ofrecen el acceso con tarifa plana.
Internet se ha convertido en una oportunidad de negocio. Las empresas están tratando de determinar cuál
será el modo en que este mundo virtual recibirá los productos y usuarios mañana. A su vez se ha
convertido en un intercambio anárquico de información, es un fenómeno cultural vertiginoso del cambio
del mismo mundo.
Unos 446 millones de personas usaban internet a fines de 2001 a nivel mundial y cerca de la cuarta parte
estaba en Estados Unidos mientras que sólo el 4% en América Latina. Existen 133.4 millones de
internautas en América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9 millones en
Asia Pacífico (32%), 22 millones en América Latina (4%) y 5.3 millones en Africa (1.2%), según el
estudio de la empresa eMarketer. Cerca de 119 millones de ellos (26%) están en EE.UU. Las estadísticas
actualizadas de toda América se encuentran en el enlace: Éxito exportador.
En España, la Asociación de Usuarios de Internet , mantiene datos actualizados sobre uso en España.
Lo más reciente
En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet en el trayecto a Washington,
gracias a la incorporación de servicios inalámbricos de banda ancha en los aviones. No pasó de ser algo
experimental. En abril de 2008 la aerolínea francesa Air France ha incorporado en algunas rutas estas
prestaciones para los usuarios en general.
Actualmente se empieza a difundir un nuevo concepto de internet, la web 2.0, se refiere a la transición
desde las webs tradicionales a aplicaciones web residentes en sevidores y destinadas a usuarios. Los
propulsores de este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las aplicaciones de
escritorio en muchos usos. Actualmente ya se están dando los primeros pasos para la implantación de la
web semántica, que se concoe como Web 3.0
Enlaces recomendados:
- Web 2.0 Enlaces de interés
- Las 20 herramientas Web imprescindibles
23 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Internet
Por Glenys Álvarez
El mundo virtual se anota un rotundo éxito con el primer experimento sobre tecnología
háptica. Esta nueva ciencia se encarga del estudio del tacto y su manipulación a través de
aparatos electromecánicos. Uno de los primeros laboratorios hcpticos se originó en el
Instituto de Tecnología de Massachussets (MIT) y fue fundado por Mandayam
Srinivansan, quien lo bautizó como el Laboratorio del Tacto. Srinivansan ha estado
trabajando con unos nuevos aparatos llamados "fantasmas", creados por la compañía
Sensable Technologies. Los fantasmas tienen como misión transmitir seccales táctiles
entre personas que comparten el mismo espacio virtual. Estos robots logran semejante
hazaña transmitiendo impulsos pequeños en frecuencias sumamente altas a través de la
red. En mayo pasado, el doctor Srinivansan, junto a un equipo de la Universidad de
Londres dirigido por el profesor Mel Slater, consiguió darse el primer apretón de manos en
el mundo virtual. Un evento bastante precoz dado el corto tiempo que tenemos utilizando
el Internet.
Sin embargo, a veces parece que los científicos trabajan con resultados que se parecen más
al mundo del futuro que a la realidad actual. Este novedoso ensayo es el comienzo
triunfante de una nueva era en Internet que aún nos parece rústica, como las pantallas
verdes de los primeros ordenadores. A pesar de que este nuevo avance tecnológico fue un
éxito contundente, los investigadores aseguran que aún es muy temprano para
comercializarlo ya que se necesitan elementos que aún no están disponibles para el público
en general. Entre estos obstáculos se encuentran las limitaciones en la velocidad, en la
anchura de la banda y en el tipo de fibra óptica que se utilizó para este peculiar ensayo. No
obstante, una vez se sobrepasen todos estos obstáculos, las personas del futuro serán
capaces de sentir y tocar a través del Internet.
Mientras tanto, la nueva tecnología aún está en pañales, pero en paños que han funcionado
muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue
una fibra óptica diferente con banda extremadamente ancha. Pero lo más importante era la
velocidad, la rapidez con que pudiesen ser enviados los datos a través de estas fibras. Los
científicos necesitaban un retraso de nO más de 130 milisegundos para que ambos
participantes pudiesen sentir los impulsos enviados por el otro. Los equipos utilizaron una
computadora y un aparato que se asemeja a un brazo robótico y que sustituyó al ratón
clásico de ordenador. Este brazo tiene al final una pieza que se asemeja a un lapicero o
lápiz que el usuario tiene que agarrar para sentir lo que está pasando en el mundo virtual.
El robot lo que hace es enviar impulsos de tacto que recoge la fuerza precisa de los dedos
de la persona que lo sostiene. Estos impulsos son enviados lo más rápido posible hasta el
otro lado, en datos que el fantasma del usuario receptor puede leer e interpretar.
"La persona no sólo es capaz de sentir el toque del otro sino que además podrá destacar
ciertas cualidades del objeto que está tocando. Sabrá si su textura es suave o dura, si usted
está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero
que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda
extremadamente de madera el objeto o si es carnoso", explicó para la BBC el profesor
británico, Mel Slater. Durante el experimento, el objetivo no sólo fue un apretón de manos
virtual sino que también se llevó a cabo una actividad cibernética a través del tacto. Los
investigadores crearon una habitación virtual que iban a compartir los científicos en
Londres y en Boston. Dentro de esta "ciberhabitación" se encontraba un cubo negro
enorme que los investigadores tencan que levantar y mover utilizando el brazo robótico.
24 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
"La persona del otro lado siente si estoy halando o empujando el cubo y el secreto
principal de todo esto es la velocidad. Si los datos no son enviados de forma continua, el
robot no entenderá los impulsos como son lute;n está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda extremadamente eídos por el fantasma
que los envía. Es interesante lo que hemos logrado ya que el sentido del tacto ha sido el
más difícil de reproducir en el Internet. Se ha conseguido utilizando una velocidad de más
de 1000 Hertz. Así, de la misma forma en que el cerebro interpreta imágenes fijas como si
estuvieran en una película en movimiento, similarmente los fantasmas integran los
impulsos recibidos para producir una sensación continua de tacto", explicó Slater.
A pesar de que el experimento se llevó a cabo por primera vez el pasado mayo, fue sólo en
esta semana que los científicos lo hicieron úblico durante una conferencia. La reunión se
lleva a cabo en Estados Unidos, específicamente en la Universidad del Sur de California y
está dirigida por el proyecto Internet2. Internet2 es un esfuerzo tecnológico de 200
universidades para mejorar la tecnología, está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda extremadamente gía virtual, el mundo
tridimensional cibernético y la interacción entre hombre y máquina a través de la red.
Actualmente, el proyecto está poniendo mucho énfasis en el desarrollo de técnicas para la
manipulación háptica a través de sistemas computacionales.
Sindioses.org
Se permite la reproducción de este ensayo para fines educacionales y/o científicos siempre y cuando
se mencione claramente nuestro sitio web, así como el nombre del(a) autor(a) del mismo. Se prohibe
su reproducción con fines comerciales. /font>
25 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6.7 gigas de
información, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, a
través de 11000 kilómetros en menos de un minuto.
Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundo
durante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3500 veces
superior a la conexión doméstica de banda ancha.
Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, en
esta ocasión se ha producido un salto sin precedentes que centuplica las posibilidades operacionales
de la red de redes.
Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futuro
las aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiples
aplicaciones prácticas.
Colectivos beneficiados
Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, a
través de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar sus
radiografías.
También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos de
investigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando esta
velocidad de transmisión para la transferencia de datos.
Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que se
desarrollan en el marco del Genoma Humano, así como en astronomía.
El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobre
Internet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados en
diferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos de
laboratorios muy distantes entre sí.
Impacto generalizado
El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tiene
grandes expectativas a las que el experimento de Stanford podría dar satisfacción.
Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podría
duplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5200
petabits en 2007.
Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca del
Congreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10
Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64000 veces
mayor que el peso que representa hoy la Biblioteca del Congreso.
Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre la
capacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda de
esta hipótesis de desarrollo de la red de redes.
26 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
El jurado del Premio Príncipe de Asturias de Investigación Científica y Técnica 2002, reunido en
Oviedo, concedió dicho premio a los creadores de internet.
Fue el creador, junto con Robert Khan, del protocolo TCP/IP, usado actualmente para la conexión de
ordenadores en internet, sin el cual no habrían alcanzado el desarrollo actual las redes de
ordenadores. Vinton diseñó entre 1982 y 1986 el primer servicio de correo electrónico de internet,
denominado MCI MAIL, precursor de los sistemas actuales.
Actualmente colabora con la NASA (EE.UU.) en el diseño de una ampliación de internet a nivel
interplanetario.
Actualmente dirige la empresa Caspian Networks, dedicada a la investigación sobre redes. Sus
proyectos están dirigidos a la optimización y mejora de internet.
Fue coinventor de los protocolos TCP/IP que simplificaron la conexión de ordenadores de muy
distintas características. Fue el responsable de la puesta en marcha de la Agencia de Proyectos
Avanzados para la Defensa de EE.UU: (DARPA). Organizó la primera demostración pública de
Arpanet, en Octubre de 1972, en Washington D.C, Este mismo año pasó a ser director del IPTO,
dependiente de DARPA; desde este lugar inició el programa multimillonario del gobierno
norteamericano: Strategic Computing Program, lo que supondrá el mayor paso dado hasta aquel
entonces en la investigación informática.
Actualmente trabaja en la tecnología IP, en su nuevo formato IPv6, que permite un rango muy
superior, frente a la actual, de direcciones.
Físico del Reino Unido, cuando trabajaba en el CERN en Ginebra (Suiza), en un laboratorio de
partículas elementales, se le ocurrió en 1990 aplicar las ideas del hipertexto a las redes de
ordenadores, dando lugar a "World Wide Web", dando lugar a la gran difusión que ha logrado
27 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
internet.
Desde 1994 trabaja en la organización W3C (World Wide Web Consortium) que dicta estándares
sobre la red.
La prehistoria de la informática
Historia de la microinformática
La informática en un garage
Lenguaje FORTRAN
Enlaces de interés:
28 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html
Buscar en la web
Búsqueda escéptica
Búsqueda en todas mis páginas
Imprimir
Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software.
Tutorial sobre la nueva versión de Google Docs
Actualización en Software.
Tutorial sobre el programa HTTrackl
Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep
Biografías de
informáticos
Von Neumann
29 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Introducción
Códigos de entrada/salida
Sistemas de numeración más usuales
Representación interna de la información
Detección de errores en la información codificada
5.1 Introducción
Como se ha visto, un ordenador es una máquina que procesa información. La ejecución de un programa
implica la realización de unos tratamientos, según especifica un conjunto ordenado de instrucciones (es
decir, un programa) sobre unos datos. Para que el ordenador ejecute un programa es necesario darle
información de dos tipos:
Uno de los aspectos más importantes relacionado con la información, es cómo representarla.
Normalmente se le da al ordenador en la forma usual escrita que utilizan los humanos, es decir, con ayuda
de un alfabeto o conjunto de símbolos, los caracteres.
Veremos cómo estos caracteres usados en la representación externa son representables en los ordenadores.
Este paso de una representación a otra se denomina codificación y el proceso inverso decodificación.
Nivel de representación externa: Usada por las personas e inadecuada para el ordenador
Las informaciones más complejas se reducirán a un conjunto de informaciones elementales por técnicas
de codificación.
Los elementos básicos que constituyen un ordenador son de naturaleza binaria, ya que sólo pueden
adoptar dos valores, 0 y 1 (corresponden a dos niveles de tensión, dos valores de corriente, dos situaciones
2 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
de una lámpara... ). Al tener que traducir toda la información suministrada a ceros y unos es necesario
establecer una correspondencia entre el conjunto de todos los caracteres:
y el conjunto binario:
{0, 1}n
de forma que a cada elemento del primero le corresponda un elemento distinto del segundo.
Estos códigos de transformación se denominan códigos E/S (entrada/salida) o externos y se pueden definir
de forma arbitraria. Las operaciones aritméticas con datos numéricos se suelen realizar en una
representación más adecuada para este objetivo que la del código de E/S. Por ello en el propio ordenador
se efectúa una transformación entre códigos binarios, obteniéndose una representación fundamentada en
el sistema de numeración en base dos, que al ser una representación numérica posicional es muy apta para
realizar operaciones aritméticas.
Los códigos de E/S o externos son códigos que asocian a cada carácter una combinación de bit. En otras
palabras, un código de E/S es una correspondencia entre los conjuntos:
y
B = {0, 1}n
Si se usa un número fijo, n, de bit para codificar los símbolos de A, el valor mínimo de n dependerá del
número m de elementos de A. Así:
Con 2 bit (n=2) podemos hacer 4 combinaciones distintas y se pueden codificar hasta 4 símbolos
(m=4) distintos
Con 3 bit (n=3) podemos hacer 8 combinaciones distintas y se pueden codificar hasta 8 símbolos
(m=8) distintos
Con 4 bit (n=4) podemos realizar 16 combinaciones distintas y se pueden codificar hasta 16
símbolos (m=16) distintos
....
Con n bit pueden codificarse m = 2n símbolos distintos.
Así se verifica que para codificar m símbolos distintos necesitamos n bit, siendo,
3 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
1 1000 0001
2 0100 1001
3 1100 1000
4 0010 0101
5 1010 0100
6 0110 1100
7 1110 1101
8 0001 0011
9 1001 0010
Pueden hacerse codificaciones con más bit de los necesarios; es decir, podríamos establecer códigos de
E/S de forma totalmente aleatoria. Obviamente existen códigos normalizados que suelen ser utilizados
por los constructores de ordenadores. Estos códigos son conocidos como:
Usualmente este código utiliza 6 bit, con lo que se pueden representar, m = 26 = 64 caracteres. A veces se
añade a su izquierda un bit adicional para verificar posibles errores en la transmisión del código (que
veremos más adelante) de forma que el carácter queda representado por n = 7 bit.
bit de verificación
6 5 4 3 2 1 0
Los bit 4, 5 son conocidos como bit de zona. Los bit de zona indican el tipo de carácter representado.
Ejemplo: 00 para los numéricos. Los bit 0, 1, 2, 3 son conocidos como bit de posición, que coinciden para
los caracteres numéricos con la representación en binario natural y para el 0 con la representación del 10.
Utiliza n = 8 para representar cada carácter, pudiendo codificar hasta m = 28 = 256 símbolos distintos.
Utiliza 7 bit y es de los más utilizados. Normalmente se incluye un octavo bit para detectar posibles
errores de transmisión o grabación. Si el octavo bit se emplea para representar más caracteres como letras
griegas y símbolos semigráficos, se tiene el denominado ASCII extendido, usado en el PC de IBM y
compatibles.
Los ordenadores suelen efectuar las operaciones aritméticas utilizando una representación para los datos
numéricos basada en el sistema de numeración en base 2 (binario natural). También se utilizan los
4 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
sistemas de numeración octal y hexadecimal, para obtener códigos intermedios. Un número expresado en
uno de estos códigos puede transformarse a binario y viceversa.
Seguidamente se comentan los sistemas de numeración que distintas culturas han usado a
lo largo de la Historia
o Egipcio
o Griego
· Sistemas de Numeración Híbridos
o Chino
· Sistemas de Numeración Posicionales
o Babilónico
o Maya
Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas en
bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al
siguiente. A medida que la cantidad crece se hace necesario un sistema de representación
más práctico.
En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando
se alcanza un determinado número se hace una marca distinta que los representa a todos
ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar
por segunda vez el número anterior y se añade otra marca de la segunda clase. Cuando se
alcanza un número determinado (que puede ser diferente del anterior constituyendo la
base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se
añade una de tercer orden y así sucesivamente.
La base que más se ha utilizado a lo largo de la historia es 10 según todas las apariencias
por ser ese el número de dedos con los que contamos. Hay alguna excepción notable
como son las numeración babilónica que usaba 10 y 60 como bases y la numeración
maya que usaba 20 y 5 aunque con alguna irregularidad.
Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades,
decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy.
Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han
visto impedido su avance científico por no disponer de un sistema eficaz que permitiese
el cálculo.
Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque
5 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
en algunos pueden confundirse unos números con otros, pero muchos de ellos no son
capaces de representar grandes cantidades, y otros requieren tal cantidad de símbolos que
los hace poco prácticos. Pero sobre todo no permiten en general efectuar operaciones tan
sencillas como la multiplicación, requiriendo procedimientos muy complicados que sólo
estaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar en
Europa el sistema de numeración actual, los abaquistas, los profesionales del cálculo se
opusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algo
complicado en sí mismo, tendría que ser un metodo diabólico aquel que permitiese
efectuar las operaciones de forma tan sencilla.
El sistema actual fue inventado por los hindús y transmitido a Europa por los árabes. Del
origen hindú del sistema hay pruebas documentales más que suficientes, entre ellas la
opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo
sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo
del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar
cualquier número por grande que sea y simplificar la forma de efectuar las operaciones.
Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades,
decenas... como sean necesarios hasta completar el número. Una de sus características es
por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha
preferido una determinada disposición. Han sido de este tipo las numeraciones egipcia,
sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los
griegos, armenios, judios y árabes.
Desde el tercer milenio a.n.e. los egipcios usaron un sistema deescribir los números en
base diez utilizando los geroglíficos para representar los distintos órdenes de unidades.
Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente
de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras
según el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, y
solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales,
prisioneros, vasijas etc.) cuyo número indicaban. Estos signos fueron utilizados hasta la
incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las
inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y
demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas
En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se
introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000......
con lo que disminuye el número de signos necesarios para escribir una cifra.
El primer sitema de numeración griego se desarrolló hacia el 600 a.n.e. Era un sistema de
base decimal que usaba unos símbolos para representar esas cantidades. Se utilizaban
6 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
tantas de ellas como fuera necesario según el principio de las numeraciones aditivas. Para
representar la unidad y los números hasta el cuatro se usaban trazos verticales. Para el
cinco, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez
(deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico.
Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de
cinco, usando un principio multiplicativo. Progresivamente este sistema ático fue
reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con
algunos otros símbolos. De esta forma los números parecen palabras, ya que están
compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las
cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer
una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las
palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema
similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una
disciplina aparte: la kábala, que persigue fines místicos y adivinatorios.
El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan
así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se
repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos
por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc.
.Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está
vacío y no se confundan el 307 con 370, 3070 ... Además del chino clásico han sido
sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente hindú cómo el
tamil, el malayalam y el cingalés.
La forma clásica de escritura de los números en China se empezó a usar desde el 1500
A.N.E. aproximadamente. Es un sistema decimal estricto que usa las unidades y los
distintas potencias de 10. Utiliza ideogramas y usa la combinación de los números hasta
el diez con la decena, centena, millar y decena de millar para según el principio
multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya
que 5 10 7 igual podría representar 57 que 75.
Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento
importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y
errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta
dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes
regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy
parecido al actual que desde que incorporó el cero por influencia india en siglo VIII en
7 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición
de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base
correspondiente. Sólo tres culturas además de la india lograron desarrollar un sistema de
este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La
ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del
mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no
disponían de simbolos particulares para los dígitos, usando para representarlos una
acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20
respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su
parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de
las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al
calendario, una de sus mayores preocupaciones culturales.
Fueron los hindúes antes del siglo VII los que idearon el sistema tal y como hoy lo
conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y
el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo
árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en
posiciones intermedias como finales se originó en India. Los árabes transmitieron esta
forma de representar los números y sobre todo el cálculo asociado a ellas, aunque
tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a
algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta
forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido
avanzar.
Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se
representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una
raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para
el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas.
Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada
uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el
que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el
lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a
arriba abajo, empezando por el orden de magnitud mayor.
Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo
8 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
para el cero, con el que indicar la ausencia de unidades de algún orden, se hace
imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto
de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de
otro número.
El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían
algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las
unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron
otro de carater religioso en el que el año se divide en 20 ciclos de 13 días.
Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los
conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una
matemática más allá del calendario
Se define un sistema de numeración: como el conjunto de símbolos y reglas que se utilizan para la
representación de cantidades. En ellos existe un elemento característico que define el sistema y se
denomina base, siendo ésta el número de símbolos que se utilizan para la representación.
Un sistema de numeración en base "b" utiliza para representar los números un alfabeto compuesto por b
símbolos o cifras. Así todo número se expresa por un conjunto de cifras, teniendo cada una de ellas dentro
del número un valor que depende:
De la cifra en sí
De la posición que ocupe dentro del número
En el sistema de numeración decimal (base 10), que habitualmente se utiliza, b = 10 y el alfabeto por
tanto, está constituido por 10 símbolos: {0, 1, 2..., 9}
3278.52
9 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Posición 0 Peso b0
Posición 1 Peso b1
Posición 2 Peso b2
Posición 3 Peso b3
....
Posición -1 Peso b-1
Posición -2 Peso b-2
.....
Ejemplo en base 8:
El sistema de numeración en base dos, fue introducido por Gottfried Wilhelm Leibniz (1646-1716) en el
siglo XVII, siendo el más adecuado para usar en las máquinas electrónicas, debido a que utilizan
esencialmente sistemas de dos estados, encendido y apagado. En el sistema binario los datos se
representan en un sistema que sólo admite dos estados, 0 y 1.
Las operaciones aritméticas se suelen realizar usando una representación de datos y resultados en binario
natural.
10 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Una muestra de los números enteros binarios que se pueden formar con 3 bit y que corresponden a las
cifras decimales {0, ...,7} es:
Binario Decimal
000 0
001 1
010 2
011 3
100 4
101 5
111 6
111 7
Se puede transformar un número binario a decimal sin más que usar la expresión vista anteriormente:
Ejemplo:
a) La parte entera del nuevo número (binario) se obtiene efectuando divisiones enteras (sin obtener
decimales) por dos, de la parte entera del número decimal de partida y de los cocientes que sucesivamente
se vayan obteniendo. Los restos de estas divisiones y el último cociente (que serán siempre ceros y unos)
son las cifras binarias. El último cociente será el bit más significativo y el primer resto el bit menos
significativo (más a la derecha).
Ejemplo:
26)10 es en binario:
26 | 2_
0 13 | 2_
1 6 | 2_
0 3 |2_
1 1
11 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
26)10 = 11010)2
b) La parte fraccionaria del número binario se obtiene multiplicando por 2 sucesivamente la parte
fraccionaria del número decimal de partida y las partes fraccionarias que se van obteniendo en los
productos sucesivos. El número binario se forma con las partes enteras (que serán ceros y unos) de los
productos obtenidos.
Ejemplo:
0.1875)10 = 0.0011)2
Ejemplo:
a) Parte entera:
74 | 2_
0 37 | 2__
1 18 | 2__
0 9 | 2_
1 4 | 2__
0 2 | 2__
0 1
b) Parte fraccionaria:
Es decir:
74.423)10 = 1001010.01101...)2
12 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
14/ 2= 7 sobran 0
7 / 2= 3 sobran 1
3 / 2= 1 sobran 1
1 / 2 =0 sobran 1
c0 b c1 r1
7 2 3 1
c1 b c2 r2
3 2 1 1
c2 b c3 r3
1 2 0 1
co b co ro
c1-1 b c1 r1
13 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
c2-1 b c2 r2
c[i]=c[i-1]/b;
r[i]=fmod(c[i-1],b)
hacemos otro for para el subindice de r[i] desde i=4 hasta i=0
printf("%d", r[i]);
#include <stdio.h>
#include <conio.h>
#include <math.h>
int c[50], r[50]; /* es mejor poner más de lo necesario */
int i,b;
main()
{
clrscr();
/* Datos */
b=2;
c[0]= 14;
i=1;
/* conversion */
for(;;)
{ c[i]= c[i-1]/b;
r[i]= fmod(c[i-1],b);
if (c[i]==0) break;
i=i+1;
}
for(;;) /* impresión de resultado de atrás para adelante */
14 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
{
if (i==0) break;
printf(" %d",r[i]);
i=i-1;
}
Una variable binaria puede representar, una cifra de un número en el sistema de numeración en base dos.
Las operaciones aritméticas básicas con variables binarias naturales son la suma, resta, multiplicación y
división. Estas operaciones son análogas a las realizadas en decimal pero usando ceros y unos.
Suma aritmética
A B A+B
0 0 0
0 1 1
1 0 1
1 1 0 y llevo 1
Ejemplo:
Las operaciones lógicas o booleanas con variables binarias son la suma lógica (+), llamada también
15 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
función OR, el producto lógico (llamado también AND y la complementación (-) o negación o NOT.
Es frecuente también la utilización de las operaciones combinadas como NAND (AND y NOT) y NOR
(OR y NOT).
Las tablas son las siguientes:
NAND NOR
A B A * B -(A*B) A B A+B - (A + B)
0 0 0 1 0 0 0 1
0 1 0 1 0 1 1 0
1 0 0 1 1 0 1 0
16 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
1 1 1 0 1 1 1 0
Veamos ahora por qué resulta más sencillo operar con el sistema binario que con el decimal.
Se ha visto la simplicidad de las operaciones aritméticas en binario. Los ordenadores funcionan con
circuitos que pueden representar los dos estados del sistema binario (0 y 1) abriéndose o cerrándose el
circuito.
Al conectar dos circuitos según el esquema, y hacer pasar una corriente eléctrica por A se puede conseguir
que el estado del conductor C represente el resultado de la operación AND lógica.
1 1
---------------*------------------ C toma el valor 1
A B
0 1
---/ /---------*------------------ C toma el valor 0
A B
1 0
---------------*-------/ /------ C toma el valor 0
A B
0 0
--/ /---------*-------/ /------- C toma el valor 0
A B
A = 1
-------------------
|------------------- C=1
-------------------
B = 1
17 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
A = 1
-------------------
|------------------- C=1
----/ /----------
B = 0
A = 0
----/ /----------
|------------------- C=1
-------------------
B = 1
A = 0
-----/ /----------
|------------------- C=0
----/ /----------
B = 0
Estos ejemplos ilustran cómo basándose en circuitos e impulsos eléctricos un ordenador puede realizar
operaciones aritméticas y lógicas. El motivo por el que los ordenadores electrónicos trabajan en el sistema
binario se puede deducir de los ejemplos vistos. Queda imaginar la complejidad que supondría trabajar en
el sistema decimal (con circuitos 10 veces más complejos para representar operaciones de 2 dígitos).
Una puerta es un circuíto electrónico que produce una señal de salida que es una operación booleana
sencilla de las señales de entrada. Las puertas básicas usadas en lógica digital son AND, OR, NOT, XOR,
NAND y NOR. cada puerta se define de tres formas: símbolo gráfico, notación algebraica y tabla de
verdad, como se muestra seguidamente:
18 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
D) Representación en complementos
Para representar un número negativo se puede utilizar el complemento de ese número a la base. De esta
forma las sumas y restas quedan reducidas a sumas. Este sistema de representación es de sumo interés en
el caso de los ordenadores ya que al usarlo se reduce la complejidad de los circuitos.
El complemento a la base de un número, es el número que resulta de restar a cada una de las cifras del
número N a la base menos uno del sistema que se esté utilizando y posteriormente sumar uno a la
diferencia obtenida.
Ejemplo:
En base 10:
Base menos uno del sistema: 9
Representar el número 63 en complemento a la base.
N = 63 99 36
-63 +1
------ ------
36 37
En base 2:
19 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
111111 010101
101010 + 1
----------- ------------
010101 010110
Observamos que para transformar un número binario N a complemento a 2 basta con cambiar los 0 por 1
y los 1 por 0 de N y sumar 1 al resultado.
Veremos ahora que la utilidad de esta representación es para convertir la realización de las restas a sumas,
lo cual simplifica el diseño del procesador.
Ejemplo: Base 10
a) Directamente: 77 - 63 = 14
b) Utilizando el complemento a 10 del substraendo:
99 36
-63 +1
---- -----
36 37
77
+37
-----
114
- (No se considera)
El resultado es 14
Es decir, para restar basta con sumar el minuendo con el complemento a la base del substraendo y sin
considerar el acarreo.
Ejemplo: Base 2
20 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
11001 - 10010
a) Directamente:
11001
-10010
--------
00111
01101
+ 1
--------
01110
11001
+01110
---------
100111
- (No se considera)
E) Códigos intermedios
Los códigos intermedios se basan en la facilidad de transformar un número en base 2 a otra base que sea
potencia de 2 y viceversa. Usualmente se usan como códigos intermedios los sistemas de numeración en
base 8 y en base 16 (conocidos como octal y hexadecimal).
a) OCTAL.
Para convertir un número octal a binario sólo debemos sustituir cada dígito octal por su equivalente
binario.
Equivalencias
OCTAL BINARIO
0 000
21 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
1 001
2 010
3 011
4 100
5 101
6 110
7 111
Ejemplo:
6 se sustituye por 110
La conversión de binario a octal se realiza juntando en grupos de tres dígitos binarios, comenzando por la
izquierda desde el punto decimal y sustituyendo cada grupo por el correspondiente dígito octal.
Ejemplo:
El número binario 10001101100.11010)2 es en octal
10 001 101 100 . 110 10 = 2154.64)8
Para pasar un número de octal a decimal aplicamos la expresión:
N)8 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10
con b = 8.
Ejemplo:
Para pasar el número octal 1367.25)8 a decimal:
1367.25 = 1*83 + 3*82 + 6*81 + 7*80 + 2*8-1 + 5*8-2 = 759.328125)10
Para pasar un número entero decimal a octal se hacen sucesivas divisiones enteras del número y los
subsiguientes cocientes por 8 (al igual que en binario). Para transformar la parte fraccionaria de un
número decimal a octal se hacen sucesivas multiplicaciones por 8 (de la misma forma que en binario).
Ejemplo:
Para pasar el número decimal 760.33)10 a octal:
760 | 8__
40
0 95 | 8__
15
7 11 | 8__
3 1
22 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
b) HEXADECIMAL
Para representar un número en base hexadecimal (b = 16) es necesario disponer de un conjunto o alfabeto
de 16 símbolos. Se suele usar el conjunto:
{0, 1, 2,..., 9, A, B, C, D, E, F}
Podemos hacer las conversiones de binario a hexadecimal y viceversa en forma análoga al sistema octal.
Ahora bien, aquí utilizaremos grupos de 4 bit en lugar de grupos de 3 bit.
Equivalencias
HEX BINARIO DECIMAL
0 0000 0
1 0001 1
2 0010 2
3 0110 3
4 0100 4
5 0101 5
6 0110 6
7 0111 7
8 1000 8
9 1001 9
A 1010 10
B 1011 11
C 1100 12
D 1101 13
E 1110 14
F 1111 15
Ejemplo:
Pasar el número binario 010010111011111.1011101)2 a hexadecimal.
010 0101 1101 1111 . 1011 101)2 = 25DF.BA)16
Ejemplo:
Pasar el número 1ABC701.C4)16 a binario:
0001 1010 1011 1100 0111 0000 0001 . 1100 0100 2
1 A B C 7 0 1 C 4
23 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Para transformar un número hexadecimal a decimal aplicamos la expresión siguiente con b=16.
N)16 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10
Ejemplo:
Para pasar un número de decimal a hexadecimal se hace de forma análoga a los casos binario y octal: la
parte entera se divide por 16, así como los cocientes enteros sucesivos, y la parte fraccionaria se
multiplica por 16, así como las partes fraccionarias de los productos sucesivos.
Ejemplo:
24 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
La memoria principal se encuentra organizada en palabras, cada una de las cuales tiene asignada una
dirección. Los intercambios de información entre el procesador y la memoria se hacen en unidades
denominadas palabras y no en caracteres (octetos) o en bit.
Normalmente para aprovechar la memoria, la longitud de la palabra debe ser un múltiplo entero del
número de bit usados para representar un carácter.
Los datos se introducen inicialmente en el ordenador según un código de entrada/salida (que ya hemos
visto), tanto si éstos son de tipo alfabético como de tipo numérico.
Los datos de tipo numérico se utilizan normalmente para operar aritméticamente con ellos, y la
representación simbólica obtenida con el código de E/S no resulta adecuada para realizar este tipo de
operaciones. Resulta más adecuado operar en un sistema de numeración que en un código de E/S.
Por los motivos anteriores, y teniendo en cuenta que la ALU opera con palabras, se realiza una conversión
de notaciones pasando de la representación simbólica de E/S a otra notación que denominamos
representación interna.
TIPOS DE INFORMACION.
1 Información numérica:
Enteros
Reales
Complejos
Lógicos
Caracteres
3 Instrucciones del programa
Los datos de tipo complejo se representan por parejas de números reales almacenados en posiciones
consecutivas de memoria. Es decir, pueden considerarse como un caso particular de números reales.
El nombre de esta representación surge al considerar el punto fraccional, situado en una posición fija. El
punto fijo es utilizado para la representación de números enteros, suponiéndose el punto fraccional
ubicado a la derecha de los bit. Cualquiera de los sistemas de representación de enteros es una
representación de punto fijo. Tambien, se puede utilizar la representación en punto fijo para representar
fracciones binarias escalando los números, de modo que el punto fraccional quede ubicado implícitamente
en otra posición entre los bit, y en el caso límite a la izquierda de todos ellos describiendo un número
fraccional binario puro (menor a 1).
25 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
a) El signo se representa en el bit situado más a la izquierda de la palabra. Este bit es 0 si el número
es positivo ó 1 si el número es negativo.
b) El valor absoluto:
b1) Números positivos: Se almacenan directamente el número en binario natural.
b2) Números negativos: Dependiendo del ordenador se almacena el complemento a 2 del
número binario natural o la magnitud del número en binario natural.
SIGNO Y COMPLEMENTO A
DECIMAL
MAGNITUD 2
7 0111 0111
6 0110 0110
5 0101 0101
4 0100 0100
3 0011 0011
2 0010 0010
1 0001 0001
+0 0000 0000
-0 1000 ----
-1 1001 1111
-2 1010 1110
-3 1011 1101
-4 1100 1100
-5 1101 1011
-6 1110 1010
-7 1111 1001
-8 ----- 1000
El punto flotante surge de la necesidad de representar números reales y enteros con un rango de
representación mayor que el que ofrece la representación en punto fijo y posibilitar al ordenador el
tratamiento de números muy grandes y muy pequeños. Estas ventajas que ofrece el punto flotante traen
como contraprestación una disminución en la precisión de los números representados.
Un número en esta notación tiene infinitas representaciones, de las que se toma como estándar la
denominada normalizada, que consiste en que la mantisa no tiene parte entera y el primer dígito o cifra a
la derecha del punto decimal es significativo (distinto de 0), salvo en la representación del número 0.
26 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo
835.4 = 8354*10^-1 = 835.4 * 10^0 = 83.54 * 10^1 = 8.354 * 10^2 = .8354 * 10^3
Representación del número decimal 835.4 con base de exponenciación 10. siendo está última expresión la
que corresponde al número normalizado.
En este sistema de codificación, se dividen los bit disponibles en la palabra o doble palabra del ordenador
entre la mantisa y el exponente, teniendo una base de exponenciación determinada (2 o potencia de 2).
Normalmente la definición de la coma flotante sigue las siguientes reglas:
Existen muchas formas de representación en punto flotante, variando la longitud de la palabra del
ordenador, la base de la exponenciación, el número de bit reservados para la mantisa y para el exponente,
el sistema utilizado para representar la mantisa y el exponente, etc.. El punto flotante se define
particularmente en cada caso. Las definiciones más comunes son las siguientes:
El rango de representación en la coma flotante debe ser analizado teniendo en cuenta los máximos y
mínimos valores representables tanto con signo positivo como negativo:
Conviene observar que existen cuatro zonas de números que no pueden ser representados mediante un
determinado formato de coma flotante. Estas zonas están ubicadas cercanas al 0, tanto para valores
positivos como negativos (subdesbordamiento positivo o negativo), como para valores grandes (positivos)
o pequeños(negativos) que exceden el rango de representación.
27 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo
los bit del 23 al 30 se utilizan para representar el exponente en exceso a 128 (27)
los bit del 0 al 22 se utilizan para representar la mantisa normalizada para el sistema Módulo y
signo
la base de exponenciación es 2
0 10000100 11000000000000000000000
signo (+) exponente 4 mantisa 0.75
Representar en el formato definido el 12. En este caso la notación normalizada solo sufre cambio en el
signo de la mantisa (-0.75 * 24), la expresión quedará ntonces:
1 10000100 11000000000000000000000
signo (-) exponente 4 mantisa 0.75
Los datos de tipo carácter, representan sencillamente cadenas de caracteres representados según el código
de E/S.
28 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Deben englobar las 26 letras del alfabeto latino, los 10 dígitos y un cierto número de caracteres
gráficos (operadores) y signos de puntuación.
Deben permitir añadir nuevos caracteres específicos.
Deben incluir un sistema de redundancia que permita la detección de errores en el curso de la
transmisión.
Los subconjuntos de letras y números deben estar ordenados y ser coherentes. Estarán en dos
grupos diferentes y ordenados.
F) Codificación de instrucciones
Código de operación.
Dirección de operandos/resultados.
Condiciones de direccionamiento, etc.
A cada una de estas informaciones se le asocia una zona formada por un número de bit suficientes para
codificar los diferentes estados posibles de la instrucción.
Así una zona de código de operación de 6 bit permite codificar 26 = 64 operaciones diferentes, y si una
zona de direcciones es de 16 bit permitirá direccionar una memoria de 216 direcciones.
Hemos visto anteriormente que si representamos cada carácter por un número fijo de bit, para representar
m símbolos distintos necesitamos al menos n bit, siendo n el menor número entero que verifica la relación
También hemos observado que a veces no es necesario utilizar todas las combinaciones posibles de los n
bit. Cuantas menos combinaciones se desperdicien decimos que el código es más eficiente.
Un código que es poco eficiente se dice que es redundante. La eficiencia de un código se expresa como el
cociente entre el número de símbolos que representa y el número total posible,
Eficiencia = m/m´= m/2n
así se tiene para el ASCII una eficiencia de 95/27, que es 0.742, con R=25.8% y para el ASCII extendido
la eficiencia es 95/28, que es 0.371, con R=62.9%, donde R es la redundancia, que se calcula,
R=(1-þ)*100%
A veces las redundancias se introducen deliberadamente para poder detectar posibles errores en la
transmisión o grabación de información.
Así por ejemplo, si necesitamos transmitir 8 símbolos (A, B, C,...,H) y si se hace con un código sin
redundancias, necesitamos n = 3 bit, y un código posible puede ser:
ALFABETO CÓDIGO
29 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
A 000
B 001
C 010
D 011
E 100
F 101
G 110
H 111
En el caso de que por algún error uno de los bit varíe obtenemos otro símbolo del alfabeto, que
considerado aisladamente no puede ser detectado como erróneo. Si se usase un código redundante, tal
como el siguiente:
ALFABETO CÓDIGO
A 0000
B 0001
C 0010
D 0011
E 0100
F 0101
G 0110
H 0111
existirían algunas posibilidades de detectar errores. Así por ejemplo, si se transmite el símbolo H, esto es
0111, y por un error la transmisión cambiara el primer bit, esto es se recibiese 1111, podría detectarse el
error ya que 1111 no corresponde a ninguno de los símbolos posibles.
Bit de paridad, criterio par: se añade un bit (0 ó 1) de forma tal que el número total de unos del
código que resulte sea par.
Bit de paridad, criterio impar: Se añade un bit (0 ó 1) de forma tal que el número total de unos del
código que resulte sea impar.
Ejemplo:
30 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
El bit de paridad se introduce antes de transmitir o grabar la información. Por ruido o interferencias en la
transmisión o defecto del soporte de la información puede eventualmente cambiar un bit (de 1 a 0 ó de 0 a
1). Si en el receptor o al leer la información se comprueba la paridad, se detectaría el error, ya que el
número de unos dejaría de ser par (en el criterio par) o impar (en el criterio impar).
En el caso de transmisión de datos, automáticamente se podría provocar una nueva transmisión del
carácter erróneo. Obviamente si se produjese el cambio simultáneo de dos bit distintos no se detectaría el
error de paridad, ahora bien, esta eventualidad es mucho menos probable que la de que cambie un sólo bit.
Códigos de barras
Otro caso habitual donde aparece información redundante con la finalidad de verificar errores, es en los
códigos de baras, habituales en cualquier producto que se comercialice masivamente. En 1974 los 12
países que entonces formaban la Unión Europea decidieron adoptar un sistema de codificación para los
productos, similar al sistema UPC de Estados Unidos de Norteamérica. Así surgió el código EAN
(European Article Numbering), sistema que han adoptado más de 100 países y cerca de un millón de
empresas.
El más usual es EAN 13, formado por 13 dígitos agrupados en cuatro partes: prefijo, código empresa,
código producto y dígito de control. El prefijo asignado por EAN internacional a AECOC es el 84, de
modo que la mayoría de las empresas que forman parte del sistema EAN a través de AECOC utilizan este
número. El código de empresa (fabricante o cadena de distribución) está formado por un número de entre
5 y 8 dígitos. El código del producto completa los primeros 12 dígitos y el último dígito es de control. Por
ejemplo, un tarro con garbanzos cocidos marca Eroski, lleva el siguiente código 8480010021967, donde
84 significa España, 80010 es el número que tiene asignado la cooperativa Eroski, 02196 corresponde a
ese tipo de garbanzos, siendo una clasificación interna del distribuidor y 7 es el código de control.
En el momento de la venta, el terminal punto de venta (TPV), realiza las siguientes operaciones:
Si el resultado coincide con el dígito de control, como es el caso, el ordenador enviará el precio al TPV.
31 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html
Buscar en la web
Imprimir
Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software.
Tutorial sobre la nueva versión de Google Docs
Actualización en Software.
Tutorial sobre el programa HTTrackl
Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep
Enlaces de interés
Skip Navigation
Inicio
Divulgación
Física
Religiones
Fraudes médicos
Fraudes nutrición
Fraudes psicología
Informática
Fraudes en psicología
32 de 34 18/04/2008 20:21
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Ciencia en general
1 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Biología
Criminología
Inicio
Contacte
Introducción
Dispositivos de entrada
Dispositivos de salida
Dispositivos de memoria secundaria
Calidad en ordenadores personales
Selecciona un texto y
pulsa aquí para oírlo
6.1 Introducción
Se denominan periféricos tanto a los dispositivos a través de los cuales el ordenador se comunica con el
mundo exterior, como a los sistemas que almacenan la información, sirviendo de memoria auxiliar de la
memoria principal, independientemente de que se encuentre en el exterior o interior de la carcasa.
La memoria masiva o auxiliar trata de suplir las deficiencias de la memoria central (RAM): baja
capacidad y que la información almacenada se pierde al desconectar la alimentación eléctrica. En efecto,
los dispositivos de memoria masiva auxiliar (actualmente discos magnéticos y ópticos) tienen mucha más
capacidad que la memoria principal, y en ellos se puede grabar la información durante mucho tiempo.
Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada,
unidades de salida y unidades de memoria masiva auxiliar. Estas últimas también pueden considerarse
como de E/S, ya que el ordenador central puede escribir (dar salida) sobre ellas, y la información escrita
puede ser leída, es decir, ser dada como entrada. Ahora bien, la información grabadas en estos soportes no
es directamente inteligible para el usuario, esto es, no puede haber una intercomunicación directa
usuario-ordenador como la que hay a través de un teclado/pantalla.
El ordenador es una máquina que no tendría sentido si no se comunicase con el exterior, es decir, si
careciese de periféricos. Por lo que debe disponer de:
Unidad(es) de entrada, a través de la(s) cual(es) introducirle los programas que queramos que
ejecute y los datos correspondientes.
Unidad(es) de salida, con la(s) que la ordenador da los resultados de los programas.
Hay que distinguir claramente entre periféricos de un ordenador y máquinas auxiliares de un determinado
2 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
servicio informático, las máquinas auxiliares no están físicamente conectadas al ordenador (su
funcionamiento es autónomo) y sirven para preparar o ayudar en la confección o utilización de la
información que se da a, o produce, el ordenador. Por ejemplo, hace algunos años existian máquinas
autónomas para perforar tarjetas, para grabar cintas magnéticas manualmente a través de un teclado, para
separar el papel continuo producido por un programa a través de la impresora, etc.
Tampoco hay que confundir periférico con soporte de información. Por soporte de información se
entiende aquellos medios físicos sobre los que va la información. Por unidades o dispositivos periféricos
se entiende aquellos elementos encargados de transcribir la información al correspondiente soporte.
Ejemplos:
- Los disquetes son soporte de información, mientras que la unidad lectora o disquetera, es unidad
periférica.
Las unidades funcionales del ordenador, así como éstas con los periféricos se comunican por grupos de
pistas denominados buses. Hay de dos tipos, serie y paralelo.
Los periféricos se interconectan al bus del sistema directamente o bien a través de unos circuitos
denominados interfaces. Hay una gran diversidad de periféricos con distintas características eléctricas y
velocidades de funcionamiento. Las interfaces son para adaptar las características de los periféricos a las
del bus del sistema.
Cada periférico suele estar formado por dos partes diferenciadas en cuanto a su misión y funcionamiento:
una parte mecánica y otra electrónica.
Desde el ordenador se actúa sobre los periféricos a iniciativa de las instrucciones de los programas. Para
poder utilizar eficazmente una ordenador, su sistema operativo contiene rutinas específicas para la gestión
de los periféricos. Sin estas rutinas sería extremadamente complejo utilizar un periférico desde un
lenguaje de alto nivel.
3 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Unidades de entrada.
Unidades de salida.
Unidades de memoria masiva auxiliar.
Las unidades de memoria masiva pueden considerarse como unidades de E/S mixtas. Así una unidad de
cinta magnética, cuando lee información de una cinta, actúa como dispositivo de entrada; cuando escribe
o graba información procedente de la ordenador central, actúa como unidad de salida.
Teclado
Ratón (mouse)
"Joystick " o palanca manual de control
Lápiz óptico
Lector óptico
Lector de caracteres imanables
Lector de bandas magnéticas
Lector de tarjetas "Chip" o inteligentes ("Smart Card")
Lector de marcas
Lector de caracteres manuscritos
Lector de códigos de barras
Reconocedores de voz
Sistemas biométricos
Digitalizador o tableta gráfica
Pantalla sensible al tacto
Scanner o rastreador
Sistemas de radiofrecuencia (RFID)
TECLADO
Es un dispositivo análogo al de una máquina de escribir, correspondiendo cada tecla a uno o varios
caracteres, funciones u órdenes. Para seleccionar uno de los caracteres de una tecla puede ser necesario
pulsar simultáneamente dos o más teclas.
Al pulsar una tecla se cierra un conmutador que hay en el interior del teclado, esto hace que unos circuitos
codificadores generen el código de E/S correspondiente al carácter seleccionado, apareciendo éste en la
pantalla si no es un carácter de control.
Teclado principal: Contiene los caracteres alfabéticos, numéricos y especiales, como en una
máquina de escribir convencional con alguno adicional. Hay teclados que también incluyen aquí
4 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
caracteres gráficos.
Teclas de desplazamiento del cursor: Permiten mover el cursor en los cuatro sentidos, borrar un
carácter o parte de una línea.
Teclado numérico: Es habitual en los teclados de ordenador que las teclas correspondientes a los
caracteres numéricos (cifras decimales), signos de operaciones básicas (+, -, ...) y punto decimal
estén repetidas para facilitar al usuario la introducción de datos numéricos.
Teclas de funciones: Son teclas cuyas funciones son definibles por el usuario o por un programa.
Teclas de funciones locales: Controlan funciones propias del terminal, como impresión del
contenido de imagen cuando el ordenador está conectada a una impresora.
Entre las posibles características técnicas a contemplar al evaluar la mejor o peor adaptabilidad de un
teclado a nuestras necesidades, podemos citar el número de caracteres y símbolos básicos, sensibilidad a
la pulsación, tipo de contactos de las teclas (membrana o mecánico), peso, tamaño, transportabilidad.
Actualmente se comercializan teclados ergonómicos, con una disposición algo original, aunque se han
difundido poco, y hay discusiones sobre si es cierta la ergonomía que propugnan.
Se pueden encontar teclados con funcionalidades extras, ya sean individualmente o en conjunto, como
lector de banda magnética, lector/grabador de tarjeta inteligente, conexión para escaner, detector
biométrico, con iluminación, entre otras posibilidades.
Para aplicaciones industriales y militares existen teclados totalmente sellados que soportan ambientes
agresivos, como por ejemplo aire, agua y atmósferas de vapores. Cumplen con la normativa IP65.
Entre los tipos de teclados más novedosos se encuentran los que son totalmente flexibles y los
denominados virtuales, que generan una simulación mediante un láser.
RATÓN
El ratón es un pequeño periférico que está constituido por una esfera que puede girar libremente, se
acciona haciéndola rodar sobre una superficie plana. Los modernos se basan en
5 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Una variación del ratón es la conocida como "trackball" que consiste en una
bola fija que se hace girar con los dedos. Presenta algunas ventajas sobre los
ratones tradicionales.
La interface de conexión con el ordenador, tanto del teclado como del ratón es a través de la interface
USB con cable o mediante sistemas inalámbricos infrarrojos o de radiofrecuencias, aunque hasta hace
poco tiempo era mediante interfaces específicas.
Dado que bajo los entornos de usuario gráficos actuales se emplea constantemente el ratón, se ha de
seleccionar uno de muy buena calidad, pues sino duran sólo unos pocos meses.
LÁPIZ OPTICO
La palanca manual de control (en inglés "joystick") está constituida por un dispositivo con una palanca o
mando móvil. El usuario puede actuar sobre el extremo de la palanca , y a cada
posición de ella le corresponde sobre la pantalla un punto. Dispone de un pulsador
que debe ser presionado para que exista una interacción entre el programa y la
posición de la palanca. La información que transmite es analógica.
LECTOR DE MARCAS
Hay ciertos documentos o productos que se utilizan en la vida ordinaria en gran cantidad y que pueden ser
controlados por ordenador, introduciendo con gran rapidez y sin error sus características sin necesidad de
teclear el código o información que los identifica. Esto es así porque en su superficie llevan impresos
caracteres, barras o marcas predefinidas, que pueden ser detectados por dispositivos especiales.
6 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Las lectoras, analizan los datos carácter a carácter y detectan si cada zona de identificación está impresa o
no. A cada carácter, se le hace corresponder una secuencia ordenada de ceros y unos. El dispositivo de
entrada compara esta secuencia con la de los patrones que tiene almacenados.
Los lectores ópticos suelen contener una fuente de luz que ilumina intensamente el dato a leer, un sistema
óptico de ampliación de imagen y los elementos necesarios para identificar el carácter.
Los caracteres magnéticos se utilizan en cheques bancarios, y en las etiquetas de algunos medicamentos
en algunos países, pues en España se usa el código EAN. En estos documentos se imprimen, de acuerdo
con unos patrones, los caracteres que identifican el talón. La tinta utilizada es imanable (contiene óxido de
hierro) y además es legible directamente. La impresión se hace con una máquina auxiliar denominada
inscriptora electrónica.
Alto costo.
Impresión cara y específica.
Utiliza señales electromagnéticas para registrar y codificar información en una banda imanada que puede
ser leída por una máquina, para identificación instantánea. La aplicación más difundida quizás es la de las
tarjetas de crédito y débito. Las instituciones financieras han preferido hasta hace poco tiempo esta
tecnología pues la reproducción era difícil de lograr, aunque la tendencia es a sustituirlas por tarjetas con
"chip" que son mucho más seguras. Se dice que las bandas magnéticas se utilizan para la identificación de
personas, mientras que los códigos de barras se aplican en la identificación de
productos. Las bandas magnéticas tienen excelentes posibilidades en aplicaciones de
corta duración tales como en pasajes de avión, donde la vida esperada del pasaje es del
orden de las 24 horas. En los Estados Unidos se pueden encontrar licencias de conducir
con bandas magnéticas. Asimismo documentos de identidad de instituciones educativas.
Algunas tarjetas "prepagadas" para hacer llamadas telefónicas son otro ejemplo de la
aplicación de las bandas magnéticas.
La codificación de bandas magnéticas, de acuerdo a las normas ISO BCD, se hace en hasta tres
localizaciones, pistas o "tracks" contenidos en la banda magnética. Dependiendo del "track" leido, se
puede almacenar desde 79 caracteres alfanuméricos (Pista 1), a 40 caracteres numéricos (Pista 2), hasta
107 caracteres numéricos (Pista 3). Las normas ISO generalmente se aplican a tarjetas de crédito y débito.
Las bandas magnéticas se leen mediante dispositivos de lectura manuales, similares a un lápiz, o por
detectores situados en los dispositivos en los que se introducen las tarjetas, incluso disponibles en algunos
teclados. La ventaja de este método es que la información es difícil de alterar una vez que se ha grabado
7 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
en la banda, salvo que se le aplique un campo magnético de intensidad adecuada. Esto proporciona un
cierto grado de seguridad frente a los sistemas convencionales.
Son tarjetas análogas en dimensiones a las de crédito, pero que incorporan un circuito electrónico y una
pequeña memoria. Se comercializan de dos tipos, por lo que respecta a la comunicación, mediante
contactos o inalámbricos, como por ejemplo las tarjetas bonobus del transporte público en Murcia. Las
más modernas pueden incluir un sistema operativo, y lenguaje de programación como por ejemplo Java.
Un ejemplo de aplicación novedosa de este sistema, el el proceso de votaciones en Lisboa, usando una
tarjeta tipo "chip card" en lugar de las papeletas tradicionales. El prototipo de este Sistema de Voto
Electrónico (SVE) ha sido desarrollado por Omron Electronics. Cada elector dispone de una tarjeta
inteligente, que introduce en el dispositivo de lectura, apareciendo en una pantalla táctil la relación de
candidatos, procediendo el votante a efectuar la selección. Seguidamente dispone de 5 segundos por si
desea cambiar o anular su voto. El elector saca su tarjeta con la información de a quien ha votado, y
seguidamente la inserta en un sistema electrónico que efectúa la lectura.
LECTOR OPTICO
En este apartado únicamente se hace referencia a los detectores de marcas, detectores de barras y
detectores de caracteres manuscritos e impresos.
LECTOR DE MARCAS
Los lectores ópticos de marcas son sistemas que aceptan información escrita a mano y la
transforman en datos binarios inteligibles por el ordenador. El usuario se limita a marcar con su
lápiz ciertas áreas preestablecidas del documento que representan posibles opciones. Estos
documentos pueden ser leídos posteriormente, a gran velocidad, por un ordenador con un lector
óptico de marcas, que detecta las zonas preestablecidas que están marcadas. Esta forma de
introducir dstos es útil, por ejemplo, para corregir exámenes de tipo test, escrutar quinielas, valorar
encuestas, etc.
Una variante sencilla de este sistema la constituye el método de reconocimiento de marcas. En este
caso el dispositivo de lectura puede reconocer cuándo ciertas áreas se han ennegrecido con un lápiz
u otro instrumento de escritura. Entre los documentos sometidos a esta forma de lectura se
encuentran los cupones de las quinielas, los formularios para la lectura de los contadores de gas y
luz, y los cuestionarios con respuesta de elección múltiple. Los métodos de OCR y de
reconocimiento de marcas tienen la ventaja de que se pueden emplear para leer los datos
directamente de los documentos originales, pero son lentos y sensibles a los errores, en
comparación con otros métodos.
Una aplicación nueva es el sistema implantado por la Seguridad Social. Los médicos disponen de
una terminal portátil PDT 3100 de Symbol Tecnologies, lector de banda magnética e impresora
térmica para etiquetas. El médico genera una etiqueta para la receta, con su identidad, detalles del
paciente. En la farmacia se añade a la receta el código de barras del medicamento. Posteriormente
toda esta información se procesa, y ayuda a evitar el abundante fraude que se da en la medicina .
Los lectores ópticos de caracteres pueden detectar caracteres (alfabéticos y/o numéricos), o bien
impresos o mecanografiados, o bien manuscritos.
8 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Los lectores de caracteres manuales son mucho más complejos, sirviendo frecuentemente sólo para
detectar unos pocos caracteres. Usualmente en el manual del dispositivo se indica la caligrafía
"preferida" por el dispositivo.
DETECTOR DE BARRAS
En la actualidad han adquirido un gran desarrollo los lectores de códigos de barras. Estos se usan en
centros comerciales. En el momento de fabricar un producto se imprime en su envoltorio una
etiqueta con información sobre según un código formado por un conjunto de barras separadas por
zonas en blanco.
La forma de codificar cada dígito decimal consiste en variar el grosor relativo de las barras negras y
blancas adyacentes. Con estas marcas se puede controlar fácilmente por ordenador las existencias y
ventas de una determinada empresa, e incluso gestionar los pedidos a los suministradores de forma
totalmente automática, lo cual genera un ahorro de costes considerable.
El cajero o cliente pasa un lector óptica por la etiqueta, introduciéndose así, sin necesidad de
teclear, y con rapidez, la identificación del artículo. El ordenador contabiliza el producto como
vendido y lo da de baja en la base de datos de existencias.
El lector óptico suele formar parte de una caja registradora que en realidad es un terminal
interactivo denominado terminal punto de venta (TPV).
9 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
RECONOCEDORES DE VOZ
Independientes del usuario: Estos sistemas están más difundidos, pero el vocabulario que reconocen
suele ser muy limitado. Los parámetros de las palabras que identifican vienen ya memorizados al
adquirir la unidad. Son utilizados, por ejemplo, para definir el movimiento de cierto tipo de robots.
En este caso el operador da verbalmente órdenes elegidas de un repertorio muy limitado, como
puede ser: para, anda, arriba, abajo,... La unidad cuando capta un sonido comprueba si corresponde
a uno de los del repertorio. En caso de identificación se transmite a la ordenador central la
información necesaria para la ejecución del programa que pone en marcha y controla la acción
requerida.
SISTEMAS BIOMÉTRICOS
No se debe confundir con la biometría, que es una técnica estadística empleada por biólogos. Las
tecnologías de identificación biométricas no son nuevas (se puede mencionar como ejemplo a la
identificación de huellas dactilares) pero en cuanto a sofisticación tecnológica es un campo muy amplio
para explorar. Estas tecnologías se utilizan generalmente para aplicaciones de control de acceso y
seguridad. Información sobre alguna característica fisiológica es digitalizada y almacenada en el
ordenador, esta información se emplea como un medio de identificación personal.
10 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
mantiene invariable.
Huellas dactilares
Patrón de voz
Una técnica novedosa es el uso de las uñas de las manos como sistema biométrico y también como
memoria óptica y otra técnica futura es basándose en la fotónica.
Son pantallas que pueden detectar las coordenadas (x,y) de la zona de la propia pantalla donde se acerca
un puntero. Este es un sistema muy sencillo para dar entradas o elegir opciones sin utilizar el teclado.
Antes de la introducción del PC de IBM, los equipos Hewlett Packard bajo MS-DOS, venían con una
pantalla de este tipo, aunque dejaron de comercializarse al poco tiempo debido a su precio abusivo.
Se utiliza para la selección de opciones dentro del menú o como ayuda en el uso de editores gráficos. Con
frecuencia se ve en los denominados kioskos informativos, cada vez más difundido en grandes empresas,
bancos y en puntos de información urbana. Existen pantallas con toda su superficie sensible, y otras en las
que sólo una parte de ella lo es.
DIGITALIZADOR
Los digitalizadores o tabletas digitalizadoras o tabletas gráficas son unidades de entrada que permiten
transferir directamente al ordenador gráficos, figuras, planos, mapas, o dibujos en general. Esto se hace
pasando manualmente una pieza móvil por encima de la línea a digitalizar y automáticamente se
transfieren las coordenadas (x,y) de los distintos puntos que forman la imagen. Es decir, con el
digitalizador, partiendo de un dibujo se obtiene una representación digital de él, en el interior del
ordenador.
Mando: Con el que el usuario debe recorrer el dibujo. Suele tener forma de lápiz o cursor, y está
unido al resto del sistema por un cable flexible. En el último caso el cursor tiene una ventana
cerrada con una lupa, en cuyo interior se encuentra embebida una retícula en forma de cruz para
señalar o apuntar con precisión el punto a digitalizar. El mando puede disponer de uno o varios
pulsadores para controlar la modalidad de funcionamiento, forma de transmisión y selección de
opciones del programa que gestiona la digitalización.
ESCANER
11 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Los programas que controlan el escaner suelen presentar la imagen capturada en la pantalla. Los colores
no tienen porqué ser necesariamente los originales, es posible capturar las imagenes en blanco y negro o
transformar los colores mediante algún algoritmo interno o modificar y mejorar la imagen. Sin embargo, y
en general, los colores que produce un scanner suelen ser los correctos.
Los sistemas de identificación por radio frecuencia consisten generalmente de dos componentes:
En algunos casos los transponders pueden ser programados para retransmitir un dato que representa su
identidad. En otros casos tiene un funcionamiento discreto (ON/OFF) como los antirrobo que se ponen en
las prendas de vestir de los comercios.
El funcionamiento de los dispositivos de RF/ID se realiza a frecuencias entre los 50 KHz y 2.5 GHz y a
baja potencia. Las unidades que funcionan a bajas frecuencias (50 KHz-14 MHz) son de bajo costo, corto
alcance, y resistentes al "ruido" entre otras características. No se requiere de licencia para operar a este
rango de frecuencia. Las unidades que operan a frecuencias mas altas (14 MHz-2.5 GHz), son el otro lado
de la medalla.
12 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Una aplicación que se está desarrollando de forma experimental, es para la gestión de equipajes en
aeropuertos. Se están usando "tags" de bajo costo, integrados en las etiquetas con códigos de barras que se
adhieren a los equipajes. En un futuro próximo pueden reemplazar a los códigos de barras disponibles en
los productos de consumo habitual, incluos puedne venir impresos en telas.
Todavía no hay un concenso en cuanto a la estandarización de la tecnología RFID. Cuando eso suceda se
logrará un tag genérico y un lector que en circunstancias ideales podría adquirirse de distintos
proveedores.
SINTETIZADOR DE VOZ
Las unidades sintetizadoras de voz son dispositivos que dan los resultados de un programa emitiendo
sonidos (fonemas o palabras) similares al habla humana. Estos periféricos suelen incluir un
microprocesador, memoria con programas y datos, un conversor D/A (digital-analógico), un amplificador
de audiofrecuencia y altavoz.
La mayor parte de los sintetizadores de voz tienen memorizados digitalmente cada uno de los fonemas o
palabras que son capaces de emitir. Los datos que recibe un sintetizador procedentes del ordenador
corresponden a la identificación de los fonemas o palabras a emitir. Una vez que se analiza el dato, se
activa una rutina encargada de generar el sonido correspondiente.
Los sonidos resultan "metálicos". Por lo general, estos sistemas incluyen programas que enriquecen las
posibilidades de los mismos, como generar frases o combinaciones de palabras, incluso hay sistemas que
traducen cantidades.
13 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
VISUALIZADORES ("DISPLAYS")
Los visualizadores son pequeñas unidades de salida que permiten al usuario leer una instrucción, un dato
o un mensaje.
Los caracteres se forman partiendo de estructuras en módulos, cada uno de los cuales sirve para visualizar
un carácter. Cada módulo contiene una serie de segmentos, siendo los más habituales de siete. Un carácter
concreto se visualiza activando determinados segmentos, dependiendo de la forma del símbolo.
El visualizador es el elemento de salida típico de las calculadoras de bolsillo y de los relojes digitales.
TRAZADOR DE GRAFICOS
Los trazadores de gráficos ("plotters") son dispositivos de salida que realizan dibujos sobre papel. Tienen
gran importancia ya que con ellos se obtienen directamente del ordenador planos, mapas, dibujos,
gráficos, esquemas e imagenes en general.
De pluma.
Electrostáticos.
De inyección
En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementos
de escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hasta
entrar en contacto con el papel, todo ello controlado por programa.
14 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Los registradores electrostáticos son impresoras electrostáticas. El sistema de tracción de papel es similar
al de una impresora convencional. El dibujo se realiza línea a línea. El elemento de escritura está
constituido por una serie de agujas cuya densidad puede variar.
Por lo que respecta a los de inyección, trabajan de forma análoga a una impresora de tinta, que se
describen en el apartado correspondiente.
MONITORES
Hasta hace poco tiempo el tipo más habitual de pantalla era la que vemos en los ordenadores de
sobremesa, la de tubo de rayos catódicos (TRC), aunque cada vez se difunden más las de cristal líquido,
habituales en los equipos portátiles.
La imagen de una pantalla TRC se forma al incidir un haz de electrones sobre la superficie interna de la
pantalla que está recubierta de un material fosforescente, analogamente a
como se forman las imagenes en un televisor. Un campo electromagnético
desplaza el haz de electrones de izquierda a derecha y de arriba a abajo y,
dependiendo de la intensidad con la que inciden los electrones en la
pantalla así de brillante será cada punto generado. La imagen, para ser
visualizada durante un determinado tiempo debe ser repetida o refrescada
periódicamente (al menos 25 veces por segundo). Estas pantallas se
denominan pantallas de barrido.
Monocroma: Los colores usuales en una monocromática son el blanco, ámbar o verde.
Color: El color de cada punto se obtiene con mezcla (RGB) de los colores rojo, verde y azul,
pudiéndose programar la intensidad de cada color básico.
En las pantallas de caracteres, la memoria de imagen (que es específica o una parte de la memoria RAM)
almacena la información correspondiente a cada celda (códigos de caracteres y sus atributos). En la
memoria ROM están los patrones de los caracteres, representados como una matriz de puntos. Se
denomina generador de caracteres a esta memoria de sólo lectura. En las pantallas gráficas el usuario tiene
acceso al punto de imagen, pudiendo representar en ellas imagenes configuradas no sólo con las formas
de caracteres incluidos en la ROM. En este caso, la memoria de imagen contiene la información
correspondiente a cada punto de imagen (intensidad, color y otros posibles atributos), en vez de la
correspondiente a cada celda. Los dibujos, a pesar de estar formados por puntos de imagen presentan una
apariencia de líneas continuas. La calidad de la pantalla gráfica depende de la densidad de puntos de
imagen.
15 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
habituales son las de 431.8 mm (17"), aunque en muchos países se están utilizando superiores.
En las pantallas de TRC se han de considerar unas normas de seguridad, dado que estos dispositivos
emiten radiaciones de diversos tipos. La radiación más conocida (por sus efectos perjudiciales para la
salud) es la de rayos X, problema que está solucionado, pues todos los monitores llevan cantidad
suficiente de plomo en el cristal, como para reternerla en su mayor parte. Otro tipo de radiación es la
producida por campos eléctromagnéticos a muy bajas frecuencias y a extremadamente bajas frecuencias
(ELF y VLF), según algunas investigaciones (no hay evidencias claras), susceptibles de producir cáncer.
Para evitar este tipo de radiaciones los monitores han de ser homologados MPR, normativa sueca muy
restrictiva, hay otra aún más restrictiva, propuesta por los sindicatos suecos, es la conocida como TCO,
(disponible, por ejemplo en Philips). En resumen, cuando se adquiera un monitor se ha de considerar que
como mínimo lleve la homologación alemana (TÜV) o sus equivalentes en EE.UU. (UL) o para Canadá
(CSA), aparte si se quiere de baja radiación ha de llevar la MPR II o la TCO. Cualquier monitor que no
esté homologado es un peligro para el usuario. Desde el uno de enero de 1996, es obligatoria en los países
de la Unión Europea, la certificación CE, que implica unos mínimos de seguridad, aunque no es una
marca de calidad, ni implica la homologación MPR II.
Una solución es poner filtros para la pantalla, pero si se quiere uno realmente bueno y que ofrezca la
misma seguridad que un monitor de baja radiación su precio es tan elevado, que merece la pena cambiar
de monitor.
Una nueva tecnología que puede reemplazar a los monitores TRC es la denominada "Flat Panel Display"
(FPD). Esencialmente estas pantallas son híbridas entre las convencionales de rayos catódicos y las
pantallas FED ("Field Emission Display"). Usan películas de diamante/carbono, resultando unas pantallas
planas de alta calidad (más brillo y resoluciones que las actuales) y que se pueden fabricar en las mismas
16 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Lo más novedoso son las pantallas de ordenador táctiles para ciegos, desarrolladas en la universidad de
Málaga.
Una nueva tecnología ha dado lugar a pantallas flexibles, usan tecnología OLED, qu epodría competir con
las de LCD en el negocio multimillonario de los monitores planos. La tecnología OLED no necesita ser
retroiluminada, así que que consumen menos y son más delgados que los LCDs.Sin embargo, los analistas
estiman que pasarán 10 años antes de que las pantallas OLED tengan tamaño como para competir con
LCDs. Ahora mismo, las pantallas OLED se utilizan en teléfonos móviles y en maquinillas de afeitar
eléctricas.
El principal problema en los dispositivos portátiles es la alimentación eléctrica, NEC Corporation (Japón)
ha presentado baterías flexibles ultradelgadas, recargables en tan sólo 30 segundos. Están fabricadas con
un cátodo de plástico, llamado "organic radical polymer (ORB)"
Enlaces recomendados:
Nuevas tecnologías de televisión, plasma frente LCD
Monitores TFT, puntos que marcan la diferencia
MICROFILM
La salida de datos en microfilm es una técnica de representar los datos de salida. Las técnicas COM se
usan en los bancos para llevar los registros de los balances diarios de cuentas. Esto supone un gran ahorro
de papel, al evitar las salidas por impresora, al tiempo que reduce problemas de almacenamiento. Cada
"página" se representa en una pantalla y se fotografía mediante una cámara especial. La imagen de la
página mide alrededor de 1.5 cm2. La película se corta en microfichas del tamaño de una postal
conteniendo cada una cien páginas. Se emplea un lector de microfichas para proyectar la imagen
aumentada de una página cuando es necesario leerla.
IMPRESORAS
Las impresoras son periféricos que escriben la información de salida sobre papel. Su comportamiento
inicialmente era muy similar al de las máquinas de escribir, pero hoy día son mucho más sofisticadas,
incluso algunas son fotocopiadoras o fax, conectadas con el ordenador. Junto a las pantallas, los
dispositivos más utilizados para poder ver en forma inteligible los resultados de un programa de
17 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
ordenador.
Las impresoras tienen dos partes diferenciadas: la parte mecánica (alimentación y arrastre) y la parte
electrónica.
Las impresoras tradicionalmente utilizaban papel continuo, en cuyos márgenes existen unos taladros. En
este caso, el arrastre se efectúa por un tractor que dispone de unos dientes metálicos que encajan en los
taladros laterales del papel. Actualmente la mayoría no necesitan papel continuo, efectuándose el arrastre
por fricción o presión, como en el caso de las máquinas de escribir o en las fotocopiadoras
convencionales.
Calidad de impresión: Considera la calidad de presentación y de contraste de los caracteres impresos. Las
impresoras se clasifican en :
Hay impresoras que realizan la impresión por impacto de martillos o piezas móviles mecánicas, y otras
sin impacto mecánico.
El fundamento de las impresoras por impacto es similar al de las máquinas de escribir. Sobre la superficie
de la línea a imprimir en el papel se desliza una cinta entintada, y delante de ésta pasa una pieza metálica
donde está moldeado el juego de tipos de impresión. Cuando pasa el tipo a grabar sobre su posición en el
papel, se dispara un martillo que golpea la cinta contra el papel, quedando impreso en tinta sobre el papel
el carácter en cuestión. En otras impresoras de impacto cada carácter se crea por el disparo de ciertas
agujas metálicas que conforman el carácter con un conjunto de puntos.
Las impresoras de impacto son muy ruidosas y tradicionalmente han sido las más utilizadas. Entre ellas se
encuentran las impresoras de rueda, bola, margarita, matriciales, cilindro y cadena.
Las impresoras sin impacto forman los caracteres sin necesidad de golpes y utilizan otros principios
físicos para transferir las imagenes al papel. Son impresoras sin impacto las térmicas, de inyección de
tinta y las láser.
De caracteres
De líneas
De páginas
Impresoras de caracteres
Realizan la impresión por medio de un cabezal que va escribiendo la línea carácter a carácter. El
cabezal se desplaza a lo largo de la línea que se está imprimiendo, sólo de izquierda a derecha
18 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Impresoras de líneas
Impresoras de página
Aquí se incluyen un grupo de impresoras que actúan de forma muy similar a las máquinas
fotocopiadoras. Se caracterizan por contener un tambor rotativo donde se forma con un polvillo
especial (tóner) la imagen de la página a imprimir. Esta imagen, por contacto y un proceso de
fijación se transfiere al papel.
Impresoras de rueda
Son impresoras de impacto y de caracteres. El cabezal de impresión está constituido por una rueda
metálica que contiene en su parte exterior los moldes de los distintos tipos. La rueda se desplaza
perpendicularmente al papel a lo largo de un eje o varilla metálica paralela al rodillo donde se
asienta el papel. La rueda está continuamente girando y cuando el tipo a escribir pasa delante de la
cinta entintada se dispara, por la parte posterior al papel, un martillo que hace que el carácter se
imprima en tinta sobre el papel. Una vez escrito el carácter, la rueda se desplaza a lo largo de la
varilla, hacia su derecha, o pasa a la línea siguiente. Estas impresoras están en desuso.
Fueron impresoras de buena calidad de impresión, sin embargo eran lentas. Los caracteres se
encuentran modelados en la parte más ancha de los sectores (pétalos) de una rueda en forma de
margarita. La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de
margarita del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contra
la cinta, escribiéndose el carácter. El juego de caracteres se puede cambiar sin más que sustituir la
margarita. Eran análogas a las máquinas de escribir.
También denominadas de matriz de puntos. Los caracteres se forman por medio de una matriz de
agujas que golpea la cinta entintada, trasfiriéndose al papel los puntos correspondientes a las agujas
disparadas.
Los caracteres son punteados, siendo su calidad muy inferior a los continuos producidos por una
impresora láser. No obstante, algunos modelos de impresoras matriciales, tienen la posibilidad de
realizar escritos en calidad de impresión, para ello, los caracteres se reescriben con los puntos
ligeramente desplazados, solapándose los de la segunda impresión con los de la primera, dando una
mayor apariencia de continuidad.
De estas impresoras existieron dos dos tipos, de tambor compacto y de ruedas. Ambos tipos son
impresoras de líneas y de impacto. La impresora de tambor compacto contiene una pieza metálica
19 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
cilíndrica cuya longitud coincide con el ancho del papel. En la superficie externa del cilindro o
tambor se encuentran modelados en circunferencias los juegos de caracteres, estando éstos
repetidos tantas veces como posiciones de impresión de una línea. El tambor está constantemente
girando, y cuando se posiciona una generatriz correspondiente a una determinada letra, la "A" por
ejemplo, se imprimen simultáneamente todas las "A" de la línea.
Las impresoras de tambor de ruedas son similares, sólo que cada circunferencia puede girar
independientemente. Todos los caracteres de la línea de impresión se escriben a la vez,
posicionándose previamente cada tipo en su posición correcta. En lugar de una cinta entintada, estas
impresoras suelen llevar una pieza de tela entintada del ancho del papel.
Impresoras de barras
Los caracteres se encuentran moldeados sobre una barra de acero que se desplaza de izquierda a
derecha a gran velocidad, oscilando delante de la línea a escribir. El juego de caracteres está
repetido varias veces. Cuando los moldes de los caracteres a imprimir se posicionan delante de las
posiciones en que han de quedar en el papel se disparan por detrás de éste unos martillos,
imprimiéndose de esta forma la línea. El número de martillos coincide con el número de caracteres
por línea.
Impresoras de cadena
Impresoras térmicas
Son similares a las impresoras de agujas. El calor se transfiere desde el cabezal por una matriz de
resistencias en las que al pasar una corriente eléctrica se calientan, formándose los puntos en el
papel. Son habituales en lso acjeros bancarios y tikets de compra.
Estas impresoras pueden ser:
El descubrimiento de esta tecnología fue fruto del azar. Al acercar accidentalmente el soldador, por
parte de un técnico, a un minúsculo cilindro lleno de tinta, salió una gota de tinta proyectada,
naciendo la inyección de tinta por proceso térmico. La primera patente referente a este tipo de
impresión data del año 1951, aunque hasta el año 1983, en el que Epson lanzó la SQ2000, no
fueron lo suficientemente fiables y baratas para el gran público. Actualmente hay varias
tecnologías, aunque son muy pocos los fabricantes a nivel mundial que las producen.
El fundamento físico consiste en emitir un chorro de gotas de tinta ionizadas que en su recorrido es
desviado por unos electrodos según la carga eléctrica de las gotas. El carácter se forma con la tinta
que incide en el papel. Cuando no se debe escribir, las gotas de tinta se desvían hacia un depósito de
retorno, si es de flujo contínuo, mientras que las que son bajo demanda, todas las usadas con los
PC`s, la tinta sólo circula cuando se necesita. Los caracteres se forman según una matriz de puntos.
Estas impresoras son bidireccionales y hay modelos que imprimen en distintos colores.
20 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
La contaminación que la tinta sufre con el contacto del aire, provoca peor calidad de impresión,
llegando un momento en el que hay que cambiar la tinta. El equipo incorpora un depósito central de
cambio fácil e instantáneo que avisa con 24 horas de antelación al momento de sustitución. El
depósito central incorpora el filtro principal de tinta, con lo que se cambia sin intervención cada vez
que se repone el depósito.
Impresoras electrostáticas
Las impresoras electrostáticas utilizan un papel especial eléctricamente conductor (de color gris
metálico). La forma de los caracteres se produce por medio de cargas eléctricas que se fijan en el
papel por medio de una hilera de plumillas que abarcan el ancho del papel. Posteriormente a estar
formada eléctricamente la línea, se la hace pasar, avanzando el papel, por un depósito donde se la
pulveriza con un líquido que contiene suspendidas partículas de tóner (polvo de carbón). Las
partículas son atraídas en los puntos que conforman el carácter. Estas impresoras de línea son muy
rápidas.
Impresoras láser
Estas impresoras tienen una gran importancia por su elevada velocidad, calidad de impresión,
relativo bajo precio y poder utilizar papel normal.
21 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
La impresión se realiza mediante radiación láser, dirigida sobre el tambor cuya superficie tiene
propiedades electrostáticas (se trata de un material fotoconductor, tal que si la luz incide sobre su
superficie la carga eléctrica de esa superficie cambia). Si es en colores, suelen llevar tres tóneres y
tres tambores.
Impresoras LED
Son análogas a las laser, con la única diferencia que la imagen se genera desde una hilera de diodos,
en vez de un laser. Al ser un dispositivo fijo, son más compactas y baratas, aunque la calidad es
peor. Algunas de las que se anuncian como laser a precio barato, son de esta tecnología, por
ejemplo Fujitsu y OKI.
Velocidad de escritura
Densidad de líneas
Tipos de letras
Una misma impresora puede escribir con distintos tipos de letras. Las de agujas usualmente pueden
escribir en tamaño normal, comprimido y elongado. El cambio del tipo de letra se realiza por
22 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
programa.
Color
Es la posibilidad de imprimir en colores. Usualmente los colores se forman a partir de tres básicos
(como en los monitores en color), pero a partir del cian, magenta y amarillo.
Resolución
Una gran parte de impresoras forman los caracteres por unión de puntos. La resolución se suele dar
en número de puntos por unidad de superficie.
Una característica que distingue un soporte de almacenamiento de los de entrada o de salida (aparte de la
posibilidad de realizar operaciones de entrada/salida indistintamente) es que en el soporte de
almacenamiento los datos son legibles sólo por la máquina y no lo son directamente por el hombre.
Mientras los dispositivos de memoria permiten un acceso inmediato del programa a la información que
contienen, los de almacenamiento guardan la información en un soporte que no permite el acceso
inmediato desde el programa y se requiere un paso previo de lectura (o entrada) que recupera dicha
información desde el almacenamiento y lo lleva a la memoria.
Si la memoria de los ordenadores tuviera gran capacidad y no fuera volátil no serían precisos sistemas de
almacenamientos externos. Si se han inventado distintos tipos de dispositivos de almacenamiento de los
datos es por la imposibilidad de disponer de memoria con capacidad suficiente. Sacrificando la
inmediatez del acceso se obtienen capacidades muchísimo mayores a precios muy inferiores y con
tiempos de respuesta aceptables para cada tipo de aplicación. Los soportes magnéticos son el medio más
usual de almacenar la información. Entre la variedad existente, destacan: cinta, disco y disquete.
Dentro de los dispositivos de almacenamiento secundario hay que tener en cuenta en el momento de su
elección las siguientes características:
Recientemente se han desarrollado soportes de almacenamiento de tecnología óptica que tienen mayores
densidades de grabación que las magnéticas convencionales.
23 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
DISCOS MAGNETICOS
Los discos magnéticos son los sistemas de almacenamiento que en la actualidad tienen más importancia,
ya que constituyen el principal soporte utilizado como memoria masiva. A pesar de que son más costosos
que las cintas, son de acceso directo, y con ellos se consiguen tiempos medios de acceso mucho menores
que con las cintas.
Un disco está constituido por una superficie metálica o plástica recubierta por una capa de una sustancia
magnética. Los datos se almacenan mediante pequeños cambios en la imanación, en uno u otro sentido. El
plato o disco puede ser de plástico flexible o rígido, en el primer caso tenemos disquetes o
discos flexibles (en inglés floppy disk o diskettes) y en el segundo caso discos rígidos o
duros.
Tanto en los discos rígidos como en los flexibles la información se graba en circunferencias
concéntricas, no percibiéndose visualmente. Cada una de estas circunferencias constituye una pista. Así
mismo el disco se considera
dividido en arcos iguales
denominados sectores, de esta
forma cada pista está compuesta de
sectores. Los sectores de las pistas
más exteriores son de mayor
longitud que las interiores, ahora
bien el número de bits grabados en
cada sector es siempre el mismo,
con lo que la densidad de
grabación será mayor en las pistas
interiores que en las exteriores. Los
sectores comienzan con una
cabecera de identificación,
indicando su dirección completa.
Un cilindro es un conjunto de
pistas, una en cada disco, que son accesibles simultáneamente por el conjunto de cabezas.
La lectura y escritura en la superficie del disco se hace mediante una cabeza. Esta suele ser de tipo
cerámico, aunque inicialmente eran metálicas. La cabeza, en las unidades de cabezas móviles, está
insertada en un extremo de un brazo mecánico, que se desplaza hacia el centro o hacia la parte externa del
disco, bajo el control de los circuitos electrónicos del periférico. El direccionamiento para leer o grabar un
sector del disco se efectúa dando al periférico:
número de unidad
número de superficie
número de pista
número del sector
El brazo sitúa rápidamente la cabeza encima de la pista correspondiente y espera a que el sector en
cuestión se posicione bajo la cabeza. En el acceso, por tanto, hay que considerar dos tiempos:
24 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Luego el tiempo de acceso será ta = tb + te. En las unidades de cabezas fijas, hay una cabeza por pista y
por tanto ta = te. La unidad de transferencia de datos desde y hacia el disco es el sector.
Los disquetes suelen tener una o varias referencias físicas (orificios y muescas) para poder identificar los
sectores y pistas. Esto se denomina sectorización hardware o física. En los disquetes de 133 mm sólo
existe un orificio de alineamiento y referencia. Este orificio, cuando el disco gira, es detectado por un
conjunto fotodiodo/fototransistor utilizándose como punto de referencia para el acceso a las distintas
pistas y sectores. Las unidades de discos rígidos suelen tener unas muescas que identifican los límites de
cada sector y el primer sector de la pista.
Antes de utilizar un disco es necesario efectuar en él unas grabaciones denominadas "dar formato" al
disco. Al formatear un disco se definen por software las pistas y sectores, además se inicializa un
directorio para la información sobre el contenido del disco (es como un índice). El formateo efectúa una
sectorización que detecta y elimina para posteriores grabaciones, las zonas del disco deterioradas. El
formateo incluye tablas con los nombres de los ficheros grabados en él, fecha y hora en que se crearon o
actualizaron por última vez, espacio que ocupan y direcciones físicas donde se encuentran.
Son discos que tienen una cabeza individual de lectura/escritura para cada pista, con ello se
consigue un tiempo de acceso relativamente bajo, ya que este tiempo viene fijado únicamente por la
velocidad de giro del disco. Existen unidades con un sólo plato o con varios.
Paquetes de discos
Son unidades compuestas por varios platos que giran solidariamente alrededor de un eje común.
Las cabezas le lectura/escritura son móviles, existiendo una por superficie. Estas se desplazan
simultáneamente a gran velocidad radialmente buscando la pista en que se encuentra el sector que
se debe escribir o leer. Todas las cabezas se mueven al unísono, y cada cabeza lee/graba en el sector
correspondiente a su superficie, trasfiriéndose la información en paralelo.
En un instante dado, por tanto, se leen/graban las mismas pistas de las distintas superficies. Cada
grupo de estas pistas se denomina cilindro de pistas, existiendo tantos cilindros como pistas.
Usualmente las superficies externas no se utilizan para grabar, así una unidad con seis platos puede
utilizar sólo 10 superficies.
25 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Discos-cartuchos
Consiste en único plato con dos superficies de grabación. Usualmente estas unidades son duales, es
decir, contienen dos subsistemas, uno de ellos con un plato fijo (donde se graba, por ejemplo, el
sistema operativo) y el otro con un plato intercambiable. Para desmontar el disco intercambiable es
necesario esperar a que las cabezas se retraigan y el disco se pare.
Es un desarrollo más reciente. Es un disco pequeño pero de elevada precisión y con gran capacidad
de almacenamiento. Está permanentemente montado en su unidad. Los platos de estas unidades
están herméticamente cerrados y son fijos. El hecho de que estén cerrados es por reducir los efectos
de la suciedad ambiental. No es necesario el retraimiento de las cabezas en reposo, existiendo una
pista específica de "aterrizaje". Las cabezas van más próximas a la superficie que en las anteriores
unidades, lográndose grandes densidades de grabación. Por tanto, en pequeñas superficies se
pueden almacenar mucha información. Son los habituales en los ordenadores personales. El vídeo
mostrado a continuación visualiza un disco duro destapado trabajando.
Actualmente hay varios tipos de sistemas de almacenamiento orientado hacia las empresas con
grandes volúmenes de información, principalmente debido a las redes de ordenadores, SAN
(storage area network), DAS (disk attached storage) y NAS (network attached storage) son las tres
tecnologías que se están implantando, estando su precio al alcance de las pequeñas y medianas
empresas (PYMES).
26 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Con las tecnologías actuales se ha alcanzado el límite físico y pronto el tamaño del
bit almacenado en la superficie magnética será tan pequeño que se hará inestable
debido al fenómeno físico del superparamagnetismo. Los soportes magnéticos más
estables (en base a hierro y platino autoordenado) no son aptos para las actuales
cabezas, por lo que esta nueva tecnología, en base a un láser, calienta la zona
donde se va a grabar un bit de información, al enfriarse posteriormente la
información permanece grabada, siendo legible por las cabezas actuales.
Disquettes
Los disquetes son pequeños discos intercambiables, cuyos platos son flexibles, ya que están
onstituidos por un material plástico.
Los de 133 mm son también denominados minidisquetes, actualmente los más empleados son los
de 90 mm, denominados microdisquetes.
La superficie se encuentra protegida por una funda recubierta internamente de un material que
facilita el deslizamiento rotacional del plato. En la funda hay una abertura radial que abarca a todas
las pistas; a través de esta ventana las cabezas de la unidad de disquetes acceden a la información.
La grabación, dependiendo del tipo de unidad, puede efectuarse en una única superficie, es decir, en
una sola de la caras, o en doble cara. También se puede efectuar en densidad normal (simple
densidad) o doble densidad.
Los disquetes hasta hace muy poco tiempo eran un elemento excelente para actuar como memoria
masiva auxiliar de microordenadors personales.
Tipo de disco: Indica la tecnología y estructura física del mismo. Los tipos básicos son: discos de
cabezas fijas, paquetes de discos, cartuchos de discos, discos Winchester y disquetes.
Tamaño: Indica el diámetro del plato donde se encuentran las superficies imanables.
Tiempo medio de acceso: Es el tiempo medio que la cabeza lectora/grabadora tarda en acceder a un
sector determinado.
Velocidad de transferencia: Indica el número de octetos que se transfieren por unidad de tiempo,
27 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Velocidad de rotación: Es el número de revoluciones por minuto a que gira el plato que contiene la
superficie imanable.
Número de sectores por pistas: Es el número de bloques o registros físicos que hay en una pista.
Número de palabras por sector: Es el número de palabras que pueden grabarse en un sector.
Bits por palabra: Indica el número de bits que utilizan las palabras grabadas.
Densidad máxima: Indica la máxima densidad de grabación en las pistas, es decir, la densidad de
grabación en la pista más interiores. Este parámetro se indica en bits/pulgada o bits/cm.
CINTAS MAGNETICAS
Es el medio más barato para almacenar grandes cantidades de datos. Las cintas están formadas por una
sustancia plástica recubierta de material imanable, por su aspecto, recuerdan a las empleadas para la
reproducción del sonido. Las cintas magnéticas se basan en los mismos principios que los discos
magnéticos. La lectura y grabación se efectúa haciendo pasar la cinta por unas cabezas
lectoras/grabadoras. Usualmente se lee simultáneamente el contenido de varias pistas requiriéndose un
elemento lector/grabador por pista. Por lo general el conjunto de bits que se leen simultáneamente
corresponde a un carácter con un bit adicional de paridad.
La grabación de una cinta se hace por bloques de caracteres de una longitud preestablecida. En el caso de
las cintas, debido a la inercia, entre dos bloques consecutivos se desperdicia un determinado espacio que
se denomina interbloque. Cada bloque contiene, además de los datos del usuario, líneas adicionales
redundantes para poder detectar automáticamente posibles errores de grabación y secuencias de caracteres
y espacios identificadores de los límites del bloque. Los extremos inicial y final de la cinta contienen unas
marcas metálicas pegadas denominadas BOT (comienzo de la cinta) y EOT (fin de la cinta) para
detección automática del inicio y fin de la cinta.
CD-ROM
La información se almacena en un disco compacto o "compact disc" (CD) en forma digital, de modo
semejante a los de audio. Sobre una capa de plástico se graban, con un haz de láser, los agujeros o marcas
que posteriormente detectará la unidad lectora (los CD creados de forma masiva se hacen a partir de un
molde con los datos de un disco maestro). La lectura se produce, y en su caso grabación, mediante
técnicas ópticas, con un láser de baja potencia, que garantiza que no va a sufrir ningún daño. Gracias a la
28 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
precisión de esta técnica, es posible disponer grandes cantidades de información en un espacio muy
reducido. Cada bit en estos discos de llama pit.
Un inconveniente es que los primeros de estos dispositivos, una vez grabados no podían ser reutilizados
para escribir. Por lo que respecta a los CD-R, así denominados los grabables, se comercializan con precios
muy asequibles, existiendo también regrabables, CD-RW. El fundamento de estos soportes es una
sustancia que cambia de fase al ser irradiada con un laser más potente que el de los lectores de CD
normales, apareciendo entonces para la lectura como si hubiera pits análogamente a los CD generados a
partir de un master. Actualmente en España estos soportes han de incluir un canon para la SGAE, que
incluso en algunos casos supera al valor del soporte en sí.
Existe otro tipo de discos ópticos grabables por el usuario, son los conocidos como WORM, se graban
una vez pero se pueden leer múltiples veces. Una evolución de estos son los
conocidos como discos magnetoóptcos, compatibles con los anteriores pero que
admiten borrar la información lo cual permite la reescritura. Las capacidades son del
orden de gigaoctetos.
Como ejemplo de la complejidad que suponen desde el punto de vista matemático estos sistemas ópticos,
se muestra el sistema de corrección/detección de errores/borrones en un CD. El sistema de
almacenamiento y reproducción del CD fue diseñado, por Philips en junio de 1980.
La señal analógica que transmite el sonido es muestreada 44100 veces por segundo, y a cada muestra, se
le asigna un valor numérico (amplitud de la señal) entre 0 y 216 - 1. Este valor da un vector binario de 16
componentes, que se escribe como dos elementos de GF(28). Teniendo en cuenta que transmitiremos
señal estéreo, cada muestra estará formada por cuatro elementos de GF(28), dos para el canal derecho y
dos para el canal izquierdo. La información es grabada después de haberla codificado concatenando dos
códigos RS.sobre GF(28), con intercalado. La longitud de estos códigos es n =28 - 1 = 255, su dimensión
es k = n - d + 1 = 251 y su distancia mínima es d = 5.
En el canal interno de la concatenación no se usa el código RS(255, d = 5), sino el código recortado hasta
una longitud de n = 28. Por abuso de lenguaje diremos que utilizamos un código RS(28,d = 5), sobre
GF(28). En el canal externo de la concatenación se usa el mismo código RS, recortado hasta longitud n =
32; hablaremos del código RS(32, d = 5).
En el esquema de la figura se recogen los rasgos más característicos del proceso de concatenación.
29 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
La transición entre áreas viene dada por los cambios de intensidad de la luz reflejada por el disco,
proveniente de una fuente láser. Por razones técnicas, en cada área debe haber un mínimo de dos ceros y
un máximo de diez. En principio, los bits que salen de la última matriz de intercalado del diagrama
anterior no cumplen esta propiedad y, por tanto, antes de proceder a la grabación definitiva hay que
arreglar la situación. Esto se consigue con la técnica EFM, que transforma cada símbolo de GF(28) en una
secuencia de 17 bits con las propiedades requeridas. Además, a cada trama de 544 bits se le añaden 27
bits de sincronización y de direccionamiento, que permitirán la búsqueda rápida de la información.
En total, cada seis muestras iniciales (24 elementos de GF(28) = 192 bits) se transforman en 571 bits
grabados en el CD. La tasa de transmisión de la información es de 192/571 aproximada a 1/3. (La tasa de
transmisión de la información, considerando únicamente los códigos, vendría dada por k = (28/32)
(24/28) = 3/4). Cada segundo de música necesita 44100 muestras, y cada una 571/6 bits. En definitiva, 4.2
Mb/s. Cada disco tiene una capacidad de unos 20000 Mb que, traducido a tiempo, representa unos 80
minutos de audición.
Funcionamiento de los dos códigos concatenados. Proceso CIRC (Cross Interleaved Reed-Solomon
Code). El código RS(32,28) tiene una distancia mínima d = 5, puede corregir 2 errores o bien se puede
utilizar para corregir 1 error y detectar 3. En nuestro caso lo utilizaremos para corregir un único error. Si
en el decodificador encontramos un error, lo corregimos. En caso contrario, damos como borrones los 28
símbolos que salen del decodificador y entran en el canal externo.
Además, en el caso de que un vector a decodificar en el código externo tenga más borrones que los que se
pueden corregir, se daría como nulo y, en su lugar, se haría la interpolación de las palabras anterior y
posterior.
VIDEO DISCO VERSATIL (DVD) Es un sistema semajante a los CD-ROM, pero usando láser de
distinta fecuencia, lo cual da lugar a densidades de grabación más elevadas (técnicamente es posible
alcanzar los 50 GO), e incluso por una misma cara se pueden tener tres capas de grabación. Actualmente
hay varias tecnologías de grabación, que como se puede ver en la siguiente tabla son incompatibles entre
sí, siendo un periférico habitual en los ordenadores personales.
1x=1.385 MOctetos/s
Tecnologías de giro: CAV=velocidad angular constante, CLV=velocidad lineal constante
30 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
El año 2006 vio la llegada al mercado de dos tecnologías basadas en el láser violeta de GAn/InGaN,
"Blue-Ray Disc" (BRD) de Sony e "Hight Definition DVD" (HD-DVD) de Toshiba y NEC. Ambos
sistemas de almacenamiento compiten por el mercado de los DVD, que se piensa que en una década ya no
exista, y también se pensaba que competirían entre sí al no ser compatibles, sin embargo en febrero de
2008 Toshiba ha anunciado que deja de fabricar HD-DVD. Hay otra tecnología revolucionaria, la empresa
InPhase Technologies ha comercializado el primer sistema de almacenamiento "Holographic-ROM"
(H-ROM), que funciona con un láser rojo (como los DVD) o con un láser azul. Se logran capacidades de
300 Goctetos (en el futuro 1.6 Teraoctetos) en un disco de 130 mm y con velocidad de transferencia de 20
Moctetos/s. Por lo que respecta a futuros sistemas, es de destacar el desarrollo de científicos de Israel que
usa óptica de dos fotones y como soporte una variación del polimetilmetacrilato, denominada ePMMA. El
sistema se fundamenta en 200 capas separdas 5 micrometros (micras) creadas mediante un láser rojo, y en
lugar de los pits de los CD y DVD actuales, implementa un proceso de absorción no lineal de dos fotones.
Cuando el láser se focaliza sobre una pequeña zona del disco los fotones excitan los cromóforos en las
moléculas de ePMMA, conmutando entre dos estados, la lectura es análoga pero con luz que hace
fluorescentes los cromóforos, siendo la cnatidad de fluorescencia dependiente de si está marcado el punto
como "escrito" o "no escrito". Se espera que se comercialice el año 2010
Hay quienes se muestran pesimistas sobre la posible pérdida de información, por una parte debida a la
baja duración de lso sistemas actuales de almacenamiento y por otra al cambio de stándares y falta futura
de dispositivos de lectura para formatos binarios y soportes de almacenamiento que sean obsoletos. Un
vídeo muestra, de forma pesimista, este posible problema futuro, el documental se denomina La oscura
era digital.
En la informática personal hay una gran oferta y a precios muy dispares, esto se explica por las diferentes
calidades. Las marcas más famosas, por ejemplo, Siemens y Toshiba suelen ser las que ofrecen productos
más costosos, sin embargo si se valora su calidad y seguridad, la relación calidad-precio es muy buena.
Mientras que la mayoría de los denominados clónicos, suelen ser baratos, pero aunque con prestaciones
iguales o superiores a los de las marcas más famosas, el cociente relación-precio es pésimo.
31 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html
Enlaces recomendados:
Las fuentes de alimentación y las directivas comunitarias
La industria de las TIC genera el 2% de las emisiones de CO2
A nivel internacional existen unas normas de homologación de los procesos de fabricación y ensamblaje,
las conocidas normas ISO (de la Organización Internacional de Estándares), las más habituales son las
ISO 9001, ISO 9002 e ISO 14001. El que los ordenadores se fabriquen o ensamblen en instalaciones que
cuenten con algunas de estas homologaciones significan una mayor fiabilidad en los equipos.
Enlaces de interés:
Canadian Centre for Occupational. Canadá
CUErgo. Universidad de Cornell. EE.UU.
Ergonomía en Español. Chile
Ergoprojects. Ergonomía en tú idioma
Nielsen Norman Group
Typing Injury FAQ
Buscar en la web
Búsqueda escéptica
Búsqueda en mis webs
Imprimir
32 de 35 18/04/2008 20:14
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Conceptos generales
Metodologías de programación
Tipos de lenguajes
Selecciona un texto y
pulsa aquí para oírlo
Un ordenador consta de dos partes, una es la parte física, conocida como "hardware" y otra, la lógica
denominada "software". Ambas son imprescindibles para tener un ordenador en funcionamiento.
Respecto a la parte física dentro de esta web está disponible un esquema de sus componentes, en este
capítulo se estudiarán los integrantes del "Software". Así como la parte física es totalmente visible, la
parte lógica es intangible, aunque imprescindible para que un ordenador sea operativo.
El software se divide en dos grandes grupos, uno es el conocido como sistema operativo o sistema de
explotación y otra parte son los denominados lenguajes de programación. Aparte existen infinidad de
aplicaciones de "software" pero ya para casos concretos, como por ejemplo laplicaciones contables,
aplicaciones ofimáticas, paquetes estadísticos o los programas científicos.
Lenguajes de programación hay en gran cantidad, algunos han evolucionado a lo largo del tiempo y son
usados en el transcurso de muchos años, mientras que otros han sido operativos durante un período más o
menos largo y actualmente no se usan. Dada esta gran variedad de lenguajes, aquí no se pretende dar una
visión completa, sino una clasificación en diversos tipos y concretar alguno. Respecto al más
recomendado para el aprendizaje, el Pascal, se le dedica un apartado para quienes estén interesados en
aprender a programar en un lenguaje asequible.
Un lenguaje se dice que es un intérprete, por ejemplo los BASIC primitivos, cuando para ejecutar
un programa el lenguaje ha de leer y traducir al lenguaje específico de la máquina las instrucciones
una por una. Como es lógico el proceso se enlentece, por ejemplo si una operación está dentro de la
estructura conocida como ciclo y este se repite 100 veces, el lenguaje tiene que traducirlo 100 veces
al código de la máquina. No todo son desventajas, pues la parte buena de este tipo de lenguajes es
que los errores se pueden corregir al momento y seguir facilmente la ejecución del programa, por lo
cual son idóneos para aprender a programar, proceso en el que da lo mismo la lentitud.
2 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Por contra un lenguaje se dice que es compilado cuando el programa entero se traduce mediante el
compilador de dicho lenguaje al lenguaje máquina correspondiente y el resultado se almacena de
manera permanente en un archivo. De esta forma el programa se ejecutará de forma mucho más
rápida que con un intérprete, sobre todo si hay estructuras que se repiten, caso de los ciclos. La
principal desventaja es cuando se produce un error, que muchas veces se detecta en el momento de
la ejecución, y la corrección no se puede hacer de inmediato sino que hay que realizar todo el
proceso de compilado desde el principio. Un ejemplo típico de lenguaje de este tipo el C ++,
ampliamente usado en el desarrollo de programas.
Hay un lenguaje difundido en el ámbito de la enseñanza, es el TurboPascal, cuya ventaja es que aunque se
trata de un compilador tiene un entorno de trabajo como si fuera un intérprete y cualquier error se puede
corregir al momento, reanudándose la ejecución del programa de inmediato.
Un ejemplo en la vida real que visualiza la diferencia entre un intérprete y un compilador es el siguiente,
supongamos que tenemos un libro escrito en una lengua distinta al castellano, son posibles dos procesos
de acceder a su contenido cuando se necesite su lectura, una es traducir en el momento de su empleo la
parte del libro que se necesite, pero sin pasarla a papel, sino simplemente mediante lectura traduciendo,
esto sería el proceso de interpretado, mientras que la otra opción sería traducir el libro entero al castellano
y dejar dicha versión escrita sobre papel, esto sería equivalente al compilado.
3 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
El proceso de compilado no es tan inmediato como parece, se describe seguidamente de forma muy
esquematizada:
2. Este programa fuente es invocado por la primera etapa del compilador, que efectúa un análisis
léxico, se puede considerar como una interpretación del programa fuente preparándolo para un
tratamiento posterior con detalle. En esta etapa se ejecutan los tres procesos indicados
seguidamente:
lo pasaría a:
y por tanto:
Durante la compilación se genera gran cantidad de información, que se almacena en una estructura
4 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
de datos conocida como diccionario o tabla de símbolos, en algún momento del proceso se
necesitará la información guardada previamente. La mayor parte es información sobre variables, por
ejemplo para X en el programa anterior, se tendría en el diccionario,
4. El paso siguiente es la generación de código, conocido como objeto Para ello se recorre el código
intermedio generado y se busca cada uno de los "tokens" en el diccionario, lo que permite insertar
las direcciones en el código máquina que se está generando. En el ejemplo que se está estudiando se
tendría:
Línea 200
LOA X N+1 Emplea el registro ínidice como contador
SIG CMP X N Compara con N
BGT FIN Al terminar vete a FIN
Línea 205
CLR A Pone a cero el acumulador
STD A D Y Copia el contenido del acumulador en Y+índice
Línea 210
INC X Incrementa el índice
BRN SIG Continúa el bucle
FIN
6. Normalmente hay una etapa posterior conocida como "linkado " en la que el o los módulos
objetos generados previamente se unen entre sí y/o con otros módulos disponibles en librerías, para
formar un fichero que contiene un programa ejecutable directamente desde el sistema operativo, sin
necesidad de disponer del compilador correspondiente. Incluso se pueden unir programas escritos
en lenguajes distintos si los módulos objeto creado se han estructurado de forma adecuada. En
cualquier fase del proceso pueden detectarse errores que se podrán de manifiesto, implicando el
volver hasta el programa fuente, efectuar las correcciones pertinentes y repetir todo el proceso, lo
cual suele ser algo laborioso.
Actualmente se están produciendo cambios de gran alcance en la forma en que se desarrolla el "software"
para los equipos informáticos. Entre las causas de estos cambios se incluyen las siguientes:
5 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Estas y otras presiones están provocando una reorganización de los métodos empleados en el desarrollo
de los programas para los ordenadores. Lo que se necesita son técnicas para la elaboración de productos
software muy largos y complejos, que satisfagan estándares muy estrictos de calidad y prestaciones, de
acuerdo con una planificación, control y presupuestos adecuados.
Los métodos de trabajo que se han desarrollado para responder a estas necesidades constituyen lo que se
ha dado en llamar "Ingeniería del Software". La Ingeniería del Software es una tarea de equipo, al
comenzar un proyecto de desarrollo, se constituyen una serie de equipos con una estructura paralela a la
del programa en sí. Se establece un calendario para el proyecto y se asignan costes a cada una de las partes
y etapas del proyecto. Cada equipo tiene un responsable, cuya tarea es la de comprobar que la
programación desarrollada por el equipo sea correcta, está estructurado con propiedad, dispone de las
interfaces para conectar con los programas desarrolladas por otros equipos y se desarrolla de acuerdo a las
previsiones de tiempo y coste.
La Ingeniería del Software se ocupa del ciclo de vida completo de un producto software, diseño,
desarrollo, uso y mantenimiento. El trabajo se hace buscando el mayor grado posible de estandarización y
los menores costes durante la totalidad del ciclo de vida de los programas. La Ingeniería del Software
implica que un programa bien estructurado satisfaga las siguientes condiciones:
El programa ha de tener una estructura general en forma de módulos, que a su vez estarán formados
por procedimientos o segmentos.
Debe existir un interfaz claramente definido entre los diversos módulos
Cada módulo debe de ser una combinación sencilla de construcciones elementales de un lenguaje
de programación
Debe existir una fuerte correspondencia entre la estructura de los módulos y la de los datos sobre
los que operan
Cada módulo debe dejar las estructuras de datos sobre las que opera en un estado consistente con su
definición
Un módulo no debe tener efectos secundarios
Por lo que respecta a las técnicas de diseño de programas, el método más simple y uno de los más
populares es el conocido como de "Refinamiento Progresivo". Se fundamenta en el uso de algoritmos
que se escriben en un lenguaje intermedio entre el castellano y un lenguaje de programación como el
Pascal, este lenguaje se denomina seudocódigo. El proceso se puede describir en términos de un lenguaje
de esta naturaleza:
Establecer todos los pasos del programa en un algoritmo breve de alto nivel
Repetir:
Expandir cada sentencia del algoritmo en detalle, especificando los pasos necesarios
Hasta que las tareas hayan sido especificadas con el detalle suficiente como para que pueda
generarse el código del programa.
Existen otras metodologías más depuradas como por ejemplo la conocida como "Descomposición
Funcional". A diferencia de la anterior en cada etapa se especifican las propiedades esenciales de las
estructuras de datos, y cada algoritmo se expresa como una función matemática que transforma esta
estructura de datos.
6 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Se están empezando a utilizar técnicas para asegurar que los módulos (y los algoritmos) son correctos,
que los consideran como teoremas matemáticos y entonces se emplean los mismos métodos que se
utilizan para demostrar los teoremas. Esta tarea es muy compleja y no siempre aplicable.
Dentro de los de estos grupos está el lenguaje máquina, que es programar en el ámbito de la CPU, por lo
tanto usando ceros y unos, lenguaje muy dificil y propenso a errores. El otro más conocido dentro de esta
categoría es el Ensamblador, que utiliza mnemónicos a escala sencilla, y por lo tanto evita las secuencias
de ceros y unos. Aún así es bastante complicado y no es recomendable para usuarios sin amplios
conocimientos. En conclusión, un lenguaje de bajo nivel está orientado hacia la resolución de una
determinada máquina o clases de máquinas.
A diferencia de los del grupo anterior, un lenguaje de alto nivel es independiente del microprocesador del
ordenador que lo soporta, así por ejemplo un programa escrito en lenguaje C, se puede compilar sin
modificar para cualquier máquina, y en principio funcionará sin ningún problema.
Esto implica dos ventajas principales, una es que la persona que desarrolla los programas no ha de saber
nada acerca del ordenador en que se ejecutará el programa, la otra es que los programas son portables, es
decir el mismo programa (en teoría) ha de funcionar sobre distintos tipos de ordenadores.
El desarrollo de los lenguajes de alto nivel comenzó a mediados de los años cincuenta del siglo pasado, en
esta época se crearon los lenguajes COBOL, FORTRAN Y ALGOL60. Posteriormente se han ido
originándose otros muchos, de hecho varios miles, aunque sobreviven muy pocos.
JAVA
BASIC
FORTRAN
MODULA 2
Pascal
ADA
C
C ++
LOGO
LISP
PROLOG
Smalltalk
7 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
En conclusión un lenguaje de alto nivel está orientado hacia la resolución de una determinada clase de
problemas.
Otra forma de clasificar los lenguajes es en dos grandes grupos, declarativos e imperativos. Los
imperativos establecen cómo debe ejecutarse una tarea partiéndola en procedimientos que especifican
cada una de las tareas. Por el contrario los declarativos establecen estructuras de datos y las relaciones
entre ellos que son significativas para ejecutar una tarea determinada, al tiempo que indican cual es el
objetivo de dicha tarea. Un lenguaje típico de este grupo es el Prolog.
Enlace recomendado:
Curso de Pascal. Centro de Cálculo, Universidad de Zaragoza (PDF)
- Definiciones de tipos
- Definiciones de constantes
- Declaraciones de variables
- Declaraciones de etiquetas
- Definiciones de subprogramas
La cabecera
8 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Definiciones y declaraciones
Tipos
En Pascal además de dar identificadores para las variables se debe de
indicar el tipo de los datos que se usará para esa variable. El tipo de
un dato tiene dos propósitos, una asignar cuánta memoria se va a
asignar a un dato de tipo particular. El otro es prevenir un mal
emparejamiento de tipos.
Constantes
Se usan para asociar un valor fijo a un identificador. Este puede estar
definido por el usuario o puede ser literal que describe un valor. Por
otra parte las constantes definidas por el usuario, llamadas constantes
con nombre deben definirse en la parte de definición de constante,
como por ejemplo, const PUERTO = 98. Cons es la palabra reservada
correspondiente. A su vez la constante se puede definir con tipo, como
por ejemplo, Const PUERTO: Integer 98;
Variables
Cuando se declara una variable, se le asigna memoria,
suministrándole un lugar para poner un tipo de dato. Una declaración
también suministra un nombre para ese lugar. La palabra clave es Var,
pudiendo aparecer a continuación uno o más identificadores de
9 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
variables, separados por comas y los tipos se separan con dos puntos
(:), a continuación se muestran ejemplos,
Var tipo_interes
cant_nominal
principal : Real;
año : Integer;
mes : Byte;
inchr : Char;
salida : Boolean;
Var tipo_interes, cant_nomina, principal: Real;
Const TEXTO="T";
MAYUSCULA="U";
peso : Byte = 80;
tipo_entrada : Char = MAYUSCULA;
Operadores
Gran parte de la manipulación de datos en un programa se ejecuta
mediante operadores. Los operadores se clasifican en tres categorías,
aritméticos, lógicos y relacionales.
1 - (menos unario)
2 not
3 *, /,div,mod,and,shl,shr
4 *,-,or,xor
5 =,<,<,,<=,=,in
Sentencias
La parte de sentencias es en donde se define la lógica de un
programa, es donde se manipulan los datos para obtener el resultado
deseado por el usuario del programa. Las sentencias se pueden
clasificar en los tipos:
Sentencias de asignación
Sentencias compuestas
Sentencias de control de la lógica
10 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
salida:=FALSE
interes:=10
pago:=principal/periodo
While condicion Do
Begin
sentencia 1
sentencia 2
......
End;
Repeat
sentencia 1
sentencia 2
......
Until condicion
11 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Case selector Of
Constante1 : sentencia1;
Constante2 : sentencia2;
Constanten : sentencian;
Else
sentencia;
Subprogramas en Pascal
Procedimientos
Los procedimientos comienzan por la palabra reservada Procedure
seguida de un identificador y un punto y coma. Después de la
cabecera viene la parte de declaración. Al ejecutar un procedimiento
se crean en memoria las constantes y variables de la parte de
declaración, pero después de que se haya terminado el procedimiento
desaparecen, lo cual supone un ahorro de memoria.
12 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
Var i:Integer;
Begin
For i:=1 to conta Do
Write(caracter);
End;
Repite ("A",80)
caracter:="A"; conta:=80;
Repite(LowerCase(caracter),conta);
a) Por valor
Procedure incrementa(mas_uno:Integer)
Begin
mas_uno:=mas_uno+1;
WriteLn(mas_uno);
End;
avance:=1;
incrementa(avance);
WriteLn(avance)
la salida sería de 2 y 1.
13 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
b) Por referencia
Begin
mas_uno:=mas_uno+1;
WriteLn(mas_uno);
End;
avance:=1;
incrementa(avance);
WriteLn(avance)
la salida sería de 2 y 2.
Funciones
La diferencia entre un procedimiento y una función es que el
identificador de una función asume un valor cuando la función ha
terminado y devuelve este valor a la rutina que la llamó en sustitución
del nombre de la función. En un sentido amplio el nombre de la
función es también una variable. Todo lo indicado previamente
respecto a la definición de los procedimientos se aplica a las funciones.
La palabra clave es Function. A continuación se indica un ejemplo de
función que convierte un parámetro de tipo Char a letra minúscula, si
dicho parámetro está en el rango de la A a la Z.,
Function miniscula(caracter:Char);Char
Begin
If caracter in "A".."Z" Then
minuscula:=Char(Ord(caracter)+32)
Else
minuscula:=caracter;
End;
Otras posibilidades
14 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html
15 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Selecciona un texto y
pulsa aquí para oírlo
En este capítulo se describe aquella parte del "software" de un ordenador que transforma el "hardware" en
algo útil: el sistema operativo. Para los fines de este capítulo es importante considerar un ordenador como
un conjunto de recursos, de tipo físico, lógico o una mezcla de ambos. Tomados como un todo estos
recursos proporcionan facilidades para el tratamiento y la entrada/salida de datos, así como para otros
aspectos del funcionamiento de un ordenador.
Para comprender qué es un sistema operativo, es necesario entender cómo han sido desarrollados, en este
apartado se esboza el desarrollo de los sistemas operativos desde los primeros hasta los actuales
multiprogramados y de tiempo compartido. A medida que nos adentremos en las distintas etapas, veremos
que los componentes de los sistemas operativos evolucionaron como soluciones naturales a los problemas
de los primeros sistemas informáticos.
Inicialmente lo único que existía era el "hardware" del ordenador. Los primeros ordenadores eran
máquinas muy grandes que ejecutaban su trabajo desde lo programado en una consola. El usuario escribía
el programa y lo ejecutaba directamente desde la consola del operador, se debía de cargar manualmente en
la memoria, bien fuera desde los conmutadores del panel frontal, desde cinta de papel o mediante tarjetas
perforadas. Seguidamente se pulsaban los interruptores adecuados para cargar la dirección de inicio y para
comenzar la ejecución del programa. Se supervisaba la ejecución por medio de los indicadores luminosos
de la consola, si aparecía algún error se podía detener la ejecución, examinar el contenido de la memoria y
de los registros y depurar el programa desde la consola. La salida generada se imprimía, o bien se
almacenaba en cinta de papel o tarjetas perforadas para su procesado posterior.
Con el tiempo se perfeccionaron tanto el "hardware" como el "software", aparecieron los lectores de
tarjeta muy rápidos, impresoras de línea de elevadas prestaciones en cuanto a velocidad y cintas
magnéticas. Se diseñaron programas ensambladores, cargadores y enlazadores para facilitar la tarea de
programación.
Más tarde aparecieron compiladores para los lenguajes FORTRAN y COBOL, haciendo más sencillo el
manejo del ordenador por parte del usuario, pero más compleja su forma de operar. Por ejemplo para
trabajar con un programa en FORTRAN, el programador había de cargar primero en la máquina el
compilador FORTRAN, que estaba normalmente en una cinta magnética que se tenía que montar en un
lector de cinta. El programa se leía a partir de tarjetas perforadas. A continuación de la compilación se
2 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
generaba una salida en ensamblador que para ensamblarse requería la carga desde otra cinta del lenguaje
ensamblador. A su vez el código generado era frecuente que se tuviera que enlazar con otro existente en
librerías. Finalmente el programa en binario, quedaba listo para su ejecución y podía cargarse en memoria
y si fuera necesario proceder a su depuración. Como se puede deducir, la ejecución de un programa podía
implicar previamente un tiempo de preparación considerable. Además si se producía un error en cualquier
paso lo más probable era que habría que comenzar desde el principio.
MONITOR SIMPLE
Durante el tiempo de montaje de las cintas o mientras se operaba en la consola, la CPU del ordenador
permanecía inactiva. Además los ordenadores eran muy caros, como ejemplo si se considera un IBM
7094, que costaba dos millones de dólares y su esperanza de vida era de cinco años, el coste del
inmovilizado era de 45.66 dólares por hora, trabajando 24 horas al día y 365 días al año. Además se han
de considerar los costes de funcionamiento por energía, refrigeración, papel, programadores, etc. Todo
ello en una época en la que el salario mínimo era de un dólar por hora. Está claro que el tiempo de
ordenador era muy valioso, y los propietarios deseaban sacarle el máximo rendimiento. Para rentabilizar
su inversión debían maximizar la cuota de uso.
Pero aún había problemas, por ejemplo si un trabajo se detenía, los operadores tenían que darse cuenta
observando la consola, determinar por qué se había detenido la ejecución y obrar en consecuencia según
el problema planteado. Durante este proceso la CPU volvía a estar inactiva. Para solventar esta
inactividad se introdujo el secuenciamiento automático de trabajos y con él se crearon los primeros y
rudimentarios sistemas operativos. Fueron los programas residentes denominados monitores residentes,
que secuenciaban automáticamente todos los programas que se ejecutaban en el ordenador. Para facilitar
la secuenciación sin necesidad de la intervención de un operador se introdujeron las tarjetas de control,
cuya idea es muy simple, además del programa o datos de un trabajo, se incluyen tarjetas especiales que
son directivas para el monitor residente, indicándole qué programa tiene que ejecutar. Por ejemplo para
indicar que un programa está en FORTRAN, se acostumbraba a poner una tarjeta de control con el texto
$FTN, y para terminar un trabajo se pondría otra con $END. Los sistemas así configurados son conocidos
como batch o procesos por lotes.
PRESTACIONES
Los ordenadores, en especial los grandes, han sido máquinas muy caras, por lo que es lógico obtener las
máximas prestaciones posibles. Los procesos por lotes mejoraron las prestaciones, sin embargo aunque el
trabajo realizado por los operadores se redujo, había una parte del proceso que era muy lenta en
comparación con la velocidad de la CPU, este problema era originado por los sistemas de entradas y
salidas, siendo el caso más representativo el acceso a las cintas magnéticas, pues al ser dispositivos
mecánicos la velocidad es muy baja comparada con los procesos electrónicos. Por ejemplo al trabajar para
la ejecución de un programa, que como es lógico se cargaba desde cinta, se tenía la CPU inactiva el 93%
del tiempo que duraba todo el proceso.
3 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
OPERACIONES "OFF-LINE"
Con el tiempo se crearon dispositivos de entrada/salida más rápidos, pero las velocidades de las CPU's
crecieron aún a un ritmo mayor, por lo que el problema aumentó. Una solución fue la de reemplazar las
lentas lectoras de tarjetas e impresoras de líneas, por unidades de cinta magnética. La mayoría de los
sistemas de los años 1950 y 1960 trabajaban por lotes, que leían de tarjetas y escribían en impresoras. Sin
embargo en lugar de hacer que la CPU leyera directamente tarjetas, estas se copiaban previamente en una
cinta magnética, y cuando estaba llena se llevaba al ordenador. Si un programa necesitaba una entrada de
una tarjeta, se leía de la cinta, análogamente las salidas se llevaban a cintas y se imprimían
posteriormente.
Se desarrollaron dispositivos especializados con salida o entrada directa a cinta magnética. Incluso se
llegaron a crear pequeños ordenadores para realizar dichas funciones, que eran satélites del equipo
principal.
Otra solución a la lentitud de los procesos de entrada/salida fue el denominado "buffering". Este sistema
trata de mantener continuamente ocupados tanto a la CPU como a los dispositivos de E/S. La idea es muy
sencilla, una vez que se han leído los datos y que la CPU va a operar con ellos, el dispositivo de entrada
ejecuta inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanece ocupado. Con
suerte, cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá acabado
de leerlos. La CPU podrá iniciar el proceso de los últimos datos leídos, mientras que el dispositivo de
entrada iniciará la lectura de los datos que siguen. Para la salida se puede realizar un proceso análogo. (La
palabra buffer, en castellano se puede traducir como tampón).
Al introducirse como sistemas de almacenamiento los basados en disco, el sistema off-line se fue
eliminando progresivamente, y se introdujo el sistema conocido como "spooling" (Simultaneous
Operation On-Line), que consiste en usar el disco como tampón, cuya principal ventaja es que solapa la
entrada/salida de un proceso con la computación de otros.
MULTIPROGRAMACIÓN
Esta idea es bastante frecuente en otras situaciones, un abogado no tiene un solo cliente en un cierto
momento, por el contrario, varios clientes pueden estar en situación de recibir atención al mismo tiempo.
Mientras un caso espera para ir a juicio, el abogado puede trabajar en otro caso. Con un número suficiente
de clientes un abogado nunca estará ocioso (Los abogados ociosos tienden a convertirse en políticos del
PP, por lo que hay interés social en mantenerlos ocupados).
4 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Los sistemas operativos multiprogramados son bastante sofisticados. Tener varios trabajos dispuestos
para su ejecución, supone mantenerlos simultáneamente en memoria, y tener varios programas en
memoria al mismo tiempo requiere una gestión de la memoria. Además, si hay varios trabajos dispuestos
para ejecución, hay que tomar alguna decisión para elegir entre ellos, mediante una planificación
adecuada de la CPU. La multiprogramación es el tema central de los sistemas operativos modernos.
Gestión de la memoria
La memoria total del ordenador se ha de compartir de forma adecuada entre todos los
programas y datos que en cierto momento tenga cada usuario del equipo.
Planificación de la CPU
Entre todas las tareas demandadas por los usuarios es posible establecer preferencias, lo cual
implica que la CPU se planifique dando más tiempo a algunos trabajos o a los usuarios en
función de unos niveles de privilegios establecidos.
Control de concurrencia.
El sistema operativo ha de gestionar adecuadamente todos los recursos del ordenador y
ordenar la concurrencia de demandas de una forma adecuada. Por ejemplo si varios usuarios
solicitan al mismo tiempo el acceso a un disco, se habrá de gestionar de forma correcta esta
concurrencia para evitar bloqueos o situaciones impredecibles.
Protección
En un sistema donde acceden muchos usuarios es lógico que exista un sistema de protección
que permita asegurar que a los trabajos de uno no pueden acceder los otros usuarios, ya sea
por motivos de seguridad (por ejemplo para evitar pérdidas de información) o de
confidencialidad.
Abrazo mortal
Es un problema que no se plantea solamente en un entorno de sistemas operativos, sino que
puede aparecer en la vida real. Por ejemplo si dos personas han de cruzar un río, saltando
entre piedras puestas en él, y con la condición de apoyar un solo pie, se llega al abrazo mortal
cuando dos personas empiezan a cruzar desde orillas opuestas y se encuentran en el medio,
llega este momento cuando los dos intentan pisar la misma piedra. En general esta situación
se produce cuando un sistema consta de un número finito de recursos para distribuir entre un
número dado de procesos en competencia.
TIEMPO COMPARTIDO
5 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Cuando se desarrollaron los sistemas por lotes estos se definían por la agrupación de trabajos similares,
que sólo permitían el acceso secuencial a la información. Al disponerse de discos, se hizo posible el
acceso inmediato a todas las aplicaciones.
Un sistema por lotes tiene algunos inconvenientes, para el usuario, el principal es que los usuarios no
pueden interactuar con sus trabajos mientras se están ejecutando, lo cual crea problemas caso de necesitar
depurar un programa. Como consecuencia posteriormente a estos sistemas aparecieron los conocidos
como interactivos o "hands-on", en los que el usuario da y recibe las instrucciones de forma inmediata. En
consecuencia se puede experimentar fácilmente con cualquier programa.
TIEMPO REAL
Otro tipo de sistemas son los conocidos como en tiempo real, que se utilizan frecuentemente como
dispositivos de control en aplicaciones especializadas. Por ejemplo unos sensores proporcionan datos al
ordenador, que los analiza y en consecuencia ajusta unos controles para modificar las entradas al sensor.
Casos de este tipo se dan en aplicaciones científicas, médicas e industriales.
Un caso típico de equipo que funciona bajo tiempo real, es un "controlador miniatura", que consiste en un
pequeño ordenador, diseñado en una placa de circuito impreso, que se embebe en una máquina o
cualquier otro dispositivo, con finalidad de control. Estos dispositivos se usan en maquinaria de
fabricación, comprobación de equipamientos, telecomunicaciones, sistemas de control y seguridad,
ventilación y aire acondicionado, monitorización del medio ambiente e investigación científica. Algunos
ejemplos reales se citan seguidamente:
Hornos
Control de señales de tráfico
Control de satélites
Equipos musicales
Verificación de componentes de automoción
Control de riego agrícola
Comparado con un PC, un ordenador de este tipo es menor, gasta menos energía y disipa menos calor. La
6 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
8.2 Clasificación
Hardware
Sistema operativo o de explotación
Programas de aplicación
Usuarios
El hardware facilita los recursos básicos de computación, mientras que los programas de aplicación
definen cómo hay que utilizar estos recursos para resolver los problemas de los usuarios. Puede haber
muchos usuarios diferentes tratando de resolver problemas distintos. Consecuentemente es habitual la
existencia de distintos programas de aplicación. El sistema operativo controla y coordina el uso del
hardware por parte de los distintos programas de aplicación de los diversos usuarios.
Un sistema operativo es similar a un gobierno. Los recursos básicos de un sistema informáticos son el
hardware, el software, los datos y por supuesto los usuarios. El sistema operativo facilita los medios para
el uso adecuado de estos recursos durante la operación del sistema informático, al igual que un gobierno,
el sistema operativo no realiza por sí mismo una función útil, simplemente crea el entorno en el que otros
programas puedan hacer un trabajo.
7 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
En general no existe una definición completamente adecuada de un sistema operativo. Existen por que
son una vía razonable para resolver el problema de crear un sistema informático manejable. En general es
más fácil definir los sistemas operativos por lo que hacen mas que por lo que son.
Interactivos monousuarios
Permiten que el usuario del equipo pueda interaccionar en cualquier momento con el proceso que
esté ejecutando. Sólo permiten que trabaje un usuario en un momento dado.
Tiempo compartido
Permiten el acceso al ordenador a un número variable de usuarios de forma concurrente, y dada la
gran velocidad del ordenador, es como si estuviera trabajando simultáneamente para todos ellos.
Tiempo real
Se utilizan ampliamente en aplicaciones industriales y de control. El sistema responde de forma
inmediata a entradas del exterior.
En el inicio de la informática cada fabricante tenía sus propios sistemas operativos que no eran
compatibles con los de otros, incluso dentro de un mismo fabricante podían coexistir varios, caso típico
de IBM. Estos se conocen como sistemas propietarios.
La tendencia actual es hacia los llamados sistemas abiertos, lo cual indica que estos sistemas operativos
trabajan sobre una gran variedad de máquinas con independencia del fabricante del equipo. La gran
ventaja es el ahorro a todos los niveles, pues por ejemplo una empresa con ordenadores de distintos
fabricantes puede tener totalmente uniformado todo su software.
A continuación se comentan los sistemas operativos más difundidose en los últimos 25 años.
MS-DOS
Fue un sistema operativo adaptado por Microsoft para IBM (PC-DOS), y en concreto para el modelo PC,
aunque se popularizó rápidamente siendo el más usado a nivel personal. Fue desarrollado en el año 1979
por Tim Paterson que trabajaba en Seatle Computer Products, y adquirido por Microsoft Corporation. En
la bitácora Pmurillo se puede ver la historia de la elección de IBM para su nuevo ordenador personal.
El espíritu del MS-DOS fue el de proporcionar una base flexible para el software de un microordenador.
Tiene un núcleo con un conjunto de comandos residentes y una capa con comandos transitorios que se
cargan en memoria cuando se necesita su ejecución para a continuación abandonarla.
Dado que el entorno es poco amigable se crearon añadidos que proporcionan un ambiente de trabajo más
fácil, el que ha tenido más éxito es WINDOWS (no estrictamente por razones de calidad), que ofrece un
entorno gráfico de ventanas y sencillez de manejo mediante un ratón, basado en desarrollos de la empresa
XEROX.
La principal desventaja de MS-DOS es que es monousuario y monotarea, es decir que sólo puede trabajar
8 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
un usuario (no admite terminales) y que a su vez este sólo puede ejecutar un programa al mismo tiempo,
aunque este último problema se resuelve con el entorno Windows. Actualmente ha quedado obsoleto,
aunque se comercializa en algunos países de Asia, pues a partir del Windows XP ya son en sí sistemas
operativos completos (aunque siguen siendo muy deficientes) y no necesitan para funcionar el MS-DOS.
UNIX
UNIX fue diseñado en los laboratorios Bell de la empresa AT&T, para su empleo en ordenadores marca
Digital. Dadas sus características pronto se difundió ampliamente en ambientes universitarios, por lo que
en el prrincipio se consideró como un sistema operativo orientado hacia ambientes de investigación y no
en aplicaciones de gestión. Actualmente está muy difundido en todo tipo de equipos aunque se ha perdido
la estandarización habiendo muchas versiones diferentes poco compatibles entre si. Otra versión es el
Solaris de la empresa SUN. Una ventaja sobre otros sistemas operativos es que este sistema es
multiusuario, por lo que un equipo admite gran cantidad de terminales trabajando simultáneamente,
además de la robustez y seguridad.
LINUX
Linux es básicamente un sistema operativo compatible con UNIX, que opera bajo equipos compatibles
con el estándar del mercado y grandes sistemas informáticos. Su ventaja principal es que su costo es
prácticamente nulo, y es "software" libre, que significa que lo podemos dsitribuir y modificar libremente,
según la licencia GNU.
EL núcleo fue escrito por Linus Torvalds (1969-), como un sistema operativo abierto y
estandar, siendo desarrollado y ampliado posteriormente por muchos programadores, de
forma independiente. El código fuente, gestores de dispositivos y utilidades están disponibles
gratuitamente.
Actualmente supone una gran competencia para Windows, más que para UNIX, de hecho en el futuro
puede desbancarlo, no sólo por ser gratis y disponer de los fuentes, sino por superioridad y más seguridad.
Un grupo de profesores de la Universidad de Murcia, está desarrollando una versión para la enseñanza,
denominada CALDUM.
Como ejemplo de la gran difusión del Linux, se tiene el caso de IBM que junto con Citizen han creado un
reloj con este sistema operativo y masa inferior a 250 gramos. Comercialmente se conoce como
WatchPad, e incluye tecnología de voz y conectividad por infrarrojos. Para interactuar con él es mediante
una pantalla táctil de cristal líquido QVGA. También se ha incorporado a los teléfonos móviles como por
ejemplo el proyecto Android de Google, para dotar a los móviles celulares de un sistema operativo libre y
gratuito, a direnecia de otros que se usan actualmente como Symbian y Windows Mobile.
Como ejemplo de la difusión que está tomando Linux, en la siguiente tabla se muestran los sistemas
operativos que gestionan las 500 computadoras más potentes a nivel mundial (datos año 2007)l.
9 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
En la tabla (fuente: blog de Javier Smaldone, bajo licencia Creative Commons) podemos ver las 20
primeras entradas de la lista, con el añadido del primer sistema no-Unix, que aparece en la posición 130
(es un sistema Windows). Podemos ver que 16 de las primeras 20 computadoras corren Linux, lo que
representa un 80%.
Este sistema operativo, que nació en 1991, se enfrenta a Windows con una filosofía de
código abierto y uso libre
Cuando Linus Torvalds, el estudiante finlandés que creó Linux publicó su autobiografía
la tituló Just for fun. Algo así como Sólo como diversión. Y el subtítulo todavía era más
claro: La historia de un revolucionario accidental. Es decir, la contundente emergencia de
Linux en el mercado de los sistemas operativos, con una filosofía que contradice a la de
Microsoft y le planta cara, no estaba en los planes de aquel chico que lanzó en 1991 lo
que sería Linux, un sistema operativo de código abierto, que permite conocer sus tripas
técnicas y modificarlo.
10 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
..... Doce años más tarde, sin embargo, grandes empresas como IBM, HP o Oracle
anuncian productos con Linux y el diario Wall Street Journal lo incluye como una de las
diez tecnologías que "usted debe conocer". Como teorizan en el diario, "Linux podía
haberse quedado como una herramienta para rebeldes del software", pero es una
"revolución del código abierto que sacude el mercado".
En 1991, Torvalds; empieza en los foros de Internet a dar noticias sobre lo que está
haciendo y pide ayuda-"Hola ( ... ). Estoy trabajando en un libre sistema operativo (un
hobby, que no será grande y profesional como gnu)". Miles de programadores
participaron y participan sin cobrar en el desarrollo de este programa.
Unix reinaba en la informática corporativa. Apple tenía una robusta herramienta, pero
sólo trabajaba sobre máquinas de su marea. Las escuelas de negocios todavía discuten
hoy el impacto que tuvo para Apple retener su sistema operativo vinculándolo a su
máquina en un binomio cerrado.
Apple se ha quedado con una modesta cuota de mercado de usuarios, eso sí, entusiastas.
IBM abrió su arquitectura a otros fabricantes de ordenadores y desató su propia
competencia. Mientras, Bill Gates había comprado por 50.000 dóla-res el esqueleto de un
sistema operativo, DOS, y reinaba en el universo del PC personal. Menos amiga-ble que
el sistema operativo de Apple, tenía la ventaja de que funcionaba sobre ordenadores
compatibles con el diseño de IBM. Luego vendría Windows.
Cuando Torvalds escribe que está trabajando sobre un sistema operativo libre (free) se
está apuntando a un movimiento lanzado en 1983 por Richard Stallman conocido como
Proyecto GNU. La idea era que el software debia ser abierto y gratuito licencia GPL).
Esta licencia permite usar el programa sin restricciones, redistribuirlo sin limitaciones,
modificarlo y distribuir las modificaciones. Con Microsoft o cualquier programa bajo
licencia propietaria, los clientes adquieren la licencia al usar un programa, pero tienen
vetado escudriñar su panza, la arquitectura de su código, y, obviamente su redistribución.
Linux sigue bajo la licencia GPL con que nació.
En 1995 se fundan compañías, como Red Hat, que comercian con Linux. La pregunta
irremediable es: ¿cómo alguien piensa hacer negocio con un programa con licencia
gratuita? Estas empresas pueden comercializar la edición de] programa en un CD con
manual de instrucciones o la instalación y mantenimiento del mismo a un cliente. Red
Hat, por ejemplo, obtiene ingresos también con cursos de Linux que certifican al alumno
como conocedor del sistema. Cada vez más empresas desarrollan sobre Linux ejecutables
de los que son propietarios.
Ahora, Linux es una palabra que preocupa a Microsoft porque gana adeptos más allá de
comunidades ilustradas. Sus mejores propagandistas son las corporaciones que lo
adoptan y las empresas informáticas que lo ofertan. Tras abrirse a Linux el mundo
empresarial, ahora empieza su penetración en el mundo doméstico, temeroso de su
esoterismo. Un obstáculo era su fama de antipático en el manejo. ¿Un juguete para chicos
listos? Linux inicialmente obligaba a dar órdenes escritas a la máquina. Posteriormente
aparecieron interfaces más convivenciales para usuarios acostumbrados a la rutina de las
ventanas (windows).
11 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Otro factor que ayuda a esta popularización son las políticas de algunas administraciones
en favor del software libre. Desde Brasil a Alemania, pasando por el Gobierno extremeño
o el PP valenciano, se han pronunciado en favor del software libre. Argumentos: las
administraciones no tienen por qué pagar para conseguir algo que es gratuito y, no es
lógico usar una herramienta tan crítica cuvo secreto está en otras manos. Microsoft, que
había desdeñado la emergencia de Linux reacciona. En un informe a la autoridad bursátil
norteamericana de diciembre de 2002, la propia compañía escribe: la popularización del
movimiento del código abierto supone "una significativa amenaza al modelo de negocio
de la compañía, incluyen~ do los esfuerzos de sus defensores para convencer a los
gobiernos que opten por el código abierto". Microsoft advierte que si esta opción gana
adeptos, Ias ventas de la compañía pueden bajar, tendrá que reducir los precios que carga
sobre sus productos y, los ingresos y márgenes pueden declinar".
Microsoft ha replicado con su política de código compartido por la que, a las agencias de
seguridad de determinados países y tras suscribir un acuerdo bilateral, les abre el código
de Windows. Microsoft predica que los gobiernos han de ser neutrales frente al dilema de
licencia propietaria o libre y tomar sus decisiones sólo en función del rendimiento de los
programas.
Microsoft se apoya en una consultoría externa para argumentar que Linux es gratis, de
entrada, pero resulta más caro a la larga por costes de mantenimiento e ineficiencias. Lo
cierto es que aquella inocente diversión de un estudiante preocupa a una compañía que ha
instalado Windows en el 95% de los PC.
Medio centenar de empresas españolas viven del software libre, con unas ventas medias
de 450000 euros, no somos un puñado de voluntarios sin sueldo. Y si no que se lo
pregunten a las personas que trabajan desarrollando software libre en HP, IBM, Sun
Microsystems, Wall Street o en universidades de prestigio de todo el mundo. Todos están
pagados, espeta Juan Tomás García, presidente de la asociación española de usuarios y
desarrolladores de software libre Hispalinux. Esta declaración defensiva se produce unos
días después de que Steve Ballmer, presidente de Microsoft, visitara España con motivo
del lanzamiento en nuestro país de Windows Server 2003. La mano derecha de Bill Gates
advirtió ante un foro repleto de directivos del error que supone introducir aplicaciones de
código abierto en las empresas: 'Al ser un grupo de desarrolladores que trabaja gratis, su
actividad se convierte en algo muy impredecible'. Y añadió que el avance de Linux 'no
genera ni puestos de trabajo ni inversiones en I+D'.
Estas duras críticas chocan, en cambio, con la preocupación que parece vivirse en el seno
de la compañía de Redmond. Hace tres días, el diario International Herald Tribune
publicaba el contenido de un correo interno del director ejecutivo de ventas de Microsoft,
Orlando Ayala, en el que apostaba por una guerra de precios, al autorizar a sus directivos
12 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
a hacer fuertes recortes en los mismos: 'Bajo ninguna circunstancia debemos perder
frente a Linux', arengaba en el e-mail Tras la conocida decisión de divulgar el código
fuente de Windows y donar importantes sumas de dinero a la comunidad educativa, la
nueva política de Microsoft parece incluir importantes descuentos, que estarían
respaldados por un fondo especial de nueva creación.
'Los nervios de Ballmer no son para nosotros sino la mejor de las señales, la que nos
indica que vamos por el buen camino, que estamos consiguiendo resultados, que estamos
venciendo', asegura Javier Cuchí, representante de Hispalinux. Cuando este experto habla
en plural se refiere a todo un colectivo de desarrolladores y de empresas cuyo negocio
gira en parte o totalmente alrededor del software libre. 'No es cierto que estas
herramientas no generen una industria. Otra cosa es que aún sea incipiente', dice Jesús
González Barahona, profesor del área de telemática de la Universidad Juan Carlos I. Y es
que no es lo mismo software libre que gratuito.
El empuje de pymes como Ándago, Disoft, Igalia, Internet Web Serveis o Yaco
Ingeniería, por citar algunos ejemplos, empieza a consolidar una red de entidades que
fomenta el software no propietario en España. De hecho, a la vuelta de un mes, una
veintena de ellas presentará la Asociación de Empresas de Software Libre (Aesli). 'El
objetivo es fomentar la idea de que detrás de Linux hay iniciativas empresariales',
comenta una de las promotoras, Alicia Zurita. Ella, junto a David Aycart, fundó Esware
en 1999. La compañía, con 24 empleados, enfoca su actividad hacia la venta de software,
formación y consultoría. 'La situación que describe Ballmer es de hace seis años. Resulta
absurdo que desprecie así una tecnología aceptada por toda la industria', defiende Aycart.
Además de su extensa labor científica, es un entusiasta promotor del Software Libre y luchador en contra
de las patentes de software (y como si esto fuera poco, ¡es un tipo muy divertido también !).
13 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Roberto tiene gran cantidad de material en su sitio web (http://www.dicosmo.org) y además lidera un
proyecto de desarrollo de DemoLinux, una distribución de Linux que solo requiere de un CD booteable
para funcionar (http://www.demolinux.org).
Para quienes lean inglés, recomiendo ampliamente su libro "Hijacking the World. The Dark Side of
Microsof". En su sitio hay un enlace para comprarlo (cuesta unos 9 dólares en versión electrónica).
Quienes no lean inglés (o tengan problemas para comprar un libro a 9 dólares a través de Interne), pueden
disfrutar de la traducción al castellano del primer capítulo (publicada por el semanario uruguayo Brecha
en un artículo titulado "La democracia en peligro".
Trampa en el Cyberespacio
Versión HTML(online). Tamaño: 72k
Buscar en la web
Búsqueda escéptica
14 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
con la tecnología
ABC - El (c)olor del colonialismo de
Loading...
Imprimir
Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software.
Tutorial sobre la nueva versión de Google Docs
Actualización en Software.
Tutorial sobre el programa HTTrackl
Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep
Enlaces de interés
Skip Navigation
Inicio
Divulgación
Física
Religiones
Fraudes médicos
Fraudes nutrición
Fraudes psicología
Informática
Fraudes en psicología
15 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html
Escepticismo en España
ARP-SAPC
Círculo escéptico
Magonia
Escepticismo
en América
Pensar. Argentina
Escépticos. Colombia
Arev. Venezuela
James Randi. EE.UU.
CSI. EE.UU.
Sugerencias
y consultas
Nombre: eMail:
Tel (opcional):
Consulta o sugerencia:
Protección de datos: los datos proporcionados sólo se utilizan para responder. No se almacena ninguna información
Enviar consulta
16 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática
1 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Ciencia en general
Biología
Criminología
Inicio
Contacte
Introducción
Redes de ordenadores y sus tipos
Telefonía
Sistema de posicionamiento global
Presentación de resumen
Selecciona un texto y
pulsa aquí para oírlo
9.1 Introducción
Este capítulo está orientado a usuarios de ordenadores sin conocimientos previos en redes y
comunicaciones. No ofrece un tratamiento exhaustivo de las redes de ordenadores, sin embargo aporta
una base suficiente sobre los conceptos generales y tecnologías comunes.
Durante el siglo pasado se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar la
situación actual, en la que rodean la Tierra y se extienden por el espacio. La radio, la televisión, el
teléfono e internet, permiten que millones de personas estén en contacto, a menudo salvando grandes
distancias.
Enlaces recomendados:
Televisión Digital Terrestre (TDT)
11 mitos de la televisón en alta definición desmentidos
Aunque los primeros sistemas de comunicación, como el telégrafo , utilizaban un código digital (código
Morse) para transmitir la información, el mayor peso de los desarrollos
necesarios para dar lugar a estas redes de comunicación ha ido dirigido
hacia la transmisión de voz e imagen, de forma analógica. Con la llegada
de los ordenadores, la situación ha cambiado de nuevo, la información se
envía en forma digital. La combinación de ordenadores y redes de
comunicaciones es una de las principales áreas de desarrollo en la
actualidad, teniendo un impacto tan profundo en el estilo de vida de
millones de personas como lo tuvieron la radio y el teléfono en su
momento.
Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN a
través de un CANAL de transmisión, que es recibida por un RECEPTOR. Podemos por tanto, hablar de
comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc.
La información no es transmitida tal como la emitimos, sino que se utilizan unos CÓDIGOS
comprensibles por el emisor y el receptor, y que se comunica mediante SEÑALES físicas. Los códigos
2 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
serán el lenguaje utilizado y las señales las ondas sonoras, luminosas, etc. En muchos casos, la utilización
de códigos y señales exigirá que la información sea CODIFICADA en la transmisión y
DECODIFICADA en la recepción. Es decir, pueden ser codificadores/decodificadores los sentidos, los
traductores, etc.
El objetivo de un proceso de comunicación es que la información que se desea transmitir sea idéntica a la
que se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión o
receptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en su
totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitan
reconstruirla. La comunicación suele ser en ambas direcciones alternativa o simultáneamente,
convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puede
extrapolar a la informática con la intervención de diferentes máquinas que comunicarán las informaciones
a diversos tipos de receptores.
Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Veremos cómo es
posible conectar ordenadores y terminales. Un terminal puede ser "tonto" o inteligente, el primero
consiste en un monitor y un teclado, y el segundo es un ordenador completo, es decir, se diferencian en
que el terminal inteligente posee capacidad de proceso de información de forma autónoma.
Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en:
Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y fibra óptica).
No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a cada necesidad y dependerá
de las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas.
Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo frecuentemente
confundida con baudios. El baudio es una unidad de velocidad de señalización, o de modulación, igual al
número de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad de
transmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representa
un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos.
Un modem a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulación
de fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200
baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión en
bit/s igual a la velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso de
arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms,
tiene una velocidad de señalización o modulación de:
1/(13.5*10-3) = 74 baudios
3 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
5/(100*10-3) = 50 bit/s
El intercambio de información entre los distintos dispositivos tiene que estar regido por unos
PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunes
para establecer la comunicación tanto para el receptor como para el emisor. En el inicio de la industria
informática, cada fabricante intentaba idear una serie de procedimientos, con los cuales podía controlar la
información y así monopolizar el mercado de las ventas de los distintos elementos que componen la
informática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad de
compatibilizar los procedimientos de la información. Actualmente existen asociaciones de fabricantes de
ordenadores, y organizaciones internacionales como por ejemplo ISO, que establecen unas
recomendaciones sobre los procedimientos normalizados de comunicación, que van a gobernar ese
intercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados o
estandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptan
para poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimiento
de la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de las
operaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que los datos han sido
recibidos, etc.
Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos,
interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los
demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores,
terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.
En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes,
mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.
Como se ha visto las redes aportan beneficios, los más habituales son:
Una red de ordenadores permite a los usuarios compartir casi instantáneamente y sin esfuerzo la
información.
Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitar
trabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismos
archivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos pueden
añadir material simultáneamente a los ficheros, o eliminar partes, sin interrumpir el trabajo de los
demás. Las ventajas son evidentes, como por ejemplo con el programa Google docs.
Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartir
información inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a las
necesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, pueden
estar trabajando unos usuarios bajo Windows, mientras que otros lo pueden estar haciendo
4 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Una razón muy importante para disponer de una red de área local es el compartir equipamiento, lo
cual implica grandes beneficios. Por ejemplo, en una red de veinte microordenadores, se puede
disponer de una impresora laser en color, para todo el conjunto, por lo que el ahorro sería
considerable frente a la opción de que los veinte equipos no estuvieran conectados en red, e incluso
dado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuviera
una de estas impresoras.
Lo mismo que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir de
otros dispositivos, como por ejemplo un grabador holográfico, un escaner de alta velocidad o un
sistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras que
aisladamente sería improbable el que dispusiera cada usuario de ellos.
Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un equipo de la
red, distinto al que estamos trabajando. Por ejemplo si se han de realizar cálculos matemáticos o de
ingeniería complicados, se podrá acceder desde un punto de red, al equipo de dicho entorno que
tenga potencia y rapidez suficiente para realizarlos en un tiempo razonable.
Mediante las redes de área geográficas, se pueden interconectar redes de área local a escala
mundial. De esta forma se puede transferir información, prácticamente de forma instantánea, a
cualquier lugar, como por ejemplo los correos electrónicos.
¿Cómo se transfieren los datos en una red?, para transferir señales entre ordenadores se necesitan: un
medio de transmisión para portar las señales y dispositivos para enviar y recibir las señales.
Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como una
secuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a través
de un medio físico, el llamado medio de transmisión. Hay dos tipos de medios de transmisión,
guiados y no guiados.
5 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Los medios guiados se fabrican de forma que las señales se confinan a un canal de transmisión
estrecho y en el que se puede predecir su comportamiento. Son habituales, los cables de par
trenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y cables de
fibra óptica.
Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señales
bajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas
(VHF y microondas) u ondas de luz (infrarrojo o visible).
Para planificar una red de ordenadores, se exige un medio de transmisión, o combinación de ellos,
basándose en las circunstancias físicas, la construcción de la red y las prestaciones que se requieren
de ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidades
planteadas.
Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen y
reciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red, repetidores,
concentradores, transmisores diversos y receptores.
Adaptadores de red
Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instala
directamente en un zócalo de expansión, otros están diseñados para microordenadores
portátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida de
impresora o a una ranura PCMCIA, sin embargo los nuevos ordenadores lo llevan incluido en
la placa base. Estos adaptadores se fabrican en diversas versiones, de forma que se puedan
conectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos que
puedan transmitir mediante medios no guiados.
Repetidores y Hubs
Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuando
una señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil y
distorsionada. Técnicamente este proceso se denomina atenuación.
Puentes (Bridges)
Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y de
enlace, pero siempre que en los niveles superiores usen los mismos protocolos.
Pasarelas (Gateways)
Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean para
conexión entre diferentes redes locales, o entre locales y ampliadas (WAN).
Concentradores
Se usan en redes para proporcionar un punto común de conexión para dispositivos. Todos los
concentradores tienen repetidores
Transmisores de microondas
6 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
La
siguiente
figura
muestra
el
proceso
de
Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sólo
son válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenos
ambientales pueden causar problemas de transmisión.
Las redes de área personal (PAN) como tecnología de tercera generación, significan un impulso al proceso
de convergencia entre las industrias informática y de comunicaciones. Desde el momento en que los
teléfonos móviles se empiecen a utilizar masivamente como ordenadores (como ejemplo el Nokia N96) se
producirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, ordenadores y en
general procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias de
microondas, que no precisa licencia, 2.4 GHz.
7 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
activamente en VLAN y también en distancias cortas o PAN por cuanto trabaja en la banda sin licencia
IMS de 2.4 GHz, como los hornos de microondas tanto domésticos como industriales. En particular, es de
gran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas por
los hornos de microondas.
Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con los
magnetrones utilizados en radar. Tipicamente, la potencia de salida de un magnetrón de horno de
microondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondas
pueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límites
establecidos por las normas de seguridad internacionales.
Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en acuerdos adhoc con
la industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto viene
dado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la región
del diagrama de Rieke, donde tiene lugar la intersección de todas las lineas de frecuencia.
Un ejemplo es el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa a
fabricantes en estos campos. Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos
los dispositivos que conforman el escenario inalámbrico, para usuarios: ordenadores portátiles, teléfonos
y dispositivos de mano, como por ejemplo PDA (asistentes digitales personales).
BLUETOOTH
El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no
aumentar las dimensiones del chip y poder integrarlo con facilidad en los productos) y de
muy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Este
circuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorro
de potencia, característica que es consustancial a las tecnologías inalámbricas en
distancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de la
potencia que consume un teléfono móvil.
8 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los
posibles enlaces físicos son SC ("Synchronous Connection Oriented") para voz y ACL
("Asynchronous Connectionless Link") para paquetes de datos. Los paquetes ACL se
utilizan únicamente para información en forma de datos, mientras que SCO utiliza
paquetes que contiene solamente audio o bien una combinación de audio y datos. Los
paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con
el que se identifica el paquete, una cabecera dedicada a información de control y un
campo de carga alternativo.
Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las
que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se
ha conseguido crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los
equipos que se encuentran en una misma picorred aparecen sincronizados.
El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o
más unidades o equipos que compraten un canal. Una unidad controla el tráfico y las
otras funcionan como elementos subordinados. Las picorredes pueden, a su vez,
enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utiliza
habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y
que normalmente se crea de forma espontánea sin necesitar un punto de acceso como
parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de
dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a
extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas.
El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza
mediante los protocolos que conforman las capas de banda base y de enlace.
Modems
9 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso a
Internet, pues permite la transmisión de información con una velocidad de hasta 8 Mbps, y es
interoperativa con el sistema RDSI. Algunas variantes recientes como ADSL2+ transmiten con velocidad
teórca de hasta 20 Gigas.
Enlaces recomendados:
Conexion internet con banda ancha, ADSL,ADSL2
Ahorrar en la factura telefónica gracias a la banda ancha (cable y ADSL)
Derechos del usuario de telecomunicaciones
- DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según el
sentido.
- DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas
- DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad
(HDSL2)
- DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad
está en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s
Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dicha
red. Las topologías existentes son: bus, árbol y estrella.
Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se
describen seguidamente:
10 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias.
A) Topología en BUS
Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable
(frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.
Análisis comparativo
Ventajas
El medio de transmisión es totalmente pasivo
Es sencillo conectar nuevos dispositivos
Se puede utilizar toda la capacidad de transmisión disponible
Es fácil de instalar
Inconvenientes
El intefaz con el medio de transmisión ha de hacerse con dispositivos inteligentes
A veces los mensajes interfieren entre sí
El sistema no reparte equitativamente los recursos
La longitud del medio de transmisión no supera habitualmente los dos kilómetros
B) Topología en Anillo
Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a la red.
11 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Análisis comparativo
Ventajas
Inconvenientes
C)Topología en Estrella
Todas las estaciones están conectadas por separado a un nodo central, no estando conectadas
directamente entre sí.
12 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Análisis comparativo
Ventajas
Es ideal si hay que conectar muchas estaciones a una
Se pueden conectar terminales no inteligentes
Las estaciones pueden tener velocidades de transmisión diferentes
Permite utilizar distintos medios de transmisión
Se puede obtener un elevado nivel de seguridad
Es fácil la detección de averías
Inconvenientes
Es susceptible de averías en el nodo central
Es elevada en precio
La instalación del cableado es cara
La actividad que ha de soportar el servidor, hace que las velocidades de transmisión sean
inferiores a las de las otras topologías.
Al hablar de "hardware" de red no hay más remedio que hablar de los desarrollos que existen en el
mercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cada
una de estas normas engloba toda una serie de características entre las que destacan la topología,
velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describen
dos: Ethernet y Token Ring.
ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (las versiones más
modernas alcanzan hasta el Gbit/s) puede ser utilizada en redes medias e incluso grandes. Pero,
debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello es
recomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardware
de red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes de
ordenadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red es
muy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP.
Recomendada para entornos en los que deba convivir con equipos Digital o comunicaciones
TCP/IP Para obtener amplia información sobre esta red se recomienda visitar la página web de
Charles Espurgeons. Si se desea más información se puede acceder al tutorial de la empresa
Lantronix.
TOKEN RING:Hasta hace poco tiempo fue la red IBM por excelencia. Cuenta con versiones de 4
y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más utilizada en redes grandes.
Utiliza topología en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividad
con IBM. Actualmente cada vez se usa menos.
Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las tareas de
control de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistema
operativo de red, y ha de cumplir ciertos requerimientos:
13 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizar
varias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempo
que reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo.
Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van a
ser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran gran
cantidad de memoria que deben direccionar.
Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una de
ellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios acceder
sólo a los datos imprescindibles para su trabajo en la red.
Seguridad de datos: El disco duro de un servidor de ficheros almacena muchos datos, muchos más
que el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallo
de los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema de
tolerancia de fallos que funcionan de forma automática y transparente para los usuarios.
Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que les
ofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la misma
forma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en la
red.
Linux está alcanzando gran difusión, siendo el sistema operativo más seguro. La gran mayoría de
servidores de internet operan bajo él.
NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido.
VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores el sistema operativo
UNIX y de ahí le viene su compatibilidad casi total.
Windows, se están imponiendo como S.O. de red, dado que tienen entornos fáciles de manejar,
aunque como todos los productos Microsoft, son poco fiables.
9.3 Telefonía
14 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez.
Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediante
máquinas electrostáticas, si bien no fue desarrollado comercialmente debido a problemas técnicos.
El 14 de Febrero de 1876, el americano de origen irlandés, Alexander Graham Bell (1847-1922) presentó
una petición de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con un
aparato similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci, aunque no
dispuso de medios para su lanzamiento al mercado.
En las primeras centrales telefónicas las conexiones entre usuarios se realizaban directamente por los
operarios de la central, lo cual era muy limitado, pues en cuanto crecía el número de abonados el número
de conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas, al
creer que las llamadas eran desviadas hacia la competencia, por parte de los operadores, inventó un
sistema automático para la selección del destinatario. Este principio se ha utilizado muchos años, hasta la
aparición de las centrales electrónicas.
SISTEMA IBERCOM
15 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
La infraestructura básica de Ibercom está compuesta por dos partes, una es la de acceso
cuya función es la de proporcionar las líneas de voz y datos a sus usuarios, denominada
Red de Acceso Ibercom (RAI), pudiendo estar compuesta de varios Módulos de Red de
Accesos Ibercom (MRAI) distribuidos, a los que se conectan todos los terminales
correspondientes a los servicios de telecomunicación con los que se desee dotar cada
dependencia, y otra, la de interconexión, que está incorporada en la porción de tránsito en
las redes públicas, y a la cual se accede a través de un Centro Frontal (CF), que realiza el
tránsito entre las RAI a él conectadas.
La central telefónica de la empresa que tenga este servicio, es una Ericson MD110, que
consta básicamente de unos módulos denominados Módulos de Interface de Línea (LIM)
controlados por un microprocesador equipado con todos los elementos necesarios para el
tratamiento de las llamadas pudiéndose conectar directamente dos de ellos o a través del
Selector de Grupo (GS) en caso de sistemas mayores. Cada LIM puede funcionar como
un sistema autónomo o como integrante de otro mayor, realizando la conmutación a un
ritmo de 64.5 Mbps, y albergando unas 250 extensiones de voz y datos.
La conexión entre los RAI y el CF se realiza mediante uno o más enlaces MIC, a 2 Mbps,
con cables trenzados, coaxiales, fibra óptica o radioenlaces.
Algunas empresas de telefonía ofrecen servicios de voz a través de líneas dedicadas a internet, por
ejemplo la telefonía en la universidad de Murcia funciona bajo la red de la operadora de cable Ono, es lo
que se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no suele
estar al nivel de las líneas convencionales de telefonía. Recientemente el Gobierno reguló esta nueva
modalidad de telefonía.
A) Introducción
16 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
En la evolución de las redes de telecomunicación, una estrategia actual es dotar a los usuarios de
movilidad, de forma que puedan establecer una comunicación desde cualquier lugar. Ello es posible
mediante el empleo de la radio para establecer el enlace entre los elementos a comunicarse. Como
ejemplos usuales se pueden consider los sistemas GSM y DECT. Seguidamente se describe el
concepto celular por ser la base de la mayoría de los sistemas de telefonía vía radio.
Los sistemas celulares fueron creados por los laboratorios Bell (AT&T) hace más de cincuenta
años. Un sistema celular se forma al dividir el territorio al que se pretende dar servicio, en áreas
pequeñas o celdas (normalmente hexagonales), de menor o mayor tamaño, cada una de las cuales
está atendida por una estación de radio. A su vez las células se agrupan en "clusters" o racimos, de
forma que el espectro de frecuencias se pueda utilizar en cada célula nueva, teniendo cuidado de
evitar las interferencias.
Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada son
configuraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 células. El número total de
canales por célula se obtiene por la fórmula siguiente, N=(Nº total de canales)/(Claustro (4, 7, 12,
21)). Al ser menor el tamaño de las células mayor será el número de canales que soporte el sistema.
Nº Espaciado
País
Sistema Canales (kHz)
AMPS EE.UU. 832 30
C-450 Alemania 573 10
ETACS Reino Unido 1240 25
JTACS Japón 800 12.5
NMT-900 Escandinavia 1999 12.5
NMT-450 Escandinavia 180 25
NTT Japón 2400 6.25
Radiocom-2000 Francia 560 12.5
RTMS Italia 200 25
TACS Reino Unido 1000 125
B) Sistema NMT
Las primeras generaciones de este tipo de comunicaciones eran sistemas analógicos, tales como
NMT, TACS, AMPS, etc., con una amplia difusión. Actualmente han surgido sistemas digitales,
como GSM y UMTS en Europa, el DAMPS en EE.UU. y JDC y PHP en Japón.
En España la telefonía móvil automática o TMA apareció en el año 1982 en la modalidad de 450
MHz, tomando como referencia el modelo nórdico NMT. Debido al éxito del mismo y a la
saturación del espectro, Telefónica implantó la modalidad de 900 MHz.
El sistema NMT (Nordic Mobile Telephony) surgió en los países escandinavos en 1981, es ideal
para cubrir la mayor extensión de terreno con la menor inversión. La versión NMT 900 permite un
mayor número de canales.
17 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
C) Sistema TACS
El sistema TACS 900 adaptado en Inglaterra el año 1985, deriva del sistema analógico AMPS
americano desarrollado por los laboratorios Bell y comercializado en EE.UU en 1984. Con este
sistema se obtiene unamejor calidad del servicio, al mismo tiempo que mejora la relación
señal/ruido por tener una mayor anchura de canal. Además precisa de equipos más pequeños y
baratos.
El sistema TACS (Total Access Communications System) 900 conocido como TMA 900, es del
mismo tipo que el anterior, analógico multiplexado en frecuencia, pero diferente por utilizar una
tecnología mucho más avanzada y barata, dando mejor calidad de audio, así como una mejor
conmutación al pasar de una a otra célula, ya que la señalización se realiza fuera de banda, al
contrario que NMT, que lo hace dentro de ella, resultando casi imperceptible el ruido para el
usuario, sin embargo sus estaciones base cubren un rango menor. Emplea la banda de frecuencia de
los 900 MHz y cada MHz se divide en 40 semicanales de 25 kHz, por lo que resulta
extremadamente útil, por su gran disponibilidad de canales, para cubrir áreas urbanas. Dispone de
1320 canales duplex, de los que 21 se dedican exclusivamente a control (señal digital) y el resto
para voz (señal analógica)
D) Sistema GSM
El GSM (Groupe Spécial Mobile), surge del intento europeo de unificar los 10 sistemas diferentes
existentes, en uno solo, el CEPT (año 1982). La principal ventaja de este sistema es que permite
realizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfono
se registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedando
disponible para su utilización. Al ser criptografiadas todas las conversaciones, da una gran ventaja,
la mayor seguridad frente a escuchas. Otras ventajas son su menor consumo de energía, las células
más pequeñas y la utilización del espectro de forma más eficiente. A continuación se muestra un
mapa de cobertura de Vodafone.
E) Otras tecnologías
Respecto a la tecnología más reciente, UMTS, en España la ofrecen las operadoras Vodafone,
Orange, Movistar y Yoigo. El siguiente enlace es al Libro Blanco sobre UMTS.
HSCSD (High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad,
proporciona una velocidad de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Es
parecida a la actual RDSI.
GPRS (General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario que
HSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita de
un hardware específico para el enrutamiento a través de una red de datos.
EDGE (Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en la
comunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/s
18 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Nuevos negocios se podrán implementar para esta tecnología, que van desde los propios fabricantes
de dispositivos, que desarrollan los nuevos teléfonos y dispositivos capaces de aprovechar el nuevo
método de comunicación a los propios desarrolladores que se les abrirán nuevas posibilidades que
hasta ahora son inpensables de creación de contenidos, aplicaciones. En España proximamente
habrá una regulación para la televisión a través de los móviles celulares UMTS.
Actualmente se está implantando la tecnología HSDPA (High Speed Downlink Packet Access) es la
optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP
5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamente
la capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soporta
tasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) de
tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G), la
futura integración de redes.
La gran difusión de los teléfonos móviles, ha dado lugar a innovaciones, por ejemplo, mediante un
conjunto de "Chips" se puede convertir un móvil en un control remoto universal para aparatos
electrodomésticos. Proximamente se comercializarán móviles con esta capacidad. Y otras dirigidas
al mundo multimedia, actualmente son habituales los teléfonos con sistema deposicionamiento
global (GPS) cámara fotográfica y prestaciones musicles avanzadas. Como consecuencia
recientemente se han empezado a comercializar teléfonos con disco duro de 1.5 Goctetos, que
además incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristal
líquido dual, (TFT en el interior y OLED en el exterior).
F) Antenas y salud
Respecto a la alarma creada por grupos ecologistas, sin ninguna base científica, sobre la rediación
dañina y supuestamente productora de cáncer, no hay ninguna base científica que la soporte. La
radiación de la telefonía móvil celular es no ionizante, por lo tanto no puede romper los enlaces del
ADN. En los siguientes enlaces se tiene información seria:
Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)
19 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
El 19 de julio de 2007 la Unión Europea sacó su informe sobre radiación electromagnética por parte
del comité de salud humana. Puede acceder a dicho informe en:
http://ec.europa.eu/health/ph_risk/committees/04_scenihr/docs/scenihr_o_006.pdf
http://www.arp-sapc.org/articulos/antenasindex.html
Por otra parte, Ferrán Tarrasa dió una estupenda conferencia el 4 de mayo de 2007 denominada
"Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en:
http://www.slideshare.net/giskard/telefona-mvil-y-salud-desmontando-mitos
Introducción histórica
Cuando la Unión Soviética puso en órbita el primer satélite artificial de la Tierra, se observaba
como un punto brillante, que se movía lentamente entre los astros que servían de referencia para los
navegantes. Pronto surgió una idea,pasar de la navegación estelar a la por satélite. Un grupo de
científicos soviéticos, dirigidos por el académico V. Kotélnikov, ofrecieron utilizar el método
Doppler para determinar los parámetros de las órbitas de los satélites.
20 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
En el año 1986, la URSS y los EE.UU., declararon a la Organización Marítima Internacional, que
se podían explotar estos sistemas con fines pacíficos. De forma que EE.UU. ha desarrollado desde
entonces, un sistema análogo al soviético, quedando completo el año 1995. Consta de 24 satélites,
de los que tres son de reserva, situados en tres planos orbitales, a 20200 km de altura, con un ángulo
de 120 grados, uno respecto al otro. Las señales de navegación se emiten en una banda de 1602.2 a
1615 MHz. Además estos satélites pueden servir a una cantidad ilimitada de usuarios. Actualmente
este sistema está gestionado por el Ministerio de Defensa de EE.UU.
Este es el origen del Sistema de Posicionamiento Global "GPS", en amplio desarrollo actualmente,
cuyo predecesor, el SSNG, puede seguir usándose, mediante un módulo adicional.
GPS Básico
Se basa en 24 satélites en órbita a 20000 km de distancia. Éstos actúan como puntos de referencia a
partir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es como
una versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante una
brújula desde las cumbres de los montes cercanos para situar un punto en el mapa.
Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con gran precisión
desde estaciones terrestres. Mediante una medición del tiempo de
viaje de las señales trasmitidas desde los satélites, un receptor GPS
en la tierra determina su distancia desde cada satélite. Con la
medición de la distancia desde cuatro satélites y la aplicación de
cálculos, el receptor obtiene, latitud, longitud, altitud, derrota y
velocidad. Los buenos receptores tienen una precisión menor que
100 m, y efectúan más de una medida por segundo.
Otra ventaja es que las señales GPS (código C/A) están al alcance de
todos, gratuitamente sin necesidad de pagar tasas de licencia ni uso,
21 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
pues los satélites son de EE.UU y de Rusia, con lo cual no tiene ninguna opción de sacar dinero a
costa de este tipo de usuarios.
Paso 1 Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con
mucha precisión, constituyendo la base de todos los cálculos GPS.
Una tercera medición, añade otra esfera, que interceptal círculo determinado por las otras dos.
La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su
posición a sólo dos puntos en todo el universo.
Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los
dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido.
Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar
que el reloj del receptor está sincronizado con la hora universal.
Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un par
de metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el que
sea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa.
El DGPS opera mediante la cancelación de la mayoría de los errores naturales y causados por el
hombre, que se infiltran en las mediciones normales con el GPS. Las imprecisiones provienen de
diversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje de
la señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúan
en cada momento. Lo que se necesita es una forma de corregir los errores reales conforme se
producen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozca
exactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuesta
con su posición conocida. La diferencia es el error de la señal GPS.
No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que los
receptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dos
receptores operando simultáneamente. El de referencia permanece en su estación y supervisa
continuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar las
correcciones a sus mediciones, bien sea en tiempo real o en algún momento futuro.
22 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso. Dado que el mundo
parece una jungla, hay multitud de oportunidades para que resulte perturbado un sistema basado en
la radio. A continuación se describen los errores a los que hay que enfrentarse:
Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de los
satélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que están
relativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre,
pero aún así se desvían ligeramente de las órbitas predichas.
La atmósfera
La información se transmite por señales de radio y esto constituye otra fuente de error. La
física puede llevarnos a creer que las señales de radio viajan a la velocidad de la luz, que es
constante, pero eso sólo es en el vacío. Las ondas de radio disminuyen su velocidad en
función del medio en que se propagan, así pues, conforme una señal GPS pasa a través de las
partículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, se
retrasa un poco, lo cual implica un valor erróneo de la distancia del satélite.
Error multisenda
Cuando la señal GPS llega a la Tierra se puede reflejar en obstrucciones locales antes de
llegar al receptor. La señal llega la antena por múltiples sendas, primero la antena recibe la
señal directa y algo más tarde llegan las desplazadas, produciendo ruido. Un ejemplo es en el
caso de la TV cuando se ven imágenes múltiples solapadas.
Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen de
sus relojes o de ruido interno.
Disponibilidad selectiva
Mucho peor que las fuentes naturales de error es el que aporta intencionadamente el
Departamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerza
hostil utiliza la posición de GPS contra los EE.UU. Se introduce ruido en los relojes de los
satélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos.
Los receptores militares disponen de una llave física que desencripta los errores introducidos
para así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m.
El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usos
militares.
DGPS también proporciona una forma de verificar la fiabilidad de las mediciones momento a
momento.
23 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Relojes de
1.5 0
satélites
Errores de
2.5 0
órbitas
Ionosfera 5 0.4
Troposfera 0.5 0.2
Ruido receptor 0 .3
Multisenda 0 .6
Dep. Defensa 30 0
Precisión de
GPS DGPS
posición
Horizontal 50 1.3
Vertical 78 2
3D 93 2.8
Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo,
empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor añadido,
es decir uno que se desplaza y otro estacionario.
Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dos
receptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites,
esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de las
estaciones puede dedicarse a medir esos errores y facilitárselo a la otra.
Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPS
posprocesado.
También existe el DGPS invertido, por ejemplo, en una flota de camiones que informan
periódicamente de su posición a una estación base. En lugar de enviar a los camiones las
correcciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocen
su posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el punto
de poder ubicar el camión en el carril de la calle en que se encuentra.
Aplicaciones de DGPS
24 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Servicio de guardacostas
Aviación
En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están
disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar
cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se
puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.
La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es
difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de
su conservación o por ventas a empresas madereras.
El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con
GPS desde helicópteros.
Exploración costera
Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en
busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un
lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación,
lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de
referencia, y apartarse unos metros significa muchos millones de gasto de más. Para
solucionar este problema usan el GPS.
Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento
topográfico de los puertos.
Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el
resultado es una más estricta adhesión al horario y una mejor supervisión.
A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de
servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso
al extremo de conocer el nombre de la calle. La solución es DGPS. También se usa en los
ferrocarriles
25 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html
Agricultura
El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede
analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de
fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los
productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos
previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se
beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos
químicos.
Transporte marítimo
En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad.
Seguridad pública
Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con
DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas
ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus
efectivos.
Como se ha comentado previamente, el sistema GPS para usos no militares tiene una limitación
puesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya en
normal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvo
que se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso.
Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazo
de 10 años se eliminarían las restricciones militares, pero mientras tanto el error en demasiado
grande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver esta
falta de resolución, en EE.UU se ha propuesto un sistema aplicable a los autobuses que consta del
siguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y un
giróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamente
calibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores están
sujetos a error esta no es la solución perfecta. La empresa Andrew Corp., ha creado un sistema que
combina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPS
calibra los sensores para evitar errores acumulados. El factor más importante en la generación de
errores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO,
basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación. El
sistema propuesto por esta empresa está aplicándose en diversas empresas de transporte urbano de
EE.UU.
26 de 29 18/04/2008 19:49