Está en la página 1de 13

LA LOGICA Y SUS SISTEMAS COMPUTACIONALES

El nacimiento de la lógica propiamente dicho está directamente relacionado con el nacimiento intelectual del ser
humano. La lógica emerge como mecanismo espontáneo en el enfrentamiento del hombre con la naturaleza, para
comprenderla y aprovecharla.

La lógica computacional es la misma lógica matemática aplicada al contexto de las ciencias de la computación. Su uso
es fundamental a varios niveles: en los circuitos computacionales, en la programación lógica y en el análisis y
optimización (de recursos temporales y espaciales) de algoritmos. (Entiéndase por algoritmo en matemáticas, ciencias
de la computación y disciplinas relacionadas, como un conjunto prescrito de instrucciones o reglas bien definidas,
ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien lo
ejecute. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una
solución.)

Circuitos computacionales.

El nivel menos abstracto dentro de una computadora está constituido por circuitos electrónicos que responden a
diferentes señales eléctricas, esto es, compuertas lógicas que devuelven un valor dependiendo de las entradas que se le
dan al sistema.

Todo sistema computacional, por muy complejo que sea, no está compuesto por más que circuitos electrónicos que
únicamente entienden un lenguaje binario. La lógica computacional se encarga de modelar y optimizar tales sistemas a
este nivel.

Programación Lógica.

La programación lógica consiste en la aplicación del corpus de conocimiento sobre lógica para el diseño de lenguajes
de programación; no debe confundirse con la disciplina de la lógica computacional.

La programación lógica encuentra su hábitat natural en aplicaciones de inteligencia artificial o relacionadas:

▪ Sistemas expertos, donde un sistema de información imita las recomendaciones de un experto sobre algún dominio de
conocimiento.

▪ Demostración automática de teoremas, donde un programa genera nuevos teoremas sobre una teoría existente.

▪ Reconocimiento de lenguaje natural, donde un programa es capaz de comprender (con limitaciones) la información
contenida en una expresión lingüística humana.

Fundamentación.

La lógica ocupa un rol central en los estudios de sistemas de información tanto en los aspectos ligados al diseño de
sistemas como a los aspectos más estrictamente computacionales, ligados a los desarrollos actuales de la informática.

Esta afirmación se funda en los siguientes hechos:

1) La lógica proporciona lenguajes formales para representar y analizar problemas de los campos más diversos y
sistemas formales que permiten resolver esos problemas.

2) La lógica proporciona las herramientas para formalizar diferentes tipos de inferencias que se emplean tanto en la vida
cotidiana como en la actividad científica.
3) La lógica posibilita la organización de la información a través de sistemas deductivos y no deductivos.

4) La lógica se aplica en la construcción de sistemas expertos y otro tipo de herramientas informáticas

5) La lógica se aplica en el desarrollo de lenguajes de programación (programación lógica).

6) La lógica es una de las disciplinas que constituyen la inteligencia artificial y las ciencias cognitivas.

7) Los lenguajes formales que la lógica estudia son aptos para formalizar teorías científicas.

8) La lógica es una condición necesaria para el análisis epistemológico del conocimiento científico.

9) La lógica comparte con la teoría de circuitos estructuras matemáticas, de modo que métodos de aquella pueden
aplicarse en esta.

10) La lógica proporciona metodologías para el diseño de sistemas de información.

Aplicación de Los Sistemas Computacionales

1. Aplicaciones de los Sistemas Computacionales.

o Los sistemas computacionales han mejorado nuestra vida de muchas maneras y en varios ámbitos.

o Educación.

▪ Aprendizaje a través de Multimedia

▪ El uso de computadores para presentar texto, gráficos, video, animación, y sonido de manera integrada.

▪ las aplicaciones de software educativo pueden ser usadas para mejorar el aprendizaje del estudiante a
través de un ambiente interactivo.

▪ Educación Basada en Simulación

▪ Los computadores pueden ser programados para generar imágenes y animaciones que modelen otros
sistemas.

▪ Estos sistemas pueden existir en el mundo físico en el que vivimos (por ejemplo, gente y objetos), o bien
pueden ser producto de la imaginación (por ejemplo, la vida en la luna y los seres mitológicos).

▪ Aprendizaje Interactivo

▪ El objetivo es lograr el aprendizaje a través de una interacción con los elementos que se utilicen .

o Negocios.

▪ Administración de una Cadena de Negocios

▪ La administración de una cadena de negocios trata de administrar y dar seguimiento al abastecimiento de


materias primas, su uso en el proceso, y la entrega de productos terminados a los clientes.

▪ Algunas aplicaciones para la administración son utilizadas para cumplir con estos objetivos.

▪ Administración de Proyectos.
▪ La información sobre el desarrollo de productos, que incluye:

▪ Los requerimientos del producto.

▪ Horarios de trabajo.

▪ Problemas del proyecto.

▪ Presupuestos.

▪ Diseño de productos, etc, requiere ser organizada y rastreada para monitorear el progreso del proyecto.

▪ Las aplicaciones de software son capaces de mantener un registro de lo necesario para la administración de
proyectos.

▪ Ventas y Mercadotecnia a través del Comercio Electrónico.

▪ Utilizando Internet, se pueden realizar transacciones comerciales en línea a través de la red.

▪ Para permitir la realización de transacciones electrónicas, una compañía requiere software para generar
todo lo relacionado con las transacciones.

o Entretenimiento.

▪ Películas

▪ Efectos especiales generados por computadores han hecho posible la creación de películas ganadoras de
premios.

▪ Videojuegos

▪ Los videojuegos son sistemas computacionales, integrados con sofisticada tecnología de video, para dar
vida a un mundo de fantasía en la pantalla de tu computador.

▪ Música

▪ La distribución de música en el siglo 20 ha pasado de ser de forma análoga a digital. La música puede
descargarse de sitios de Internet y almacenarse en reproductores de MP3 del tamaño de la palma de tu mano.

▪ Fotografía Digital.

▪ Todas las cámaras digitales tienen un computador integrado que almacena las imágenes de manera
electrónica.

Conceptos de Sistemas Computacionales

El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo de la computadora. Toda la
sociedad utiliza estas máquinas, en distintos tipos y tamaños. Son herramientas esenciales en todos los campos de
investigación.

Una computadora se compone de dos partes fundamentales, cada una de las cuales no podría funcionar por sí sola
sin ayuda de la otra. Estas son Hardware y Software.
Referencias.

Un matemático y Lógico pionero en Teoría de la Computación que contribuye a importantes análisis lógicos de los
procesos computacionales es Alan Turing (23 de junio de 1912 en Maida Vale, Londres - †7 de junio de 1954 en
Wilmslow, Cheshire, Inglaterra; fue un matemático, informático teórico, criptógrafo y filósofo inglés) es considerado uno
de los padres de la Ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una
influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión
de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional existente
tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la
Segunda Guerra Mundial, trabajó en romper los códigos nazis, particularmente los de la máquina Enigma; durante un
tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros
computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo
después construyó otra de las primeras máquinas en la Universidad de Mánchester. Entre otras muchas cosas, también
contribuyó de forma particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la
Inteligencia Artificial.

La carrera de Turing terminó súbitamente cuando fue procesado por su homosexualidad. No se defendió de los
cargos y se le dio a escoger entre la castración química o ir a la cárcel. Eligió lo primero y sufrió importantes
consecuencias físicas, entre ellas la impotencia. Dos años después del juicio, en 1954, se suicidó.

Datos biográficos más concretos.

Sobre su infancia.

Su padre Julius Mathison Turing era miembro del Cuerpo de funcionarios británicos en la India. Julius y su esposa
Ethel querían que su hijo Alan naciera en el Reino Unido y regresaron a Paddington, donde finalmente nació. Pero su
padre aún debía cubrir su puesto de funcionario en la India, por lo que durante la infancia de Turing sus padres viajaban
constantemente entre el Reino Unido y la India, viéndose obligados a dejar a sus dos hijos con amigos ingleses en vez de
poner en peligro su salud llevándolos a la colonia británica. Turing dio muestras ya desde una edad muy temprana del
ingenio que más tarde mostraría prominentemente. Se cuenta que aprendió a leer por sí solo en tres semanas y que
desde el principio mostró un gran interés por los números y los rompecabezas.

Sus padres lo inscribieron en el colegio St. Michael cuando tenía seis años. Su profesora se percató enseguida de la
genialidad de Turing, tal y como les ocurrió a sus posteriores profesores. En 1926, con catorce años, ingresó en el
internado de Sherborne en Dorset. Su primer día de clase coincidió con una huelga general en Inglaterra, pero era tan
grande la determinación de Turing por asistir a su primer día de clase que recorrió en solitario con su bicicleta las más de
60 millas que separaban Southampton de su escuela, pasando la noche en una posada — una hazaña que fue recogida
en la prensa local.

La inclinación natural de Turing hacia las matemáticas y la ciencia no le forjó el respeto de sus profesores de
Sherborne, cuyo concepto de educación hacía más énfasis en los clásicos. Pero a pesar de ello, Turing continuó
mostrando una singular habilidad para los estudios que realmente le gustaban, llegando a resolver problemas muy
avanzados (para su edad) en 1927 sin ni siquiera haber estudiado cálculo elemental.

En 1928, con dieciséis años, Turing descubrió los trabajos de Albert Einstein y no sólo pudo comprenderlos sino que
además infirió las críticas de Einstein a las Leyes de Newton de la lectura de un texto en el que no estaban explícitas.
Durante su edad escolar Turing fue un joven cuyo optimismo y ambiciones se vieron acrecentados debido en gran parte
a su intensa unión con su amigo Christopher Morcom, cuya muerte, aún joven, afectaría a Turing profundamente.

La Universidad y sus estudios sobre computabilidad.

Debido a su falta de voluntad para esforzarse con la misma intensidad en el estudio de los clásicos que en el de la
ciencia y las matemáticas, Turing suspendió sus exámenes finales varias veces y tuvo que ingresar en la escuela
universitaria que eligió en segundo lugar, King's College, Universidad de Cambridge, en vez de en la que era su primera
elección, Trinity. Recibió las enseñanzas de Godfrey Harold Hardy, un respetado matemático que ocupó la cátedra
Sadleirian en Cambridge y que posteriormente fue responsable de un centro de estudios e investigaciones matemáticas
de 1931 a 1934. En 1935 Turing fue nombrado profesor del King's College.

En su memorable estudio "Los números computables, con una aplicación al Entscheidungsproblem" (publicado en
1936), Turing reformuló los resultados obtenidos por Kurt Gödel en 1931 sobre los límites de la demostrabilidad y la
computación, sustituyendo al lenguaje formal universal descrito por Gödel por lo que hoy se conoce como Máquina de
Turing, unos dispositivos formales y simples. Demostró que dicha máquina era capaz de implementar cualquier
problema matemático que pudiera representarse mediante un algoritmo. Las máquinas de Turing siguen siendo el
objeto central de estudio en la teoría de la computación. Llegó a probar que no había ninguna solución para el problema
de decisión, Entscheidungsproblem, demostrando primero que el problema de la parada para las máquinas de Turing es
irresoluble: no es posible decidir algorítmicamente si una máquina de Turing dada llegará a pararse o no. Aunque su
demostración se publicó después de la demostración equivalente de Alonzo Church respecto a su cálculo lambda, el
estudio de Turing es mucho más accesible e intuitivo. También fue pionero con su concepto de "Máquina Universal (de
Turing)", con la tesis de que dicha máquina podría realizar las mismas tareas que cualquier otro tipo de máquina. Su
estudio también introduce el concepto de números definibles.

La mayor parte de 1937 y 1938 la pasó en la Universidad de Princeton, estudiando bajo la dirección de Alonzo
Church. En 1938 obtuvo el Doctorado en Princeton; en su discurso introdujo el concepto de hipercomputación, en el que
ampliaba las máquinas de Turing con las llamadas máquinas oráculo, las cuales permitían el estudio de los problemas
para los que no existe una solución algorítmica.

Tras su regreso a Cambridge en 1939, asistió a las conferencias de Ludwig Wittgenstein sobre las bases de las
matemáticas. Ambos discutieron y mantuvieron un vehemente desencuentro, ya que Turing defendía el formalismo
matemático y Wittgenstein criticaba que las matemáticas estaban sobrevaloradas y no descubrían ninguna verdad
absoluta.

Análisis criptográfico (ruptura de códigos)

(La criptografía es la ciencia que se ocupa del cifrado de mensajes en clave y del desarrollo de sistemas de encriptación.
De ella se desprende el análisis criptográfico, encargado del descifrado de mensajes en clave. )

Durante la Segunda Guerra Mundial fue uno de los principales artífices de los trabajos del Bletchley Park para
descifrar los códigos secretos nazis. Sus perspicaces observaciones matemáticas contribuyeron a romper los códigos de
la máquina Enigma y de los codificadores de teletipos FISH (máquinas de teletipos codificados que fabricaron
conjuntamente Lorenz Electric y Siemens&Halske). Sus estudios del sistema Fish ayudarían al desarrollo posterior de la
primera computadora programable electrónica digital llamada Colossus, la cual fue diseñada por Max Newman y su
equipo, y construida en la Estación de Investigaciones Postales de Dollis Hill por un equipo dirigido por Thomas Flowers
en 1943. Dicha computadora se utilizó para descifrar los códigos Fish (en concreto las transmisiones de la máquina
Lorenz).
Para romper los códigos de la máquina Enigma y permitir a los aliados anticipar los ataques y movimientos militares
Nazis, Turing diseñó la bombe, una máquina electromecánica —llamada así en reconocimiento de la diseñada por los
polacos bomba kryptologiczna— que se utilizaba para eliminar una gran cantidad de claves enigma candidatas. Para
cada combinación posible se implementaba eléctricamente una cadena de deducciones lógicas. Era posible detectar
cuándo ocurría una contradicción y desechar la combinación. La bombe de Turing, con una mejora añadida que sugirió el
matemático Gordon Welchman, era la herramienta principal que usaban los criptógrafos aliados para leer las
transmisiones Enigma.

Los trabajos de ruptura de códigos de Turing han sido secretos hasta los años 1970; ni siquiera sus amigos más
íntimos llegaron a tener constancia.

Estudios sobre las primeras computadoras; la prueba de Turing.

De 1945 a 1948 trabajó en el Laboratorio Nacional de Física en el diseño del ACM (Máquina de Computación
Automática [automatic computer machine]). En 1949 fue nombrado director delegado del laboratorio de computación
de la Universidad de Mánchester y trabajó en el software de una de las primeras computadoras reales — la Manchester
Mark I. Durante esta etapa también realizó estudios más abstractos y en su artículo "Máquinas de computación e
inteligencia" (octubre de 1950) Turing trató el problema de la inteligencia artificial y propuso un experimento que hoy se
conoce como la prueba de Turing, con la intención de definir una prueba estándar por el que una máquina podría
catalogarse como "sensible" o "sentiente".

En 1952 Turing escribió un programa de ajedrez. A falta de una computadora lo suficientemente potente como para
ejecutarlo, él simulaba el funcionamiento de la computadora, tardando más de hora y media en efectuar un
movimiento. Una de las partidas llegó a registrarse; el programa perdió frente a un amigo de Turing.

Trabajó junto a Norbert Wiener en el desarrollo de la cibernética. Esta rama de estudios se genera a partir de la
demanda de sistemas de control que exige el progresivo desarrollo de las técnicas de producción a partir del siglo XX. La
cibernética pretende establecer un sistema de comunicación entre el hombre y la máquina como premisa fundamental
para administrar los sistemas de control. Sus estudios profundizaron en esta relación estableciendo el concepto de
interfaz y cuestionando los límites de simulación del razonamiento humano.

Estudios sobre la formación de patrones y la biología matemática.

Turing trabajó desde 1952 hasta que falleció en 1954 en la biología matemática, concretamente en la morfogénesis.
Publicó un trabajo sobre esta materia titulado "Fundamentos Químicos de la Morfogénesis" en 1952. Su principal interés
era comprender la filotaxis de Fibonacci, es decir, la existencia de los números de Fibonacci en las estructuras vegetales.
Utilizó ecuaciones de reacción-difusión que actualmente son cruciales en el campo de la formación de patrones. Sus
trabajos posteriores no se publicaron hasta 1992 en el libro "Obras Completas de A. M. Turing".

Procesamiento por su homosexualidad y muerte de Turing

La carrera profesional de Turing se vio truncada cuando lo procesaron por su homosexualidad. En 1952 Arnold
Murray, el amante de Turing, ayudó a un cómplice a entrar en la casa de Turing para robarle. Turing acudió a la policía a
denunciar el delito. Durante la investigación policial, Turing reconoció su homosexualidad, con lo que se le imputaron los
cargos de "indecencia grave y perversión sexual" (los actos de homosexualidad eran ilegales en el Reino Unido en esa
época), los mismos que a Oscar Wilde más de 50 años antes. Convencido de que no tenía de qué disculparse, no se
defendió de los cargos y fue condenado. Según su ampliamente difundido proceso judicial, se le dio la opción de ir a
prisión o de someterse a un tratamiento hormonal de reducción de la libido. Finalmente escogió las inyecciones de
estrógenos, que duraron un año y le produjeron importantes alteraciones físicas, como la aparición de pechos o un
apreciable aumento de peso, y que además le convirtieron en impotente.

En una carta de esta época a su amigo Norman Routledge, Turing escribió en forma de falso silogismo una reflexión
relacionando el rechazo social que provoca la homosexualidad con el desafío intelectual que supone su prueba para
probar la posibilidad de inteligencia en los ordenadores. En particular, le preocupaba que los ataques a su persona
pudieran oscurecer sus razonamientos sobre la inteligencia artificial:[1]

• Turing cree que las máquinas piensan

• Turing yace con hombres

• Luego las máquinas no piensan

Dos años después del juicio, en 1954, murió por envenenamiento con cianuro, aparentemente tras comerse una
manzana envenenada que no llegó a ingerir completamente. La mayoría piensa que su muerte fue intencionada y se la
consideró oficialmente como un suicidio. A pesar de que su madre intentó negar la causa de su muerte, atribuyéndola
rotundamente a una ingestión accidental provocada por la falta de precauciones de Turing en el almacenamiento de
sustancias químicas de laboratorio, su vida terminó amargamente y envuelta en una nube de misterio. Esta misteriosa
muerte ha dado lugar a diversas hipótesis incluida la del asesinato.[1] El 10 de septiembre de 2009 el primer ministro del
Reino Unido, Gordon Brown, emitió un comunicado declarando sus disculpas en nombre del gobierno por el trato que
recibió Alan Turing durante sus últimos años de vida. Este comunicado fue consecuencia de una movilización pública
solicitando al Gobierno que pidiera disculpas oficialmente por la persecución sufrida por Alan Turing.[2] [3] [4]

Reconocimiento póstumo.

El 23 de junio de 2001 se inauguró una estatua de Turing en Mánchester. Se encuentra en Sackville Park, entre el
edificio de la Universidad de Mánchester en la calle de Whitworth y la gay village de la calle del Canal.

En el 50º aniversario de su muerte se descubrió una placa conmemorativa en su antiguo domicilio, Hollymeade, en
Wilmslow el 7 de junio de 2004.

La Association for Computing Machinery otorga anualmente el Premio Turing a personas destacadas por sus
contribuciones técnicas al mundo de la computación. Este premio está ampliamente considerado como el equivalente
del Premio Nobel en el mundo de la computación.

El Instituto Alan Turing fue inaugurado por el UMIST (Instituto de Ciencia y Tecnología de la Universidad de
Manchester) y la Universidad de Manchester en el verano de 2004.

El 5 de junio de 2004 se celebró un acontecimiento conmemorativo de la vida y la obra de Turing en la Universidad


de Manchester, organizado por el "British Logic Colloquium" y la "British Society for the History of Mathematics".

El 28 de octubre de 2004 se descubrió una estatua de bronce de Alan Turing esculpida por John W. Mills en la
Universidad de Surrey. La estatua conmemora el 50º aniversario de la muerte de Turing. Representa a Turing
transportando sus libros a través del campus.[5]

Turing en la Literatura

• Turing es uno de los personajes de la sección de la Segunda Guerra Mundial del Criptonomicón de Neal Stephenson.

• La obra de teatro Breaking the Code de Hugh Whitemore trata sobre la vida y la muerte de Turing.
• En la novela de ciencia-ficción, 2001 de Arthur C. Clarke se hacen constantes referencias a Turing y a su test de
máquinas en el caso de HAL.

• En la novela de Edmundo Paz Soldán titulada "El delirio de Turing" (2003), uno de los personajes se inspira en Turing
y a otro, le ponen de sobrenombre el mismo.

• En la novela de ciencia-ficción, Neuromante de William Gibson se menciona a "La Policía Turing", que vigila la
aparición de inteligencias artificiales en el ciberespacio.

Hardware

El hardware comprende todo aquel componente físico y tangible del equipo, es decir, la parte material de la
computadora.

CPU

La Unidad Central de Proceso, como su nombre lo indica, es el lugar físico de la computadora en donde se ejecuta el
procesamiento de los datos de entrada para ofrecer una salida a manera de información útil.

Esta unidad está conformada por 3 partes que son:

Unidad de Control: Determina el orden en que se realizarán las funciones internas de la computadora. Para ello cuenta
con un contador que selecciona las instrucciones, un registro que guarda la instrucción actual, un codificador que
interpreta la instrucción para ejecutarla, y un reloj que lleva la sincronía de los dispositivos de la computadora.

Unidad Aritmética Lógica (ALU): Es la parte de la computadora que ejecuta todo el cómputo aritmético, como la suma y
multiplicación, y todas las operaciones de comparación. La ALU es un componente del CPU.

Unidad de Memoria Interna: Es el espacio dentro de CPU destinado al almacenamiento de información con la cual
trabaja. Se divide en 2 tipos de almacenamiento:

Registros: Área de almacenamiento de datos dentro del CPU. Un procesador puede tener varios registros, y el tamaño
de ellos también puede cambiar según el procesador. Esta variación ayuda a determinar el poder y la velocidad de un
CPU. Cuando se dice que un procesador es de 32 bits, significa que en sus registros puede almacenar datos de 32 bits de
longitud

Cache: Unidad de almacenamiento de datos de alta velocidad , incluida en la arquitectura del CPU. Generalmente se le
denomina cache primario o de Nivel 1, ya que existe también cache de memoria principal, y cache de disco.

Dispositivos de Entrada y Salida

Los datos se originan en muchas partes y de muchas maneras. Antes de ser procesados y almacenados deben ser
traducidos para que la computadora los pueda interpretar; para ello se necesitan dispositivos de entrada. Una vez
procesados los datos deben ser traducidos de nuevo a una forma que pueda comprenderse por el usuario, por eso se
necesitan dispositivos de salida. Estos dispositivos de entrada/salida también son llamados dispositivos periféricos y
permiten comunicarse con la computadora.

Teclado: Es un dispositivo de entrada típico que dirige la introducción de datos mediante teclas. Posee un teclado
alfanumérico denominado tablero de 10 teclas. Algunos teclados tienen también teclas de funciones especiales, que
envían a la computadora instrucciones para que realice operaciones especificas que de otro modo requerirán el uso de
varios golpes de tecla. El equipo standard es el teclado QWERTY que toma su nombre de las primeras letras que
aparecen en la primera línea de las teclas alfanuméricas.
Mouse: Forma parte del equipo de las computadoras, debido a la tendencia de ambientes gráficos en el software de
aplicación. Es un dispositivo pequeño que se conecta a la computadora por medio de un cable y cuando se mueve sobre
el escritorio produce movimientos similares en el cursor de la pantalla. Este aditamento permite el desplazamiento en la
pantalla y escoger opciones de menús principalmente.

Voz: Se pueden utilizar dispositivos para introducir datos con la voz, capaces de reconocer voces para la introducción de
cantidades limitadas de cierto tipo de datos. A pesar de que las posibilidades se reducen con la interpretación de unas
pocas palabras, la introducción de datos con la voz ya tiene algunas aplicaciones. Es un recurso valioso para quienes
requieren tener las manos libres durante su sesión con la computadora.

Scanner: Los lectores ópticos como los scanners reciben un haz de luz proveniente de una imagen y miden la cantidad de
luz reflejada para determinar el valor de la imagen. Pueden reconocer caracteres impresos, ciertos tipos de código y leer
casi todo tipo de impresos, incluso un dibujo. Una aplicación fundamental del sensor óptico en las computadoras es la
de leer material impreso del archivo de documentos de un procesador de textos.

Tablilla: Instrumento muy útil para la elaboración de dibujos. Por medio de una pluma y una tablilla sensible a presión
que tiene las mismas coordenadas X-Y de la pantalla, se puede trazar cualquier objeto directamente en la pantalla de la
computadora.

Monitor: Los resultados o salida se muestran por medio de caracteres alfanuméricos o en forma gráfica en el monitor de
la computadora. La imagen de pantalla es temporal y por eso se conoce como copia transitoria. Las características que
varían en los diferentes tipos de monitores son tres: tamaño de la imagen en pantalla, a color o monocromática y
resolución o detalles de la imagen. Algunos monitores tienen mejor poder de resolución o calidad de salida. La
resolución se refiere al numero de píxeles o puntos sobre la pantalla, y mientras más píxeles tenga la pantalla, la imagen
se verá más clara tendiendo a parecer una fotografía.

Impresora: Las impresoras producen a la salida una copia permanente, ya que presentan la salida con caracteres
inscritos en papel que permanecerá mientras dure el papel. En general se clasifican las impresoras como de caracteres o
de pagina; también se les clasifica según su velocidad de impresión.

Plotter: Un graficador de pluma (Plotter) es un dispositivo que convierte gráficas, esquemas y dibujos de líneas
generadas en la computadora en copias permanentes de alta precisión. El graficador de uso mas común en las
computadoras tiene una o varias plumas que coordinan sus movimientos sobre el papel para producir la imagen. Se
requieren varias plumas para cambiar la amplitud y color de las líneas.

Dispositivos de Almacenamiento Secundario

Las unidades de disco son dispositivos de almacenamiento secundario que confieren capacidad de procesamiento
secuencial y aleatorio al sistema de computación. El procesamiento aleatorio permite el acceso directo a los datos y
programas almacenados en el medio. Los discos se clasifican en tres tipos:

Disco duro: Disco magnético en el que se puede almacenar información computacional. El término se utiliza para
distinguirlos de los suaves o flexibles. El disco duro almacena más información que el flexible. Un disco duro, por
ejemplo puede guardar desde 10 megabytes hasta varios gigabytes, mientras que los flexibles tienen un
almacenamiento máximo de 1.4 megabytes.

Un disco duro generalmente consiste de varios platos. Cada plato requiere dos cabezas de lectura/escritura, una para
cada lado. Todas las cabezas de lectura/escritura están unidas a un brazo de acceso para que no se muevan
independientemente. Cada plato tiene el mismo número de pistas, y la localización de una pista que atraviesa todos los
platos se llama cilindro. Por ejemplo un disco duro de 84 megabytes para una pc puede tener 2 platos (cuatro lados), y
1053 cilindros.

En general, los discos duros son menos portátiles que los flexibles, aunque es posible comprar discos duros removibles.
Hay dos tipos de discos duros removibles: paquetes de discos y cartuchos removibles.

Disco flexible: Disco magnético suave. Se le llama flexible porque su material lo permite (por lo menos los de 5 pulgadas
1/4). A diferencia de la mayoría de los discos duros, los discos flexibles (llamados floppies o diskettes) son portátiles,
porque pueden removerse de la unidad de discos. Las unidades de discos se denominan unidades flexibles. Los discos
flexibles son de acceso más lento que el de los discos duros, tienen menos capacidad, pero también son mucho más
baratos, y principalmente, son portátiles. Existen principalmente 2 tamaños:

5 1/4 pulgadas: El tamaño común para PCs hechas antes de 1987. Este tipo de disco es generalmente capaz de
almacenar entre 100K y 1.2MB (megabytes) de información. Los tamaños más comunes son de 360 K y 1.2 MB.

3.5 pulgadas: Estos discos no son literalmente flexibles, pues su estuche es de plástico rígido. A pesar de su tamaño
pequeño, los "microfloppies" tienen mayor capacidad de almacenamiento que los otros (de 400 K hasta 1.4 MB). Los
tamaños más comunes para PCs son 720K (doble densidad) y 1.44 (alta densidad).

Disco óptico: Medio de almacenamiento del cual se leen datos y sobre el cual se escribe con láser. Los discos ópticos
pueden guardar mucha mas información (hasta 6 Gigabytes -6 billones de bytes) que los medios magnéticos, como
discos duros y flexibles. Existen 3 tipos básicos diferentes de discos ópticos: CD-ROM: Como los CDs de audio, los CD-
ROMs incluyen datos ya grabados en ellos. La información es permanente y puede leerse cualquier número de veces,
pero los CD-ROMs no pueden ser modificados.

Además existen unidades de cinta magnética, y también son utilizadas como dispositivo de almacenamiento.

Las cintas magnéticas, consideradas también como de almacenamiento secundario, son utilizadas principalmente como
medio de respaldo para discos duros. Estas tienen un medio de acceso únicamente secuencial, de ahí su conveniencia
sólo para respaldos de discos duros.

Software

El software comprende todo aquello que no es tangible de la computadora. En realidad es el alma de la


computadora, ya que es lo que le da vida al hardware que por sí solo no es mas que un conjunto de partes metálicas y
circuitos. Un sistema de computación no hace nada hasta que no se le ordene algo. El medio de decirle a la
computadora la forma de ejecutar ciertas operaciones es un programa que contiene las instrucciones necesarias puestas
en un orden lógico y secuencial.

El Sistema Operativo

El Sistema Operativo proporciona el enlace entre el usuario y la computadora. Consta de un programa o colección de
programas de apoyo que controlan todos los programas de la computadora. Controla también recursos como son:
memoria, espacio en disco, impresoras, etc. Prepara a la computadora para aceptar instrucciones de otros paquetes del
software, en particular cuando va a ejecutarse al mismo tiempo más de una tarea. Proporciona un ambiente de
operación ordenado y consistente para los mecanismos de entrada/salida de la computadora. Proporciona el manejo de
archivos a los datos que se almacenan en la computadora. Además se ocupa de cargar y ejecutar los programas del
usuario.
Lenguajes

El medio para decirle a la computadora la forma de ejecutar ciertas operaciones es a través de un programa que
contenga las instrucciones necesarias. Las instrucciones siguen una secuencia lógica y se elaboran mediante una
programación. Los programadores utilizan distintas herramientas para crear los programas, estas herramientas se
denominan lenguajes de programación y ayudan a comunicar las instrucciones a la computadora. Los lenguajes más
comunes actualmente para programar son Basic, Pascal, lenguaje C, Cobol y Fortran. Estos lenguajes, denominados de
alto nivel, permiten desarrollar programas de una manera relativamente sencilla y amigable. Existe un lenguaje que no
es fácil ni amigable, pero que es el único que entiende directamente la computadora, este es el lenguaje maquina y
todos los programas de los lenguajes de alto nivel deben de ser traducidos por la computadora a lenguaje maquina para
poder ser ejecutados.

Aplicaciones

A esta categoría del Software se enfocan aquellos programas que han sido creados en algún lenguaje de alto nivel o
paquete para resolver alguna necesidad en particular. Pueden resolver un problema de forma muy específica o de forma
mas general, todo depende del objetivo con que sea creada la aplicación y los alcances que tendrá. Dentro del rango de
las aplicaciones están el software de productividad y los servicios de información. El software de productividad más
común es:

Procesador de Textos: Es un programa que sirve para introducir textos a la computadora, almacenarlo en la memoria
magnética, manipularlo para obtener el resultado deseado y producir una copia permanente en papel. Muchas de sus
aplicaciones involucran la comunicación escrita: cartas, informes, memoranda, etc. Como ejemplos de procesadores de
texto, se pueden mencionar: Word for Windows, Word Perfect, Ami Pro, etc.

Hojas de Cálculo: Una aplicación muy generalizada de la computadora es la Hoja Electrónica de Cálculo, que es una
estructura tabular en una hoja electrónica de renglones y columnas. En lugar de distribuir a mano los datos en los
renglones y columnas de una hoja de papel, el usuario almacena la información en una hoja electrónica que puede
contener miles de datos. Es claro que no aparecen en la pantalla todos los datos introducidos en una hoja de tales
dimensiones, así que se muestran por partes o ventanas de la hoja total. El usuario tiene acceso a la pantalla en una o
varias ventanas cada vez. Ejemplos: Excel, Lotus 1-2-3.

Paquetes Graficadores: Este tipo de software sirve para construir una gran variedad de gráficas según al información
almacenada en una base de datos o en una hoja electrónica. Las gráficas se pueden mostrar en forma de barras,
sectores o líneas.

Por otro lado, existen también paquetes graficadores que además de permitir graficadores de tablas de valores, ofrecen
la ventaja de graficar cualquier cosa, con trazos rectos, oblicuos o curvos, con diferentes intensidades o tipos de línea.
Proporcionan además texturas de forma automática, acabados, sombreados, colores y muchas otras ventajas que han
logrado que los diseñadores, arquitectos e ingenieros encuentren en los paquetes graficadores una herramienta útil y
versátil para realizar sus proyectos de forma ágil, rápida y profesional. Algunos ejemplos de paquetes graficadores son:
Autocad, Corel Draw, Paintbrush, Storyboard.

Manejador de Bases de Datos: Al software orientado al manejo de grandes cantidades de datos se le denomina
Manejador de Bases de Datos. Permite al usuario crear, conservar una base de datos y obtener información de ella. Una
base de datos es un archivo estructurado de forma que se puedan almacenar datos ordenadamente. Con este software
el usuario identifica primero los datos y después diseña un formato de pantalla para la introducción interactiva y la
revisión de los mismos. Una vez que el formato se integre a la Base de Datos se pueden mostrar, cambiar o borrar
registros. Se puede recuperar y hacer un resumen de los datos con base en ciertos criterios. También se pueden
seleccionar una gran variedad de formatos para mostrar la información en pantalla y provee la capacidad extraordinaria
para desarrollar reportes impresos fácilmente con los datos guardados en la base de datos. Las bases de datos más
utilizadas son: dBase, Clipper, Foxpro.

Comunicaciones: Con el software de comunicaciones se transforma una microcomputadora en una terminal inteligente
con pantalla de video. Una terminal es un monitor parecido a una televisión con un teclado que le confiere la posibilidad
de comunicación a distancia con una computadora. No obstante, puede hacer mas de lo que hace una terminal, ya que
no solo puede recibir y transmitir datos a una computadora distante, sino que también puede procesarlos y
almacenarlos.

Procesador de Ideas: Un procesador de ideas es un instrumento de productividad que ayuda a organizar pensamientos e
ideas. Este software se puede usar como auxiliar en la lluvia de ideas, para bosquejar actividades en proyecto,
perfeccionar discursos y presentaciones, recuperar notas para reuniones y seminarios e innumerables usos más. El
procesador de ideas permite trabajar una sola idea dentro de una jerarquía de otras, de modo que pueda organizar y
reorganizar las ideas con facilidad. Cuando se utiliza un procesador de ideas se puede concentrar la atención en el
razonamiento y dejar que la computadora ayude en la tarea de tomar nota de las ideas.

Definición de Sistema de Información

En las últimas décadas, se han producido grandes cambios en el entorno de las empresas y las organizaciones, como
consecuencia de los avances producidos por las nuevas tecnologías de la producción, de la información y de las
comunicaciones. En este nuevo entorno, tan complejo y cambiante, para poder tomar decisiones de una manera eficaz,
es necesario disponer, en todo momento y de una forma rápida de información suficiente, actualizada y oportuna. Esto
sólo es posible, hoy en día, utilizando los equipos computacionales y el software adecuado, además de contar con los
nuevos medios de información.

También podría gustarte