Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. 1. Conjunto de instrucciones que una vez ejecutadas realizaran una o varias tareas en
una computadora.Al conjunto general de programasse le denomina: software
2. 2. Las instrucciones que se escribieron en un lenguaje de programación se ha
traducido al único idioma que la máquina comprende (combinaciones de ceros y unos)
llamado “Código de máquina.”
3. 3. . Los sistemas operativos modernos pueden correr varios programas a través
delMULTITAREA planificador de procesos — unMUCHOS PROGRAMAS PUEDEN
mecanismo de software paraCORRER SIMULTÁNEAMENTE conmutar con frecuencia
laEN UNA MISMACOMPUTADORA cantidad de procesos del procesador de modo
que los usuarios puedan interactuar con cada programa mientras estos están
corriendo. También se puede lograr la multitarea por medio del hardware; las
computadoras modernas que usan variosESTO SE LOGRA MEDIANTE
ELHARDWARE O EL SOFTWARE, procesadores o procesadoresSEGÚN SEA EL
CASO. con varios núcleos pueden correr muchos programas a la vez.
4. 4. El programa es cargado a la memoria de acceso o RAM, bajo el control del
software llamado SISTEMAALMACENAMIENTO OPERATIVO, el cual puede
accederTípicamente los programas directamente al PROCESADOR.se almacenan en
una El procesador ejecuta (corre) elmemoria no volátil. programa, instrucción por
instrucción, hasta que finaliza. A un programa en ejecución se le puede denominar
PROCESO.Luego el usuario de lacomputadora solicita suejecución.
5. 5. La Programación es el proceso de diseñar, codificar, depurar y mantener el código
fuente de programas computacionales. El código fuente es escrito en un lenguaje de
programación. El propósito de la programación es crear programas que exhiban un
comportamiento deseado. El proceso de escribir código requiere frecuentemente
conocimientos en varias áreasdistintas, además del dominio del lenguaje a utilizar,
algoritmos especializados y lógica formal.
6. 6. Los primeros científicos que trabajaban en el áreaDISEÑO decidieron reemplazar
las instrucciones, secuencias dePara diseñar un unos y ceros, por palabras
oprograma, y que letras provenientes del inglés;la computadora codificándolas así y
creandointerprete y un lenguaje de mayor nivel, que se conoce comoejecute las
Assembly o lenguajeinstrucciones ensamblador. Una vez que seescritas en él, termina
de escribir undebe usarse un programa es necesarioLenguaje de compilarlo, es
decir,programación. traducirlo a lenguaje máquina.
7. 7. Bajo esta premisa, y en el extremo, el lenguaje másPROGRAMACIÓN potente
existente es elLa programación se rige binario, con ambigüedadpor reglas y un
conjunto nula .más o menos reducidode órdenes, expresiones,instrucciones
ycomandos que tienden aasemejarse a una lenguanatural acotada (eninglés); y que
ademástienen la particularidadde una reducidaambigüedad.
8. 8. El proceso de creación de software, desde el punto de vista de la ingeniería,
incluye los siguientes pasos: Reconocer la necesidad de un programa para
solucionar un problema o identificar la posibilidad de automatización de una tarea.
Recoger los requisitos del programa. Debe quedar claro qué es lo que debe hacer el
programa y para qué se necesita. Realizar el análisis de los requisitos del programa.
Debe quedar claro cómo debe realizar el programa las cosas que debe hacer. Las
pruebas que comprueben la validez del programa se pueden especificar en esta
fase. Diseñar la arquitectura del programa. Se debe descomponer el programa en
partes de complejidad abordable. Implementar el programa. Consiste en realizar un
diseño detallado, especificando completamente todo el funcionamiento del programa,
tras lo cual la codificación (programación propiamente dicha) debería resultar
inmediata. Implantar (instalar) el programa. Consiste en poner el programa en
funcionamiento junto con los componentes que pueda necesitar (bases de datos,
redes de comunicaciones, etc.).
9. 9. En inglés se le conoce como debugging, es que se asemeja aDEPURACION la
eliminación de bichosEs el proceso de (bugs), manera en que seidentificar y conoce
informalmente a loscorregir errores errores de programación. Se dice que el término
bugde programación. proviene de la época de los ordenadores de válvula termoiónica,
en los cuales los problemas se generaban por los insectos que eran atraídos por las
luces y estropeaban el equipo.
CIBERNETICA
La cibernética es una ciencia nacida hacia 1942 e impulsada inicialmente por Norbert Wiener
y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y
en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema
del control y la comunicación en general”. Sin embargo, cabe aclarar que se puede tomar
como inicio de esta disciplina en el año 1940 con las investigaciones de Norbert Wiener
y Vannevar Bush sobre las máquinas de cálculo y sobre redes eléctricas con Yuk Wing Lee.
Aunque el término no será acuñado hasta 1947. En 1950, Ben Laposky, un matemático de
Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se
considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el
despertar de lo que habría de ser denominado computer graphics y, luego, computer art e
infoarte. También, durante la década del cincuenta, William Ross Ashby propone teorías
relacionadas con la inteligencia artificial.
La cibernética dio gran impulso a la teoría de la información a mediados de los 60; el
computador digital sustituyó al analógico en la elaboración de imágenes electrónicas. En esos
años aparece la segunda generación de computadores (con transistores en 1960)
concretándose por entonces los primeros dibujos y gráficos de computador, y la tercera
(con circuitos integrados, en 1964) así como los lenguajes de programación.
En 1965 tuvo lugar en Stuttgart la exposición ”Computer-graphik”. Pero la muestra que
consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en
el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición
“Mindextenders” del Museum of Contemporary Crafts de Londres.
En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año,
en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada
por Jorge Glusberg. Con esta muestra se inaugurarían los principios de la relación arte/imagen
digital en ese país. En España la primera manifestación fue la de “Formas
computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas
por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el
Instituto Alemán de Madrid y de Barcelona presentaron una de las muestras más completas
que ha tenido lugar en España, titulada<Impulso arte computador>
Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994. Es
importante aclarar que ya por los 1960 existían algunas antecedentes. De todas formas se
puede establecer que las primeras experiencias donde la tecnología informática puesta al
servicio de la comunidad funcionó como soporte estético trascurren por aquellos años y rompe
con la idea de lectura lineal de la obra.
ETIMOLOGIA DE LA CIBERNETICA
Norbert Wiener encontró justo la palabra que quería en la operación de los grandes barcos de
la antigua Grecia. En el mar, los grandes barcos batallaban contra la lluvia, el viento y
las mareas; cuestiones de ninguna forma predecibles. Sin embargo, si el hombre, operando
sobre el timón, podía mantener su mirada sobre un lejano faro, podría manipular la caña del
timón, ajustándola constantemente en tiempo real, hasta alcanzar la luz. Esta es la función
del timonel. En los tiempos rudos de Homero la palabra griega para designar al timonel
era kybernetes, que Wiener tradujo al Inglés como cybernetics, en español cibernética."
INFORMATICA
Carcasa del procesador LGA775 de Intel, con la tarjeta madre, el ventilador del procesador, la
alimentación eléctrica, y la memoria.
El vocablo informática proviene del francés informatique, acuñado por el ingeniero Philippe
Dreyfus para su empresa «Société d'Informatique Appliquée» en 1962. Pronto adaptaciones
locales del término aparecieron en italiano, español, rumano, portugués y holandés, entre
otras lenguas, refiriéndose a la aplicación de las computadoras para almacenar y procesar
la información.
GENERALIDADES DE LA COMPUTACION
Las ciencias de la computación o ciencias computacionales son aquellas que abarcan las bases teóricas
de la información y la computación, así como su aplicación en sistemas computacionales.1 2 3 El cuerpo
de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio
sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis,
diseño, eficiencia, implementación y aplicación.
El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una
sumadora mecánica. Siglo y medio después, el filósofo y matemático francés
Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le
llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que
Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un
desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor
humana para los cálculos artiméticos.
Otro de los inventos mecánicos fue la máquina de Gottfried Wilhelm von Leibniz (1646 - 1716)
de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los
engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de
las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un
automóvil.
La primera computadora fue la máquina analítica creada por Charles
Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que
tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las
tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico
lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para
efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que
podía reproducir automáticamente patrones de tejidos leyendo la información codificada en
patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de
este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la
máquina analítica que se pudiera programar con tarjetas perforadas para efectuar
cualquier cálculocon una precisión de 20 dígitos. La tecnología de la época no bastaba para
hacer realidad sus ideas.
La computadora es, por mucho, una de las invenciones que más beneficios
le han dado a la humanidad. Su enorme capacidad para procesar datos la
convierten en una parte fundamental en el desarrollo de la ciencia.
Pero… ¿qué es lo que hace posible que esta poderosa máquina electrónica
funcione? El hardware en combinación con el software hacen que esto sea
posible. El hardware de una computadora se refiere a todos
esos elementos que son tangibles en una computadora, mientras que el
software son aquellos programas, instrucciones y reglas informáticas que
hacen posible la ejecución de tareas específicas en un ordenador.
Teclado
Unidad Central de Proceso (CPU, por sus siglas en ingles)
Monitor
Ratón (Mouse)
Disquetera (Floppy)
CD-ROM
El teclado
Es el dispositivo que le brinda la posibilidad al usuario introducir
datos para que después puedan ser interpretados y procesados por
la CPU. El aspecto de un teclado de ordenador es bastante similar al
de una máquina de escribir y actualmente su clasificación está
conformada de la siguiente manera: teclado XT, teclado AT, teclado
expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico.
Cabe destacar que en la mayoría de los sistemas
operativos modernos se pueden utilizar teclados virtuales (en
pantalla ó monitor) que pueden ser operados con el ratón,
brindándole la posibilidad al usuario de simular el funcionamiento de
un teclado real.
Comúnmente conocido como microprocesador, es el encargado de procesar
los datos contenidos en los programas e interpretar las instrucciones del
usuario. La evolución de la tecnología en este rubro ha sido tan grande que
actualmente existen microprocesadores con doble núcleo que,
básicamente son dos procesadores en uno mismo, lo que les permite
aumentar considerablemente la capacidad de procesamiento de datos de
una forma más rápida.
A pesar de que la definición de CPU en los últimos años ha sido bastante
clara, comúnmente se le llama CPU a todo el «cuadro» en donde están
ensamblados todos los componentes y tarjetas (memoria RAM, tarjeta de
video, tarjeta de sonido, tarjeta madre, etc.) de una computadora.
MONITOR
Es el dispositivo que, por medio de una interfaz, permite al usuario
poder visualizar los datos previamente procesados por el CPU. La unidad
mínima que se puede representar en un monitor es denominada Píxel, que
se puede definir como cada uno de los puntos que conforman una imagen
digital. Actualmente lo último en tecnología son los monitores de cristal
líquido (LCD, por sus siglas en ingles).
RATON
En informática, un mouse ó ratón es el dispositivo que, al igual que el
teclado, permite enviarle instrucciones a una computadora mientras este
interactúa con una interfaz gráfica. Hoy en día es un dispositivo
imprescindible en un ordenar, pero, se prevé que en un futuro no muy lejano
este dispositivo desaparezca, dejándole esta tarea a los ojos humanos.
DISQUERA
Es la unidad en donde se lleva a cabo la lectura de los discos flexibles ó
disquetes, un medio de almacenamiento de datos. En la actualidad, la
mayoría de las computadoras de reciente modelo ya ni siquiera toman en
cuenta a este dispositivo. ¿Por qué? La poca confiabilidad en estos
dispositivos fue una de las primordiales razones. Y la verdad es que los
disquetes están desde hace tiempo, quieran o no, obsoletos.
CD-ROM
Disco Compacto de Memoria de Sólo Lectura (CD-ROM, por sus siglas en
ingles) es un sistema de almacenamiento masivo que permite el
almacenamiento de 680 Mb. Al referirse a “sólo lectura”, quiere decir que
solo se puede grabar en este medio una sola vez. Los fabricantes de
ordenadores, de la misma manera que le paso a las disqueteras, están
tomando la decisión de omitir en sus equipos la integración de los lectores
de CD para dejarle el camino libre al DVD del cual probablemente hablemos
de el más adelante.