Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Asignatura:
Inteligencia Artificial
Unidad:
00
Tema:
Informática, computadoras y programación
Docente:
José Rafael Rojas Beriguete
Sustentantes:
Jefferson Hernández De Los Santos
Matricula:
19-SISM-1-064
Sección:
0707
Informática
Informática es el tratamiento automático de la información. Como tal, la informática designa
a un conjunto de conocimientos teóricos y prácticos, relativos al ámbito de la ciencia y de la
tecnología, que se combinan para posibilitar el tratamiento racional y automático de la
información mediante sistemas informáticos o computadoras.
Las tareas principales de la informática son almacenar, procesar y transmitir la información.
Historia
El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla
dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las
unidades, la siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos
se podía realizar operaciones de adición y sustracción.
Otro de los hechos importantes en la evolución de la informática lo situamos en el siglo
XVII, donde el científico francés Blas Pascal inventó una máquina calculadora. Ésta sólo
servía para hacer sumas y restas, pero este dispositivo sirvió como base para que el alemán
Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de realizar operaciones de
adición y sustracción, podía efectuar operaciones de producto y cociente. Ya en el siglo XIX
se comercializaron las primeras máquinas de calcular. En este siglo el matemático inglés
Babbage desarrolló lo que se llamó "Máquina Analítica", la cual podía realizar cualquier
operación matemática.
Además, disponía de una memoria que podía almacenar 1000 números de 50 cifras y hasta
podía usar funciones auxiliares, sinembargo seguía teniendo la limitación de ser mecánica.
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se empiezan a
solucionar los problemas técnicos que acarreaban estas máquinas, reemplazándose los
sistemas de engranaje y varillas por impulsos eléctricos, estableciéndose que cuando hay un
paso de corriente eléctrica será representado con un *1* y cuando no haya un paso de
corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer ordenador, el cual fue
llamado Mark I y su funcionamiento se basaba en interruptores mecánicos. En 1944 se
construyó el primer ordenador con fines prácticos que se denominó Eniac. En 1951 son
desarrollados el Univac I y el Univac II (se puede decir que es el punto de partida en el
surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente).
3
Generaciones de la Informática
1° Generación: Se desarrolla entre 1940 y 1952. Es la época de los ordenadores que
funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder
programarlos había que modificar directamente los valores de los circuitos de las máquinas.
2° Generación: Va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el
transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya
tenían una programación previa que serían los sistemas operativos. Éstos interpretaban
instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador
escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje
máquina.
3° Generación: Se dio entre 1964 y 1971. Es la generación en la cual se comienzan a utilizar
los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar la
capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta
generación es importante porque se da un notable mejoramiento en los lenguajes de
programación y, además, surgen los programas utilitarios.
4° Generación: Se desarrolla entre los años 1971 y 1981. Esta fase de evolución se
caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición
del microprocesador, que es la integración de todos los elementos básicos del ordenador en
un sólo circuito integrado.
5° Generación: Va desde 1981 hasta nuestros días (aunque ciertos expertos consideran
finalizada esta generación con la aparición de los procesadores Pentium, consideraremos que
aún no ha finalizado) Esta quinta generación se caracteriza por el surgimiento de la PC, tal
como se la conoce actualmente.
Utilidad de la Informática
La informática nos posibilita el manejo rápido y eficiente de enormes volúmenes de datos y
es clave en el desarrollo de las tecnologías de la comunicación y el internet.
Su grado de utilidad es tal que hoy día no hay prácticamente actividad humana o disciplina
del conocimiento que no se sirva de ella.
Asimismo, la informática posee dos importantes áreas de desarrollo que son
el software (programas informáticos) y el hardware (parte física del sistema informático).
Computadoras
La informática nos posibilita el manejo rápido y eficiente de enormes volúmenes de datos y
es clave en el desarrollo de las tecnologías de la comunicación y el internet.
Historia
Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas
avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población de 1890
de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró
los principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos
historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron
(1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de
la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la
práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía
muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de
entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos,
un procesador para las operaciones matemáticas y una impresora para hacer permanente
el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles
como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para
predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de
las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943
el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado
por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los
alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya
habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU).
Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico
(ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el
‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and
Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
Utilidad del Computador
5
Su grado de utilidad es tal que hoy día no hay prácticamente actividad humana o disciplina
del conocimiento que no se sirva de ella. Asimismo, la informática posee dos importantes
áreas de desarrollo que son el software (programas informáticos) y el hardware (parte física
del sistema informático).
Hardware
Hardware es la parte física de un ordenador o sistema informático. Está formado por los
componentes eléctricos, electrónicos, electromecánicos y mecánicos, tales como circuitos de
cables y luz, placas, memorias, discos duros, dispositivos periféricos y cualquier otro material
en estado físico que sea necesario para hacer que el equipo funcione.
Software
También las computadoras están constituidas por unos dispositivos llamados de la siguiente
manera:
Dispositivos de Entrada
Se entiende por dispositivos de entrada o dispositivos de alimentación (Input) a los que
permiten ingresar información al sistema informático, ya sea proveniente del usuario, de otra
computadora o un sistema de ellas, o de un soporte físico portátil.
Los distintos dispositivos de entrada traducen los datos en impulsos eléctricos, que luego son
transmitidos al computador para su proceso y almacenamiento en la memoria central o
interna. Son vitales para permitir la comunicación entre el sistema informático y el exterior,
junto a los dispositivos de salida, de los cuales se distinguen en que estos últimos extraen
información del sistema en lugar de introducirla.
Dispositivos de Salida
se conoce como dispositivos de salida (output) a aquellos que permiten la extracción o
recuperación de información proveniente del computador o sistema informático, es decir, su
traducción a términos visuales, sonoros, impresos o de cualquier otra naturaleza.
Esto implica que los dispositivos de salida no suelen introducir información al sistema,
excepto en el caso de dispositivos mixtos o de entrada/salida o E/S (en inglés input/output o
I/O), los cuales pueden cumplir con ambas funciones.
Los dispositivos de salida son variados y permiten la comunicación del sistema
computarizado con el exterior, ya sea con el usuario, con otros sistemas o con una red de los
mismos, ya que es la única vía para obtener datos del sistema, por lo general representados de
alguna manera.
Sistema Operativo
Un sistema operativo es un conjunto de programas que permite manejar la memoria, disco,
medios de almacenamiento de información y los diferentes periféricos o recursos de nuestra
computadora, como son el teclado, el ratón, la impresora, la placa de red, entre otros.
Los periféricos utilizan un driver o controlador y son desarrollados por los fabricantes de
cada equipo. Encontramos diferentes sistemas operativos como Windows, Linux, MAS OS,
en sus diferentes versiones. También los teléfonos y tabletas poseen un sistema operativo.
Dentro de las tareas que realiza el sistema operativo, en particular, se ocupa de gestionar la
memoria de nuestro sistema y la carga de los diferentes programas, para ello cada programa
tiene una prioridad o jerarquía y en función de esta contará con los recursos de nuestro
sistema por más tiempo que un programa de menor prioridad.
El sistema operativo se ocupa también de correr procesos. Llamamos proceso a la carga en
memoria de nuestro programa, si no está cargado en memoria nuestro programa simplemente
“no corre”.
9
Programación
Programación es la acción de programar que implica ordenar, estructurar o componer una
serie de acciones cronológicas para cumplir un objetivo. La programación puede ser aplicado
para eventos sociales, a medios de comunicación y al mundo informático de las
computadoras.
En informática, la programación es el uso de lenguajes informáticos para imprimir en un
sistema computacional funciones y procesos deseados. La programación de una
computadora es la forma de indicar a la computadora qué es lo que tiene que hacer.
Un lenguaje de programación es, en la ciencia de la computación, la herramienta para
automatizar informaciones y acciones a través de una computadora. Los lenguajes de
programación más conocidos son: Basic, C++, Phyton, Java, C#, entre otros.
La programación es una de las etapas para el desarrollo de un programa o software. La
programación especifica la estructura y el comportamiento de un programa verificando si está
funcionando adecuadamente o no.
La programación incluye la especificación del algoritmo definida como la secuencia de pasos
y operaciones que el programa debe realizar para resolver un problema. Para que el algoritmo
funcione, el programa debe estar implementado en un lenguaje compatible y correcto.
Algoritmo
Tipos de datos
Las variables y las constantes (y otras cosas) tienen otra característica que es el tipo de dato,
un atributo que indica a la computadora la clase de datos que va a manejar dentro de una
celda de memoria concreta, imponiendo así restricciones acerca de las operaciones que se
pueden hacer con ellos. Estos son: Simples, Compuestos, Abstractos, Puntero, Objeto, etc.
Historia
El principio de la historia de la programación
El primer lenguaje de programación fue un algoritmo creado por Ada Lovelace en 1883.
Ada Lovelace creó este algoritmo para el motor analítico de Charles Babbage.
El propósito de este algoritmo era calcular los números de Bernoulli.
En 1936, por primera vez, los códigos informáticos fueron especializados por Alonzo Church
y Alan Turing.
Church expresó el cálculo lambda de forma formulativa.
Lenguaje de ensamblaje
Los primeros ordenadores modernos (alimentados eléctricamente) fueron creados en los años
40.
Estas computadoras estaban limitadas en velocidad y capacidad de memoria.
Debido a estas limitaciones, los programadores se vieron obligados a escribir manualmente
programas en lenguaje ensamblador.
Siendo un lenguaje de programación de bajo nivel, era una tarea difícil programarlo
manualmente.
Los programadores se dieron cuenta entonces de la necesidad de lenguajes de alto nivel para
disminuir el esfuerzo que se requería para escribir los programas en lenguaje ensamblador
manualmente.
John Mauchly propuso el Short Code, originalmente conocido como código breve y fue
implementado por William F Schmidt.
El código corto fue el primer lenguaje de programación funcional. Se representaba en una
expresión matemática comprensible para los humanos.
Un programa tiene que ser traducido al código de la máquina cada vez que se ejecuta. Este
era un proceso mucho más lento.
En 1952, Autocode fue desarrollado por Alick Glennie.
Fue el primer lenguaje compilado que se convierte directamente en código máquina usando
un compilador.
Es la segunda versión, Mark 1 autocode, fue desarrollado dos años después por R.A. Brooker
para Mark 1.
El autocódigo fue mejor que sus predecesores, pero aun así no logró ganar popularidad.
FORTRAN fue el primer lenguaje de programación popular que fue desarrollado en 1954 por
un equipo de IBM.
Es el lenguaje de programación de alto nivel más antiguo que aún se utiliza. Todavía había
tiempo para que salieran los lenguajes de alto nivel como Java, C y C++.
Pero su punto de partida fue desarrollado en 1958 por un comité científico de investigación y
usos científicos.
Desarrollaron un lenguaje conocido como Algol.
Java y muchos otros lenguajes de alto nivel están basados de alguna manera en Algol.