Está en la página 1de 3

COMPUTACION

as ciencias de la computación son las ciencias formales que abarcan las bases teóricas


de la información y la computación, así como su aplicación en sistemas
computacionales.123 El cuerpo de conocimiento de las ciencias de la computación es
frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que
describen y transforman información: su teoría, análisis, diseño, eficiencia,
implementación, algoritmos sistematizados y aplicación.4 En términos más específicos
se trata del estudio sistemático de la factibilidad, estructura, expresión y mecanización
de procedimientos metódicos (o algoritmos) que subyacen en la
adquisición, representación, procesamiento, almacenamiento, comunicación y acceso 
a la información. La información puede estar codificada en forma de bits en una
memoria de computadora, o en algún otro objeto, como los genes y proteínas en una
célula biológica.5
Existen diversas ramas o disciplinas dentro de las ciencias de la computación; algunos
resaltan los resultados específicos del cómputo (como los gráficos por computadora),
mientras que otros (como la teoría de la complejidad computacional) se relacionan con
propiedades de los algoritmos usados al realizar cómputo; y otros se enfocan en los
problemas que requieren la implementación de sistemas computacionales. Por
ejemplo, los estudios de la teoría de lenguajes de programación describen un
cómputo, mientras que la programación de computadoras aplica lenguajes de
programación específicos para desarrollar una solución a un problema computacional
específico. Un computólogo se especializa en teoría de la computación y en el diseño e
implementación de sistemas de computacionales.6
Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la
computación es: «¿Qué puede ser (eficientemente) automatizado.
HISTORIA
La historia de la ciencia de la computación antecede a la invención
del computador digital moderno. Antes de la década de 1920, el
término computador se refería a un ser humano que realizaba cálculos.8 Los primeros
cimientos de lo que se convertiría en ciencias de la computación son anteriores a la
invención de la computadora digital moderna. Se trataba de máquinas para el cálculo
de las tareas numéricas fijas, como el ábaco han existido desde la antigüedad,
ayudando en cálculos tales como la multiplicación y la división. Además, los algoritmos
para realizar cálculos han existido desde la antigüedad, incluso antes de que se crearan
equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras,
o "Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la
construcción de objetos geométricos como altares utilizando una clavija y cuerda, un
precursor temprano del campo moderno de la geometría computacional.
Blaise Pascal diseñó y construyó la primera calculadora mecánica de trabajo,
la Pascalina, en 1642.9 En 1673 Gottfried Leibniz creó una calculadora mecánica digital,
llamada Stepped Reckoner.10 Él puede ser considerado el primer computólogo y
teórico de la información, entre otras razones, porque fue el primero en documentar
el sistema numérico binario. En 1820, Charles Xavier Thomas de Colmar lanzó
la calculadora mecánica industrial11 cuando lanzó su simplificado aritmómetro, que fue
la primera máquina de calcular lo suficientemente fuerte y lo suficientemente fiable
para ser usada a diario en un entorno industrial. Charles Babbage inició el diseño de la
primera calculadora automática mecánica, su máquina diferencial, en 1822, que
finalmente le dio la idea de la primera calculadora mecánica programable, su máquina
analítica.12 Él comenzó a desarrollar esta máquina en 1834 y "en menos de dos años
que había esbozado muchas de las características más destacadas del moderno
equipo. Un paso fundamental fue la adopción de un sistema de tarjetas perforadas
derivado del telar de Jacquard"13 haciéndolo infinitamente programable.14 En 1843,
durante la traducción de un artículo francés sobre la máquina analítica, Ada
Lovelace escribió, en una de las muchas notas que incluye el artículo, un algoritmo
para calcular los números de Bernoulli, que es considerado como el primer programa
de ordenador.15 Alrededor de 1885, Herman Hollerith inventó la máquina tabuladora,
que usaba tarjetas perforadas para procesar información estadística; finalmente, su
compañía se convirtió en parte de IBM. En 1937, cien años después del sueño
imposible de Babbage, Howard Aiken convencidos por IBM, que estaban
manufacturando todo tipo de equipos de tarjetas perforadas y así como la calculadora
de negocio 16 para desarrollar su calculadora programable gigante, el ASCC/Harvard
Mark I, se basó en la máquina analítica de Babbage, que a su vez utiliza las tarjetas
perforadas y una unidad central de cálculo. Cuando se terminó de construir la
máquina, algunas personas lo aclamaron como «el sueño de Babbage hecho
realidad».17
Durante la década de 1940, conforme se desarrollaban las nuevas y más poderosas
máquinas para computar, el término computador se comenzó a utilizar para referirse a
las máquinas y ya no a sus antecesores humanos.18 Cuando se hizo evidente que las
computadoras no solamente podrían utilizarse para realizar cálculos matemáticos, el
campo de las ciencias de la computación se amplió para estudiar cómputo en general.
Las ciencias de la computación empezaron a establecerse como una disciplina
académica distinta de las demás en la década de 1950 y principios de 1960.719 Entonces
surgió el primer programa de grado universitario mundo, el Cambridge Diploma in
Computer Science, del Cambridge Computer Lab (Departamento de Ciencias de la
Computación) de la Universidad de Cambridge, en 1953. El primer programa de grado
universitario en ciencias de la computación en los Estados Unidos se formó
en Universidad de Purdue en 1962.20 Desde que se dispone ordenadores prácticos,
muchas aplicaciones la de las ciencias de la computación convirtieron en diferentes
áreas de estudio en sus propios términos.
Aunque inicialmente muchos creyeron que era imposible que las computadoras en sí
mismas podrían constituir en realidad un campo científico de estudio, a finales de los
años cincuenta se fue volviendo gradualmente aceptada entre la población mayor
académica.2122 Es la marca IBM que a 2015 es muy conocida la que formó parte de la
revolución de las ciencias de la computación durante este tiempo. IBM (abreviación
de International Business Machines) lanzó el IBM 70423 y más tarde las computadoras
de IBM 70924 que fueron ampliamente utilizadas durante el período de exploración de
este tipo de dispositivos. "Sin embargo, el trabajo con las IBM [computadoras] fue
frustrante ... si hubieras perdido tanto como una letra en una instrucción, el programa
chocaría, y usted tendría que empezar todo el proceso otra vez".21 Durante a finales de
1950, la disciplinas de las ciencias de la computación estaban en sus etapas de
desarrollo más primordiales, y tales cuestiones eran comunes.22
La disciplina científica de las ciencias de la computación nace a principios de 1940 con
la confluencia de la teoría de algoritmos, lógica matemática y la invención del
programa almacenado en una computadora electrónica.4 Ejemplos de esto son los
trabajos de Alan Turing, Alonzo Church y Kurt Gödel en 1930 acerca de los algoritmos y
su trabajo en sistemas de reglas (véase Cálculo Lambda, Máquina de
Turing y Problemas Indecidibles), los algoritmos creados por Augusta Ada sesenta años
antes, la computadora analógica construida por Vannevar Bush en 1920 y las
computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los
escritos de John Von Neumann dieron una profundidad intelectual considerable a esta
disciplina emergente a mediados de la década de 1940.
En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de
departamentos académicos y programas de grado universitario para esta
disciplina.4 IBM es reconocida como la marca que formó parte de la revolución de las
ciencias de la computación durante ese tiempo. IBM (abreviación de International
Business Machines) lanzó la IBM 70425 y más tarde la IBM 70926 computadoras, que
fueron ampliamente utilizadas durante el período de exploración de este tipo de
dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era frustrante ... si te
equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría
que empezar todo el proceso otra vez".21 Durante la década de 1950, la disciplina de
las ciencias de la computación estaba en su etapa de desarrollo, y estos problemas
eran algo común.
El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la
tecnología de la computación. La sociedad moderna ha presenciado un cambio
significativo en los usuarios de la tecnología en cómputo, de ser utilizada únicamente
por expertos, profesionales y científicos, a una base de usuarios que es casi
omnipresente a la teoría con la cual se desarrolló y funciona este tipo de tecnología.
Inicialmente, las computadoras eran bastante costosas, y era necesario un cierto grado
de ayuda humana para el uso eficiente - en parte de operadores de computadoras
profesionales. Como la adopción equipo se hizo más generalizado y asequible, se
necesitaba menos asistencia humana en el uso común

También podría gustarte