Está en la página 1de 36

INTRODUCCIÓN

En la actualidad no se puede pensar en casi ninguna actividad en la cual no


intervengan de alguna manera los procesos de cómputo. Las computadoras han
invadido la mayoría de las labores del ser humano
El mundo está cambiando y usted deberá aprender todas esas, antes
complicadas, hoy comunes tecnologías modernas que le permitirán conseguir
un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la
comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por
ende la contaminación de las grandes ciudades. La mayoría de los gobiernos de
los países en desarrollo han tomado muy en serio los programas de educación
para crear en sus poblaciones una "cultura informática".
Definitivamente, las computadoras están cambiando nuestras vidas. Ahora
hemos de aprenderla para no quedar inmersos en una nueva forma de
analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas sociales
que incluyen: novedosas maneras de comercialización aprovechando las
facilidades para comunicarse con todo el mundo a través de Internet; la
necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre todo;
la concepción de una nueva manera de relacionarse con nuestros semejantes,
que contemple una serie de normas éticas que regulen la convivencia pacifica y
cordial entre los millones de personas que tienen que utilizar estas avanzadas
tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios.
PRÓLOGO
Hoy día todos los habitantes del mundo somos dependientes directos o
indirectos del uso de las computadoras, como en oficinas bancarias, grandes y
medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones
para viajes, clínicas médicas u hospitales, fabricas y almacenes industriales,
organismos de gobierno y oficinas administrativas, laboratorios, y centros de
investigación. Estas máquinas maravillosas inventadas por el hombre, tal como
ahora las concebimos, son el resultado de una secuencia de eventos que el
transcurso de esta investigación conoceremos.
Para saber mas acerca de estos eventos en esta investigación mostraremos las
diferentes generaciones por las que ha pasado el mundo de la computación, esta
larga historia es necesario mencionar las épocas y los personajes gracias a cuyos
valiosos aportes a través del tiempo, hicieron posible la gestación de la hoy
llamada Era de la Computación, la cual sin lugar a dudas es el resultado de un
largo proceso evolutivo que jamás cesará.

MARCO TEÓRICO
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar
información. Los operadores ingresaban los datos y programas en código
especial por medio de tarjetas perforadas. El almacenamiento interno se lograba
con un tambor que giraba rápidamente, sobre el cual un dispositivo de
lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos
eran mucho más grandes y generaban más calor que los modelos
contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
Generación formando una compañía privada y construyendo UNIVAC I, que el
Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el
monopolio de los equipos de procesamiento de datos a base de tarjetas
perforadas y estaba teniendo un gran auge en productos como rebanadores de
carne, básculas para comestibles, relojes y otros artículos; sin embargo no había
logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada


fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM
701 se conviertió en un producto comercialmente viable. Sin embargo en 1954
fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta
hoy de una gran parte del mercado de las computadoras. La administración de
la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este
número era mayor que la cantidad de computadoras instaladas en esa época en
E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque
caras y de uso limitado las computadoras fueron aceptadas rápidamente por las
Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington
Rand se consolidaban como líderes en la fabricación de computadoras.
SEGUNDA GENERACIÓN (1959-1964)
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras,
más rápidas, más pequeñas y con menores necesidades de ventilación. Sin
embargo el costo seguía siendo una porción significativa del presupuesto de una
Compañía. Las computadoras de la segunda generación también utilizaban
redes de núcleos magnéticos en lugar de tambores giratorios para el
almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse datos
e instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon
Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya
disponible comercialmente, este representa uno de os mas grandes avances en
cuanto a portabilidad de programas entre diferentes computadoras; es decir, es
uno de los primeros programas que se pueden ejecutar en diversos equipos de
computo después de un sencillo procesamiento de compilación. Los programas
escritos para una computadora podían transferirse a otra con un mínimo
esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el
primer compilador fue una de las principales figuras de CODASYL (Comité on
Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El
escribir un programa ya no requería entender plenamente el hardware de la
computación. Las computadoras de la 2da Generación eran sustancialmente
más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones,
como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo
y simulaciones para uso general. Las empresas comenzaron a aplicar las
computadoras a tareas de almacenamiento de registros, como manejo de
inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para


crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el
primer competidor durante la segunda generación de computadoras.
Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de
IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la
IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y
7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido
modelo CDC16O4, y muchas otras, que constituían un mercado de gran
competencia, en rápido crecimiento. En esta generación se construyen las
supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
TERCERA GENERACIÓN (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación,
Minicomputadora.
Las computadoras de la tercera generación
emergieron con el desarrollo de los
circuitos integrados (pastillas de silicio) en
las cuales se colocan miles de componentes
electrónicos, en una integración en
miniatura. Las computadoras nuevamente
se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran
energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero
Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que
realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors,
acerca de los circuitos integrados, dieron origen a la tercera generación de
computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban
diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos
cosas. Los circuitos integrados permitieron a los fabricantes de computadoras
incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tanto análisis numéricos como administración ó
procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la
impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta
máquina causó tal impacto en el mundo de la computación que se fabricaron
más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora
CDC 6600, que se consideró como la más poderosa de las computadoras de la
época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones
por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas
magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía
usan las tarjetas perforadas para la entrada de datos, pero las lectoras de
tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y
podían todavía correr sus programas actuales. Las computadoras trabajaban a
tal velocidad que proporcionaban la capacidad de correr más de un programa de
manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando
pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo
360 IBM acaparó el 70% del mercado, para evitar competir directamente con
IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos
hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar
que las computadoras grandes, las minicomputadoras se desarrollaron durante
la segunda generación pero alcanzaron sumador auge entre 1960 y 70.
CUARTA GENERACIÓN (1971 a 1981)
Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por las de
chips de silicio y la colocación de Muchos más componentes en un Chip:
producto de la microminiaturización de los circuitos electrónicos. El tamaño
reducido del microprocesador y de chips hizo posible la creación de las
computadoras personales (PC)
En 1971, intel Corporation, que era una
pequeña compañía fabricante de
semiconductores ubicada en Silicon
Valley, presenta el primer
microprocesador o Chip de 4 bits, que en
un espacio de aproximadamente 4 x 5 mm
contenía 2 250 transistores. Este primer
microprocesador que se muestra en la
figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San
Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en
una zona totalmente industrializada donde se asienta una gran cantidad de
empresas fabricantes de semiconductores y microprocesadores. Actualmente es
conocida en todo el mundo como la región más importante para las industrias
relativas a la computación: creación de programas y fabricación de
componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más grandes a
nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes
avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras
microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por
Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra
al mercado de las microcomputadoras con su Personal Computer (figura 1.15),
de donde les ha quedado como sinónimo el nombre de PC, y lo más importante;
se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk
Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías
con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o
Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término
Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran
capacidad de generación de gráficos y sonidos gracias a sus poderosos
procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último
microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced
Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM
Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar
las interfaces gráficas de usuario (Graphic User Interface, GUI), que son
pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las
tareas de comunicación entre el usuario y la computadora, tales como la
selección de comandos del sistema operativo para realizar operaciones de
copiado o formato con una simple pulsación de cualquier botón del ratón
(mouse) sobre uno de los iconos o menús.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-
1989)
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya no nos
sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que
la cuarta y quinta generación han terminado, y las ubican entre los años 1971-
1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta
generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de
microelectrónica y computación (software) como CADI CAM, CAE, CASE,
inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de
los años ochenta se establecieron las bases de lo que se puede conocer como
quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy
Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda
en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del
proyecto "quinta generación", que según se estableció en el acuerdo con seis de
las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la
capacidad de trabajar simultáneamente con varios microprocesadores. Aunque
en teoría el trabajo con varios microprocesadores debería ser mucho más
rápido, es necesario llevar a cabo una programación especial que permita
asignar diferentes tareas de un mismo proceso a los diversos microprocesadores
que intervienen.
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar este
problema se tuvieron que diseñar módulos de memoria compartida capaces de
asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería la
aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes.
También tienen la capacidad de comunicarse con un lenguaje natural e irán
adquiriendo la habilidad para tomar decisiones con base en procesos de
aprendizaje fundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en
dispositivos magneto ópticos con capacidades de
decenas de Gigabytes; se establece el DVD (Digital
Video Disk o Digital Versatile Disk) como estándar
para el almacenamiento de video y sonido; la
capacidad de almacenamiento de datos crece de
manera exponencial posibilitando guardar más
información en una de estas unidades, que toda la
que había en la Biblioteca de Alejandría. Los componentes de los
microprocesadores actuales utilizan tecnologías de alta y ultra integración,
denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale
Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta
generación. Personalmente, no hemos visto la realización cabal de lo expuesto
en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia
artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el
transcurso de esta generación, es la conectividad entre computadoras, que a
partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha
adquirido una importancia vital en las grandes, medianas y pequeñas empresas
y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las
Computadoras con "Inteligencia Humana" y con la
capacidad de razonar para encontrar soluciones. Otro
factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de
procesamiento que haya encontrado previamente,
(programación Heurística) que permita a la Computadora
recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a
partir de sus propias experiencias usará sus Datos
originales para obtener la respuesta por medio del razonamiento y conservará
esos resultados para posteriores tareas de procesamiento y toma de decisiones.
SEXTA GENERACIÓN 1990 HASTA LA FECHA
Como supuestamente la sexta generación de computadoras está en marcha
desde principios de los años noventas, debemos por lo menos, esbozar las
características que deben tener las computadoras de esta generación. También
se mencionan algunos de los avances tecnológicos de la última década del siglo
XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta
generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con
cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han
creado computadoras capaces de realizar más de un millón de millones de
operaciones aritméticas de punto flotante por segundo (teraflops); las redes de
área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente
utilizando medios de comunicación a través de fibras ópticas y satélites, con
anchos de banda impresionantes. Las tecnologías de esta generación ya han sido
desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia /
artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores
ópticos, etcétera.
CONCLUSION
En esta investigación acerca de las generaciones de las computadoras nos
hemos dado cuenta del avance que han tenidos y , gracias a los avances en
relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos
ha servido para muchas áreas, como por ejemplo las comunicaciones, la
medicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las
computadoras se centra sobre todo en la mejora de la tecnología de los circuitos
integrados y en el desarrollo de componentes de conmutación aún más rápidos.
Se han construido circuitos integrados a gran escala que contienen varios
millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el
hombre y ya son parte esencial de cada uno de nosotros, y usted deberá
aprender todas esas, antes complicadas hoy comunes tecnologías modernas.
http://www.monografias.com/trabajos28/generaciones-
computadoras/generaciones-computadoras.shtml
Se denomina Generación de computadoras a cualquiera de los períodos en que se
divide la historia de las computadoras.

• Primera generación (1946-1959): La primera generación de


computadoras se caracteriza por el rasgo más prominente de la
ENIAC Electronic Numerical Integrator And Computer (Computador e
Integrador Numérico Electrónico): tubos de vacío (bulbos) y
programación basada en el lenguaje de máquina.

Durante la década de 1950 se construyeron varias computadoras


notables, cada una contribuyó con avances significativos: uso de la
aritmética binaria, acceso aleatorio y el concepto de programas
almacenados.

• Segunda generación (1959-1964): Estas computadoras


comenzaron a utilizar transistores. Se comunicaban mediante
lenguajes de alto nivel.

El invento de los transistores significó un gran avance, ya que


permitió la construcción de computadoras más poderosas, más
confiables, y menos costosas. Además ocupaban menos espacio y
producían menos calor que las computadoras que operaban a bases
de tubos de vacío.

• Tercera generación (1964-1980): Son las computadoras que


comienzan a utilizar circuitos integrados. La IBM 360 es el símbolo de
esta generación.

• Cuarta Generación (1980-1984): Se caracteriza por la integración a


gran escala de circuitos integrados y transistores (más circuitos por
unidad de espacio).

• Quinta Generación: Las computadoras de quinta generación son


computadoras basados en inteligencia artificial Usando Lo que se
puede denominar micro chip inteligente.

http://es.wikipedia.org/wiki/Generaci%C3%B3n_de_computadoras
Generaciones de las Computadoras
Todo este desarrollo de las computadoras suele divisarse por generaciones.
Primera Generación (1951-1958)
En esta
generación
había una
gran
desconocimi
ento de las
capacidades
de las
computador
as, puesto
que se
realizó un
estudio en
esta época
que
determinó
que con
veinte
computador
as se
saturaría el
mercado de
los Estados
Unidos en el
campo de
procesamien
to de datos.
Esta
generación
abarco la
década de
los
cincuenta. Y
se conoce
como la
primera
generación.
Estas
máquinas
tenían las
siguientes
característic
as:

Usaban tubos al vacío para procesar información.


Usaban tarjetas perforadas para entrar los datos y los programas.

Usaban cilindros magnéticos para almacenar información e instrucciones internas.

Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad
de calor y eran sumamente lentas.

Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000
dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron
varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado
tambor magnético, que es el antecesor de los discos actuales.
Segunda Generación (1958-1964)

En esta generación
las computadoras se
reducen de tamaño y
son de menor costo.
Aparecen muchas
compañías y las
computadoras eran
bastante avanzadas
para su época como
la serie 5000 de
Burroughs y la ATLAS
de la Universidad de
Manchester. Algunas
computadoras se
programaban con
cinta perforadas y
otras por medio de
cableado en un
tablero.

Características de está generación:


Usaban transistores para procesar información.

Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.

200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.

Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad


de calor y eran sumamente lentas.

Se mejoraron los programas de computadoras que fueron desarrollados durante la primera


generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accsesibles.

Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico


aéreo y simulaciones de propósito general.

La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".

Surgieron las minicomputadoras y los terminales a distancia.

Se comenzó a disminuir el tamaño de las computadoras.

Tercera Generación (1964-1971)

La tercera
generación de
computadoras
emergió con el
desarrollo de
circuitos integrados
(pastillas de silicio)
en las que se
colocan miles de
componentes
electrónicos en una
integración en
miniatura. Las
computadoras
nuevamente se
hicieron más
pequeñas, más
rápidas,
desprendían menos
calor y eran
energéticamente
más eficientes. El
ordenador IBM-360
dominó las ventas
de la tercera
generación de
ordenadores desde
su presentación en
1965. El PDP-8 de la
Digital Equipment
Corporation fue el
primer
miniordenador.
Características de está generación:
Se desarrollaron circuitos integrados para procesar información.

Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza
de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.

Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas
eléctricas.

Surge la multiprogramación.

Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis


matemáticos.

Emerge la industria del "software".

Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.

Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.

Consumían menos electricidad, por lo tanto, generaban menos calor.

Cuarta Generación (1971-1988)


Aparecen los
microprocesadores
que es un gran
adelanto de la
microelectrónica,
son circuitos
integrados de alta
densidad y con una
velocidad
impresionante. Las
microcomputadoras
con base en estos
circuitos son
extremadamente
pequeñas y baratas,
por lo que su uso se
extiende al mercado
industrial. Aquí
nacen las
computadoras
personales que han
adquirido
proporciones
enormes y que han
influido en la
sociedad en general
sobre la llamada
"revolución
informática".

Características de está generación:


Se desarrolló el microprocesador.

Se colocan más circuitos dentro de un "chip".

"LSI - Large Scale Integration circuit".

"VLSI - Very Large Scale Integration circuit".

Cada "chip" puede hacer diferentes tareas.

Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica.


El tercer componente, la memoria primaria, es operado por otros "chips".

Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.

Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.


Se desarrollan las supercomputadoras.

Quinta Generación (1983 al presente)


En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la
tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan
las computadoras. Surge la competencia internacional por el dominio del mercado de la
computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel
que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y
no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los
objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados.
Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos
semejantes, que pueden resumirse de la siguiente manera:
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.

Se desarrollan las supercomputadoras.

Inteligencia artíficial:
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento
humano usados en la solución de problemas a la computadora.
Robótica:
La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de
computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo
diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a
situaciones no estructuradas.
Sistemas expertos:
Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento
de la experiencia humana para ayudar a la resolución de problemas.
Redes de comunicaciones:
Los canales de comunicaciones que interconectan terminales y computadoras se conocen como
redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el
"software" que administra la transmisión
http://www.cad.com.mx/generaciones_de_las_computadoras.htm

INTRODUCCIÓN.
Las diferentes computadoras que han aparecido desde los años cincuenta han
sido clasificadas, de acuerdo a su evolución, en cinco generaciones. El término
"generación" se refiere a la relación con los desarrollos tecnológicos y
componentes incorporados a cada una, para las tres primeras generaciones: el
tubo de vacío, el transistor y el circuito integrado.
La definición de las dos generaciones que siguen es más complicado por la
propia complejidad de la industria. Las herramientas de programación también
han sufrido cambios generacionales: los lenguajes de máquina binarios dieron
paso, progresivamente, a los lenguajes de programación de niveles superiores,
capaces de apoyar cada vez mejor al hombre en el proceso de razonamiento para
la resolución de problemas.
De manera semejantes evolucionaron las aplicaciones de la computación y la
forma de interacción hombre-máquina, ampliándose, sustancialmente, el
universo de las personas con acceso a esta tecnología. A continuación de
describe las principales características de las computadoras de cada generación,
posteriormente se hace una comparación de los modelos de uso y aplicación de
las computadoras, de acuerdo a su generación, resaltando la participación del
usuario en el sistema completo.
DESARROLLO
1. Generaciones del computador, orígenes, precursores y el
motivo, causa o necesidad que llevo al surgimiento cada
generación posterior.

1.1. PRIMERA GENERACIÓN: (1945-1956)


Esta generación se identifica por el hecho que la tecnología electrónica
estaba basada en "tubos de vacío", más conocidos como bulbos
electrónicos, del tamaño de un foco de luz casero. Los sistemas de bulbos
podían multiplicar dos números de diez dígitos en un cuarentavo de
segundo.
El inicio de esta generación lo marca la entrega, al cliente. De la primera
UNIVAC. que también es la primera computadora construida para
aplicaciones comerciales, más que para uso miliar, científico o de
ingeniería.
En aquel entonces las computadoras ya manejaban información
alfabética con la misma facilidad que la numérica y utilizaban el principio
de separación entre los dispositivos de entrada-salida y la computadora
misma.
Lo revolucionario, con respecto a las máquinas de cálculo anteriores,
consiste en que ahora el procesador electrónico puede tomar decisiones
lógicas y, aplicándolas, podrá realizar o bien una operación u otra. Esto
es posible, lógicamente, si el hombre a comunicado previamente a la
máquina cómo de comportarse en los diferentes casos posibles.
Las características generales de estas máquinas incluyen:
- Memoria principal de tambor magnético, consistente de pequeños
anillos (del tamaño de una cabeza de un alfiler), engarzada como cuentas
en las intersecciones de una malla de alambres delgados.
- El almacén primario se basaba en tarjetas perforadas, pero en 1957 se
introduce la cinta magnética como método más rápido y compacto de
almacenamiento.
- Necesitaban, por la gran cantidad de calor que generaban, de costosas
instalaciones de aire acondicionado.
- Tiempos de operación (ejecución de instrucciones) del rango de
milésimas de segundo.
El lenguaje utilizado para programarlas era el Lenguaje Máquina, basado
únicamente en número binarios (los lenguajes actuales se asemejan
mucho al lenguaje natural), lo que hacia difícil y tardado el proceso de
programar la computadora.
1.1.1. CARACTERISTICAS PRINCIPALES:
1. Válvula electrónica (tubos al vacío.)
2. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas.)
3. Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad
de fundirse era grande.
4. Almacenamiento de la información en tambor magnético interior. Un tambor
magnético disponía de su interior del ordenador, recogía y memorizaba los
datos y los programas que se le suministraban mediante tarjetas.
5. Lenguaje de máquina. La programación se codifica en un lenguaje muy
rudimentario denominado lenguaje de máquina. Consistía en la yuxtaposición
de largo bits o cadenas de cero y unos.
6. Fabricación industrial. La iniciativa se aventuro a entrar en este campo e
inició la fabricación de computadoras en serie. Aplicaciones comerciales. La
gran novedad fue el uso de la computadora en actividades comerciales.
2. SEGUNDA GENERACIÓN: (1957-1963)

Esta generación nace con el uso del "transistor", que sustituyó a los bulbos
electrónicos. El invento del transistor, en 1948, les valió el Premio Nóbel a los
estadounidenses Walter H. Brattain, John Bardeen y William B. Shockley. Con
esto se da un paso decisivo, no sólo en la computación, sino en toda la
electrónica.
El transistor es un pequeño dispositivo que transfiere señales eléctricas a través
de una resistencia. Entre las ventajas de los transistores sobre los bulbos se
encuentran: su menor tamaño, no necesitan tiempo de calentamiento,
consumen menos energía y son más rápidos y confiables.
Las características más relevantes de las computadoras de esta época son:
- Memoria principal mejorada constituida por núcleos magnéticos.
- Instalación de sistemas de teleproceso.
- Tiempo de operación del rango de microsegundos (realizan 100 000
instrucciones por segundo)
- Aparece el primer paquete de discos magnéticos removibles como medio de
almacenaje (1962)
En cuanto a programación, se pasa de lenguajes máquina a lenguajes
ensambladores, también llamados lenguajes simbólicos. Estos usan
abreviaciones para las instrucciones, como ADD (sumar), en lugar de números.
Con esto la programación se hizo menos engorrosa.
Después de los lenguajes ensambladores se empezaron a desarrollar los
lenguajes de alto nivel, como FORTRAN (1954) y COBOL (1959), que se acercan
más a la lengua inglesa que el ensamblador. Esto permitió a los programadores
otorgar más atención a la resolución de problemas que a la codificación de
programas. Se inicia así el desarrollo de los llamados sistemas de cómputo.
El avance en el software de esta generación provocó reducción en los costos de
operación de las computadoras que, en este periodo, se usaban principalmente
en empresas, universidades y organismos de gobierno.
A partir de 1950 las computadoras se hacen ampliamente conocidas; algunos
pioneros de este campo habían pensado que las computadoras habían sido
diseñadas por matemáticos para el uso de los matemáticos, pero ahora se hacía
evidente su potencial de uso en actividades comerciales.

1.2.1. CARACTERISTICAS PRINCIPALES


1. Transistor. El componente principal es un pequeño trozo de
semiconductor, y se expone en los llamados circuitos transistorizados.
2. Disminución del tamaño.
3. Disminución del consumo y de la producción del calor.
4. Su fiabilidad alcanza metas imaginables con los efímeros tubos al vacío.
5. Mayor rapidez ala velocidades de datos.
6. Memoria interna de núcleos de ferrita.
7. Instrumentos de almacenamiento.
8. Mejora de los dispositivos de entrada y salida.
9. Introducción de elementos modulares.
10. Lenguaje de programación más potente.

2. TERCERA GENERACIÓN: (1964-1971)

En esta época se desarrollan los circuitos integrados -un circuito electrónico


completo sobre una pastilla (chip) de silicio-, que constaban inicialmente de la
agrupación de unos cuantos transistores. Hechos de uno de los elementos más
abundantes en la corteza terrestre, el silicio, una sustancia no metálica que se
encuentra en la arena común de las playas y en prácticamente en todas las rocas
y arcilla. Cada pastilla, de menos de 1/8 de pulgada cuadrada, contiene miles o
millones de componentes electrónicos entre transistores, diodos y resistencias.
El silicio es un semiconductor sustancia que conducirá la corriente eléctrica
cuando ha sido "contaminada" con impurezas químicas.
Los chips de circuitos integrados tienen la ventaja, respecto de los transistores,
de ser más confiables, compactos y de menor costo. Las técnicas de producción
masiva han hecho posible la manufactura de circuitos integrados de bajo costo.
Las características principales de estas computadoras son:
-Se sigue utilizando la memoria de núcleos magnéticos.
-Los tiempos de operación son del orden de nanosegundos (una mil
millonésima parte de segundo)
-Aparece el disco magnético como medio de almacenamiento.
-Compatibilidad de información entre diferentes tipos de computadoras.
El siguiente desarrollo mayor se da con la Integración a gran escala (LSI de
Large Scale Integration), que hizo posible aglutinar miles de transistores y
dispositivos relacionados en un solo circuito integrado. Se producen dos
dispositivos que revolucionan la tecnología computacional: el primero el
microprocesador, un circuito integrado que incluye todas las unidades
necesarias para funcionar como Unidad de Procesamiento Central y que
conllevan la aparición de las microcomputadoras o computadoras personales,
en 1968, y a la producción de terminales remotas "inteligentes". El otro
dispositivo es la memoria de acceso aleatorio (RAM) por sus siglas en inglés.
Hasta 1970 las computadoras mejoraron dramáticamente en velocidad,
confiabilidad y capacidad de almacenamiento. La llegada de la cuarta
generación sería más una evolución que una revolución; al pasar del chip
especializado para uso en la memoria y procesos lógicos del inicio de la tercera
generación, al procesador de propósito general en un chip o microprocesador.
1.3.1. CARACTERISTICAS PRINCIPALES:
1. Circuito integrado, miniaturización y reunión de centenares de elementos
en una placa de silicio o (chip)
2. Menor consumo.
3. Apreciable reducción de espacio.
4. Aumento de fiabilidad.
5. Teleproceso.
6. Multiprogramación.
7. Renovación de periféricos.
8. Instrumentación del sistema.
9. Compatibilidad.
10. Ampliación de las aplicaciones.
11. La mini computadora.

2. CUARTA GENERACIÓN: (1971-PRESENTE)

La época se refiere principalmente a las computadoras de 1980 y


continúa hasta la fecha. Los elementos principales de las
computadoras de esta generación son los microprocesadores, que son
dispositivos de estado sólido, de forma autónoma efectúan las
funciones de acceso, operación y mando del computador.
También se hace posible la integración a gran escala muy grande
(VLSI Very Large Scale Integration), incrementando en forma vasta la
densidad de los circuitos del microprocesador, la memoria y los chips
de apoyo aquellos que sirven de interfase entre los microprocesadores
y los dispositivos de entrada / salida.
A principios de los 90 se producen nuevos paradigmas en el campo.
Las computadoras personales y las estaciones de trabajo ya eran
computadoras potentes; de alguna manera alcanzaron la capacidad de
las mini computadoras de diez años antes. Pero lo más importante es
que se empezaron a diseñar para usarse como partes de redes de
computadoras. Surgieron los conceptos de "computación distribuida"
-hacer uso del poder de cómputo y almacenamiento en cualquier parte
de la red- y "computación cliente-servidor" -una combinación de
computadoras pequeñas y grandes, conectadas en conjunto, en donde
cada una se usa para lo que es mejor. Otro proceso, llamado
downsizing, se manifestó unas diversas instancias, donde las
computadoras mayores (mainframes) con terminales dieron cabida a
un sistema de redes con microcomputadoras y estaciones de trabajo.
3. QUINTA GENERACIÓN: (PRESENTE-FUTURO)

El termino quinta generación fue acuñado por los japoneses para describir las
potentes e "inteligentes" computadoras que deseaban producir a mediados de
los noventa. La meta es organizar sistemas de computación que produzcan
inferencias y no solamente realicen cálculos. En el proceso se han incorporado
muchos campos de investigación en la industria de la computación, como la
inteligencia artificial (IA), los sistemas expertos y el lenguaje natural.
Se distingue normalmente dos clases de entorno:
o ENTORNO DE PROGRAMACION.- orientado a la construcción de
sistemas, están formados por un conjunto de herramientas que asisten al
programador en las distintas fases del ciclo de construcción del programa
(edición, verificación, ejecución, corrección de errores, etc.)
o ENTORNO DE UTILIZACIÓN.- orientado a facilitar la comunicación
del usuario con el sistema. Este sistema esta compuesto por herramientas
que facilitan la comunicación hombre-máquina, sistemas de adquisición
de datos, sistemas gráficos, etc.

1. Ejemplos concretos y explicación de la generación actual y las


tendencias futuras.

1. GENERACIONES ACTUALES:

Las características de los computadores de la generación actual


quedan recibidas en el numero de procesador (Pentium 4) el cual
tiene una velocidad de procesamiento de 2.8 a 3.6 Giga hertz y los
accesorios periféricos (de entrada y salida) tienen la características de
ser de mas fácil y mas rápida instalación.
2. TENDENCIAS FUTURAS:

Una tendencia constante en el desarrollo de los ordenadores es la micro


miniaturización, iniciativa que tiende a comprimir más elementos de circuitos
en un espacio de chip cada vez más pequeño. Además, los investigadores
intentan agilizar el funcionamiento de los circuitos mediante el uso de la
superconductividad, un fenómeno de disminución de la resistencia eléctrica que
se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo
de la tecnología de computadoras. Las redes son grupos de computadoras
interconectados mediante sistemas de comunicación. La red pública Internet es
un ejemplo de red informática planetaria. Las redes permiten que las
computadoras conectadas intercambien rápidamente información y, en algunos
casos, compartan una carga de trabajo, con lo que muchas computadoras
pueden cooperar en la realización de una tarea. Se están desarrollando nuevas
tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos
mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear
computadoras de quinta generación, capaces de resolver problemas complejos
en formas que pudieran llegar a considerarse creativas. Una vía que se está
explorando activamente es el ordenador de proceso paralelo, que emplea
muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso
paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de
realimentación, aproximación y evaluación que caracterizan al pensamiento
humano.
Otra forma de proceso paralelo que se está investigando es el uso de
computadoras moleculares. En estas computadoras, los símbolos lógicos se
expresan por unidades químicas de ADN en vez de por el flujo de electrones
habitual en las computadoras corrientes. Las computadoras moleculares
podrían llegar a resolver problemas complicados mucho más rápidamente que
las actuales supercomputadoras y consumir mucha menos energía.
Ejemplo: Micro miniaturización: este circuito integrado, un microprocesador F-
100, tiene sólo 0,6 cm2, y es lo bastante pequeño para pasar por el ojo de una
aguja.
1. Definir, explicar y diferenciar:

1. Clone: es un tipo de computador de escritorio que tiene todos los


periféricos de una estación normal. Sin embargo sus componentes no
pertenecen a una marca como tal, es decir no es un modelo específico,
generalmente se arman y configuran de acuerdo a las necesidades del
cliente por lo que sus partes son de las marcas preferidas por el
usuario. Este tipo de equipo tiene la ventaja de ser mas económico
pero su mayor desventaja es que estos tipos de computadores no
cuenta con una garantía en caso de daño total o parcial. También
pueden ser portátiles, horizontales y verticales.
2. Computador tipo desktop: es la comúnmente llamada PC de
escritorio, es una estación que cuenta con todos los periféricos en
unidades diferentes, el CPU es una unidad, y los dispositivos de
entrada y salida son en su mayoría externos, por ejemplo el monitor,
el teclado el mouse y las impresoras. Dado su diseño no son de fácil
transporte, y están más bien diseñadas para estar en una posición
fijas, sin embargo esto se ve compensado al tener una mayor
capacidad de proceso y prestaciones. Su principal característica es que
la forma de su chasis es horizontal y por lo tanto ocupa un espacio
menor.
3. Computador tipo torre: se les conoce como computador de tipo Torre
a los computadores que están armadas dentro de un chasis vertical, la
tarjeta madre esta atornillada a uno de los laterales. La principal
ventaja de este tipo de chasis es que ocupan menor espacio y su
principal desventaja es que deben colocarse sobre una superficie
estable, de lo contrario se dificulta el equilibrio. Se prefieren los chasis
de tipo torre sobre los de tipo horizontal ya que generalmente
presentan mayores posibilidades de expansión en lo que a bahías se
refiere.
3.4. Computador portátil: es una unidad
compacta que tiene incorporados los
dispositivos de entrada y salida mas comunes
que los computadores de escritorio (teclado,
mouse, monitor y parlantes), en una chasis
pequeño y practico que permite el fácil
transporte lo que le da el nombre de portátil.
Sin embargo debido al espacio reducido se
prescinde de algunos componentes que hacen
que el desempeño con respecto a las
computadoras de escritorio sea algo menos,
aunque en la actualidad se diseñan
procesadores específicos para equipos
portátiles que permiten obtener rendimientos
bastante similares.
CONCLUSIÓN.
El desempeño de los computadores a nivel mundial es ya muy grande tal es que
se esta desplazando al hombre y se esta reemplazando por maquinas
robotizadas que desempeñan los trabajos con rapidez y exactitud requiriendo la
muy mínima ayuda de la mano humana creando una gran demanda de personas
sin empleo, y la tecnología seguirá avanzando de tal forma que solo seremos
individuos guiados y guiadores por robot.
En sus primeras construcciones de la empresa IBM su presidente decía "que
futuro podrá tener estas maquinas", hoy en día es uno de los mayores alcances
que ha tenido el hombre que ya solo le basta con oprimir un botón y la tarea que
quiere que se realice se realizara sin ningún esfuerzo mayoritario de la persona
que lo desea.
ANEXOS.
PRIMERA GENERACIÓN.
SEGUNDA GENERACIÓN.

TERCERA GENERACIÓN.

CUARTA GENERACIÓN.

QUINTA GENERACIÓN.
COMPUTADOR PORTÁTIL.

COMPUTADOR CLONE
COMPUTADOR TIPO TORRE.

http://www.monografias.com/trabajos34/generaciones-
computador/generaciones-computador.shtml

El Primer Computador

Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el gobierno
empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8 años en
contarlos a todos y en poner información sobre dónde vivían y a qué se dedicaban.
Ocho años era demasiado tiempo, así que el gobierno celebró un concurso para
encontrar una manera mejor de contar gente. Herman Hollerith inventó una máquina
denominada máquina tabuladora. Esta máquina ganó el concurso, y el gobierno la
usó en el censo de 1890.

La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba algo. Un


agujero significaba que la persona estaba casada, otro, que no lo estaba. Un agujero
significaba que era de sexo masculino, otro, de sexo femenino. La electricidad pasaba
a través de los agujeros y encendía los motores, que a su vez activaban los contadores.

En 1890, sólo hicieron falta seis semanas para realizar el primer recuento sencillo. El
recuento completo se realizó en sólo dos años y medio.
La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros
países para que realizasen sus censos. Pero Herman no se paró en este invento.
Comenzó una empresa llamada International Business Machines. Hoy en día es una
de las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.)

A principios del siglo XX, muchas personas de todo el mundo inventaron


computadores que funcionaban de maneras similares a la máquina tabuladora.
Hacían experimentos para que funcionaran más rápido, y realizaran más tareas
aparte de contar.

http://intraremington.remington.edu.co/sistemas/generaciones_del_computa
dor.htm

CONCEPTO DE INVESTIGACION
“Es el estudio de los métodos,
procedimientos y técnicas utilizados
para obtener nuevos conocimientos,
explicaciones y comprensión
científica de los problemas y
fenómenos planteados y, por
consiguiente, que nos puedan llevar
a la solución de los mismos”

¿Qué aspectos intervienen y determinan


un proceso de investigación?
1. La naturaleza del fenómeno objeto de
estudio.
2. Las preguntas que se formulan acerca
del fenómeno.
3. Los supuestos paradigmas de los
que se parte.
4. La metodología a emplear.

De acuerdo a las definiciones que presenta la Real Academia Española (RAE) sobre la
palabra investigar (del latín investigare), este verbo se refiere a la acción de hacer
diligencias para descubrir algo. También hace referencia a la realización de
actividades intelectuales y experimentales de modo sistemático, con la intención de
aumentar los conocimientos sobre una determinada materia.

En ese sentido, puede decirse que una investigación es la


búsqueda de conocimientos o de soluciones a ciertos problemas. Cabe destacar que
una investigación, en especial en el campo científico, es un proceso sistemático (se
recogen datos a partir de un plan preestablecido que, una vez interpretados, modificarán
o añadirán conocimientos a los ya existentes), organizado (es necesario especificar los
detalles relacionados con el estudio) y objetivo (sus conclusiones no se basan en
impresiones subjetivas, sino en hechos que se han observado y medido).

Las actividades que se realizan dentro de un proceso investigativo incluyen la medición


de fenómenos, la comparación de los resultados obtenidos y la interpretación de éstos
en función de los conocimientos actuales. También se pueden realizar encuestas para
buscar el objetivo.

Existen dos grandes tipos de investigación: la investigación básica (también llamada


pura o fundamental), que suele realizarse en laboratorios y permite la ampliación del
conocimiento científico gracias a la creación o modificación de teorías; y la
investigación aplicada, que consiste en la utilización de los conocimientos en la
práctica.

Las investigaciones también pueden clasificarse de acuerdo al nivel de interacción entre


las disciplinas participantes (multidisciplinaria, interdisciplinaria o
transdisciplinaria).

Principales tipos de Investigación ( Caiceo y Mardones)

Según estos autores existen diferentes tipos de investigación, que pueden ser
clasificadas en :
a) según la naturaleza de los objetivos en cuanto al nivel de conocimiento que se
desea alcanzar.
- La investigación exploratoria: es considerada como el primer acercamiento científico
a un problema. Se utiliza cuando éste aún no ha sido abordado o no ha sido
suficientemente estudiado y las condiciones existentes no son aún determinantes;
- La Investigación Descriptiva: se efectúa cuando se desea describir , en todos sus
componentes principales, una realidad;
- La investigación correlacional: es aquel tipo de estudio que persigue medir el grado
de relación existente entre dos o más conceptos o variables.
- Investigación explicativa: es aquella que tiene relación causal ; no sólo persigue
describir o acercarse a un problema, sino que intenta encontrar las causas del mismo.
Existen diseños experimentales y NO experimentales.
· Diseños cuasiexperimentales: se utilizan cuando no es posible asignar al azar los
sujetos de los grupos de investigación que recibirán tratamiento experimental;
· Diseños experimentales: se aplican experimentos "puros", entendiendo por tales los
que reúnen tres requisitos fundamentales: 1)Manipulación de una o más variables
independientes; 2) Medir el efecto de la variable independiente sobre la variable
dependiente ; y 3) Validadse interna de la situación experimental;
· Investigaciones NO experimentales: se entiende por investigación no experimental
cuando se realiza un estudio sin manipular deliberadamente las variables

b) Según el tiempo en que se efectúan:

- Investigaciones sincrónicas: son aquellas que estudian fenómenos que se dan en un


corto período;
- Investigaciones diacrónicas: Son aquellas que estudian fenómenos en un período
lardo con el objeto de verificar los cambios que se pueden producir:

c) Según la naturaleza de la información que se recoge para responder al problema


de investigación:
- Investigación cuantitativa : es aquella que utiliza predominantemente información de
tipo cuantitativo directo. Dentro de la investigación cuantitativa se pueden observar:
· Los diseños experimentales (véase más arriba);
· La encuesta Social : es la investigación cuantitativa de mayor uso en el ámbito de las
ciencias sociales y consiste en aplicar una serie de técnicas específicas con el objeto de
recoger, procesar y analizar características que se dan en personas de un grupo
determinado;
· Estudios cuantitativos con datos secundarios: Los cuales, a diferencia de los dos
anteriores, abordan análisis con utilización de datos ya existentes

La investigación cualitativa: es aquella que persigue describir sucesos complejos en su


medio natural, con información preferentemente cualitativa .Los principales tipos de
investigación cualitativa son:
· Investigación-acción: es un tipo de investigación aplicada, destinada a encontrar
soluciones a problemas que tenga un grupo , una comunidad, una organización. Los
propios afectados participan en la misma.;
· Investigación Participativa: es un estudio que surge a partir de un problema que se
origina en la misma comunidad, con el objeto de que en la búsqueda de la solución se
mejore el nivel de vida de las personas involucradas. Dentro de la investigación
participativa se pueden encontrar:
1. Estudio de casos: es el estudio de sucesos que se hacen en uno o pocos grupos
naturales;
2. Estudio Etnográfico: es una investigación en la cual el investigador se inserta ,
camuflado en una comunidad, grupo o institución, con el objeto de observar, con una
pauta previamente elaborada

d) Estudios Históricos:
La investigación histórica se realiza cuando se desea estudiar des una perspectiva
histórica una realidad, recurriendo a las fuentes primarias y secundarias para la
reconstitución de la misma

Tipos de investigación

Cuando se inicia el capítulo de la metodología lo


primero que se encuentra el investigador es la
definición del tipo de investigación que desea
realizar. La escogencia del tipo de investigación
determinará los pasos a seguir del estudio, sus
técnicas y métodos que puedan emplear en el
mismo. En general determina todo el enfoque de
la investigación influyendo en instrumentos, y
hasta la manera de cómo se analiza los datos
recaudados. Así, el punto de los tipos de
investigación en una investigación va a constituir
un paso importante en la metodología, pues este
va a determinar el enfoque del mismo.

Este puede dividirse en dos tipos principales de Campo o de Laboratorio. Que a su vez puede
clasificarse en cuatro tipos principales:

Estudios Exploratorios: También conocido como estudio piloto, son aquellos que se investigan por
primera vez o son estudios muy pocos investigados. También se emplean para identificar una
problemática.

Estudios Descriptivos: Describen los hechos como son observados.

Estudios Correlacionales: Estudian las relaciones entre variables dependientes e independientes,


ósea se estudia la correlación entre dos variables.

Estudios Explicativos: Este tipo de estudio busca el por qué de los hechos, estableciendo
relaciones de causa- efecto.

Hernández, Fernández y Baptista (2003) establecen estos cuatro tipos de investigación,


basándose en la estrategia de investigación que se emplea, ya que “el diseño, los datos que se
recolectan, la manera de obtenerlos, el muestreo y otros componentes del proceso de investigación
son distintos en estudios exploratorios, descriptivos, correlacionales y explicativos” (p. 114). No
obstante, existen otras maneras de clasificar los tipos de investigaciones, por ejemplo se pueden
clasificar según:
El proceso formal:

Este se refiere al método que se emplea en el estudio, se divide en:


Método deductivo: Parte de una premisa general para obtener las conclusiones de un
caso particular. Pone el énfasis en la teoría, modelos teóricos, la explicación y
abstracción, antes de recoger datos empíricos, hacer observaciones o emplear
experimentos.

Método inductivo: Se analizan solo casos particulares, cuyos resultados son tomados
para extraer conclusiones de carácter general. A partir de las observaciones
sistemáticas de la realidad se descubre la generalización de un hecho y una teoría. Se
emplea la observación y la experimentación para llegar a las generalidades de hechos que
se repiten una y otra vez.

Método hipotético-deductivo: A través de observaciones realizadas de un caso


particular se plantea un problema. Éste lleva a un proceso de inducción que remite el
problema a una teoría para formular una hipótesis, que a través de un razonamiento
deductivo intenta validar la hipótesis empíricamente.

El grado de abstracción:

Este se divide en:


Investigación pura (básica): Esta investigación busca aumenta la teoría, por lo tanto se
relaciona con nuevos conocimientos, de este modo no se ocupa de las aplicaciones
prácticas que puedan hacer referencias los análisis teóricos.

Investigación aplicada: Su principal objetivo se basa en resolver problemas prácticos,


con un margen de generalización limitado. De este modo genera pocos aportes al
conocimiento científico desde un punto de vista teórico.

El grado de generalización:

Se divide en:
Investigación fundamental: A partir de la muestra de sujetos, las conclusiones de la
investigación se hace extensiva a la población y se orienta a las conclusiones. Su objetivo
se centra en el aumento de información teórica y se relaciona con la investigación pura
(básica).

Investigación acción: Se centra en generar cambios en una realidad estudiada y no


La ecología es el estudio de la relación entre los seres vivos y su ambiente y de la
distribución y abundancia de los seres vivos, y cómo esas propiedades son afectadas por
la interacción entre los organismos y su ambiente. El ambiente incluye las propiedades
físicas que pueden ser descritas como la suma de factores abióticos locales, como el
clima y la geología, y los demás organismos que comparten ese hábitat (factores
bióticos).
La visiòn integradora de la ecología plantea que es el estudio científico de los procesos
que influencian la distribución y abundancia de los organismos, las interacciones entre
los organismos, asi como las interacciones entre los organismos y la transformación de
los flujos de energía y materia (Pickett, Kolasa y Jones, 1994;
http://www.ecostudies.org/definition_ecology.html)

Historia [editar]
El término Ökologie fue introducido en 1866 por el prusiano Ernst Haeckel en su
trabajo Morfología General del Organismo; está compuesto por las palabras griegas
oikos (casa, vivienda, hogar) y logos (estudio), por ello Ecología significa "el estudio de
los hogares".
En un principio, Haeckel entendía por ecología a la ciencia que estudia las relaciones de
los seres vivos con su ambiente, pero más tarde amplió esta definición al estudio de las
características del medio, que también incluye el transporte de materia y energía y su
transformación por las comunidades biológicas.
Objeto de estudio [editar]
La ecología es la rama de la Biología que estudia los seres vivos, su medio y las
relaciones que establecen entre ellos. Éstos pueden ser estudiados a muchos niveles
diferentes, desde las proteínas y ácidos nucleicos (en la bioquímica y la biología
molecular), a las células (biología celular), tejidos (histología), individuos (botánica,
zoología, fisiología, bacteriología, virología, micología y otras) y, finalmente, al nivel
de las poblaciones, comunidades, ecosistemas y la biosfera. Éstos últimos son los
sujetos de estudio de la ecología.
Dado que se concentra en los más altos niveles de organización de la vida en la Tierra y
en la interacción entre los individuos y su ambiente, la ecología es una ciencia
multidisciplinaria que utiliza herramientas de otras ramas de la ciencia, especialmente
Geología, Meteorología, Geografía, Física, Química y Matemática.
Los trabajos de investigación en esta disciplina se diferencian con respecto de la
mayoría de los trabajos en las demás ramas de la Biología por su mayor uso de
herramientas matemáticas, como la estadística y los modelos matemáticos.
Disciplinas relacionadas [editar]
|Disciplinas de la Ecología

• Ecología Microbiana
• Ecología de Poblaciones
• Ecología de Comunidades
• Biogeografía
• Etoecología
• Ecología del Comportamiento
• Ecología del Paisaje
• Ecología Matemática
• Ecología de la Recreación
• Biología de la conservación

|} Como disciplina científica en donde intervienen diferentes caracteres la ecología no


puede dictar qué es "bueno" o "malo". Aun así, se puede considerar que el
mantenimiento de la biodiversidad y sus objetivos relacionados han provisto la base
científica para expresar los objetivos del ecologismo y, así mismo, le ha provisto la
metodología y terminología para expresar los problemas ambientales.
Una rama muy importante de la ecología es la ecología microbiana, que estudia a los
microorganismos en los diferentes ambientes: aire, agua y tierra. En los últimos años se
han logrado numerosos avances en esta disciplina con las técnicas disponibles de
biología molecular.
La Agronomía, Pesquería y, en general, toda disciplina que tenga relación con la
explotación o conservación de recursos naturales, en especial seres vivos, tienen la
misma relación con la ecología que gran parte de las ingenierías con la Matemática,
Física y Química.
Las ciencias económicas comparten una buena proporción de la parte formal de la
ecología; algunas herramientas utilizadas en esta disciplina, como tablas de vida y teoría
de juegos, tuvieron su origen en la economía. La ciencia que integra ambas disciplinas
es la economía ecológica.
La ecología microbiana es la rama de la ecología que estudia a los microorganismos en
su ambiente natural, los cuales mantienen una actividad continua imprescindible para la
vida en la Tierra. Los mecanismos que mantienen la diversidad microbiana de la
biosfera son la base de la dinámica de los ecosistemas terrestres, acuáticos y aéreos. Es
decir, la base de la existencia de las selvas y de los sistemas agrícolas, entre otros. Por
otra parte, la diversidad microbiana del suelo es la causa de la fertilidad del mismo.
La ecología matemática se dedica a la aplicación de los teoremas y métodos
matemáticos a los problemas de la relación de los seres vivos con su medio y es, por
tanto, una rama de la biología. Esta disciplina provee de la base formal para la
enunciación de gran parte de la ecología teórica
La Ecología de la recreación es el estudio científico de las relaciones ecológicas entre el
ser humano y la naturaleza dentro de un contexto recreativo. Los estudios preliminares
se centraron principalmente en los impactos de los visitantes en áreas naturales.
Mientras que los primeros estudios sobre impactos humanos datan de finales de la
década de los 20, no fue sino hasta los 70s que se reunió una importante cantidad de
material documental sobre ecología de la recreación, época en la cual algunos países
sufrieron un exceso de visitantes en áreas naturales, lo que ocasionó desequilibrios
dentro de procesos ecológicos en dichas zonas. A pesar de su importancia para el
turismo sostenible y para el manejo de áreas protegidas, la investigación en este campo
ha sido escasa, dispersa y relativamente desarticulada, especialmente en países
biodiversos.
La Ecología del Paisaje es una disciplina a caballo entre la geografía física orientada
regionalmente y la biología. Estudia los paisajes naturales prestando especial atención a
los grupos humanos como agentes transformadores de la dinámica físico-ecológica de
éstos. Ha recibido aportes tando de la geografía física como de la biología, ya que si
bien la geografía aporta las visiones estructurales del paisaje (el estudio de la estructura
horizontal o del mosaico de subecosistemas que conforman el paisaje), la biología nos
aportará la visión funcional del paisaje (las relaciones verticales de materia y energía).
Este concepto comienza en 1898, con el geógrafo, padre de la pedología rusa, Vasily
Vasilievich Dokuchaev y fue más tarde continuado por el geógrafo alemán Carl Troll.
Es una disciplina muy relacionada con otras áreas como la Geoquímica, la Geobotánica,
las Ciencias Forestales o la Pedología.
La Biogeografía es la ciencia que estudia la distribución de los seres vivos sobre la
Tierra, así como los procesos que la han originado, que la modifican y que la pueden
hacer desaparecer. Es una ciencia interdisciplinaria, de manera que aunque formalmente
es una rama de la Geografía, recibiendo parte de sus fundamentos de especialidades
como la Climatología y otras Ciencias de la Tierra, es a la vez parte de la Biología. La
superficie de la Tierra no es uniforme, ni en toda ella existen las mismas características.
El espacio isotrópico que utilizan, o suponen, los esquemas teóricos de localización es
tan solo una construcción matemática del espacio.