Está en la página 1de 60

La PC.

Introducción:
Nosotros en esta tesis queremos dar a conocer en base de
análisis, estadísticas, fundamentos de medios masivos de
comunicación como Internet; la historia de la PC (Personal
Computers) como elemento de trabajo y su importancia
como herramienta esencial para el crecimiento del
consumismo y la gran expansión en la implementación en
los hogares de familias comunes de clase media, en
lugares laborales y sus consecuencias e impactos sociales,
movimiento de gentes através de la llegada del “Internet”
a las PC`s de hogar y también de las laborales. Mas que
nada queremos hacer hincapié en las revoluciones que
tuvo la sociedad dentro de la masificación de las
computadoras en la humanidad, como así también la
importancia en el crecimiento de las adolescentes del siglo
XXI basado en redes sociales, juegos, y utilidades de
softwares.

1
Prologo:
Encontramos este tema para realizar la tesis mediante curiosidad y
materiales informáticos dados en 5 y 4 año de la secundaria.
Comprendimos que este tema era significativo para nuestras
vidas. Se volvió un tema personal y especifico en el avance de los
últimos 2 años de secundarias. Sentíamos que debíamos
informarnos sobre este tema, entenderlo y finalmente escribirlo y
explicarlo en nuestra tesis para que la gente sintiera de algún
modo el impacto que causo en nosotros.

Pregunta problema:

2
- ¿Cuáles fueron los efectos que tomaron los
adolescentes durante el desarrollo de la PC (Personal
Computer), y cual fue el impacto de Internet y de las
redes sociales en los jovenes?

3
Hipótesis:
- El efecto que causo en los jóvenes fue descubrir un
nuevo mundo atreves de la PC.
- El impacto más importante fue haber crecido al mismo
tiempo que la personal Computers, y el impacto de
Internet creo un nuevo mundo dependiente de dicho
servicio.
-Los Sucesos causaron un impacto serio en los jóvenes, la
revolución que causo este producto y su servicio lo cual
dieron a educar de una nueva manera a los jóvenes

4
Marco Teórico:

Desde la aparición de las personal Computers en la


sociedad, tuvieron un cambio respectivamente importante,
donde no solo cambio el orden social de vida, sino que
también dieron nuevas maneras de aprender sobre temas
específicos.
Esta herramienta llamada PC, facilito al trabajo hecho a
mano, como por ejemplo: “escribir con un bolígrafo en un
papel”. Dándole una nueva dimensión a la cual solamente
con tocar las teclas se podía escribir libros, historias,
trabajos de investigación, encuestas, etc.
La Personal Computers es uno de los avances mas grande
de la historia de la humanidad, si bien el humano, desde
los principios de existencias tuvo la habilidad distinguida
de usar la mente (pensar) para sobrepasar problemas,
como por ejemplo: “como conseguir alimento a través de
la caza (piedras afiladas, lanzas, etc.)”.
La humanidad fue avanzando con respecto a la creación de
herramientas, las cuales, cada una de ellas determinan un
pico de la evolución de su especie, como por ejemplo el
teléfono.
Si bien cuando el ordenador fue creado la gente
desconocía su utilidad y su fin por el cual fue creado, pero
cuando este fue siendo introducido cada vez mas en la
cultura del ser humano, fue dando ventajas que antes no se
poseían.
Una de las grandes empresas que llevo a acabo que esto
sucediera, fue IBM en tanto el crecimiento y avances del
hardware del PC, como así también contribuyo al
crecimiento en la parte del software.
Cita: Historia de IBM.

5
IBM tubo inicios el 15 de
junio de 1911 en Binghamton (Estados Unidos) como
resultado de la fusión gestionada por Charles R. Flint de
su empresa, la Tabulating Machine Company (fundada
por Herman Hollerith en 1896), con Computing Scale
Corporation e International Time Recording Company. La
empresa formada de la fusión fue llamada Computing
Tabulating Recording Corporation (CTR), pero el 14 de
febrero de 1924 CTR cambió su nombre a International
Business Machines Corporation (IBM), se dice que debido
a una especie de broma, al ser la líder del sector la
compañía de máquinas registradoras "National".
Las empresas originarias de CTR fabricaban una amplia
gama de productos, desde sistemas para el control de
empleados hasta equipos automatizados para el corte de
carne. Además fabricaban equipos para la gestión
de tarjetas perforadas, que serían un elemento clave de los
futuros computadores. Con el tiempo, CTR se centraría en
estos equipos y dejaría a un lado la fabricación del resto de
productos.
Durante la Segunda Guerra Mundial, IBM comenzó a
investigar en el campo de la informática. En 1944 terminó
de construir el computador Automatic Sequence
Controlled Calculator -Calculadora Controlada por
Secuencia Automática-, también conocido como Mark I.
El Mark I fue la primera máquina capaz de ejecutar
cálculos complejos automáticamente, y estaba basada en
interruptores electromecánicos.
En 1953, IBM creó el IBM 701, el primer gran
computador basado en válvulas de vacío, tecnología que
substituyó a los interruptores electromecánicos.
En 1954introdujo la IBM 650. En 1959,

6
los transistores empezaron a substituir a las válvulas de
vacío. Uno de los primeros computadores de IBM basados
en transistores fue el IBM 7090. Hasta aquel entonces, los
computadores se usaban principalmente en centros de
investigación y del gobierno, pero la mejora de
rendimiento alcanzada con las válvulas y especialmente
con los transistores, hizo que algunas empresas
comenzaran a utilizarlos.
El primer sistema de almacenamiento informático basado
en disco, llamado RAMAC, y el lenguaje de
programación FORTRAN fueron creados por IBM en
1957. El RAMAC es el predecesor de los discos duros
actuales y estaba formado internamente por cincuenta
discos.
A comienzos de los años 1960, IBM comenzó a
transformarse en una empresa dedicada exclusivamente a
la informática, dejando paulatinamente la fabricación de
equipos para tarjetas perforadas y máquinas de escribir.
Estas últimas las empezó a fabricar a mediados de los años
1930.
El 7 de abril de 1964, IBM lanzó el System/360, la
primera arquitectura de computadores que permitía
intercambiar los programas y periféricos entre los distintos
equipos componentes de la arquitectura, al contrario de lo
existente anteriormente, en que cada equipo era una caja
cerrada incompatible con los demás. La orden de crear
esta arquitectura partió directamente del gerente de IBM
de la época, Thomas J. Watson, Jr.. El desarrollo
del System/360 fue tan costoso que prácticamente llevó a
la quiebra a IBM, pero tuvo tal éxito al lanzarse al
mercado que los nuevos ingresos y el liderazgo que

7
consiguió IBM respecto a sus competidores les resarcieron
de todos los gastos.
Fue tal el éxito de IBM de mediados de los años 1960 que
provocó que la empresa fuera investigada por monopolio.
De hecho, tuvo un juicio, que comenzó en1969, en el que
fue acusada de intentar monopolizar el mercado de los
dispositivos electrónicos de propósito general,
concretamente el mercado de computadores empresariales.
El juicio continuó hasta 1983 y tuvo gran impacto en las
prácticas de la empresa.
Durante los años 1970, IBM continuó creando nuevos
dispositivos informáticos. En 1971 creó el disco flexible y
poco después empezó a comercializar predecesores de los
actuales lectores de códigos de barras y cajeros
automáticos.

Edificio de IBM en Madrid (España), de1989.


En 1981, IBM creó el IBM PC, que es el computador
personal de más éxito de todos los tiempos. Este éxito no
era esperado por IBM, que creó el IBM PC de forma
rápida y comprando componentes de gama baja a otros
fabricantes, cosa que no había hecho hasta el momento,
para que el IBM PC no absorbiera parte del mercado de
computadores más potentes de IBM. Además, el sistema
operativo del IBM PC tampoco fue creado por IBM, sino
que fue contratado con Microsoft.
Debido a que no estaba creado desde cero por IBM, poco
después comenzaron a aparecer equipos compatibles con
el IBM PC de otros fabricantes, y Microsoft empezó a
crecer al vender licencias del sistema operativo del IBM
PC a estos otros fabricantes.
Durante los años 1980 IBM forjó cuatro premios Nobel.

8
El 19 de enero de 1993, IBM anunció unas pérdidas de
cerca de 8.000 millones de dólares, lo que fue el récord de
pérdidas en una empresa de toda la historia de los Estados
Unidos. Parte de esas pérdidas se deben a que el IBM PC
absorbió gran parte del mercado de computadores más
potentes y a que los fabricantes de computadores
compatibles con el IBM PC cada vez tenían más cuota de
mercado. El gran cambio en IBM se da en 1993 cuando se
elige como Chief Executive Officer a Louis V. Gerstner,
el primer ejecutivo de alto nivel en la historia de IBM que
no provenía de sus propias filas. Lou, como se le conoce,
había sido CEO en empresas de fabricación de alimentos,
cigarrillos y tarjetas de crédito, pero jamás de empresas de
tecnología. A partir de entonces, IBM comenzó a
transformarse en una empresa de servicios, reduciendo su
dependencia económica de la venta de equipos. Esta
tendencia se incrementó, especialmente desde que
en 2002 Samuel J. Palmisano, sucesor de Lou, dejara de
dirigir la rama de servicios de IBM para convertirse en el
nuevo primer ejecutivo de la empresa. En el 2003,
alrededor del 50% de los ingresos de IBM provienen de la
rama de servicios, mientras que la venta de equipos
supone aproximadamente el 30%.
El 10 de diciembre de 2004, IBM terminó las
negociaciones encaminadas a vender la división de PC al
grupo chino Lenovo por 650 millones de dólares en
efectivo y 600 millones más en acciones (un 19% de
Lenovo). Junto con la división de PC, Lenovo consigue
alrededor de 10.000 empleados de IBM y el derecho a usar
las marcas IBM y Thinkpad durante cinco años.

9
Hay muchos avances en esta herramienta, el desarrollo de
programas que funcionan como otras herramientas adentro
de una misma, se lo conoce como “Software”;se conoce
como software al equipamiento lógico o soporte lógico de
una computadora digital; comprende el conjunto de los
componentes lógicos necesarios que hacen posible la
realización de tareas específicas, en contraposición a los
componentes físicos del sistema, llamados hardware.
Tales componentes lógicos incluyen, entre muchos
otros, aplicaciones informáticas como el procesador de
textos, que permite al usuario realizar todas las tareas
concernientes a la edición de textos o el software de
sistema tal como el sistema operativo, que, básicamente,
permite al resto de los programas funcionar
adecuadamente, facilitando la interacción con los
componentes físicos y el resto de las aplicaciones,
proporcionando también una interfaz para el usuario

No se puede por así decir explicar la definición de de


software, ya que posee muchos campos y nexos con
distintas capacidades o distintos propósitos. Pero
probablemente este seria la definición más formal.
“Es el conjunto de los programas de cómputo,
procedimientos, reglas, documentación y datos asociados
que forman parte de las operaciones de un sistema de
computación.”
Dentro de esos “Campos” y “Nexos” que existen dentro
del desarrollo del software también se encuentra diversos
tipos de empresas que exponen sus software`s de diferente
manera, entre ellos los mas importantes y demandados:
-Software privativo y software privados (Diferencias y
características):

10
El software privativo es software que no es libre ni semi-
libre. Su uso, redistribución o modificación están
prohibidos, requieren que solicite una autorización, o está
tan restringido que de hecho no puede hacerlo libremente.
La Fundación para el Software Libre sigue la norma de
que únicamente podemos instalar un programa privativo
en nuestros ordenadores, cuando lo hacemos
temporalmente y con el propósito de escribir una
alternativa libre a ese mismo programa. Aparte de este
caso concreto, creemos que no hay excusa posible para
instalar un programa privativo.
El software privado, o a medida, es software desarrollado
para un usuario (generalmente una organización o una
compañía). Este usuario lo tiene en su poder y lo utiliza, y
no lo libera al público ni como código fuente ni como
binario.
Un programa privado es software libre en un sentido
trivial si su único usuario tiene plenos derechos sobre él.
Sin embargo, al considerar la cuestión con más
profundidad, el preguntarse si tal programa es o no libre
pierde su sentido.
-Software comercial:
El software comercial es aquel desarrollado por un
negocio que pretende obtener dinero de su utilización.
¡«Comercial» y «privativo» no son lo mismo! La mayoría
del software comercial es privativo, pero hay software
libre comercial, y hay software no libre no comercial.
Por ejemplo, Ada de GNU siempre se distribuye bajo los
términos de la GPL de GNU, y cada una de sus copias es
software libre; sin embargo, sus desarrolladores hacen
contratos de mantenimiento. En ocasiones los clientes
interesados comentan a los vendedores: «Nos sentiríamos

11
más seguros con un compilador comercial». A lo que los
vendedores responden: «Ada de GNU es un compilador
comercial; con la particularidad de que además es software
libre».
-Software educativo (Uno de los más demandados,
adquiridos e importantes):
Sánchez J. (1999), en su Libro "Construyendo y
Aprendiendo con el Computador", define
el concepto genérico de Software Educativo como
cualquier programa computacional cuyas características
estructurales y funcionales sirvan de apoyo al proceso
de enseñar, aprender y administrar. Un concepto más
restringido de Software Educativo lo define como
aquel material de aprendizaje especialmente diseñado para
ser utilizado con una computadora en los procesos de
enseñar y aprender.
Según Rguez Lamas (2000), es una aplicación
informática, que soportada sobre una bien
definida estrategia pedagógica, apoya directamente el
proceso de enseñanza aprendizaje constituyendo
un efectivo instrumento para el desarrollo educacional del
hombre del próximo siglo.
Finalmente, los Software Educativos se
pueden considerar como el conjunto de recursos
informáticos diseñados con la intención de ser utilizados
en el contexto del proceso de enseñanza – aprendizaje.
Se caracterizan por ser altamente interactivos, a partir
del empleo de recursos multimedia,
como videos, sonidos, fotografías, diccionarios
especializados, explicaciones de

12
experimentados profesores, ejercicios y juegos instructivos
que apoyan las funciones de evaluación y diagnóstico.
Los software educativos pueden tratar las diferentes
materias (Matemática, Idiomas, Geografía, Dibujo), de
formas muy diversas (a partir de cuestionarios, facilitando
una información estructurada a los alumnos, mediante
la simulación de fenómenos) y ofrecer un entorno de
trabajo más o menos sensible a las circunstancias de los
alumnos y más o menos rico en posibilidades de
interacción; pero todos comparten las siguientes
características:
• Permite la interactividad con
los estudiantes, retroalimentándolos y evaluando lo
aprendido.
• Facilita las representaciones animadas.
• Incide en el desarrollo de las habilidades a través de
la ejercitación.
• Permite simular procesos complejos.
• Reduce el tiempo de que se dispone para impartir
gran cantidad de conocimientos facilitando un trabajo
diferenciado, introduciendo al estudiante en el
trabajo con los medios computarizados.
• Facilita el trabajo independiente y a la vez un
tratamiento individual de las diferencias.
• Permite al usuario (estudiante) introducirse en las
técnicas más avanzadas.
El uso del software educativo en el proceso de enseñanza -
aprendizaje puede ser:
Por parte del alumno.

13
Se evidencia cuando el estudiante opera directamente el
software educativo, pero en este caso es de vital
importancia la acción dirigida por el profesor.
Por parte del profesor.
Se manifiesta cuando el profesor opera directamente con
el software y el estudiante actúa como receptor del sistema
de información. La generalidad plantea que este no es el
caso más productivo para el aprendizaje.
El uso del software por parte del docente proporciona
numerosas ventajas, entre ellas:
• Enriquece el campo de la Pedagogía al incorporar la
tecnología de punta que revoluciona los métodos de
enseñanza - aprendizaje.
• Constituyen una nueva, atractiva, dinámica y rica
fuente de conocimientos.
• Pueden adaptar el software a las características y
necesidades de su grupo teniendo en cuenta el
diagnóstico en el proceso de enseñanza - aprendizaje.
• Permiten elevar la calidad del proceso docente -
educativo.
• Permiten controlar las tareas docentes de forma
individual o colectiva.
• Muestran la interdisciplinariedad de las asignaturas.
• Marca las posibilidades para una nueva clase más
desarrolladora.
Los software educativos a pesar de tener unos rasgos
esenciales básicos y una estructura general común se
presentan con unas características muy diversas: unos
aparentan ser un laboratorio o una biblioteca, otros se
limitan a ofrecer una función instrumental del tipo
máquina de escribir o calculadora, otros se presentan

14
como un juego o como un libro, bastantes tienen vocación
de examen, unos pocos se creen expertos... y la mayoría
participan en mayor o menor medida de algunas de estas
peculiaridades.
Para poner orden a esta disparidad, se elaboraron múltiples
tipologías que los clasifican a partir de diferentes criterios.
Por ejemplo, hasta el año 2003, según los polos en los
cuales se ha movido la educación, existían dos tipos de
software educativos:
1.- Algorítmicos, donde predomina el aprendizaje vía
transmisión del conocimiento, pues el rol del alumno es
asimilar el máximo de lo que se le transmite.
Considerando la función educativa se pueden clasificar en:
Sistemas Tutoriales
Sistema basado en el diálogo con el estudiante, adecuado
para presentar información objetiva, tiene en cuenta las
características del alumno, siguiendo una estrategia
pedagógica para la transmisión de conocimientos.
Sistemas Entrenadores
Se parte de que los estudiantes cuentan con los conceptos
y destrezas que van a practicar, por lo que su propósito es
contribuir al desarrollo de una determinada habilidad,
intelectual, manual o motora, profundizando en las dos
fases finales del aprendizaje: aplicación
y retroalimentación.
Libros Electrónicos
Su objetivo es presentar información al estudiante a partir
del uso de texto, gráficos, animaciones, videos, etc., pero
con un nivel de interactividad y motivación que le facilite
las acciones que realiza.

15
2.- Heurísticos, donde el estudiante descubre el
conocimiento interactuando con el ambiente de
aprendizaje que le permita llegar a él.
Considerando la función educativa se pueden clasificar en:
Simuladores
Su objetivo es apoyar el proceso de enseñanza –
aprendizaje, semejando la realidad de forma entretenida.
Juegos Educativos
Su objetivo es llegar a situaciones excitantes y
entretenidas, sin dejar en ocasiones de simular la realidad.
Sistemas Expertos
Programa de conocimientos intensivo que
resuelve problemas que normalmente requieren de la
pericia humana. Ejecuta muchas funciones secundarias de
manera análoga a un experto, por ejemplo, preguntar
aspectos importantes y explicar razonamientos.
Sistemas Tutoriales Inteligentes de enseñanza
Despiertan mayor interés y motivación, puesto que
pueden detectar errores, clasificarlos, y explicar por qué se
producen, favoreciendo así el proceso de
retroalimentación del estudiante.
A partir del 2004 surge una nueva tendencia, que es la de
integrar en un mismo producto, todas o algunas de estas
tipologías de software educativos. A este nuevo modelo de
software se le ha denominado HIPERENTORNO
EDUCATIVO o HIPERENTORNO DE APRENDIZAJE,
lo cual no es más que un sistema informático basado en
tecnología hipermedia que contiene una mezcla de
elementos representativos de diversas tipologías de
software educativo.

16
-Software libre y el Open Source:
l software libre es software con autorización para que
cualquiera pueda usarlo, copiarlo y distribuirlo, ya sea con
o sin modificaciones, gratuitamente o mediante una
retribución. En particular, esto significa que el código
fuente debe estar disponible. «Si no es fuente, no es
software». Ésta es una definición simplificada; ver
también la definición completa.
Si un programa es libre, puede ser potencialmente incluido
en un sistema operativo libre tal como GNU o los sistemas
GNU/Linux libres.
Hay muchas maneras diferentes de hacer libre un
programa: numerosas cuestiones a decidir que en muchos
casos son matices, y que pueden resolverse de varias
formas sin que por ello el programa deje de ser libre.
Algunas de las posibles variaciones son descritas abajo.
Para obtener información sobre licencias de software libre
específicas, puede consultar el listado de licencias.
El calificativo «libre» del software libre se refiere a
libertad, no a gratuidad. Sin embargo, las compañías de
software privativo emplean en ocasiones el término
«software libre» para referirse al precio [Nota del
traductor: En inglés «software libre», se escribe «free
software», el término «free» puede significar «gratis» o
«libre»]. A veces utiliza este término al hablar de la copia
binaria que se puede adquirir sin cargo; y otras veces se
usan para calificar la copia incluida en un ordenador
recién adquirido. Esto no tiene nada que ver con lo que
queremos dar a entender por software libre en el proyecto
GNU.

17
Debido a esta potencial confusión, cuando una compañía
de software dice que su producto es software libre, es
conveniente verificar siempre los términos de esa
distribución concreta para ver si los usuarios tienen todas
las libertades que implica el software libre. Algunas veces
es verdadero software libre; y otra veces no lo es.
Muchos idiomas tienen dos palabras diferentes para «free»
como libertad y «free» como precio cero. Por ejemplo, el
francés dispone de los términos «libre» y «gratuit» [en
español sucede exactamente lo mismo con los términos
«libre» y «gratuito»]. Esto no ocurre en inglés, en inglés
existe la palabra «gratis», que se refiere sin ambigüedad al
precio, pero no dispone de un adjetivo común que se
refiera sin ambigüedad a la libertad. Por lo tanto, si usted
habla otro idioma que no sea el inglés, le sugerimos que
traduzca el término «free» de «free software» a su idioma
para hacerlo más claro. Vea nuestra lista de traducciones
de la expresión «free software» a otros idiomas.
El software libre es con frecuencia más fiable que el
software no libre.
-Software de código abierto (Open source)

Mucha gente utiliza la expresión software de «código


abierto» para referirse, más o menos, a la misma categoría
a la que pertenece el software libre. Sin embargo, no son
exactamente el mismo tipo de software: ellos aceptan
algunas licencias que nosotros consideramos demasiado
restrictivas, y hay licencias de software libre que ellos no
han aceptado. Sin embargo, las diferencias entre lo que
abarcan ambas categorías son pocas: casi todo el software

18
libre es de código abierto, y casi todo el software de
código abierto es libre.
Nosotros preferimos la expresión «software libre» porque
se refiere a libertad, algo que la expresión «código
abierto» no hace.
Estas cadenas de software también contribuyeron al
crecimiento y desarrollo especializado en ciertas areas del
trabajo, educación, y principalmente la ayuda que le
brindan a los usuarios pertenece dores de una PC. Pero la
madre de todos los software es el Sistema Operativo
(OS).
Un Sistema operativo (SO) es un software que actúa
de interfaz entre los dispositivos de hardware y los
programas de usuario o el usuario mismo para utilizar
un computador. Es responsable de gestionar, coordinar las
actividades y llevar a cabo el intercambio de los recursos y
actúa como intermediario para las aplicaciones que se
ejecutan.
Nótese que es un error común muy extendido denominar
al conjunto completo de herramientas sistema operativo,
pues este, es sólo el núcleo y no necesita de entorno
operador para estar operativo y funcional. Uno de los más
prominentes ejemplos de esta diferencia, es el SO
Linux, el cual junto a las herramientas GNU, forman las
llamadas distribuciones Linux.
Este error de precisión, se debe a la modernización de la
informática llevada a cabo a finales de los 80, cuando la
filosofía de estructura básica de funcionamiento de los
grandes computadores se rediseñó a fin de llevarla a los
hogares y facilitar su uso, cambiando el concepto de
computador multiusuario, (muchos usuarios al mismo
tiempo) por un sistema monousuario (únicamente un

19
usuario al mismo tiempo) más sencillo de
gestionar. (AmigaOS, beOSo MacOS como los pioneros
de dicha modernización, cuando los Amiga, fueron
bautizados con el sobrenombre de Video Toasters por su
capacidad para la Edición de vídeo en
entorno multitarea round robin, con gestión de miles de
colores e interfaces intuitivos para diseño en 3D con
programas como Imagine o Scala multimedia, entre
muchos otros.)
Uno de los propósitos de un sistema operativo
como intermediario consiste en gestionar los recursos de
localización y protección de acceso del hardware, hecho
que alivia a los programadores de aplicaciones de tener
que tratar con estos detalles. Se encuentran en la mayoría
de los aparatos electrónicos que
utilizan microprocesadores para funcionar. (Teléfonos
móviles, reproductores de DVD, computadoras, radios,
etc.)
Parte de la infraestructura de la World Wide Web está
compuesta por el Sistema Operativo de Internet, creado
por Cisco Systems para gestionar equipos de
interconexión como los conmutadores y los enrutadores.

Hardware:

-El hardware se puede definir como los elementos físicos


del ordenador. Pero va mas allá de ello:
Hardware corresponde a todas las partes físicas y
tangibles de una computadora: sus componentes
eléctricos, electrónicos, electromecánicos y
mecánicos; sus cables, gabinetes o cajas, periféricos de

20
todo tipo y cualquier otro elemento físico involucrado;
contrariamente al soporte lógico e intangible que es
llamado software. El término es propio del idioma inglés
(literalmente traducido: partes duras), su traducción al
español no tiene un significado acorde, por tal motivo se la
ha adoptado tal cual es y suena; la Real Academia
Española lo define como «Conjunto de los componentes
que integran la parte material de una computadora». El
término, aunque es lo más común, no necesariamente se
aplica a una computadora tal como se la conoce, así por
ejemplo, un robot también posee hardware (y software).
La historia del hardware del computador se puede
clasificar en cuatro generaciones, cada una caracterizada
por un cambio tecnológico de importancia.
Este hardware se puede clasificar en: básico, el
estrictamente necesario para el funcionamiento normal del
equipo, y el complementario, el que realiza funciones
específicas.
Un sistema informático se compone de una unidad central
de procesamiento (CPU), encargada de procesar los datos,
uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de
salida, los que posibilitan dar salida (normalmente en
forma visual o auditiva) a los datos procesados.

Todo se define en 2 (dos) tipos de HARDWARE:

-Hardware externo y periférico.


-Hardware interno de un ordenador.

21
Propiamente el hardware externo, se lo define como los
elementos que son “conectores” que utiliza el usuario,
para manejar la relación Hard-interno > Software. Un
simple ejemplo es el Mouse y el Teclado. También se
encuentran los periféricos que talvez, no son necesarios
para el funcionamiento de la PC, pero que sirven como
una herramienta de uso para trabajo u ocio, como puede
ser la Impresora que tiene la función de plasmar un texto
definido por el usuario en un papel de distintos tipos de
volúmenes y tamaños.

Los hardwares externos y periféricos se comprenden en:


-El Mouse
-El teclado
-Accesorios (Audio <Auriculares, bocinas, etc>, Cámara
WEB, impresoras)
-También se lo incluye como hard externo el monitor.

El ejemplo claro de lo explicado anteriormente es el


Mouse, que se utiliza para manejar un entorno grafico,
propuesto por el Software, en simples palabras tiene la
función de ser “Las manos” del usuario, para manejar,
mover, arrastrar, calcular, archivos o funciones.

El hardware interno se lo comprende como el ordenador


en si mismo, las partes que comprenden el CPU, que en
conjunta armonía provocan el funcionamiento del PC, con
distintos sectores, para provocar cálculos matemáticos,
almacenamiento, manejar la electricidad del PC, el
productor de la señal de video, etc.

22
Se distinguen el siguiente hardware interno:
-Placa madre
-Microprocesador
-Disco duro
-Fuente de alimentación
-Memorias RAM
-Video (VGA – HDMI – FLASH)

-Placa madre:
La placa base, aunque también conocida como placa
madre, o tarjeta
madre (del inglés motherboard o mainboard) es una placa
de circuito impreso a la que se conectan los componentes
que constituyen la computadora u ordenador. Tiene
instalados una serie de circuitos integrados, entre los que
se encuentra el chipset, que sirve como centro de conexión
entre el procesador, la memoriaRAM, los buses de
expansión y otros dispositivos.
Va instalada dentro de una caja que por lo general está
hecha de chapa y tiene un panel para conectar dispositivos
externos y muchos conectores internos y zócalos para
instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS,
que le permite realizar las funcionalidades básicas, como
pruebas de los dispositivos, vídeo y manejo del teclado,
reconocimiento de dispositivos y carga del sistema
operativo.

-Microprocesador:

23
El microprocesador o simplemente procesador, es
el circuito integrado más importante, de tal modo, que se
le considera el cerebro de una computadora. Está
constituido por millones de transistores integrados. Puede
definirse como chip, un tipo de componente electrónico en
cuyo interior existen miles o en ocasiones millones, según
su complejidad, de elementos llamados transistores cuyas
interacciones permiten realizar las labores o funciones que
tenga encomendado el chip.
Desde el punto de vista funcional, un microprocesador es
un circuito integrado que incorpora en su interior una
unidad central de proceso (CPU) y todo un conjunto de
elementos lógicos que permiten enlazar otros dispositivos
como memorias y puertos de entrada y salida (I/O),
formando un sistema completo para cumplir con una
aplicación específica dentro del mundo real. Para que el
sistema pueda realizar su labor debe ejecutar paso a paso
un programa que consiste en una secuencia de números
binarios o instrucciones, almacenándolas en uno o más
elementos de memoria, generalmente externos al mismo.
La aplicación más importante de los microprocesadores
que cambió totalmente la forma de trabajar, ha sido la
computadora personal, ordenador o microcomputadora.
Así mismo, es la parte de la computadora diseñada para
llevar a cabo o ejecutar los programas. Éste ejecuta
instrucciones que se le dan a la computadora a muy bajo
nivel realizando operaciones lógicas simples, como sumar,
restar, multiplicar o dividir. Se ubica generalmente en un
zócalo específico en la placa o tarjeta madre y dispone
para su correcto y estable funcionamiento de un sistema de
refrigeración (generalmente de un ventilador montado
sobre un disipador de metal térmicamente muy conductor).

24
Lógicamente funciona como la unidad central de procesos
(CPU/Central Procesing Unit), que está constituida por
registros, la unidad de control y la unidad aritmético-
lógica principalmente, aunque en la mayoría de las
ocasiones también integra una unidad de coma flotante. En
el microprocesador se procesan todas las acciones de la
computadora.
Su "velocidad" se determina por la cantidad de
operaciones por ciclo que puede realizar y los ciclos por
segundo que desarrolla: también denominada frecuencia
de reloj. La frecuencia de reloj se mide Hertzios, pero
dado su elevado número se utilizan los
múltiplos megahertzio o gigahertzio
Una computadora personal o más avanzada puede estar
soportada por uno o varios microprocesadores, y un
microprocesador puede soportar una o varias terminales
(redes). Un núcleo suele referirse a una porción del
procesador que realiza todas las actividades de una CPU
real.
La tendencia de los últimos años ha sido la de integrar
múltiples núcleos dentro de un mismo encapsulado,
además de componentes como memorias caché,
controladoras de memoria e incluso unidades; elementos
que anteriormente estaban montados sobre la placa base
como dispositivos individuales.

-Disco duro:
En informática, un disco duro o disco rígido (en
inglés Hard Disk Drive, HDD) es un dispositivo de
almacenamiento de datos no volátil que emplea un sistema
de grabación magnética para almacenar datos digitales. Se
compone de uno o más platos o discos rígidos, unidos por

25
un mismo eje que gira a gran velocidad dentro de una caja
metálica sellada. Sobre cada plato se sitúa un cabezal de
lectura/escritura que flota sobre una delgada lámina de aire
generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo
largo de los años, los discos duros han disminuido su
precio al mismo tiempo que han multiplicado su
capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición en los años
60.1 Los discos duros han mantenido su posición
dominante gracias a los constantes incrementos en la
densidad de grabación, que se ha mantenido a la par de las
necesidades de almacenamiento secundario.
Los tamaños también han variado mucho, desde
los primeros discos IBM hasta los formatos estandarizados
actualmente: 3,5" los modelos para PCs y servidores, 2,5"
los modelos para dispositivos portátiles. Todos se
comunican con la computadora a través del controlador de
disco, empleando un interfaz estandarizado. Los más
comunes hoy día son IDE (también llamado ATA o
PATA), SCSI (generalmente usado
en servidores y estaciones de trabajo), Serial
ATA y FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema
operativo debe aplicar un formato de bajo nivel que defina
una o más particiones. La operación de formateo requiere
el uso de una fracción del espacio disponible en el disco,
que dependerá del formato empleado. Además, los
fabricantes de discos duros, SSD y tarjetas flash miden la
capacidad de los mismos usando prefijos SI, que emplean
múltiplos de potencias de 1000 según la normativa IEC, en
lugar de los prefijos binarios clásicos de la IEEE, que

26
emplean múltiplos de potencias de 1024, y son los usados
mayoritariamente por los sistemas operativos. Esto
provoca que en algunos sistemas operativos sea
representado como múltiplos 1024 o como 1000, y por
tanto existan ligeros errores, por ejemplo un Disco duro de
500 GB, en algunos sistemas operativos sea representado
como 465 GiB (Según la IEC Gibibyte, o Gigabyte
binario, que son 1024 Mebibytes) y en otros como 465
GB.
Existe otro tipo de almacenamiento que recibe el nombre
de Unidades de estado sólido; aunque tienen el mismo uso
y emplean los mismos interfaces, no están formadas por
discos mecánicos, sino por memorias de circuitos
integrados para almacenar la información. El uso de esta
clase de dispositivos anteriormente se limitaba a
las supercomputadoras, por su elevado precio, aunque hoy
en día ya son muchísimo más asequibles para el mercado
doméstico.

-Fuente de alimentación:
En electrónica, una fuente de alimentación es un
dispositivo que convierte la tensión alterna de la red de
suministro, en una o varias tensiones,
prácticamente continuas, que alimentan los distintos
circuitos del aparato electrónico al que se conecta
(ordenador, televisor, impresora, router, etc.).

-Memorias RAM:
La memoria de acceso aleatorio (en inglés: random-access
memory cuyo acrónimo es RAM) es la memoria desde

27
donde el procesador recibe las instrucciones y guarda los
resultados.

-Salida de video:
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta
aceleradora de gráficos o adaptador de pantalla, es
una tarjeta de expansión para
una computadora u ordenador, encargada de procesar los
datos provenientes de la CPU y transformarlos en
información comprensible y representable en un
dispositivo de salida, como un monitor o televisor. Las
tarjetas gráficas más comunes son las disponibles para las
computadoras compatibles con la IBM PC, debido a la
enorme popularidad de éstas, pero otras arquitecturas
también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las
habituales tarjetas dedicadas y separadas como a
las GPU integradas en la placa base. Algunas tarjetas
gráficas han ofrecido funcionalidades añadidas como
captura de vídeo, sintonización de TV,
decodificación MPEG-2 y MPEG-4 o incluso
conectores Firewire, de ratón, lápiz óptico o joystick.

28
TEMA A DESARROLLAR
- PRIMERA GENERACIÓN
Eckert y Mauchly fueron los creadores de la primera
computadora digital electrónica de propósito general
ENIAC en el mundo. Esta computadora era usada por el
Laboratorio de Investigación en Balística de la Armada
(BRL) de los Estados Unidos para estudiar el desarrollo de
las tablas de rango y trayectoria para las armas nuevas
(cálculos exactos comprendidos en campos y rangos).
Mauchly y Eckert propusieron construir una computadora
con tubos al vacío para ser usada por la BRL. La Armada
acepta esta propuesta en 1943; pero la máquina solo se
terminó de construir en 1946 demasiado tarde para usarse
en la guerra. Debido la ENIAC tuvo que ser usada para un
propósito diferente para el cual fue construida. En el año
de 1946 introdujo la nueva era de la computadora
electrónica. La ENIAC continuó funcionando bajo la
administración del BRL cuando se desmontó.
Antes de la llegada al mercado de las computadoras, hubo
que hacer una modificación. Las máquinas más antiguas
leían sus instrucciones de forma mecánica a partir de
tarjetas o cintas perforadas. Este proceso era demasiado
lento y se necesitaba cambiar el estilo de programación,
entonces John Von Neumann ideó un sistema para
almacenar en la memoria el programa junto con los datos,
lo que dio a la computadora su versatilidad actual.
Eckert y Mauchly crearon la primera computadora en serie
el UNIVAC, que era una modificación del EINAC, usando
el sistema de almacenamiento de memoria de Neumann.

29
Su característica principal era que empleaba como
componente básico tubos al vacío, las memorias estaban
conformadas por anillos de metal ferromagnéticos
insertadas en las intersecciones de una red de hilos
conductores.
Esta computadora era asequible sólo a las grandes
empresas y organismos estatales por su alto costo y gran
tamaño.
En un comienzo usó el lenguaje binario, pero más adelante
apareció el primer lenguaje de alto nivel, el FORTRAN en
1956.
-SEGUNDA GENERACIÓN:
Apareció a finales de los 50s. El elemento principal que
usaron las computadoras de esta generación fue la
incorporación del transistor que permitió, reducir el costo
y el volumen de la máquina.
Por los cambios que tuvo la computadora, se volvió más
asequible a otros sectores. Por medio de tarjetas
perforadas y dispositivos magnéticos se introducían datos
en ellas.
En esta generación se desarrollaron lenguajes de
programación como el COBOL 1956, LISP 1959 y el
BASIC 1964, que se convertiría en el lenguaje estándar la
micro computadoras.
La invención del transistor, se debió a la labor de tres
investigadores: Walter Brattain, John Barbeen y William
Schockley.

30
El transistor no se incorporó inmediatamente a las
computadoras. La transistorización de las computadoras se
experimentó por primera vez en el MIT con el TX-o en
1956. El transistor realizaba la misma función que el
tubo al vació con la diferencia de que su tamaño era
mucho menor.
La segunda generación también es notable por la aparición
de la Digital Equipment Corporation (DEC), la cual se
fundó en 1957 y en ese mismo año distribuyó su primera
computadora la PDP-1, aquí se inició el fenómeno la
micro computadora.
-TERCERA GENERACIÓN:
Se ubica entre 1964 y1970. Se caracterizó por una
marcada disminución del tamaño medio de las
computadoras. El empleo generalizado de circuitos
integrados, logró una nueva disminución del volumen y
del costo y aumento la rapidez de funcionamiento de las
grandes computadoras. Hizo rentable un nuevo tipo de
computadora de dimensiones más reducidas, la micro
computadora, asequible a las medianas empresas.
Hasta estos momentos los usuarios trabajan en Bach, es
decir tenían que perforar sus trabajos en tarjetas y dejarlos
en los centros de cálculo para que la computadora los
procesara por turno y diera sus resultados unos minutos y
horas más tarde.
A pesar de que aparentemente la novedad en esta
generación, era la gran disminución de tamaño en la
computadora no era del todo verdadera. La verdadera
novedad, consistía en la idea de reunir en un pequeño
soporte todo un grupo de componentes, conocidos como

31
circuitos integrados. Fue desarrollado en 1.958 por Jack
Kilbry. El período experimental se realizó en 1964.
La utilización efectiva se produjo con la aparición de la
serie 360 IBM. Las computadoras de esta serie podían ser
interconectadas en Red. Esto era una novedad porque
hasta el momento cada computadora era independiente de
cualquier máquina o proceso.
Hacia el final de esta generación se incorporó una
realización que rompía esquemas, la mini computadora.
La mini computadora se convertiría en el producto más
activo de todos los que produciría la industria de la
computación.

Internet y las redes sociales:


internet:
Si bien conocemos este servicio como uno de lo más
utilizado y evolucionado en poco tiempo, el internet es y
será el medio de comunicación más efectivo inventado en
las últimas décadas.
Uno de los datos mas característicos de este servicio fue la
expansión que obtuvo en todo el globo, fue de una manera
totalmente despampanante, ya que casi ningún otro
servicio en tan corto plazo se hizo indispensable para la
vida cotidiana del humano.
Si bien es vital para algunas comunidades, el efecto mas
impresionante es el que causa en los jóvenes, en donde les
lleva a un punto de necesidad tran grande que pueden
llegar a pensar en “¿ Que haríamos sin internet?”,

32
pensamientos como estos determinan el grado de
importancia; asi también como de adicción que tienen los
mismos por utilizar dicho servicio.
Cita: Evolucion de Internet
Finales de los años 50 Para ver la evolución de Internet
debemos remontarnos a finales de los años 50 cuando se
crea ARPA, la Agencia de Proyectos de Investigación
Avanzada, en el seno del Departamento de Defensa de los
Estados Unidos.

Principios de los años 60 Se comienza a pensar en la idea


de una red descentralizada en el Instituto Tecnológico de
Massachusetts (MIT) y en la corporacion RAND.

Año 1961 Leonard Kleinrock publica en Julio de este año


el primer trabajo sobre "conmutación de paquetes". El
Pentágono a través de ARPA financión la puesta en
marcha de una prueba práctica. Kleinrock covenció a
Lawrence G. Roberts de la viabilidad de las
comunicaciones basadas en paquetes en lugar de circuitos,
lo cual resultó un avance en el camino hacia el trabajo
informático en red.

Año 1962 En agosto de este año, aparece la primera


descripción documentada de las interacciones sociales que
podrían ser propiciadad por el trabajo en red en una serie
de memorándums escritos por J.C.R. LickLider, del MIT.

33
Paralelamente entre 1962 y 1964 la RAND corporation
publica una serie de artículos escritos por Paul Baran
sobre "Redes de Comunicación Distribuidas". El objetivo
de la propuesta era plantear una red que tuviera la máxiam
resistencia ante un ataque enemigo.

Año 1964 La RAND corporation propone una red que no


disponga de una autoridad central y se sugiere un diseño
que desde el principio está preparado para trabajar en un
entorno fragmentado. Todos los nodos debreían tener un
status parecido y cada uno de ellos tendría autonomia y
poder suficientes para generar, vehicular y recibir
mensajes que a su vez pudieran ser separados en paquetes
y ser enviados por separado

Año 1966 A finales de este año Lawrence G. Roberts se


trasladó a ARPA para desarrollar el concepto de red de
ordenadores y rápidamente confeccionó su plan para
ARPANet. En la conferencia en que presentó el
documento se exponía también un trabajo sobre el
concepto de red de paquetes a cargo de Donald Davies y
Roger Scantlebury del NPL. La palabra packet (paquete)
fue adoptada a partir del trabajo del NPL y la velocidad de
la línea propuesta para ser usada en el diseño de ARPANet
fue aumentada desde 2,4 Kbps hasta 50 Kbps

Año 1968 En 1968 el Laboratorio Físico Nacional en


Inglaterra estableció la primera red de prueba basada en
estos principios. Este mismo año, el primer diseño basado

34
en estos principios de envío de paquetes de información,
realizado por Lawrence Roberts, fue presentado en la
ARPA.

Año 1969

Años 70 Durante este periodo, esta red fue de acceso


restringido a los investigadores y a las empresas privadas
que participaban en proyectos financiados por la
administración.

Año 1970 Vinton Cerf escribe por primera vez la palabra


Internet. La escena tiene lugar a principios de los setenta
en un hotel de San Francisco. Vinton, considerado el padre
de la red, escribió la palabra Internet en el dorso de un
sobre intentando explicar a sus compañeros la idea que
había tenido sobre cómo distribuir información a través
del a red que entonces se conocía como Internet. Este
diseño sería la base del protocolo TCP/IP, que rige aún las
comunicaciones por Internet.

Kevin MacKenzie se inventa el primer smiley: :-).

Año 1971 Crece la popularidad del correo electrónico


sobre redes de almacenamiento y envío. En 1971,
ARPANet había crecido hasta 15 nodos con 23
ordenadores hosts (centrales).

35
Año 1972 El primer programa específicamente diseñado
para el email se atribuye a Ray Tomlinson, de la BBN
(Bolton, Beranek and Newman), en 1972. Se remitió el
primer mensaje de correo electrónico usándose el
conocido símbolo de la arroba, @. El símbolo @ se
convirtió en el símbolo del correo electrónico por pura
casualidad. Ray Tomlinson necesitaba un signo que
separara el nombre del usuario del de la máquina. Se
limitó a bajar los ojos hacia el teclado (un teletipo modelo
33 trabajando con un ordenador Tenex) y escogió la
arroba porque necesitaba que no fuera una letra que
pudiera estar en ningún apellido. La decisión causó una
primera batalla de estándares porque ara los usuarios de
Multics el signo @ era el que borraba líneas. De manera
que no podían usar el correo. Finalmente tuvieron que
modificar el sistema.

En 1972 Larry Roberts de DARPA decidió que el


proyecto necesitaba un empujón. Organizó la presentación
de ARPANET en la Conferencia Internacional sobre
Comunicaciones por Ordenador. A partir de esta
conferencia, se formó un grupo de trabajo internacional
para investigar sobre los protocolos de comunicación que
permitirían a ordenadores conectados a la red,
comunicarse de una manera transparente a través de la
transmisión de paquetes de información.

Aparece la posibilidad de realizar un Telnet.

36
Año 1973 Durante el mes de setiembre de este año hubo
una importante reunión en Brighton (Inglaterra) donde los
americanos mostraron por primera vez a los europeos el
funcionamiento de ArpaNet. Para que ello fuera posible
tuvieron que realizar un enlace vía satélite, provisional
durante unos dias, que transportaba los datos a través del
Atlántico. Leonard Kleinrock volvió a los Angeles unos
días antes que finalizara el congreso y cuando llegó a casa
se dio cuenta que se había dejado una máquina de afeitar y
descubrió que, efectivamente, en Brighton aún estaba
conectado Larry Roberts. Kleinrock le pidió a Roberts que
le recuperara su máquina de afeitar y éste lo hizo. La
sorpresa fue que días mást arde Kleinrock fue acusado de
haber realizado un uso indebido de material militar (que
incluía de hecho hasta un satélite).

Aparece la posibilidad de realizar un FTP.

Año 1974 En 1974 se estableció el Transmission Control


Protocol (TCP), creado por Vinton Cerf y Robert Kahn
que luego fue desarrollado hasta convenirse en el
Transmission Control Protocol/Internet Protocol (TCP/IP).
TCP convierte los mensajes en pequeños paquetes de
información que viajan por la red de forma separada hasta
llegar a su destino donde vuelven a reagruparse. IP maneja
el direccionamiento de los envíos de datos, asegurando
que los paquetes de información separados se encaminan
por vías separadas a través de diversos nodos, e incluso a
través de múltiples redes con arquitecturas distintas.

37
Año 1975 En julio de 1975 ARPANET fue transferido por
DARPA a la Agencia de Comunicaciones de Defensa.

Año 1977 Aparece la primera lista de correo. Se trataba de


TheryLink y agrupaba a casi un centenar de científicos. En
1979 nacería Usenet y hoy hay más de 50.000 newsgroups
o grupos de noticias en el mundo. El crecimiento tan
brutal de las listas obligó en 1987 a crear las jerarquías
(las primeras fueron .comp, .news y .misc).

Año 1979 Nace Usenet. Creada por tres estudiantes: Tom


Truscott, Jim Ellis y Steve Bellovin. Usenet es un servicio
de grupos de noticias, las populares "news".

Año 1980 Aparecen las primeras aplicaciones TCP/IP.


Internet ya tiene 212 servidores

Año 1982 ARPANet adopta el protocolo TCP/IP como


estándar. Se crea la EuNet (European Unix Network). La
"European Unix Network" (EuNet), conectado a
ARPANet, se creó en 1982 para proporcionar servicios de
correo electrónico y servicios Usenet a diversas
organizaciones usuarias en los Países Bajos, Dinamarca,
Suecia e Inglaterra

38
Año 1983 ARPANet en sí mismo permaneció
estrechamente controlado por el departamento de defensa
hasta 1983 cuando su parte estrictamente militar se
segmentó convirtiéndose en MILNET. El Pentágono se
retira de Arpanet y crea Milnet. Internet ya dispone de 562
servidores. Se creó el sistema de nombres de dominios
(.com, .edu, etc., más las siglas de los países), que
prácticamente se ha mantenido hasta ahora. En la
constitución y crecimiento de esta nueva "red de redes"que
pronto contó con nodos en Europa, las agencias federales
norteamericanas prestaron mucho apoyo, financiando las
infraestructura, por ejemplo

Año 1984 Se introduce el DNS (Domain Name Server) En


1984 el número de servidores conectados a la red había ya
superado los 1.000. Dado que el software de TCP/IP era
de dominio público y la tecnología básica de Internet
(como ya se denominaba esta red internacional extendida)
era algo anárquica debido a su naturaleza, era difícil evitar
que cualquier persona en disposición del necesario
hardware (normalmente en universidades o grandes
empresas tecnológicas) se conectase a la red desde
múltiples sitios. En 1984 William Gibson novelaba el
nuevo mundo y acuñaba el término "ciberespacio". Al año
siguiente se forjaba Well, la primera comunidad comercial
de usuarios

Año 1985 La National Science Fundation (NSF) establece


en este año cinco centros para superordenadores
configurando con ello la principal red que utilizaría la

39
comunidad científica a partir de se momento. Lo que hace
es conectar seis centros de supercomputación.

Internet tiene ya 1961 servidores.

En abril aparecen los primeros dominios con letra (antes


eran con números). Los primeros dominios con letras en
aparecer fueron: acmu.edu, purdue.edu, rice.edu y
ucla.edu, todos en activo aún por supuesto y todos
universitarios también por supuesto. El primer dominio
comercial en aparecer es algo no aclarado. Para algunos
fue simbolics.com (un fabricante de software y hardware
para el lenguaje de inteligencia artificial Lisp, esta página
ya no funciona) y para otros think.com. En junio del
mismo año apareció el primer dominio gubernamental,
css.gov y en julio mitre.org. El primer dominio de un país
fue en julio de ese mismo año para Gran Bretaña: co.uk

Año 1986 La National Science Fundation (NSF) de


EE.UU. inició el desarrollo de NSFNET que se diseñó
originalmente para conectar cinco superordenadores. Su
interconexión con Internet requería unas líneas de altísima
velocidad. Esto aceleró el desarrollo tecnológico de
Internet y brindó a los usuarios mejores infraestructuras de
telecomunicaciones. Otras agencias de la Administración
norteamericana entraron en Internet, con sus inmensos
recursos informáticas y de comunicaciones: NASA y el
Departamento de Energía. Un acontecimiento muy
importante era que los proveedores comerciales de

40
telecomunicaciones en EE. UU. y Europa empezaron a
ofrecer servicios comerciales de transporte de señales y
acceso

Año 1987 El número de servidores conectados a Internet


superaba ya los 10.000

Año 1988 Internet ya dispone de 56.000 servidores

Año 1989 Tim Beners-Lee, investigador en el centro


europeo CERN de Suiza, elaboró su propuesta de un
sistema de hipertexto compartido: era el primer esbozo de
la World Wide Web. Como el ARPANet veinte años atrás,
su propósito era poner en comunicación a los científicos.
La WWW es una creación europea fruto del trabajo de
Tim Beners-Lee y Robert Cailauu que en 1989 trabajan
conjuntamente desde el Centro Europeo de Física de
Partículas (CERN) en Ginebra. Su objetivo era buscar una
herramienta de trabajo para crear y leer textos a través de
una red que permitía intercomunicar a los físicos de todo
el mundo. La web, basadas en el concepto del hipertexto,
ha sido un soporte excelente para la introducción de las
denominadas aplicaciones multimedia en las
comunicaciones telemáticas. En Internet aun es posible
encontrar una captura de pantalla del ordenador personal
de Tim Beners-Lee, un Next, en que se ve el primer
navegador de todos y como era la web cuando solo tenia
un usuario. Beners-Lee creó el HTML, el HTTP y las
URL. Beners-Lee es muy crítico con el uso comercial de

41
la web y de hecho renunció a una empresa que había
creado al inventar el web, empresa denominada WebSoft.
Actualmente trabaja en el MIT en los Estados Unidos y
sigue tan despistado como siempre según algunas fuentes.

Jarkko Oikarinen, un joven finlandés, decidió modificar el


comando talk del Unix para permitir que diversas personas
pudieran charlar de forma simultánea. Así nace el chat, el
Internet Relay Chat (IRC) que permite que se pueda
conversar en la red.

Año 1990 Creación de la Electronic Frontier Foundation.


Internet ya tiene 313.000 servidores. En 1990 redes de
diversos países como España, Argentina, Austria, Brasil,
Chile, Irlanda, Suiza y Corea del Sur se conectaron
también a NSFNET

Año 1991 En febrero de 1991 es la fecha que se cita como


la invención del denominado Spam, el envio masivo de
correo electrónico no solicitado. Según estas fuentes todo
empezó inocentemente: se trataba de enviar mensajes a un
niño de 9 años llamado Craig Shergold gravemente
enfermo. El muchacho intentaba batir el record mundial de
cartas recibidas y lo consiguió. Ello dio ideas a algunas
empresas y en abril de 1994 una empresa de abogados,
Center&Siegel tuvo el dudoso honor de empezar a usar
comercialmente el correo electrónico para envios masivos
no solicitados. La venganza que recibieron de la red por lo
visto aun les dura.

42
En marzo de 1991 Tim Beners-Lee pone en marcha el
primer navegador de la web (que funcionaba aún con linea
de comandos de modo que a años luz del lujo actual). Tim,
el creador de la web, ya había creado en el año 1980
programas hipertextuales. En el CERN guardan la página
original con los primeros servidores que se crearon. Es una
página de noviembre de 1992, cuando solo había 26
ordenadores capaces de servir páginas web. La página
advierte de que su contenido es una reliquia para la
posteridad, para no confundir a despistados…

En 1991 se retiraron las restricciones de NFS al uso


comercial de Internet. Ese mismo año también se
Conectaron más países a la NSFNET incluyendo: Croacia,
Hong Kong, República Checa, Sudáfrica, Singapur,
Hungría, Polonia, Portugal, Taiwan y Túnez.

Año 1993 Aparece el primer visualizador gráfico de


páginas web: Mosaic, el antecesor de Netscape.El
conocido navegador WWW Mosaic se desarrolló en el
National Center for Supercomputing. Con la extensión de
los ordenadores personales y el lanzamiento del primer
navegador de la WWW popular, Mosaic, en 1993, ya
había llegado el momento de "surfear la Web" (la
expresión se registró por primera vez ese mismo año).

En 1993 el número de servidores Internet sobrepasa los


2.000.000. También NSF patrocina la formación de una

43
nueva organización, ínterNIC, creada para proporcionar
servicios de registro en Internet y bases de datos de
direcciones

Año 1994 En 1994 se abre el primer ciberbanco.

Año 1995 En octubre de 1995 Netscape puso en la red el


primer navegador. Para celebrarlo sus desarrolladores
hicieron una fiesta con pizzas e instalaron un apantalla
gigante para ver en la Silicon Graphics como empezaban a
descolgarse navegadores. El primer usuario de Netscape
fue un japonés y a medianoche los desarrolladores se
dieron cuenta que el servidor indicaba qué versión era la
que la gente se estaba bajando así que pusieron un sonido
diferente para la de Windows, Mac y Unix que se oía cada
vez que empezaba un download.

Aparece RealAudio, que tranmitirá sonido y voz por la


red.

En 1995 había más de 5 millones de servidores conectados


a Internet. La espina dorsal de NSFNET empezaba a ser
sustituido por proveedores comerciales interconectados

Año 1997 Ya hay 17 millones de servidores en la red.

44
Año 1999 El tremendo crecimiento de la red, unido a la
autonomía de su funcionamiento, hacen que grandes zonas
de sus contenidos estén en la penumbra: según datos de
1999 el conjunto de los grandes buscadores de páginas en
la Malla Mundial sólo conoce el contenido de menos del
50% e la red. La Última iniciativa, Internet 2, propone
crear un espacio aparte y de más calidad de
comunicaciones para instituciones de investigación

Año 2000 Internet está formada, no solamente de restos de


la ARPANet original, sino que también incluye redes
como la Academia Australiana de Investigación de redes
(AARNET), la NASA Science Internet (NSI), la Red
Académica de Investigación Suiza (SWITCH), por no
mencionar las miles de redes de mayor o menor tamaño de
tipo educativo y de investigación
Como también sabemos la internet no tan solo es un medio
de comunicación, sino también es un medio de
información masiva, la cual los jóvenes utilizan
diariamente.
Este mundo de información instantánea lleva a los chicos
a pensar de una manera totalmente diferente, en la cual
dejan de lados a los libros, enciclopedias, diccionarios,
glosarios, revistas, etc.
En sus mentes solamente existe un solo medio de
información confiable, esta sería la internet, pero el
problema que ellos desconocen que si bien les informa, al
mismo tiempo les mal informa, porque al encontrar
información de mas, aprenden conceptos y cualidades no
deseadas o incluso no buscadas en el momento de la
utilización del mismo servicio.

45
El plus de esta situación es el ocio, al estar conectado con
alrededor de millones de personas causa que el joven se
desoriente del espacio tiempo, teniendo sesiones de largas
y extensas horas, un promedio actual de este es el
siguiente : “ Un joven promedio ( adolescente y pre-
adolescente) pasa por lo menos un tiempo medio de 3 a 6
horas en internet como mínimo, con un máximo de 6 a 10
horas.”
Los elementos más utilizados por estos jóvenes son, los
lugares de encuentro de personas atreves de un ordenador
conectados por internet. Estos lugares tienen la
denominación de “Chat”, si bien tienen diversas secciones
en las cuales se puede conocer gente con diferentes tipos
de objetivos, pero uno de los más peligrosos es cuando esa
“inocencia” de conocer gente pasa a algo más como “El
cyber-sexo”.
Estas personas que recurren al cyber-sexo se esconden de
diferentes maneras, al estar chateando con alguien de otro
lado podemos imaginar que es la persona que nos dice ser,
pero en este mundo tan diferente encontramos a los
oportunistas, que dicen ser una persona que no son, para
convencer a su víctima que realice distintos actos sexuales
cibernéticos (como puede ser mostrarse por la webcam
partes intimas etc.).
El peligro no solo termina ahí, sino que es uno de los
comienzos ya que estos depravados, realizan o mejor
dicho organizan encuentros con sus víctimas “como una
especia de citas”, la victima confiada de esta persona que
no sabe en realidad quien es, cuando va a hacia el lugar
especificado de la reunión con estos degenerados, tienden
a terminar de maneras no placenteras, las cuales se
encuentran, Explotación infantil, secuestros, violación,
abuso de menores, robos, etc.

46
Los chicos al tener internet no necesitan más de libros e
enciclopedias, ya que poseen de los buscadores de
internet, donde tan solo ponen lo que quieren buscar y con
un solo click encuentran miles de posibilidades o variables
de lo que buscan.
Entre estos buscadores y enciclopedias se encuentras las
siguientes compañías más conocidas como: Google,
Wikipedía, Yahoo, etc.
En estos buscadores aun existen problemas graves, con la
seguridad de los niños e adolescentes, como consecuente
al escribir una palabra o significado puede ser interpretado
de varias maneras y derivarlos a paginas con contenido
explicito sexual, las cuales se denominan páginas
pornográficas, donde estas exhiben videos, fotos, textos y
diversas maneras de expresar el sexo.
Esto es perturbador para cualquier niño que tenga acceso a
ellas, ya por el simple hecho de ser menor y no
comprender lo que ven pueden tomar un concepto
equivocado de lo que serian las relaciones sexuales, y
hasta ha existido casos de niños con problemas de
sociabilizarse debido a ese descubrimiento abrupto que le
otorgo dicha pagina.
El impacto de la internet fue bastante grande, si bien la
gente tenía como concepto de comunicación al teléfono o
el correo, con la internet un nuevo mundo o mejor dicho
una nueva era comenzó, la gente empezó a sociabilizarse
más, a conectarse y conocer otras partes del mundo que
antes no se podían ver, que únicamente a través de fotos o
postales podían tener una diminuta porción de lo que era
ese paisaje, si bien, con este servicio todo cambio, todo y
todos comenzaron a ver desde otro ángulo diferente.
Redes Sociales:

47
El software germinal de las redes sociales parte de la
teoría de los Seis grados de separación, según la cual toda
la gente del planeta está conectada a través de no más de
seis personas. De hecho, existe una patente en EEUU
conocida como six degrees patent por la que ya han
pagado Tribe y LinkedIn. Hay otras muchas patentes que
protegen la tecnología para automatizar la creación de
redes y las aplicaciones relacionadas con éstas.

Estas redes sociales se basan en la teoría de los seis


grados, Seis grados de separación es la teoría de que
cualquiera en la Tierra puede estar conectado a cualquier
otra persona en el planeta a través de una cadena de
conocidos que no tiene más de seis intermediarios. La
teoría fue inicialmente propuesta en 1929 por el escritor
húngaro Frigyes Karinthy en una corta historia llamada
Chains. El concepto está basado en la idea que el número
de conocidos crece exponencialmente con el número de
enlaces en la cadena, y sólo un pequeño número de
enlaces son necesarios para que el conjunto de conocidos
se convierta en la población humana entera.

Recogida también en el libro "Six Degrees: The Science of


a Connected Age” del sociólogo Duncan Watts, y que
asegura que es posible acceder a cualquier persona del
planeta en tan solo seis “saltos”.

Según esta Teoría, cada persona conoce de media, entre


amigos, familiares y compañeros de trabajo o escuela, a

48
unas 100 personas. Si cada uno de esos amigos o
conocidos cercanos se relaciona con otras 100 personas,
cualquier individuo puede pasar un recado a 10.000
personas más tan solo pidiendo a un amigo que pase el
mensaje a sus amigos.

Estos 10.000 individuos serían contactos de segundo nivel,


que un individuo no conoce pero que puede conocer
fácilmente pidiendo a sus amigos y familiares que se los
presenten, y a los que se suele recurrir para ocupar un
puesto de trabajo o realizar una compra. Cuando
preguntamos a alguien, por ejemplo, si conoce una
secretaria interesada en trabajar estamos tirando de estas
redes sociales informales que hacen funcionar nuestra
sociedad. Este argumento supone que los 100 amigos de
cada persona no son amigos comunes. En la práctica, esto
significa que el número de contactos de segundo nivel será
sustancialmente menor a 10.000 debido a que es muy
usual tener amigos comunes en las redes sociales.

Si esos 10.000 conocen a otros 100, la red ya se ampliaría


a 1.000.000 de personas conectadas en un tercer nivel, a
100.000.000 en un cuarto nivel, a 10.000.000.000 en un
quinto nivel y a 1.000.000.000.000 en un sexto nivel. En
seis pasos, y con las tecnologías disponibles, se podría
enviar un mensaje a cualquier lugar individuo del planeta.

Evidentemente cuanto más pasos haya que dar, más lejana


será la conexión entre dos individuos y más difícil la

49
comunicación. Internet, sin embargo, ha eliminado
algunas de esas barreras creando verdaderas redes sociales
mundiales, especialmente en segmento concreto de
profesionales, artistas, etc.

En la década de los 50, Ithiel de Sola Pool (MIT) y


Manfred Kochen (IBM) se propusieron demostrar la teoría
matemáticamente. Aunque eran capaces de enunciar la
cuestión "dado un conjunto de N personas, ¿cual es la
probabilidad de que cada miembro de estos N estén
conectados con otro miembro vía k1, k2, k3,..., kn
enlaces?", después de veinte años todavía eran incapaces
de resolver el problema a su propia satisfacción.

En 1967, el psicólogo estadounidense Stanley Milgram


ideó una nueva manera de probar la Teoría, que él llamó
"el problema del pequeño mundo". El experimento del
mundo pequeño de Milgram consistió en la selección al
azar de varias personas del medio oeste estadounidense
para que enviaran tarjetas postales a un extraño situado en
Massachusetts, situado a varios miles de millas de
distancia. Los remitentes conocían el nombre del
destinatario, su ocupación y la localización aproximada.
Se les indicó que enviaran el paquete a una persona que
ellos conocieran directamente y que pensaran que fuera la
que más probabilidades tendría, de todos sus amigos, de
conocer directamente al destinatario. Esta persona tendría
que hacer lo mismo y así sucesivamente hasta que el
paquete fuera entregado personalmente a su destinatario
final.

50
Aunque los participantes esperaban que la cadena
incluyera al menos cientos de intermediarios, la entrega de
cada paquete solamente llevó, como promedio, entre cinco
y siete intermediarios. Los descubrimientos de Milgram
fueron publicados en "Psychology Today" e inspiraron la
frase seis grados de separación.

En The social software weblog han agrupado 120 sitios


web en 10 categorías y QuickBase también ha elaborado
un completo cuadro sobre redes sociales en Internet.

El origen de las redes sociales se remonta, al menos, a


1995, cuando Randy Conrads crea el sitio web
classmates.com. Con esta red social se pretende que la
gente pueda recuperar o mantener el contacto con antiguos
compañeros del colegio, instituto, universidad, etcétera.

En 2002 comienzan a aparecer sitios web promocionando


las redes de círculos de amigos en línea cuando el término
se empleaba para describir las relaciones en las
comunidades virtuales, y se hizo popular en 2003 con la
llegada de sitios tales como MySpace o Xing. Hay más de
200 sitios de redes sociales, aunque Friendster ha sido uno
de los que mejor ha sabido emplear la técnica del círculo
de amigos[cita requerida]. La popularidad de estos sitios
creció rápidamente y grandes compañías han entrado en el
espacio de las redes sociales en Internet. Por ejemplo,
Google lanzó Orkut el 22 de enero de 2004. Otros

51
buscadores como KaZaZZ! y Yahoo crearon redes
sociales en 2005.

En estas comunidades, un número inicial de participantes


envían mensajes a miembros de su propia red social
invitándoles a unirse al sitio. Los nuevos participantes
repiten el proceso, creciendo el número total de miembros
y los enlaces de la red. Los sitios ofrecen características
como actualización automática de la libreta de direcciones,
perfiles visibles, la capacidad de crear nuevos enlaces
mediante servicios de presentación y otras maneras de
conexión social en línea. Las redes sociales también
pueden crearse en torno a las relaciones comerciales.

Las herramientas informáticas para potenciar la eficacia de


las redes sociales online (‘software social’), operan en tres
ámbitos, “las 3Cs”, de forma cruzada:
Comunicación (nos ayudan a poner en común
conocimientos).
Comunidad (nos ayudan a encontrar e integrar
comunidades).
Cooperación (nos ayudan a hacer cosas juntos).

El establecimiento combinado de contactos (blended


networking) es una aproximación a la red social que
combina elementos en línea y del mundo real para crear
una mezcla. Una red social de personas es combinada si se

52
establece mediante eventos cara a cara y una comunidad
en línea. Los dos elementos de la mezcla se complementan
el uno al otro. Vea también computación social.

Las redes sociales continúan avanzando en Internet a


pasos agigantados, especialmente dentro de lo que se ha
denominado Web 2.0 y Web 3.0, y dentro de ellas, cabe
destacar un nuevo fenómeno que pretende ayudar al
usuario en sus compras en Internet: las redes sociales de
compras. Las redes sociales de compras tratan de
convertirse en un lugar de consulta y compra. Un espacio
en el que los usuarios pueden consultar todas las dudas
que tienen sobre los productos en los que están
interesados, leer opiniones y escribirlas, votar a sus
productos favoritos, conocer gente con sus mismas
aficiones y, por supuesto, comprar ese producto en las
tiendas más importantes con un solo clic. Esta tendencia
tiene nombre, se llama Shopping 2.0.

Las Redes son formas de interacción social, definida


como un intercambio dinámico entre personas, grupos e
instituciones en contextos de complejidad. Un sistema
abierto y en construcción permanente que involucra a
conjuntos que se identifican en las mismas necesidades y
problemáticas y que se organizan para potenciar sus
recursos.

Una sociedad fragmentada en minorías aisladas,


discriminadas, que ha desvitalizado sus redes vinculares,
con ciudadanos carentes de protagonismo en procesos

53
transformadores, se condena a una democracia restringida.
La intervención en red es un intento reflexivo y
organizador de esas interacciones e intercambios, donde el
sujeto se funda a sí mismo diferenciándose de otros.”

No difiere lo dicho sobre una red grupal y lo que sucede a


nivel subjetivo en Internet, al menos en las que se dedican
a propiciar contactos afectivos nuevos como lo son las
redes de búsqueda de pareja, amistad o compartir intereses
sin fines de lucro.

En las redes sociales en Internet tenemos la posibilidad de


interactuar con otras personas aunque no las conozcamos,
el sistema es abierto y se va construyendo obviamente con
lo que cada suscripto a la red aporta, cada nuevo miembro
que ingresa transforma al grupo en otro nuevo. La red no
es lo mismo si uno de sus miembros deja de ser parte.

Intervenir en una red social empieza por hallar allí otros


con quienes compartir nuestros intereses, preocupaciones
o necesidades y aunque no sucediera más que eso, eso
mismo ya es mucho porque rompe el aislamiento que
suele aquejar a la gran mayoría de las personas, lo cual
suele manifestarse en retraimiento y otras veces en
excesiva vida social sin afectos comprometidos.

Las redes sociales en Internet suelen posibilitar que


pluridad y comunidad se conjuguen y allí quizás esté gran

54
parte de toda la energía que le da vida a los grupos
humanos que conforman esas redes. Las redes sociales dan
al anónimo popularidad, al discriminado integración, al
diferente igualdad, a la malhumorada educación y así
muchas cosas más.

La fuerza del grupo permite sobre el individuo cambios


que de otra manera podrían ser difíciles y genera nuevos
vínculos afectivos y de negocios.
Las redes sociales através de Internet se han convertido en
el lugar mas popular visitado por los jóvenes, en donde
tienen experiencias totalmente nuevas, si bien no son las
mismas que las de los centros de chats, especifican aun
mucho mas la privacidad de la persona, teniendo en cuenta
datos personales verdaderos, fotos del individuo,
comentarios, publicaciones, etc.
No solo que llegan a conocer gente interesante, que nunca
pensaron que podían conocer a través de este servicio y
medio, sino que también llegar a reencontrar gente de la
infancia, como amigos del jardín de infantes, compañeros
de la primaria, amigos de otros barrios donde vivían,
parientes, antiguas novias o novios y muchísimo más.
Si bien estas redes tienen puntos realmente buenos, como
toda cosa basada en Internet tiene sus puntos negativos,
digamos las redes sociales son bastante peligrosas
también, ya que al poner los datos personales, uno brinda
toda la información clasificada y personal a hacia un
mundo entero de desconocidos. Si bien tienen medidas
para mostrar o no estos datos, existe gente que sabe como
conseguirlos y con ellos utilizarlos o manipularlos para su
propio bien.

55
Que quiere decir esto, que pueden hacer secuestros
virtuales, robos de identidad, secuestrar personar, robos,
violaciones, etc.
Las redes sociales no solo son inseguras, también tienen
partes adictivas y de marketing engañoso para los
usuarios, como promociones falsas, pirateo de
información, adición prolongada a seguir utilizando este
servicio.
Todas estas “adiciones y marketing engañoso” lo podemos
ver como afecta al joven, induciéndole un nuevo mundo
en su mente, confundiéndolo y haciéndole creer que tiene
que consumir algo que en realidad no necesita, o si bien a
hacer o tomar decisiones o acciones que no desea
tampoco.
Esto es grave para la sociedad, por que se pierde el vínculo
directo de conocer gente a través de la realidad, y no de la
realidad virtual. En esto es conocido las relaciones
virtuales, como son en juegos, o redes sociales, gente que
dicen tener un vinculo con otra persona de otro sexo
haciendo creer que esto es realmente cierto, sintiendo
sentimientos verdaderos como si la persona que se tendría
ese “vinculo” estaría con el en carne y hueso. Cuando en
realidad solamente se conocen virtualmente, a través de
programas de comunicación ya serian como un
“Messenger”, “E-mail” o en el caso de las redes sociales,
“Facebook”,”Twister”, “Sonic”, “Badoo”.
Esta serie de “cadenas” que se encuentran dentro de los
vínculos virtuales es muy alarmante ya que a los jóvenes
no solo de confundirlos de lo que es un vinculo real y de
experimentar todos sus beneficios se quedan con la
consideración de tener una relación virtual, lo cual lo
degrada lo detiene de tener esa sociabilidad en persona y
ser un individuo mas productivo a la hora de conocer

56
gente.
No solo que detiene el crecimiento de los chicos, las redes
sociales, sino que le aporta fuentes de información que
ellos no están preparados para afrontar. Si debería haber
una posible conclusión de esto seria tener cuidado y ver
que hacen los chicos dentro de estos medios ya que a
veces sin querer ingresan a un lugar no deseado.

57
CONCLUCIONES:
El Internet es una de las fuentes mas fundamentales de
aprendizaje instantáneo en la vida de los jóvenes, teniendo
en cuenta que toda información que necesitan tener para
algún trabajo académico, estudiantil o tan solo de
curiosidad es conseguido con mucha facilidad.
Las redes sociales revolucionaron sus vidas a la hora de
entrar en “contacto” con otras personas que antes si no
asistían a lugares sociales como: pubs, boliches, Shopping,
plazas, ferias, etc.
Lo pueden conseguir a través de un sitio donde tan solo se
registran y empiezan a interactuar con millones de
personas con una facilidad que hasta un niño de 8 años
puede lograr.
Esta evolución en sus rutinas diarias cambio la forma de
percepción que tenían hacia el mundo, este servicio les
brindo una nueva oportunidad de cómo ingresar en la
sociedad sin ser discriminado ni excluido.
En el caso del hardware y el software:
En este mundo donde la utilización de la PC como una
herramienta de trabajo pasó a ser algo casi indispensable
para ejecutar varias tareas en distintos tipos de lugares, y
sumado a la gran amplitud de crecimiento de las
conexiones NET, o de Internet, esto día a día provoca mas
crecimientos hasta incluso puestos de trabajo en distintas
sociedades.
Esto se ve reflejado en varios sectores trabajadores como
puede ser en el sector automotriz; que no mas de 20 años
atrás las partes se ensamblaban a mano, y ahora a través de
una PC con sus respectivos softwares, hacen de este labor
un trabajo más rápido, y poco trabajoso.

58
Las PCs llegaron para quedarse en la historia de este
mundo. Cada día se ve mas lejos el sustituto de este
artefacto, ya que los campos que abarca son tan inmensos
que hasta se puede llegar a decir que hoy en día muchas
personas necesitan de la misma.

59
Índice:
-Introducción

-Prologo PAGINA 1
PAGINA 2
-Pregunta problema PAGINA 3
PAGINA 4
-Hipótesis PAGINA 5
PAGINA 29
-Marco Teórico PAGINA 58

-Tema a desarrollar

-Conclusiones

60

También podría gustarte