Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción:
Nosotros en esta tesis queremos dar a conocer en base de
análisis, estadísticas, fundamentos de medios masivos de
comunicación como Internet; la historia de la PC (Personal
Computers) como elemento de trabajo y su importancia
como herramienta esencial para el crecimiento del
consumismo y la gran expansión en la implementación en
los hogares de familias comunes de clase media, en
lugares laborales y sus consecuencias e impactos sociales,
movimiento de gentes através de la llegada del “Internet”
a las PC`s de hogar y también de las laborales. Mas que
nada queremos hacer hincapié en las revoluciones que
tuvo la sociedad dentro de la masificación de las
computadoras en la humanidad, como así también la
importancia en el crecimiento de las adolescentes del siglo
XXI basado en redes sociales, juegos, y utilidades de
softwares.
1
Prologo:
Encontramos este tema para realizar la tesis mediante curiosidad y
materiales informáticos dados en 5 y 4 año de la secundaria.
Comprendimos que este tema era significativo para nuestras
vidas. Se volvió un tema personal y especifico en el avance de los
últimos 2 años de secundarias. Sentíamos que debíamos
informarnos sobre este tema, entenderlo y finalmente escribirlo y
explicarlo en nuestra tesis para que la gente sintiera de algún
modo el impacto que causo en nosotros.
Pregunta problema:
2
- ¿Cuáles fueron los efectos que tomaron los
adolescentes durante el desarrollo de la PC (Personal
Computer), y cual fue el impacto de Internet y de las
redes sociales en los jovenes?
3
Hipótesis:
- El efecto que causo en los jóvenes fue descubrir un
nuevo mundo atreves de la PC.
- El impacto más importante fue haber crecido al mismo
tiempo que la personal Computers, y el impacto de
Internet creo un nuevo mundo dependiente de dicho
servicio.
-Los Sucesos causaron un impacto serio en los jóvenes, la
revolución que causo este producto y su servicio lo cual
dieron a educar de una nueva manera a los jóvenes
4
Marco Teórico:
5
IBM tubo inicios el 15 de
junio de 1911 en Binghamton (Estados Unidos) como
resultado de la fusión gestionada por Charles R. Flint de
su empresa, la Tabulating Machine Company (fundada
por Herman Hollerith en 1896), con Computing Scale
Corporation e International Time Recording Company. La
empresa formada de la fusión fue llamada Computing
Tabulating Recording Corporation (CTR), pero el 14 de
febrero de 1924 CTR cambió su nombre a International
Business Machines Corporation (IBM), se dice que debido
a una especie de broma, al ser la líder del sector la
compañía de máquinas registradoras "National".
Las empresas originarias de CTR fabricaban una amplia
gama de productos, desde sistemas para el control de
empleados hasta equipos automatizados para el corte de
carne. Además fabricaban equipos para la gestión
de tarjetas perforadas, que serían un elemento clave de los
futuros computadores. Con el tiempo, CTR se centraría en
estos equipos y dejaría a un lado la fabricación del resto de
productos.
Durante la Segunda Guerra Mundial, IBM comenzó a
investigar en el campo de la informática. En 1944 terminó
de construir el computador Automatic Sequence
Controlled Calculator -Calculadora Controlada por
Secuencia Automática-, también conocido como Mark I.
El Mark I fue la primera máquina capaz de ejecutar
cálculos complejos automáticamente, y estaba basada en
interruptores electromecánicos.
En 1953, IBM creó el IBM 701, el primer gran
computador basado en válvulas de vacío, tecnología que
substituyó a los interruptores electromecánicos.
En 1954introdujo la IBM 650. En 1959,
6
los transistores empezaron a substituir a las válvulas de
vacío. Uno de los primeros computadores de IBM basados
en transistores fue el IBM 7090. Hasta aquel entonces, los
computadores se usaban principalmente en centros de
investigación y del gobierno, pero la mejora de
rendimiento alcanzada con las válvulas y especialmente
con los transistores, hizo que algunas empresas
comenzaran a utilizarlos.
El primer sistema de almacenamiento informático basado
en disco, llamado RAMAC, y el lenguaje de
programación FORTRAN fueron creados por IBM en
1957. El RAMAC es el predecesor de los discos duros
actuales y estaba formado internamente por cincuenta
discos.
A comienzos de los años 1960, IBM comenzó a
transformarse en una empresa dedicada exclusivamente a
la informática, dejando paulatinamente la fabricación de
equipos para tarjetas perforadas y máquinas de escribir.
Estas últimas las empezó a fabricar a mediados de los años
1930.
El 7 de abril de 1964, IBM lanzó el System/360, la
primera arquitectura de computadores que permitía
intercambiar los programas y periféricos entre los distintos
equipos componentes de la arquitectura, al contrario de lo
existente anteriormente, en que cada equipo era una caja
cerrada incompatible con los demás. La orden de crear
esta arquitectura partió directamente del gerente de IBM
de la época, Thomas J. Watson, Jr.. El desarrollo
del System/360 fue tan costoso que prácticamente llevó a
la quiebra a IBM, pero tuvo tal éxito al lanzarse al
mercado que los nuevos ingresos y el liderazgo que
7
consiguió IBM respecto a sus competidores les resarcieron
de todos los gastos.
Fue tal el éxito de IBM de mediados de los años 1960 que
provocó que la empresa fuera investigada por monopolio.
De hecho, tuvo un juicio, que comenzó en1969, en el que
fue acusada de intentar monopolizar el mercado de los
dispositivos electrónicos de propósito general,
concretamente el mercado de computadores empresariales.
El juicio continuó hasta 1983 y tuvo gran impacto en las
prácticas de la empresa.
Durante los años 1970, IBM continuó creando nuevos
dispositivos informáticos. En 1971 creó el disco flexible y
poco después empezó a comercializar predecesores de los
actuales lectores de códigos de barras y cajeros
automáticos.
8
El 19 de enero de 1993, IBM anunció unas pérdidas de
cerca de 8.000 millones de dólares, lo que fue el récord de
pérdidas en una empresa de toda la historia de los Estados
Unidos. Parte de esas pérdidas se deben a que el IBM PC
absorbió gran parte del mercado de computadores más
potentes y a que los fabricantes de computadores
compatibles con el IBM PC cada vez tenían más cuota de
mercado. El gran cambio en IBM se da en 1993 cuando se
elige como Chief Executive Officer a Louis V. Gerstner,
el primer ejecutivo de alto nivel en la historia de IBM que
no provenía de sus propias filas. Lou, como se le conoce,
había sido CEO en empresas de fabricación de alimentos,
cigarrillos y tarjetas de crédito, pero jamás de empresas de
tecnología. A partir de entonces, IBM comenzó a
transformarse en una empresa de servicios, reduciendo su
dependencia económica de la venta de equipos. Esta
tendencia se incrementó, especialmente desde que
en 2002 Samuel J. Palmisano, sucesor de Lou, dejara de
dirigir la rama de servicios de IBM para convertirse en el
nuevo primer ejecutivo de la empresa. En el 2003,
alrededor del 50% de los ingresos de IBM provienen de la
rama de servicios, mientras que la venta de equipos
supone aproximadamente el 30%.
El 10 de diciembre de 2004, IBM terminó las
negociaciones encaminadas a vender la división de PC al
grupo chino Lenovo por 650 millones de dólares en
efectivo y 600 millones más en acciones (un 19% de
Lenovo). Junto con la división de PC, Lenovo consigue
alrededor de 10.000 empleados de IBM y el derecho a usar
las marcas IBM y Thinkpad durante cinco años.
9
Hay muchos avances en esta herramienta, el desarrollo de
programas que funcionan como otras herramientas adentro
de una misma, se lo conoce como “Software”;se conoce
como software al equipamiento lógico o soporte lógico de
una computadora digital; comprende el conjunto de los
componentes lógicos necesarios que hacen posible la
realización de tareas específicas, en contraposición a los
componentes físicos del sistema, llamados hardware.
Tales componentes lógicos incluyen, entre muchos
otros, aplicaciones informáticas como el procesador de
textos, que permite al usuario realizar todas las tareas
concernientes a la edición de textos o el software de
sistema tal como el sistema operativo, que, básicamente,
permite al resto de los programas funcionar
adecuadamente, facilitando la interacción con los
componentes físicos y el resto de las aplicaciones,
proporcionando también una interfaz para el usuario
10
El software privativo es software que no es libre ni semi-
libre. Su uso, redistribución o modificación están
prohibidos, requieren que solicite una autorización, o está
tan restringido que de hecho no puede hacerlo libremente.
La Fundación para el Software Libre sigue la norma de
que únicamente podemos instalar un programa privativo
en nuestros ordenadores, cuando lo hacemos
temporalmente y con el propósito de escribir una
alternativa libre a ese mismo programa. Aparte de este
caso concreto, creemos que no hay excusa posible para
instalar un programa privativo.
El software privado, o a medida, es software desarrollado
para un usuario (generalmente una organización o una
compañía). Este usuario lo tiene en su poder y lo utiliza, y
no lo libera al público ni como código fuente ni como
binario.
Un programa privado es software libre en un sentido
trivial si su único usuario tiene plenos derechos sobre él.
Sin embargo, al considerar la cuestión con más
profundidad, el preguntarse si tal programa es o no libre
pierde su sentido.
-Software comercial:
El software comercial es aquel desarrollado por un
negocio que pretende obtener dinero de su utilización.
¡«Comercial» y «privativo» no son lo mismo! La mayoría
del software comercial es privativo, pero hay software
libre comercial, y hay software no libre no comercial.
Por ejemplo, Ada de GNU siempre se distribuye bajo los
términos de la GPL de GNU, y cada una de sus copias es
software libre; sin embargo, sus desarrolladores hacen
contratos de mantenimiento. En ocasiones los clientes
interesados comentan a los vendedores: «Nos sentiríamos
11
más seguros con un compilador comercial». A lo que los
vendedores responden: «Ada de GNU es un compilador
comercial; con la particularidad de que además es software
libre».
-Software educativo (Uno de los más demandados,
adquiridos e importantes):
Sánchez J. (1999), en su Libro "Construyendo y
Aprendiendo con el Computador", define
el concepto genérico de Software Educativo como
cualquier programa computacional cuyas características
estructurales y funcionales sirvan de apoyo al proceso
de enseñar, aprender y administrar. Un concepto más
restringido de Software Educativo lo define como
aquel material de aprendizaje especialmente diseñado para
ser utilizado con una computadora en los procesos de
enseñar y aprender.
Según Rguez Lamas (2000), es una aplicación
informática, que soportada sobre una bien
definida estrategia pedagógica, apoya directamente el
proceso de enseñanza aprendizaje constituyendo
un efectivo instrumento para el desarrollo educacional del
hombre del próximo siglo.
Finalmente, los Software Educativos se
pueden considerar como el conjunto de recursos
informáticos diseñados con la intención de ser utilizados
en el contexto del proceso de enseñanza – aprendizaje.
Se caracterizan por ser altamente interactivos, a partir
del empleo de recursos multimedia,
como videos, sonidos, fotografías, diccionarios
especializados, explicaciones de
12
experimentados profesores, ejercicios y juegos instructivos
que apoyan las funciones de evaluación y diagnóstico.
Los software educativos pueden tratar las diferentes
materias (Matemática, Idiomas, Geografía, Dibujo), de
formas muy diversas (a partir de cuestionarios, facilitando
una información estructurada a los alumnos, mediante
la simulación de fenómenos) y ofrecer un entorno de
trabajo más o menos sensible a las circunstancias de los
alumnos y más o menos rico en posibilidades de
interacción; pero todos comparten las siguientes
características:
• Permite la interactividad con
los estudiantes, retroalimentándolos y evaluando lo
aprendido.
• Facilita las representaciones animadas.
• Incide en el desarrollo de las habilidades a través de
la ejercitación.
• Permite simular procesos complejos.
• Reduce el tiempo de que se dispone para impartir
gran cantidad de conocimientos facilitando un trabajo
diferenciado, introduciendo al estudiante en el
trabajo con los medios computarizados.
• Facilita el trabajo independiente y a la vez un
tratamiento individual de las diferencias.
• Permite al usuario (estudiante) introducirse en las
técnicas más avanzadas.
El uso del software educativo en el proceso de enseñanza -
aprendizaje puede ser:
Por parte del alumno.
13
Se evidencia cuando el estudiante opera directamente el
software educativo, pero en este caso es de vital
importancia la acción dirigida por el profesor.
Por parte del profesor.
Se manifiesta cuando el profesor opera directamente con
el software y el estudiante actúa como receptor del sistema
de información. La generalidad plantea que este no es el
caso más productivo para el aprendizaje.
El uso del software por parte del docente proporciona
numerosas ventajas, entre ellas:
• Enriquece el campo de la Pedagogía al incorporar la
tecnología de punta que revoluciona los métodos de
enseñanza - aprendizaje.
• Constituyen una nueva, atractiva, dinámica y rica
fuente de conocimientos.
• Pueden adaptar el software a las características y
necesidades de su grupo teniendo en cuenta el
diagnóstico en el proceso de enseñanza - aprendizaje.
• Permiten elevar la calidad del proceso docente -
educativo.
• Permiten controlar las tareas docentes de forma
individual o colectiva.
• Muestran la interdisciplinariedad de las asignaturas.
• Marca las posibilidades para una nueva clase más
desarrolladora.
Los software educativos a pesar de tener unos rasgos
esenciales básicos y una estructura general común se
presentan con unas características muy diversas: unos
aparentan ser un laboratorio o una biblioteca, otros se
limitan a ofrecer una función instrumental del tipo
máquina de escribir o calculadora, otros se presentan
14
como un juego o como un libro, bastantes tienen vocación
de examen, unos pocos se creen expertos... y la mayoría
participan en mayor o menor medida de algunas de estas
peculiaridades.
Para poner orden a esta disparidad, se elaboraron múltiples
tipologías que los clasifican a partir de diferentes criterios.
Por ejemplo, hasta el año 2003, según los polos en los
cuales se ha movido la educación, existían dos tipos de
software educativos:
1.- Algorítmicos, donde predomina el aprendizaje vía
transmisión del conocimiento, pues el rol del alumno es
asimilar el máximo de lo que se le transmite.
Considerando la función educativa se pueden clasificar en:
Sistemas Tutoriales
Sistema basado en el diálogo con el estudiante, adecuado
para presentar información objetiva, tiene en cuenta las
características del alumno, siguiendo una estrategia
pedagógica para la transmisión de conocimientos.
Sistemas Entrenadores
Se parte de que los estudiantes cuentan con los conceptos
y destrezas que van a practicar, por lo que su propósito es
contribuir al desarrollo de una determinada habilidad,
intelectual, manual o motora, profundizando en las dos
fases finales del aprendizaje: aplicación
y retroalimentación.
Libros Electrónicos
Su objetivo es presentar información al estudiante a partir
del uso de texto, gráficos, animaciones, videos, etc., pero
con un nivel de interactividad y motivación que le facilite
las acciones que realiza.
15
2.- Heurísticos, donde el estudiante descubre el
conocimiento interactuando con el ambiente de
aprendizaje que le permita llegar a él.
Considerando la función educativa se pueden clasificar en:
Simuladores
Su objetivo es apoyar el proceso de enseñanza –
aprendizaje, semejando la realidad de forma entretenida.
Juegos Educativos
Su objetivo es llegar a situaciones excitantes y
entretenidas, sin dejar en ocasiones de simular la realidad.
Sistemas Expertos
Programa de conocimientos intensivo que
resuelve problemas que normalmente requieren de la
pericia humana. Ejecuta muchas funciones secundarias de
manera análoga a un experto, por ejemplo, preguntar
aspectos importantes y explicar razonamientos.
Sistemas Tutoriales Inteligentes de enseñanza
Despiertan mayor interés y motivación, puesto que
pueden detectar errores, clasificarlos, y explicar por qué se
producen, favoreciendo así el proceso de
retroalimentación del estudiante.
A partir del 2004 surge una nueva tendencia, que es la de
integrar en un mismo producto, todas o algunas de estas
tipologías de software educativos. A este nuevo modelo de
software se le ha denominado HIPERENTORNO
EDUCATIVO o HIPERENTORNO DE APRENDIZAJE,
lo cual no es más que un sistema informático basado en
tecnología hipermedia que contiene una mezcla de
elementos representativos de diversas tipologías de
software educativo.
16
-Software libre y el Open Source:
l software libre es software con autorización para que
cualquiera pueda usarlo, copiarlo y distribuirlo, ya sea con
o sin modificaciones, gratuitamente o mediante una
retribución. En particular, esto significa que el código
fuente debe estar disponible. «Si no es fuente, no es
software». Ésta es una definición simplificada; ver
también la definición completa.
Si un programa es libre, puede ser potencialmente incluido
en un sistema operativo libre tal como GNU o los sistemas
GNU/Linux libres.
Hay muchas maneras diferentes de hacer libre un
programa: numerosas cuestiones a decidir que en muchos
casos son matices, y que pueden resolverse de varias
formas sin que por ello el programa deje de ser libre.
Algunas de las posibles variaciones son descritas abajo.
Para obtener información sobre licencias de software libre
específicas, puede consultar el listado de licencias.
El calificativo «libre» del software libre se refiere a
libertad, no a gratuidad. Sin embargo, las compañías de
software privativo emplean en ocasiones el término
«software libre» para referirse al precio [Nota del
traductor: En inglés «software libre», se escribe «free
software», el término «free» puede significar «gratis» o
«libre»]. A veces utiliza este término al hablar de la copia
binaria que se puede adquirir sin cargo; y otras veces se
usan para calificar la copia incluida en un ordenador
recién adquirido. Esto no tiene nada que ver con lo que
queremos dar a entender por software libre en el proyecto
GNU.
17
Debido a esta potencial confusión, cuando una compañía
de software dice que su producto es software libre, es
conveniente verificar siempre los términos de esa
distribución concreta para ver si los usuarios tienen todas
las libertades que implica el software libre. Algunas veces
es verdadero software libre; y otra veces no lo es.
Muchos idiomas tienen dos palabras diferentes para «free»
como libertad y «free» como precio cero. Por ejemplo, el
francés dispone de los términos «libre» y «gratuit» [en
español sucede exactamente lo mismo con los términos
«libre» y «gratuito»]. Esto no ocurre en inglés, en inglés
existe la palabra «gratis», que se refiere sin ambigüedad al
precio, pero no dispone de un adjetivo común que se
refiera sin ambigüedad a la libertad. Por lo tanto, si usted
habla otro idioma que no sea el inglés, le sugerimos que
traduzca el término «free» de «free software» a su idioma
para hacerlo más claro. Vea nuestra lista de traducciones
de la expresión «free software» a otros idiomas.
El software libre es con frecuencia más fiable que el
software no libre.
-Software de código abierto (Open source)
18
libre es de código abierto, y casi todo el software de
código abierto es libre.
Nosotros preferimos la expresión «software libre» porque
se refiere a libertad, algo que la expresión «código
abierto» no hace.
Estas cadenas de software también contribuyeron al
crecimiento y desarrollo especializado en ciertas areas del
trabajo, educación, y principalmente la ayuda que le
brindan a los usuarios pertenece dores de una PC. Pero la
madre de todos los software es el Sistema Operativo
(OS).
Un Sistema operativo (SO) es un software que actúa
de interfaz entre los dispositivos de hardware y los
programas de usuario o el usuario mismo para utilizar
un computador. Es responsable de gestionar, coordinar las
actividades y llevar a cabo el intercambio de los recursos y
actúa como intermediario para las aplicaciones que se
ejecutan.
Nótese que es un error común muy extendido denominar
al conjunto completo de herramientas sistema operativo,
pues este, es sólo el núcleo y no necesita de entorno
operador para estar operativo y funcional. Uno de los más
prominentes ejemplos de esta diferencia, es el SO
Linux, el cual junto a las herramientas GNU, forman las
llamadas distribuciones Linux.
Este error de precisión, se debe a la modernización de la
informática llevada a cabo a finales de los 80, cuando la
filosofía de estructura básica de funcionamiento de los
grandes computadores se rediseñó a fin de llevarla a los
hogares y facilitar su uso, cambiando el concepto de
computador multiusuario, (muchos usuarios al mismo
tiempo) por un sistema monousuario (únicamente un
19
usuario al mismo tiempo) más sencillo de
gestionar. (AmigaOS, beOSo MacOS como los pioneros
de dicha modernización, cuando los Amiga, fueron
bautizados con el sobrenombre de Video Toasters por su
capacidad para la Edición de vídeo en
entorno multitarea round robin, con gestión de miles de
colores e interfaces intuitivos para diseño en 3D con
programas como Imagine o Scala multimedia, entre
muchos otros.)
Uno de los propósitos de un sistema operativo
como intermediario consiste en gestionar los recursos de
localización y protección de acceso del hardware, hecho
que alivia a los programadores de aplicaciones de tener
que tratar con estos detalles. Se encuentran en la mayoría
de los aparatos electrónicos que
utilizan microprocesadores para funcionar. (Teléfonos
móviles, reproductores de DVD, computadoras, radios,
etc.)
Parte de la infraestructura de la World Wide Web está
compuesta por el Sistema Operativo de Internet, creado
por Cisco Systems para gestionar equipos de
interconexión como los conmutadores y los enrutadores.
Hardware:
20
todo tipo y cualquier otro elemento físico involucrado;
contrariamente al soporte lógico e intangible que es
llamado software. El término es propio del idioma inglés
(literalmente traducido: partes duras), su traducción al
español no tiene un significado acorde, por tal motivo se la
ha adoptado tal cual es y suena; la Real Academia
Española lo define como «Conjunto de los componentes
que integran la parte material de una computadora». El
término, aunque es lo más común, no necesariamente se
aplica a una computadora tal como se la conoce, así por
ejemplo, un robot también posee hardware (y software).
La historia del hardware del computador se puede
clasificar en cuatro generaciones, cada una caracterizada
por un cambio tecnológico de importancia.
Este hardware se puede clasificar en: básico, el
estrictamente necesario para el funcionamiento normal del
equipo, y el complementario, el que realiza funciones
específicas.
Un sistema informático se compone de una unidad central
de procesamiento (CPU), encargada de procesar los datos,
uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de
salida, los que posibilitan dar salida (normalmente en
forma visual o auditiva) a los datos procesados.
21
Propiamente el hardware externo, se lo define como los
elementos que son “conectores” que utiliza el usuario,
para manejar la relación Hard-interno > Software. Un
simple ejemplo es el Mouse y el Teclado. También se
encuentran los periféricos que talvez, no son necesarios
para el funcionamiento de la PC, pero que sirven como
una herramienta de uso para trabajo u ocio, como puede
ser la Impresora que tiene la función de plasmar un texto
definido por el usuario en un papel de distintos tipos de
volúmenes y tamaños.
22
Se distinguen el siguiente hardware interno:
-Placa madre
-Microprocesador
-Disco duro
-Fuente de alimentación
-Memorias RAM
-Video (VGA – HDMI – FLASH)
-Placa madre:
La placa base, aunque también conocida como placa
madre, o tarjeta
madre (del inglés motherboard o mainboard) es una placa
de circuito impreso a la que se conectan los componentes
que constituyen la computadora u ordenador. Tiene
instalados una serie de circuitos integrados, entre los que
se encuentra el chipset, que sirve como centro de conexión
entre el procesador, la memoriaRAM, los buses de
expansión y otros dispositivos.
Va instalada dentro de una caja que por lo general está
hecha de chapa y tiene un panel para conectar dispositivos
externos y muchos conectores internos y zócalos para
instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS,
que le permite realizar las funcionalidades básicas, como
pruebas de los dispositivos, vídeo y manejo del teclado,
reconocimiento de dispositivos y carga del sistema
operativo.
-Microprocesador:
23
El microprocesador o simplemente procesador, es
el circuito integrado más importante, de tal modo, que se
le considera el cerebro de una computadora. Está
constituido por millones de transistores integrados. Puede
definirse como chip, un tipo de componente electrónico en
cuyo interior existen miles o en ocasiones millones, según
su complejidad, de elementos llamados transistores cuyas
interacciones permiten realizar las labores o funciones que
tenga encomendado el chip.
Desde el punto de vista funcional, un microprocesador es
un circuito integrado que incorpora en su interior una
unidad central de proceso (CPU) y todo un conjunto de
elementos lógicos que permiten enlazar otros dispositivos
como memorias y puertos de entrada y salida (I/O),
formando un sistema completo para cumplir con una
aplicación específica dentro del mundo real. Para que el
sistema pueda realizar su labor debe ejecutar paso a paso
un programa que consiste en una secuencia de números
binarios o instrucciones, almacenándolas en uno o más
elementos de memoria, generalmente externos al mismo.
La aplicación más importante de los microprocesadores
que cambió totalmente la forma de trabajar, ha sido la
computadora personal, ordenador o microcomputadora.
Así mismo, es la parte de la computadora diseñada para
llevar a cabo o ejecutar los programas. Éste ejecuta
instrucciones que se le dan a la computadora a muy bajo
nivel realizando operaciones lógicas simples, como sumar,
restar, multiplicar o dividir. Se ubica generalmente en un
zócalo específico en la placa o tarjeta madre y dispone
para su correcto y estable funcionamiento de un sistema de
refrigeración (generalmente de un ventilador montado
sobre un disipador de metal térmicamente muy conductor).
24
Lógicamente funciona como la unidad central de procesos
(CPU/Central Procesing Unit), que está constituida por
registros, la unidad de control y la unidad aritmético-
lógica principalmente, aunque en la mayoría de las
ocasiones también integra una unidad de coma flotante. En
el microprocesador se procesan todas las acciones de la
computadora.
Su "velocidad" se determina por la cantidad de
operaciones por ciclo que puede realizar y los ciclos por
segundo que desarrolla: también denominada frecuencia
de reloj. La frecuencia de reloj se mide Hertzios, pero
dado su elevado número se utilizan los
múltiplos megahertzio o gigahertzio
Una computadora personal o más avanzada puede estar
soportada por uno o varios microprocesadores, y un
microprocesador puede soportar una o varias terminales
(redes). Un núcleo suele referirse a una porción del
procesador que realiza todas las actividades de una CPU
real.
La tendencia de los últimos años ha sido la de integrar
múltiples núcleos dentro de un mismo encapsulado,
además de componentes como memorias caché,
controladoras de memoria e incluso unidades; elementos
que anteriormente estaban montados sobre la placa base
como dispositivos individuales.
-Disco duro:
En informática, un disco duro o disco rígido (en
inglés Hard Disk Drive, HDD) es un dispositivo de
almacenamiento de datos no volátil que emplea un sistema
de grabación magnética para almacenar datos digitales. Se
compone de uno o más platos o discos rígidos, unidos por
25
un mismo eje que gira a gran velocidad dentro de una caja
metálica sellada. Sobre cada plato se sitúa un cabezal de
lectura/escritura que flota sobre una delgada lámina de aire
generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo
largo de los años, los discos duros han disminuido su
precio al mismo tiempo que han multiplicado su
capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición en los años
60.1 Los discos duros han mantenido su posición
dominante gracias a los constantes incrementos en la
densidad de grabación, que se ha mantenido a la par de las
necesidades de almacenamiento secundario.
Los tamaños también han variado mucho, desde
los primeros discos IBM hasta los formatos estandarizados
actualmente: 3,5" los modelos para PCs y servidores, 2,5"
los modelos para dispositivos portátiles. Todos se
comunican con la computadora a través del controlador de
disco, empleando un interfaz estandarizado. Los más
comunes hoy día son IDE (también llamado ATA o
PATA), SCSI (generalmente usado
en servidores y estaciones de trabajo), Serial
ATA y FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema
operativo debe aplicar un formato de bajo nivel que defina
una o más particiones. La operación de formateo requiere
el uso de una fracción del espacio disponible en el disco,
que dependerá del formato empleado. Además, los
fabricantes de discos duros, SSD y tarjetas flash miden la
capacidad de los mismos usando prefijos SI, que emplean
múltiplos de potencias de 1000 según la normativa IEC, en
lugar de los prefijos binarios clásicos de la IEEE, que
26
emplean múltiplos de potencias de 1024, y son los usados
mayoritariamente por los sistemas operativos. Esto
provoca que en algunos sistemas operativos sea
representado como múltiplos 1024 o como 1000, y por
tanto existan ligeros errores, por ejemplo un Disco duro de
500 GB, en algunos sistemas operativos sea representado
como 465 GiB (Según la IEC Gibibyte, o Gigabyte
binario, que son 1024 Mebibytes) y en otros como 465
GB.
Existe otro tipo de almacenamiento que recibe el nombre
de Unidades de estado sólido; aunque tienen el mismo uso
y emplean los mismos interfaces, no están formadas por
discos mecánicos, sino por memorias de circuitos
integrados para almacenar la información. El uso de esta
clase de dispositivos anteriormente se limitaba a
las supercomputadoras, por su elevado precio, aunque hoy
en día ya son muchísimo más asequibles para el mercado
doméstico.
-Fuente de alimentación:
En electrónica, una fuente de alimentación es un
dispositivo que convierte la tensión alterna de la red de
suministro, en una o varias tensiones,
prácticamente continuas, que alimentan los distintos
circuitos del aparato electrónico al que se conecta
(ordenador, televisor, impresora, router, etc.).
-Memorias RAM:
La memoria de acceso aleatorio (en inglés: random-access
memory cuyo acrónimo es RAM) es la memoria desde
27
donde el procesador recibe las instrucciones y guarda los
resultados.
-Salida de video:
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta
aceleradora de gráficos o adaptador de pantalla, es
una tarjeta de expansión para
una computadora u ordenador, encargada de procesar los
datos provenientes de la CPU y transformarlos en
información comprensible y representable en un
dispositivo de salida, como un monitor o televisor. Las
tarjetas gráficas más comunes son las disponibles para las
computadoras compatibles con la IBM PC, debido a la
enorme popularidad de éstas, pero otras arquitecturas
también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las
habituales tarjetas dedicadas y separadas como a
las GPU integradas en la placa base. Algunas tarjetas
gráficas han ofrecido funcionalidades añadidas como
captura de vídeo, sintonización de TV,
decodificación MPEG-2 y MPEG-4 o incluso
conectores Firewire, de ratón, lápiz óptico o joystick.
28
TEMA A DESARROLLAR
- PRIMERA GENERACIÓN
Eckert y Mauchly fueron los creadores de la primera
computadora digital electrónica de propósito general
ENIAC en el mundo. Esta computadora era usada por el
Laboratorio de Investigación en Balística de la Armada
(BRL) de los Estados Unidos para estudiar el desarrollo de
las tablas de rango y trayectoria para las armas nuevas
(cálculos exactos comprendidos en campos y rangos).
Mauchly y Eckert propusieron construir una computadora
con tubos al vacío para ser usada por la BRL. La Armada
acepta esta propuesta en 1943; pero la máquina solo se
terminó de construir en 1946 demasiado tarde para usarse
en la guerra. Debido la ENIAC tuvo que ser usada para un
propósito diferente para el cual fue construida. En el año
de 1946 introdujo la nueva era de la computadora
electrónica. La ENIAC continuó funcionando bajo la
administración del BRL cuando se desmontó.
Antes de la llegada al mercado de las computadoras, hubo
que hacer una modificación. Las máquinas más antiguas
leían sus instrucciones de forma mecánica a partir de
tarjetas o cintas perforadas. Este proceso era demasiado
lento y se necesitaba cambiar el estilo de programación,
entonces John Von Neumann ideó un sistema para
almacenar en la memoria el programa junto con los datos,
lo que dio a la computadora su versatilidad actual.
Eckert y Mauchly crearon la primera computadora en serie
el UNIVAC, que era una modificación del EINAC, usando
el sistema de almacenamiento de memoria de Neumann.
29
Su característica principal era que empleaba como
componente básico tubos al vacío, las memorias estaban
conformadas por anillos de metal ferromagnéticos
insertadas en las intersecciones de una red de hilos
conductores.
Esta computadora era asequible sólo a las grandes
empresas y organismos estatales por su alto costo y gran
tamaño.
En un comienzo usó el lenguaje binario, pero más adelante
apareció el primer lenguaje de alto nivel, el FORTRAN en
1956.
-SEGUNDA GENERACIÓN:
Apareció a finales de los 50s. El elemento principal que
usaron las computadoras de esta generación fue la
incorporación del transistor que permitió, reducir el costo
y el volumen de la máquina.
Por los cambios que tuvo la computadora, se volvió más
asequible a otros sectores. Por medio de tarjetas
perforadas y dispositivos magnéticos se introducían datos
en ellas.
En esta generación se desarrollaron lenguajes de
programación como el COBOL 1956, LISP 1959 y el
BASIC 1964, que se convertiría en el lenguaje estándar la
micro computadoras.
La invención del transistor, se debió a la labor de tres
investigadores: Walter Brattain, John Barbeen y William
Schockley.
30
El transistor no se incorporó inmediatamente a las
computadoras. La transistorización de las computadoras se
experimentó por primera vez en el MIT con el TX-o en
1956. El transistor realizaba la misma función que el
tubo al vació con la diferencia de que su tamaño era
mucho menor.
La segunda generación también es notable por la aparición
de la Digital Equipment Corporation (DEC), la cual se
fundó en 1957 y en ese mismo año distribuyó su primera
computadora la PDP-1, aquí se inició el fenómeno la
micro computadora.
-TERCERA GENERACIÓN:
Se ubica entre 1964 y1970. Se caracterizó por una
marcada disminución del tamaño medio de las
computadoras. El empleo generalizado de circuitos
integrados, logró una nueva disminución del volumen y
del costo y aumento la rapidez de funcionamiento de las
grandes computadoras. Hizo rentable un nuevo tipo de
computadora de dimensiones más reducidas, la micro
computadora, asequible a las medianas empresas.
Hasta estos momentos los usuarios trabajan en Bach, es
decir tenían que perforar sus trabajos en tarjetas y dejarlos
en los centros de cálculo para que la computadora los
procesara por turno y diera sus resultados unos minutos y
horas más tarde.
A pesar de que aparentemente la novedad en esta
generación, era la gran disminución de tamaño en la
computadora no era del todo verdadera. La verdadera
novedad, consistía en la idea de reunir en un pequeño
soporte todo un grupo de componentes, conocidos como
31
circuitos integrados. Fue desarrollado en 1.958 por Jack
Kilbry. El período experimental se realizó en 1964.
La utilización efectiva se produjo con la aparición de la
serie 360 IBM. Las computadoras de esta serie podían ser
interconectadas en Red. Esto era una novedad porque
hasta el momento cada computadora era independiente de
cualquier máquina o proceso.
Hacia el final de esta generación se incorporó una
realización que rompía esquemas, la mini computadora.
La mini computadora se convertiría en el producto más
activo de todos los que produciría la industria de la
computación.
32
pensamientos como estos determinan el grado de
importancia; asi también como de adicción que tienen los
mismos por utilizar dicho servicio.
Cita: Evolucion de Internet
Finales de los años 50 Para ver la evolución de Internet
debemos remontarnos a finales de los años 50 cuando se
crea ARPA, la Agencia de Proyectos de Investigación
Avanzada, en el seno del Departamento de Defensa de los
Estados Unidos.
33
Paralelamente entre 1962 y 1964 la RAND corporation
publica una serie de artículos escritos por Paul Baran
sobre "Redes de Comunicación Distribuidas". El objetivo
de la propuesta era plantear una red que tuviera la máxiam
resistencia ante un ataque enemigo.
34
en estos principios de envío de paquetes de información,
realizado por Lawrence Roberts, fue presentado en la
ARPA.
Año 1969
35
Año 1972 El primer programa específicamente diseñado
para el email se atribuye a Ray Tomlinson, de la BBN
(Bolton, Beranek and Newman), en 1972. Se remitió el
primer mensaje de correo electrónico usándose el
conocido símbolo de la arroba, @. El símbolo @ se
convirtió en el símbolo del correo electrónico por pura
casualidad. Ray Tomlinson necesitaba un signo que
separara el nombre del usuario del de la máquina. Se
limitó a bajar los ojos hacia el teclado (un teletipo modelo
33 trabajando con un ordenador Tenex) y escogió la
arroba porque necesitaba que no fuera una letra que
pudiera estar en ningún apellido. La decisión causó una
primera batalla de estándares porque ara los usuarios de
Multics el signo @ era el que borraba líneas. De manera
que no podían usar el correo. Finalmente tuvieron que
modificar el sistema.
36
Año 1973 Durante el mes de setiembre de este año hubo
una importante reunión en Brighton (Inglaterra) donde los
americanos mostraron por primera vez a los europeos el
funcionamiento de ArpaNet. Para que ello fuera posible
tuvieron que realizar un enlace vía satélite, provisional
durante unos dias, que transportaba los datos a través del
Atlántico. Leonard Kleinrock volvió a los Angeles unos
días antes que finalizara el congreso y cuando llegó a casa
se dio cuenta que se había dejado una máquina de afeitar y
descubrió que, efectivamente, en Brighton aún estaba
conectado Larry Roberts. Kleinrock le pidió a Roberts que
le recuperara su máquina de afeitar y éste lo hizo. La
sorpresa fue que días mást arde Kleinrock fue acusado de
haber realizado un uso indebido de material militar (que
incluía de hecho hasta un satélite).
37
Año 1975 En julio de 1975 ARPANET fue transferido por
DARPA a la Agencia de Comunicaciones de Defensa.
38
Año 1983 ARPANet en sí mismo permaneció
estrechamente controlado por el departamento de defensa
hasta 1983 cuando su parte estrictamente militar se
segmentó convirtiéndose en MILNET. El Pentágono se
retira de Arpanet y crea Milnet. Internet ya dispone de 562
servidores. Se creó el sistema de nombres de dominios
(.com, .edu, etc., más las siglas de los países), que
prácticamente se ha mantenido hasta ahora. En la
constitución y crecimiento de esta nueva "red de redes"que
pronto contó con nodos en Europa, las agencias federales
norteamericanas prestaron mucho apoyo, financiando las
infraestructura, por ejemplo
39
comunidad científica a partir de se momento. Lo que hace
es conectar seis centros de supercomputación.
40
telecomunicaciones en EE. UU. y Europa empezaron a
ofrecer servicios comerciales de transporte de señales y
acceso
41
la web y de hecho renunció a una empresa que había
creado al inventar el web, empresa denominada WebSoft.
Actualmente trabaja en el MIT en los Estados Unidos y
sigue tan despistado como siempre según algunas fuentes.
42
En marzo de 1991 Tim Beners-Lee pone en marcha el
primer navegador de la web (que funcionaba aún con linea
de comandos de modo que a años luz del lujo actual). Tim,
el creador de la web, ya había creado en el año 1980
programas hipertextuales. En el CERN guardan la página
original con los primeros servidores que se crearon. Es una
página de noviembre de 1992, cuando solo había 26
ordenadores capaces de servir páginas web. La página
advierte de que su contenido es una reliquia para la
posteridad, para no confundir a despistados…
43
nueva organización, ínterNIC, creada para proporcionar
servicios de registro en Internet y bases de datos de
direcciones
44
Año 1999 El tremendo crecimiento de la red, unido a la
autonomía de su funcionamiento, hacen que grandes zonas
de sus contenidos estén en la penumbra: según datos de
1999 el conjunto de los grandes buscadores de páginas en
la Malla Mundial sólo conoce el contenido de menos del
50% e la red. La Última iniciativa, Internet 2, propone
crear un espacio aparte y de más calidad de
comunicaciones para instituciones de investigación
45
El plus de esta situación es el ocio, al estar conectado con
alrededor de millones de personas causa que el joven se
desoriente del espacio tiempo, teniendo sesiones de largas
y extensas horas, un promedio actual de este es el
siguiente : “ Un joven promedio ( adolescente y pre-
adolescente) pasa por lo menos un tiempo medio de 3 a 6
horas en internet como mínimo, con un máximo de 6 a 10
horas.”
Los elementos más utilizados por estos jóvenes son, los
lugares de encuentro de personas atreves de un ordenador
conectados por internet. Estos lugares tienen la
denominación de “Chat”, si bien tienen diversas secciones
en las cuales se puede conocer gente con diferentes tipos
de objetivos, pero uno de los más peligrosos es cuando esa
“inocencia” de conocer gente pasa a algo más como “El
cyber-sexo”.
Estas personas que recurren al cyber-sexo se esconden de
diferentes maneras, al estar chateando con alguien de otro
lado podemos imaginar que es la persona que nos dice ser,
pero en este mundo tan diferente encontramos a los
oportunistas, que dicen ser una persona que no son, para
convencer a su víctima que realice distintos actos sexuales
cibernéticos (como puede ser mostrarse por la webcam
partes intimas etc.).
El peligro no solo termina ahí, sino que es uno de los
comienzos ya que estos depravados, realizan o mejor
dicho organizan encuentros con sus víctimas “como una
especia de citas”, la victima confiada de esta persona que
no sabe en realidad quien es, cuando va a hacia el lugar
especificado de la reunión con estos degenerados, tienden
a terminar de maneras no placenteras, las cuales se
encuentran, Explotación infantil, secuestros, violación,
abuso de menores, robos, etc.
46
Los chicos al tener internet no necesitan más de libros e
enciclopedias, ya que poseen de los buscadores de
internet, donde tan solo ponen lo que quieren buscar y con
un solo click encuentran miles de posibilidades o variables
de lo que buscan.
Entre estos buscadores y enciclopedias se encuentras las
siguientes compañías más conocidas como: Google,
Wikipedía, Yahoo, etc.
En estos buscadores aun existen problemas graves, con la
seguridad de los niños e adolescentes, como consecuente
al escribir una palabra o significado puede ser interpretado
de varias maneras y derivarlos a paginas con contenido
explicito sexual, las cuales se denominan páginas
pornográficas, donde estas exhiben videos, fotos, textos y
diversas maneras de expresar el sexo.
Esto es perturbador para cualquier niño que tenga acceso a
ellas, ya por el simple hecho de ser menor y no
comprender lo que ven pueden tomar un concepto
equivocado de lo que serian las relaciones sexuales, y
hasta ha existido casos de niños con problemas de
sociabilizarse debido a ese descubrimiento abrupto que le
otorgo dicha pagina.
El impacto de la internet fue bastante grande, si bien la
gente tenía como concepto de comunicación al teléfono o
el correo, con la internet un nuevo mundo o mejor dicho
una nueva era comenzó, la gente empezó a sociabilizarse
más, a conectarse y conocer otras partes del mundo que
antes no se podían ver, que únicamente a través de fotos o
postales podían tener una diminuta porción de lo que era
ese paisaje, si bien, con este servicio todo cambio, todo y
todos comenzaron a ver desde otro ángulo diferente.
Redes Sociales:
47
El software germinal de las redes sociales parte de la
teoría de los Seis grados de separación, según la cual toda
la gente del planeta está conectada a través de no más de
seis personas. De hecho, existe una patente en EEUU
conocida como six degrees patent por la que ya han
pagado Tribe y LinkedIn. Hay otras muchas patentes que
protegen la tecnología para automatizar la creación de
redes y las aplicaciones relacionadas con éstas.
48
unas 100 personas. Si cada uno de esos amigos o
conocidos cercanos se relaciona con otras 100 personas,
cualquier individuo puede pasar un recado a 10.000
personas más tan solo pidiendo a un amigo que pase el
mensaje a sus amigos.
49
comunicación. Internet, sin embargo, ha eliminado
algunas de esas barreras creando verdaderas redes sociales
mundiales, especialmente en segmento concreto de
profesionales, artistas, etc.
50
Aunque los participantes esperaban que la cadena
incluyera al menos cientos de intermediarios, la entrega de
cada paquete solamente llevó, como promedio, entre cinco
y siete intermediarios. Los descubrimientos de Milgram
fueron publicados en "Psychology Today" e inspiraron la
frase seis grados de separación.
51
buscadores como KaZaZZ! y Yahoo crearon redes
sociales en 2005.
52
establece mediante eventos cara a cara y una comunidad
en línea. Los dos elementos de la mezcla se complementan
el uno al otro. Vea también computación social.
53
transformadores, se condena a una democracia restringida.
La intervención en red es un intento reflexivo y
organizador de esas interacciones e intercambios, donde el
sujeto se funda a sí mismo diferenciándose de otros.”
54
parte de toda la energía que le da vida a los grupos
humanos que conforman esas redes. Las redes sociales dan
al anónimo popularidad, al discriminado integración, al
diferente igualdad, a la malhumorada educación y así
muchas cosas más.
55
Que quiere decir esto, que pueden hacer secuestros
virtuales, robos de identidad, secuestrar personar, robos,
violaciones, etc.
Las redes sociales no solo son inseguras, también tienen
partes adictivas y de marketing engañoso para los
usuarios, como promociones falsas, pirateo de
información, adición prolongada a seguir utilizando este
servicio.
Todas estas “adiciones y marketing engañoso” lo podemos
ver como afecta al joven, induciéndole un nuevo mundo
en su mente, confundiéndolo y haciéndole creer que tiene
que consumir algo que en realidad no necesita, o si bien a
hacer o tomar decisiones o acciones que no desea
tampoco.
Esto es grave para la sociedad, por que se pierde el vínculo
directo de conocer gente a través de la realidad, y no de la
realidad virtual. En esto es conocido las relaciones
virtuales, como son en juegos, o redes sociales, gente que
dicen tener un vinculo con otra persona de otro sexo
haciendo creer que esto es realmente cierto, sintiendo
sentimientos verdaderos como si la persona que se tendría
ese “vinculo” estaría con el en carne y hueso. Cuando en
realidad solamente se conocen virtualmente, a través de
programas de comunicación ya serian como un
“Messenger”, “E-mail” o en el caso de las redes sociales,
“Facebook”,”Twister”, “Sonic”, “Badoo”.
Esta serie de “cadenas” que se encuentran dentro de los
vínculos virtuales es muy alarmante ya que a los jóvenes
no solo de confundirlos de lo que es un vinculo real y de
experimentar todos sus beneficios se quedan con la
consideración de tener una relación virtual, lo cual lo
degrada lo detiene de tener esa sociabilidad en persona y
ser un individuo mas productivo a la hora de conocer
56
gente.
No solo que detiene el crecimiento de los chicos, las redes
sociales, sino que le aporta fuentes de información que
ellos no están preparados para afrontar. Si debería haber
una posible conclusión de esto seria tener cuidado y ver
que hacen los chicos dentro de estos medios ya que a
veces sin querer ingresan a un lugar no deseado.
57
CONCLUCIONES:
El Internet es una de las fuentes mas fundamentales de
aprendizaje instantáneo en la vida de los jóvenes, teniendo
en cuenta que toda información que necesitan tener para
algún trabajo académico, estudiantil o tan solo de
curiosidad es conseguido con mucha facilidad.
Las redes sociales revolucionaron sus vidas a la hora de
entrar en “contacto” con otras personas que antes si no
asistían a lugares sociales como: pubs, boliches, Shopping,
plazas, ferias, etc.
Lo pueden conseguir a través de un sitio donde tan solo se
registran y empiezan a interactuar con millones de
personas con una facilidad que hasta un niño de 8 años
puede lograr.
Esta evolución en sus rutinas diarias cambio la forma de
percepción que tenían hacia el mundo, este servicio les
brindo una nueva oportunidad de cómo ingresar en la
sociedad sin ser discriminado ni excluido.
En el caso del hardware y el software:
En este mundo donde la utilización de la PC como una
herramienta de trabajo pasó a ser algo casi indispensable
para ejecutar varias tareas en distintos tipos de lugares, y
sumado a la gran amplitud de crecimiento de las
conexiones NET, o de Internet, esto día a día provoca mas
crecimientos hasta incluso puestos de trabajo en distintas
sociedades.
Esto se ve reflejado en varios sectores trabajadores como
puede ser en el sector automotriz; que no mas de 20 años
atrás las partes se ensamblaban a mano, y ahora a través de
una PC con sus respectivos softwares, hacen de este labor
un trabajo más rápido, y poco trabajoso.
58
Las PCs llegaron para quedarse en la historia de este
mundo. Cada día se ve mas lejos el sustituto de este
artefacto, ya que los campos que abarca son tan inmensos
que hasta se puede llegar a decir que hoy en día muchas
personas necesitan de la misma.
59
Índice:
-Introducción
-Prologo PAGINA 1
PAGINA 2
-Pregunta problema PAGINA 3
PAGINA 4
-Hipótesis PAGINA 5
PAGINA 29
-Marco Teórico PAGINA 58
-Tema a desarrollar
-Conclusiones
60