Está en la página 1de 33

1 UNIDADES DE MEDIDA UTILIZADAS EN SISTEMAS

1. Un bit es la unidad básica de información utilizada en computación y teoría de la


información. Agrupa a los valores 0 y 1, estados falso y verdadero, excluyentes entre sí.
La medida bits por segundo se utiliza para indicar, por ejemplo, el volumen de tráfico en
redes y telecomunicaciones.

2. Un byte es la agrupación de 8 bits (también conocida como "octeto").

La International Electrotechnical Commission (IEC) formalizó en 1988 el uso de los "Prefijos


binarios", reconociendo los prefijos usados por el SI, pero asociando el uso en computación con
bits y bytes: kilo (k), mega (M), giga (G) y recientemente tera (T) y peta (P), como multiplos
de 1024 (210, 220, etc).

3. 1 kilobyte = k = 210 = 1.024 bits

4. 1 megabyte = M = 220 = 1.048.576 bits

5. 1 gigabyte = G = 230 = 1.073.741.824 bits

6. 1 terabyte = T = 240 = 1.099.511.627.776 bits

7. 1 petabyte = P = 250 = 1.125.899.906.842.624 bits

8. 1 exabyte = E = 260 = 1,15292E+18

Estos prefijos tienen, sin embargo, una interpretación distinta en algunos casos. Para medir las
tasas de transmisión de datos en bits por segundo, ie., los prefijos se interpretan como 1000
(103).

9. La notación bit por segundo se expresa como: bit/s o bps.

10. Hz = ciclos en un segundo. Unidad de medida de la Frecuencia

2. QUE ES UN SISTEMA OPERATIVO

Los sistemas operativos, en su condición de capa software que simplifica el manejo de la


computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo.
Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos
monolíticos y servidor en microkernels), podemos reseñar las siguientes:

-Proporcionar comodidad en el uso de un computador.


-Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos
(programas)
Brindar una interfaz al usuario, ejecutando instrucciones (vulgarmente comandos).

-Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con
los servicios que ya se prestaban.

-Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema


informático: suministro de interfaz al usuario, administración de recursos, administración de
archivos, administración de tareas y servicio de soporte y utilerías.

Interfaces del usuario Es la parte del sistema operativo que permite comunicarse con él de tal
manera que se puedan cargar programas, acceder archivos ya realizar otras tareas. Existen tres
tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las
interfaces gráficas de usuario .Administración de recursos Sirven para administrar los recursos
de hardware y de redes de un sistema informativo, como el CPU, memoria, dispositivos de
almacenamiento secundario y periféricos de entrada y de salida. Administración de archivos Un
sistema de información contiene programas de administración de archivos que controlan la
creación, borrado y acceso de archivos de datos y de programas. También implica mantener el
registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de
almacenamiento secundarios.

Administración de tareas Los programas de administración de tareas de un sistema operativo


administran la realización de las tareas informáticas de los usuarios finales. Los programas
controlan que áreas tiene acceso al CPU y por cuánto tiempo. Las funciones de administración de
tareas pueden distribuir una parte específica del tiempo del CPU para una tarea en particular, e
interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad.

Servicio de soporte: Los servicios de soporte de cada sistema operativo dependerán de la


implementación particular de éste con la que estemos trabajando. Entre las más conocidas se
pueden destacar las implementaciones de Unix, desarrolladas por diferentes empresas de
software, los sistemas operativos de Apple Inc., como Mac OS X para las computadoras de
Apple, los sistemas operativos de Microsoft, y las implementaciones de software libre, como
Linux o BSD producidas por empresas, universidades, administraciones públicas, organizaciones
sin fines de lucro y/o comunidades de desarrollo. Estos servicios de soporte suelen consistir en:

- Actualización de versiones.

- Mejoras de seguridad.

- Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, un asistente para administrar
alguna determinada función.

- Controladores para manejar nuevos periféricos (este servicio debe coordinarse a veces con el
fabricante del hardware).
Corrección de errores de software. No todas las utilidades de administración o servicios forman
parte del sistema operativo, además de éste, hay otros tipos importantes de software de
administración de sistemas, como los sistemas de administración de base de datos o los
programas de administración de redes. El soporte de estos productos deberá proporcionarlo el
fabricante correspondiente (que no tiene porque ser el mismo que el del sistema operativo).
3. VENTAJAS DE UTILIZAR EL SISTEMA OPERATIVO LINUX

Linux es un sistema operativo compatible con Unix, dos de sus características más peculiares
que lo diferencian del resto de los sistemas es su accesibilidad gracias a que es libre, esto
significa que no debemos abonar ningún tipo de licencia a alguna empresa que desarrolle el
software por su uso. Su segunda característica es que dicho sistema está acompañado por el
código de fuente; este software ha sido diseñado y programado por una multitud de técnicos e
ingenieros alrededor del mundo y está en continuo desarrollo bajo la coordinación de Linus
Torvalds, persona que creó el proyecto. Tal es el furor del sistema operativo Linux que se
desarrollan día tras días, más y más programas como aplicaciones para poder ser utilizadas en
él; las plataformas que permiten el uso del Linux son: 386-, 486-, Pentium, Pentium Pro,
Pentium II, Amiga y Atari.

Las funciones principales del sistema operativo Linux son: sistema multitarea, sistema
multiusuario, shells programables, independencia de dispositivos y comunicaciones; con
respecto a la primera, decimos que el Linux es capaz de ejecutar varios programas a la vez son
tener que parar para efectuar cada aplicación. Los shells programables conectan las órdenes de
un usuario con Kernel Linux y al ser programables se pueden modificar para adaptarlos a las
necesidades de cada persona; el sistema multiusuario permite que varios individuos accedan a
las aplicaciones y recursos del sistema al mismo tiempo y, por su puesto que puedan ejecutar
varios programas a la vez.

El sistema operativo Linux admite cualquier tipo de dispositivo, esta es una de sus principales
ventajas lo que le brinda a dicho software una gran adaptabilidad sin limitarse como otros
sistemas operativos; por último decimos que Linux es el sistema más flexible para poder
conectarse a cualquier computadora del mundo es que Internet se creó y desarrolló dentro del
mundo Unix y por lo tanto Linux es mucho más eficiente a la hora de navegar. Posee una
memoria virtual usando paginación a disco esto permite una partición o un archivo, o ambos con
la posibilidad de añadir más áreas de intercambio sobre la marcha; se realizan volcados de
estado para posibilitar el análisis post mortem y así utilizar depuradores sobre los programas
que son ejecutados y los que han sido abortados.

Entre otras de las ventajas de LINUX están:

- En principio, como mencionamos anteriormente, GNU/Linux es un sistema de software libre y


completamente gratuito, lo que implica que puede ser distribuido y modificado de acuerdo a los
estándares de la licencia GPL.

- En cuanto a las aplicaciones que pueden ser utilizadas sobre GNU/Linux, casi todas son libres,
por lo que el usuario puede tener el control absoluto sobre ellas y decidir cuáles instalar y cuáles
no, dependiendo de sus necesidades. Los programas que se ofrecen para las distintas
distribuciones son fácilmente instalables y desinstalables, y totalmente seguros, sin versiones de
prueba o peligrosos freeware con virus.

- La estabilidad en este OS es una de sus prioridades, por lo cual se realizan actualizaciones


fáciles de implementar, que permiten que los usuarios trabajen de manera confiada y segura,
olvidándose de acciones tales como reiniciar o formatear la PC, tan comunes en Windows, ya
que GNU/Linux realmente funciona sin inconvenientes luego de varios años de haber sido
instalado, y recibiendo las últimas novedades que modifican aplicaciones, entornos gráficos y
demás, manteniendo actualizado el sistema.
- Otro de los puntos más destacables de este revolucionario sistema operativo radica en la
seguridad, ya que con GNU/Linux el usuario podrá prescindir por completo de programas de
antivirus. Asimismo, las actualizaciones constantes del sistema permiten que el software esté
permanentemente protegido.

- GNU/Linux posee una de las mayores comunidades de expertos que trabajan


permanentemente para ayudar a evacuar las dudas de los usuarios, brindando un soporte único,
donde con sólo hacer una consulta, siempre habrá gente dispuesta a responder a dicha
inquietud.

- Por otra parte, GNU/Linux posee una inter operatividad única con diversos sistemas operativos
como Windows, Mac, Solaris y otros, y en general sus aplicaciones permiten a los usuarios
trabajar con casi cualquier tipo de archivos. Por el contrario, aquellos usuarios acostumbrados a
Windows saben que en este OS este hecho es bastante improbable.

- Otro punto importante en GNU/Linux tiene que ver con la adaptación y modificación de todo el
sistema, sus aplicaciones y su aspecto, de acuerdo a los requerimientos de cada uno de los
usuarios. Linux es totalmente modificable, y esa es una de las grandes ventajas que han
favorecido a la aceptación de este software en los últimos años.

- En cuanto a los trabajos de desarrollo del sistema, en contrapartida a Windows, que le ha


llevado años lanzar nuevas versiones, las distribuciones creadas para GNU/Linux suelen
actualizarse aproximadamente cada seis meses, y los cambios se realizan en base a las
sugerencias que realizan los propios usuarios.

4. CARACTERISTICAS DEL HARDWARE PARA TENER EN CUENTA EN EL


MOMENTO DE ADQUIRIR UN COMPUTADOR

- Monitor de alta resolución.


- Teclado
- Cámara de video
- Cantidad de puertos USB
- Gabinete y Fuente de poder
- Tarjeta Madre
- Memoria RAM con alta capacidad
- Disco Duro de gran capacidad de almacenamiento
- Disco CD o DVD (Opcional) y parlantes
- Procesador de alta velocidad (Hz).
- Disipador de calor (Normalmente lo tiene integrado el procesador) y abanicos.

5. MOMBRAR 10 ELEMENTOS DE HARDWARE Y 10 ELEMENTOS DE SOFTWARE

HARDWARE

• Fuente de alimentación: Que convierte a corriente continúa la corriente que proviene


de nuestra instalación eléctrica. Si este elemento falla normalmente el equipo no realizará nada.
• Placa base: Es el intermediario de todos los conectores que os comento a continuación,
también es lo que nos limitará en gran medida las actualizaciones hardware que podremos
realizar a nuestro equipo. Es esencial conocer las características de nuestra placa base a la hora
de cambiar cualquier elemento.
• El microprocesador: Se puede hacer una analogía con el cuerpo humano diciendo que
es el cerebro de nuestro ordenador donde millones de transistores trabajan conjuntamente a
velocidades de vértigo.
• Memoria RAM: Son esenciales en los equipos de la actualidad, a la hora de cambiar
este componente es muy importante mirar que tipo soporta tu placa base y cual es el tamaño
máximo.
• Tarjeta gráfica: Junto la RAM es el componente más actualizado en los equipos,
especialmente por los más jugones.
• Disco Duro: Cada vez necesitamos mas y mas, necesitamos tener a buen recaudo
nuestros datos y todo lo vamos dejando en nuestro Disco Duro, esta pieza, diría que tiene su
vida limitada, por esto mismo si tus datos están en un solo Disco Duro están en riesgo.
• Lectoras y grabadoras de dispositivos externos como CD, DVD, Blue Ray… Estos
componentes son los que encontramos en la parte externa de la caja y seguro que todos los
conocéis.

Reconocer los componentes de la placa base y donde van conectados sus componentes :

Las piezas las reconocerás fácilmente con las siguientes imágenes:


La primera imagen son microprocesadores, mucho ojo al cambiar esta pieza ya que si no
ponéis bien el ventilador se puede quemar con facilidad.

La segunda imagen son módulos de RAM, encontraras en la esquina una pestaña que deberás
abrir para poder sacar.

La tercera es la tarjeta gráfica, para sacarla deberás desatornillar de la caja de tu equipo y con
cuidado tirar hacia arriba soltando la clavija de la placa base.

La cuarta es un disco duro, para cambiar deberás desconectar la alimentación, el cable IDE o
SATA y desatornillar de la caja.

SOFTWARE

- SISTEMAS OPERATIVOS. : Windows, Linux , MAC.

- Antivirus: Panda, norton, NOD 32.

- LENGUAJES DE PROGRAMACIÓN:

• basic

• fortran (resolución de fórmulas matemáticas)

• cobol (lenguaje para gestionar gran volumen de datos)

• algol (resollución de algoritmos)

• pascal y C (lenguajes estructurados)

- PROGRAMAS DE USUARIO:

• Dbase IV y dBase V de borland


• Fox pro, access de microsoft

• Paradox de borland

• Lotus 1-2-3 de lotus

• Excel de Microsoft

6. DIFERENCIA ENTRE MONITORES PLASMA, LCD Y LED.

LCD y TFT LCD: La tecnología LCD utiliza moléculas de cristal líquido colocadas entre diferentes
capas que las polarizan y las rotan según se quiera mostrar un color u otro. Su principal ventaja,
además de su reducido tamaño, es el ahorro de energía. Cuando estas pantallas
usan transistores TFT entonces estamos hablando de TFT LCDs, los cuales son los modelos más
extendidos en la actualidad.

PLASMA: Al contrario que las pantallas LCD, las pantallas de plasma utilizan fósforos excitados
con gases nobles para mostrar píxeles y dotarles de color. Aunque se inventó en 1964 se trata
de la tecnología mas retrasada, en cuanto a nivel de implantación, de las 3 mencionadas debido
a que su precio es mas elevado (aunque cada vez la diferencia es menor) y sin embargo su
calidad es mucho mejor. En concreto ofrece mayor ángulo de visión que una pantalla LCD, mejor
contraste y más realismo entre los colores mostrados.

* Consumo eléctrico: una televisión con pantalla de plasma grande puede consumir hasta un
30% más de electricidad que una televisión LCD.

* Efecto de "pantalla quemada": si la pantalla permanece encendida durante mucho tiempo


mostrando imágenes estáticas (como logotipos o encabezados de noticias) es posible que la
imagen quede fija o sobreescrita en la pantalla. Aunque este efecto está solucionado desde la
octava generación. (Actualmente vamos por la generación décimo primera y este efecto ya no se
reproduce).

* Mayor ángulo de visión.


* Ausencia de tiempo de respuesta, lo que evita el efecto «estela» o «efecto fantasma» que se
produce en ciertos LCD debido a altos tiempos de refresco (mayores a 12 ms).
* No contiene mercurio, a diferencia de las pantallas LCD.
* Colores más suaves al ojo humano.
* Mayor número de colores y más reales.
* El coste de fabricación de los paneles de plasma es inferior al de los LCD para las pantallas de
mayor tamaño (a partir de 42 pulgadas). Este coste de fabricación afecta directamente al PVP.

LED: Esta tecnología trata de una variante del LED clásico, pero donde la capa de emisión tiene
un componente orgánico. Seguramente habrás escuchado que las pantallas OLED tienen la
ventaja de no necesitar luz trasera, con lo que ahorran mucha mas energía que cualquier otra
alternativa. Además, su costo también es menor. Sin embargo, su tiempo de uso no es tan
bueno como el de las anteriores tecnologías
.

* Producen imágenes con un mayor contraste dinámico.


* La tecnología de iluminación Edge-LED es extremadamente delgada. Los modelos en el
mercado pueden tener aproximadamente una pulgada de anchoj.
* Ofrecen una gama de colores más amplia, especialmente cuando se usa iluminación RGB-LED
* Generan menos contaminación ambiental cuando se desechan.
* Generalmente tienen un consumo eléctrico entre un 20 y un 30% inferior.

7. LA UNIDAD HERTZ : CÓMO SE APLICA EN LA TECNOLOGÍA

El hertz, (Hz) es una unidad de frecuencia. Se define como el número de ciclos completos por
segundo. Es la unidad básica de frecuencia en el Sistema Internacional de Unidades, y se utiliza
mundialmente para propósitos generales y contextos científicos. Los hertz pueden ser utilizados
para medir cualquier evento periódico; el uso más común de los hertz es para describir las
frecuencias de radio y audio, en contextos sinusoidales la frecuencia de 1 Hz es equivalente a un
ciclo por segundo.

En informática se utiliza para dar una idea de la velocidad del microprocesador, indicando cual
es la frecuencia de su clock (componente de los microprocesadores que genera una señal cuya
frecuencia es utilizada para enmarcar el funcionamiento del procesador: a
mayor frecuencia mayor velocidad).

Los microprocesadores manejan velocidades de proceso de datos en el sistema, y eso se


llama Hertz. Esta velocidad es la velocidad de reloj y a medida que va subiendo el nivel de
velocidad, es mejor el rendimiento del microprocesador.

Entonces, cuando en una publicidad de una computadora que diga que tiene un microprocesador
por ejemplo de 3.1 Ghz, quiere decir que esa es su velocidad de procesamiento.
La velocidad de un procesador se mide en Hertz y, mientras mayor es el número de hertz con
que trabaja la computadora, tiene mayor velocidad en los procesos. En realidad, los megahertz y
los Gigahertz indican la velocidad del reloj interno que posee todo microprocesador. Éste
establece el número de pulsos que se efectúan en cada segundo. Cuanto mayor sea el número
de pulsos, mayor será la velocidad del microprocesador.
Megahercio (Mhz): Unidad de medida de frecuencia. Su unidad base es el hercio. En los
procesadores expresa el número de pulsos eléctricos desarrollados en un segundo
(Mega=millón). Sus múltiplos empleados son el Gigahercio (Ghz) y el Terahercio (Thz).
.
Gigahercio (Ghz): Unidad de medida de frecuencia múltiplo del hercio que equivale a mil
millones de hercios.
.
Terahercio (Thz): Unidad de medida de frecuencia múltiplo del hercio que equivale a un billón
de hercios. Otros múltiplos superiores serían el Petahercio (Phz), el Exahercio (Ehz) y el
Zetahercio (Zhz) hoy por hoy no utilizados.

8. QUE SOFTWARE DEBE POSEER UN COMPUTADOR

Un software que jamás debe faltar en una computadora es un antivirus, que nos permitirá
mantener protegida la integridad del equipo, ya que se trata de una herramienta cuyo objetivo
es detectar y eliminar virus informáticos, como así también distintos tipos de malware.

En este caso podemos optar por adquirir la licencia de algún antivirus de pago, como por
ejemplo Kaspersky o NOD32, o bien utilizar alguna herramienta gratuita, entre las que se
destaca el Avast! Home.

También podemos incorporar algún programa anti-espias, como es el caso del popular Ad-Aware
o alguno similar.

Para mantener la limpieza de nuestro sistema operativo, nada mejor que instalar un limpiado de
temporales. Esta herramienta es fundamental en el caso de que la PC sea utilizada por toda la
familia. En la actualidad la mejor aplicación para mantener limpio nuestro sistema es el
conocido CCleaner, el cual mediante su sencillo funcionamiento nos permite eliminar toda la
información innecesaria de la computadora.

Dentro de lo que respecta a la visualización de archivos, es necesaria la inclusión de algún


software de la familia de los visores de ficheros PDF, entre los que podemos optar por la
instalación de Adobe Acrobat Reader o Foxit PDF Viewer, las dos mejores variantes en el campo
de este tipo de herramientas.

No debemos olvidarnos de incluir un programa compresor y descompresor de archivos, ya que


se trata de una herramienta imprescindible para enviar o recibir material del tipo multimedia
comprimiendo el peso de los mismos.

En este caso podemos optar por la utilización del tradicional Winzip, o bien elegir otras de las
tantas alternativas existentes, como por ejemplo el 7-Zip, que posee soporte para los formatos
más difundidos en la actualidad, entre los que se incluye el RAR y el ZIP, además por supuesto
de su propio formato 7Z.

Navegadores de internet: Mozilla Firefox,Internet explorer7,8,etc.

Otro de los programas que debe tener una pc es el TUNE UP, el alchol o el deamon tools,
además de algún gestor de descargas en el caso de tener internet y El Everest o Aida32 muchos
usuarios no conocen las prestaciones de su Computadora y los Recursos q posen lo cual luego
dificulta a la hora de comprar nuevas partes o instalar software con requerimientos especiales.
9. QUE ES LICENCIEMIENTO DE SOFTWARE

Una licencia de software es un contrato entre el licenciante (autor/titular de los


derechos de explotación/distribuidor) y el licenciatario del programa
informático (usuario consumidor /usuario profesional o empresa), para utilizar el
software cumpliendo una serie de términos y condiciones establecidas dentro
de sus cláusulas.
Las licencias de software pueden establecer entre otras cosas: la cesión de
determinados derechos del propietario al usuario final sobre una o varias
copias del programa informático, los límites en la responsabilidad por fallos, el
plazo de cesión de los derechos, el ámbito geográfico de validez del contrato e
incluso pueden establecer determinados compromisos del usuario final hacia el
propietario, tales como la no cesión del programa a terceros o la no
reinstalación del programa en equipos distintos al que se instaló originalmente.
Elementos personales de una licencia de software
Licenciante
El licenciante o proveedor-licenciante es aquel que provee el software más la
licencia al licenciatario, la cual, le permitirá a este último tener ciertos
derechos sobre el software. El rol de licenciante lo puede ejercer cualquiera de
los siguientes actores:
Autor: El desarrollador o conjunto de desarrolladores que crea el software, son
por antonomasía quienes en una primera instancia poseen el rol de licenciante,
al ser los titulares originales del software.
Titular de los derechos de explotación: Es la persona natural o jurídica que
recibe una cesión de los derechos de explotación de forma exclusiva del
software desde un tercero, transformándolo en titular derivado y licenciante
del software.
Distribuidor: Es la persona jurídica a la cual se le otorga el derecho de
distribución y la posibilidad de generar sublicencias del software mediante la
firma de un contrato de distribución con el titular de los derechos de
explotación.
Garantía de titularidad
Es la garantía ofrecida por el licenciante o propietario, en la cual, asegura que
cuenta con suficientes derechos de explotación sobre el software como para
permitirle proveer una licencia al licenciatario.
Licenciatario
El licenciatario o usuario-licenciatario es aquella persona física o jurídica que se
le permite ejercer el derecho de uso más algún otro derecho de explotación
sobre un determinado software cumpliendo las condiciones establecidas por la
licencia otorgada por el licenciante.
Usuario consumidor: Persona natural que recibe una licencia de software
otorgada por el licenciante, la cual, se encuentra en una posición desventajosa
ante los términos y condiciones establecidas en ella.
Usuario profesional o empresa: Persona natural o jurídica que recibe una
licencia de software otorgada por el licenciante, la cual, se encuentra en
igualdad de condiciones ante el licenciante para ejercer sus derechos y
deberes ante los términos y condiciones establecidos en la licencia.

Elementos objetivos de una licencia de software


Plazo
El plazo determina la duración en el tiempo durante la cual se mantienen vigentes los términos y
condiciones establecidos en licencia. Las licencias en base a sus plazos se pueden clasificar en:

-Licencias con plazo específico.

-Licencias de plazo indefinido.

-Licencias sin especificación de plazo.

Precio

El precio determina el valor el cual debe ser pagado por el licenciatario al licenciante por el
concepto de la cesión de derechos establecidos en la licencia.

Clasificación de las licencias de software

Licencia de software de código abierto permisivas

Se puede crear una obra derivada sin que ésta tenga obligación de protección alguna. Muchas
licencias pertenecen a esta clase, entre otras:

Academic Free License v.1.2.

Apache Software License v.1.1.

Artistic License v.2.0

Attribution Assurance license.

Licencia de software de código abierto robustas


Estas licencias aplican algunas restricciones a
las obras derivadas, haciendo que
según el grado de aplicación se puedan dividir a su vez en dos subcategorias:

Licencias de software de código abierto robustas fuertes


Las licencias de software de código abierto robustas fuertes o con copyleft fuerte, contienen una
cláusula que obliga a que las obras derivadas o modificaciones que se realicen al software
original se deban licenciar bajo los mismos términos y condiciones de la licencia original.

Entre las licencias de esta categoría están:

Common Public License v.1.0.

GNU General Public License v.2.0.

GNU General Public License v.3.0.

Eclipse Public License.

Licencias de software de código abierto robustas débiles


Las licencias de software de código abierto robustas débiles, con copyleft débil/suave o híbridas,
contienen una cláusula que obliga a que las modificaciones que se realicen al software original se
deban licenciar bajo los mismos términos y condiciones de la licencia original, pero que las obras
derivadas que se puedan realizar de él puedan ser licenciadas bajo otros términos y condiciones
distintas.

Entre las licencias de esta categoría están:


GNU Lesser General Public License v.2.1.
Mozilla Public License
Open Source License.
Apple Source License v.2.0
CDDL.
EUPL.

Licencia de software de código cerrado


Estas licencias también se conocen con el nombre de software propietario o privativo. En ellas
los propietarios establecen los derechos de uso, distribución, redistribución, copia, modificación,
cesión y en general cualquier otra consideración que se estime necesaria.

Este tipo de licencias, por lo general, no permiten que el software sea modificado,
desensamblado, copiado o distribuido de formas no especificadas en la propia licencia (piratería
de software), regula el número de copias que pueden ser instaladas e incluso los fines concretos
para los cuales puede ser utilizado. La mayoría de estas licencias limitan fuertemente la
responsabilidad derivada de fallos en el programa.

Los fabricantes de programas sometidos a este tipo de licencias por lo general ofrecen servicios
de soporte técnico y actualizaciones durante el tiempo de vida del producto.

Algunos ejemplos de este tipo de licencias son las llamadas CLUFs: Contrato de Licencia
para Usuario Final o EULAs: End User License Agreement, por sus siglas en Inglés.

Software de dominio público (sin licencia). Se permite uso, copia, modificación o redistribución
con o sin fines de lucro.

Según su destinatario

Licencia de Usuario Final

En inglés EULA o End User License Agreement, es una licencia por la cual el uso de un producto
sólo está permitido para un único usuario (el comprador).

En este tipo de contrato, el dueño de los derechos de un producto insta al usuario final de éste a
que reconozca tener conocimiento de las restricciones de uso, de los derechos del autor
(copyright), de las patentes, etc. y que acepte de conformidad.

El conocimiento del contenido de los contratos es difícil antes de la compra del producto ya que
las cajas de los productos raramente contienen una copia completa del mismo, dándose que el
comprador en la mayor parte de las ocasiones conoce su contenido después de la compra.

En ocasiones se exige al usuario el renunciar a realizar reclamos o demandas legales por


diversos motivos (tales como posibles daños producidos por el producto o fallos en él) o aceptar
la restitución de la mercancía en la forma y monto que la compañía decida.
Este tipo de acuerdo expresa los usos qué se pueden dar y cuáles no al producto, ya que quien
lo compra no es, legalmente, en ninguna forma dueño del producto, sino sólo de una licencia
para su uso, considerándose esto último por algunas personas como una limitación a los
derechos del consumidor

Este tipo de acuerdos son unilaterales pues el usuario no tiene más opción que aceptar o
rechazar el contenido del mismo (en algunos países existen organizaciones de protección al
consumidor que autorizan ciertas excepciones).

Licencia de distribuidores

En este tipo de contrato, se le asigna derechos restringidos a un comerciante


de tipo comisionario para que venda el producto (software) dando una remesa
o comisión al fabricante. La misma puede ser por primera venta o licencia de
renovación de contrato. No se trata de una licencia de uso en términos
jurídicos, sino mas bien en un acuerdo comercial en la que no tiene porque ser
cedido el derecho de distribución necesariamente. Puede darse el caso de
simple actividad comercial en la que el distribuidor ni siquiera tenga contacto
con el software, y éste como elemento y la licencia de uso en si sea
directamente suscrita y puesta a disposición por parte del fabricante.
Encargándose el distribuidor del correspondiente cobro al usuario y pago al
fabricante menos su margen.

10 . GENERACIONES DE LOS COMPUTADORES


• Primera generación (1946-1959): La primera generación de computadoras se
caracteriza por el rasgo más prominente de la ENIAC Electronic Numerical Integrator
And Computer (Computador e Integrador Numérico Electrónico): tubos de vacío (bulbos)
y programación basada en el lenguaje de máquina. Durante la década de 1950 se
construyeron varias computadoras notables, cada una contribuyó con avances
significativos: uso de la aritmética binaria, acceso aleatorio y el concepto de programas
almacenados. Tubos al vacío eniac, ocupaba todo un piso.

1947 ENIAC. Primera computadora digital electrónica de la historia.

1949 EDVAC. Primera computadora programable.

1951 UNIVAC I. Primera computadora comercial.

1953 IBM 701. Para introducir los datos (tarjetas perforadas)

1954 IBM. Continúo con otros modelos (tambor magnético).


• Segunda generación (1959-1964): Estas computadoras comenzaron a utilizar
transistores. Se comunicaban mediante lenguajes de alto nivel. El invento de los
transistores significó un gran avance, ya que permitió la construcción de computadoras
más poderosas, más confiables, y menos costosas. Además ocupaban menos espacio y
producían menos calor que las computadoras que operaban a bases de tubos de vacío.
TRANSISTORES.

Las computadoras de esa generación fueron:

La philco 212, la UNIVAC M460, la Control Data Corporaions 1604, Luego vino la 3000,

la IBM 7090, y la NCR 315.

Características principales:

• Transistor como potente principal. El componente principal es un pequeño trozo de


semiconductor, y se expone en los llamados circuitostransistores.
• Disminución del tamaño
• Disminución del consumo y de la producción de calor
• Su fiabilidad alcanza metas inimaginables con los efímeros tubos al vacío
• Mayor rapidez, la velocidad de las operaciones ya no se mide en segundos sino en
menos
• Memorias internas de núcleos de ferrita
• Instrumentos de almacenamiento: cintas y discos
• Mejoran los dispositivos de entrada y salida, para la
mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas.
• Introducción de elementos modulares.
• Aumenta la confiabilidad.
• Las impresoras aumentan su capacidad de trabajo.
• Lenguaje de programación más potente.
• Aplicaciones comerciales en aumento.
• Tercera generación (1964-1971): Son las computadoras que comienzan a utilizar
circuitos integrados. Pastillas de silicio que según su función representan varios
transistores en un. La IBM 360 es el símbolo de esta generación. CIRCUITOS
INTEGRADOS IBM 360.

El sistema operativo de la serie 360, se llamo OS que contaba con varias configuraciones, incluía
un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en
estándares.

Mini computadoras, con la introducción del modelo 360 IBM acaparó el 70% del mercado

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos
años como la más rápida.

En los años 70, la IBM produce la seria 370. Y posteriormente surge mas modelos y
el mercado crece con gran rapidez

Las características principales:

• Circuitos integrados desarrollado en 1958 por Jack Kilbry.


• Circuitos integrados, miniaturización y reunión de centenares de elementos en una placa
de silicio o (chip)
• Menor consumo de energía
• Apreciable reducción de espacio
• Aumento de fiabilidad y flexibilidad
• Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta
• Generalización de lenguas de programación de alto nivel
• Compatibilidad para compartir software entre diversos equipos
• Computadoras en serie 360 IBM
• Teleproceso
• Multiprogramación
• Tiempo compartido
• Renovación de periféricos
• Instrumentos del sistema
• Ampliación de aplicaciones
• La mini computadora.

• Cuarta Generación (1971-1982): Se caracteriza por la integración a gran escala de


circuitos integrados y transistores (más circuitos por unidad de espacio) representados
en los microprocesadores. Este fue uno de los mayores avances de la microelectrónica,
los microprocesadores son unos circuitos integrados de alta densidad y con una
velocidad inmejorable. Las computadoras de esta generación pasaron a llamarse
microcomputadoras porque usaban estos microprocesadores. Estas computadoras son
mucho más pequeñas y baratas, son conocidas como las computadoras personales, del
inglés Personal Computer (PC), que influyeron de tal manera en la sociedad en general
que propiciaron lo que se conoce como “la revolución informática”. En 1976 Steve
Woziniak y Steve Jobs inventan la primera microcomputadora de uso masivio y mas
tarde formaron la compañía APPLE. MICROPROCESADOR IBM PC APPLE II.

* Características principales:

- Microprocesador: desarrollo por Intel Corporation a solicitud de una


empresa japonesa (1971)
- Se minimizan los circuitos, aumenta la capacidad de almacenamiento
- Reduce el tiempo de respuesta
- Gran expansión del uso de las computadoras
- Memorias electrónicas más rápidas
- Sistemas de tratamiento de base de datos
- Generalización de las aplicaciones
- Multiproceso
- Microcomputador.
• QUINTA GENERACIÓN (1982-1989 ) en la quinta generación de computadoras,
ahora avanza la ciencia de la computación en el desarrollo del software y sistemas
operativos más gráfico e intuitivos para los usuarios de computadores. Sin embargo,
falta mucho, pues aún no se consigue comunicarse con el computador en un lenguaje
más humano o natural sino que a través de códigos o lenguajes específicos. En un futuro
próximo veremos como la inteligencia artificial es un hecho, la robótica dará un paso de
gigante y la industria se desarrollará mas rápidamente, la conectividad inalámbrica será
posible en cualquier parte del planeta y aparatos no más grande que un lápiz de tinta
tendrán todas las prestaciones que un computador de escritorio puede otorgar
multimedia, conectividad, programas de productividad, juegos, gráficas impresionantes,
etc.

• SEXTA GENERACIÓN 1990 HASTA LA FECHA

Como supuestamente la sexta generación de computadoras está en marcha


desde principios de los años noventas, debemos por lo menos, esbozar las
características que deben tener las computadoras de esta generación. También se
mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que
se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con
arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de
realizar más de un millón de millones de operaciones aritméticas de punto flotante por
segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán
creciendo desorbitadamente utilizando medios de comunicación a través de fibras
ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta
generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía,
transistores ópticos, etcétera.

11. AVANCES DE LA ROBOTICA EN COLOMBIA

- En América Latina ya hay seis equipos Da Vinci, un robot de alta precisión controlado por
completo por cirujanos. La Clínica de Marly, en Bogotá, estrenó este robot a finales del año
pasado. Los centros asistenciales han ido incorporando avances tecnológicos que les
permiten estar más conectados y ser más eficientes.
- El grupo de investigación de Sistemas Inteligentes, Robótica y Percepción (SIRP)
del departamento de Electrónica de la Universidad Javeriana ha creado un
novedoso robot llamado Arcadio. Este robot es capaz de detectar y extraer
en terreno de alto riesgo minas anti-personas. Recordemos que Colombiaes
uno de los países donde los grupos al margen de la ley utilizan las minas
antipersonas para crear caos y “querer” de alguna forma hacerse escuchar
por el Gobierno para que se hagan cumplir sus objetivos oscuros.

Arcadio es capaz de entrar a un terreno de alto riesgo que se encuentre


material explosivo e identificar la presencia de minas anti-personas. El
robot tiene la capacidad de detectar cambios de suelo y extraer los
explosivos, dadas las dificultades que se tienen a la hora de identificar las
minas dentro de un territorio.
Arcadio tiene un peso de 70 kilos, con un brazo computarizado inteligente, y
está listo para iniciar labores de acompañamiento en los procesos de
detección de explosivos.

- El año pasado pudimos ver muchos exoesqueletos, tanto para uso militar
como para uso domestico que serviría a las personas discapacitadas. Estos
dispositivos no quedaron por fuera del CES y Cyberdyne llego con uno que
no se tiene que manejar con controles.

Cyberdynepresentó su exoesquelo HAL en la pasada feria del CES 2011 lo cual


sorprendió por su escaso peso y su diseño muy original. HAL esta diseñado
para aumentar la fuerza de las piernas hasta 10 veces de la persona que lo
usa, pero lo que mas llamo la atención fue el manejo del exoesqueleto por
que no es como los anteriores que necesita un control para manejarlo, por
el contrario el siente cuando quien lo usa va a mover los pies y él hace
el trabajo .

12. CARACTERISTICAS DE LA TECNOLOGIA QUE UTILIZAN LOS CELULARES

La telefonía celular es un sistema de comunicación telefónica, que tiene como principal


característica la de ser totalmente inalámbrica.
Básicamente los sonidos se convierten en señales electromagnéticas, viajan a través del aire, y
son recibidas y transformadas nuevamente en mensajes a través de antenas repetidoras o vía
satélite.
Inicialmente los celulares eran analógicos. Pero debido a múltiples razones se paso a
un sistema digital (lo explicaremos mas adelante). Los teléfonos celulares básicamente son radio
transmisores personales, con la posibilidad de cambiar constantemente de canal y conectarse
con bases
El MTS (Sistema de Telefonía Móvil) usa los canales de radio de FM para
establecer enlaces de comunicación, entre los teléfonos móviles y los
transceptores de estación de base centrales, los cuales se enlazan al intercambio de teléfono
local por medio de las líneas telefónicas metálicas normales. Los sistemas MTS sirven a
un área de aproximadamente 60 Km. a la redonda y cada canal opera similarmente a una línea
compartida. Cada canal puede asignarse a varios suscriptores, pero sólo un suscriptor puede
utilizarlo ala vez. Si el canal pre asignado está ocupado, el suscriptor debe esperar hasta que se
desocupe, antes de hacer o recibir una llamada.

Cooper ( creador del celular)


En todos los sistemas de telefonía móvil, una región geográfica se divide en celdas o células,
razón por lo cual los dispositivos se conocen como teléfonos celulares. Generalmente las celdas
normalmente tienen de 10 a 20Km. de diámetro, en los sistemas digitales las celdas son mas
pequeñas, cada celda utiliza un conjunto de frecuencias que no es utilizada por ninguno de sus
vecinos, este sistema adquiere mayor capacidad por el uso de celdas relativamente pequeñas y
la reutilización de frecuencias de transmisión enceldas cercanas pero no adyacentes, debido a su
tamaño se necesita menor potencia (0.6wats aproximadamente), y se reduce
el área de cobertura lo cual conduce a dispositivos mas pequeños y económicos.

En el centro de cada celda está la estación base a la cual transmitiendo


dos los teléfonos de la celda. La estación base consta de una computadora y
un transmisor/receptor conectado a una antena, en el sistema todas las estaciones base
están conectadas a una oficina de conmutación de telefonía móvil, en un sistema
grande pueden ser necesarias varias oficinas.

Cuando un teléfono móvil sale de una celda, su estación base nota quela señal se
desvanece, pregunta a las estaciones circundantes cuanta potencia están recibiendo de ella, a
continuación, la estación base transfiere la posesión a la celda que esta recibiendo la señal mas
fuerte (la celda donde se encuentra ahora el teléfono), esta informa al celular cual es su nueva
base y si está efectuando una llamada se le pide que cambie a un nuevo canal(por que el
antiguo no se reutiliza en ninguna celda adyacente), este proceso(transferencia de celda) dura
cerca de 300 milisegundos; la reasignación de canal lo realiza la oficina, las estaciones base
son solo retransmisoras.

Un proveedor de servicio celular típicamente recibe 832


radiofrecuencias para utilizar en una ciudad. Cada teléfono celular utiliza dos frecuencias por
llamada, por lo que típicamente hay 395 canales de voz por portador de señal.
(las 42 frecuencias restantes son utilizadas como canales de control). Por lo tanto, cada
celda tiene alrededor de 56 canales de voz disponibles. En otras palabras, en cualquier celda,
pueden hablar 56 personas en susteléfonos celulares al mismo tiempo.
Con la transmisión digital, el número decanales disponibles aumenta. Por ejemplo
el sistema digital TDMA puede acarrear el triple de llamadas en cada celda, alrededor de 168
canales disponibles simultáneamente.

Los teléfonos celulares tienen adentro transmisores de bajo poder.


Muchos teléfonos celulares tienen dos intensidades de señal: 0.6 watts y 3.0watts
(en comparación, la mayoría de los radios de banda civil transmiten a 4watts.)
La estación central también transmite a bajo poder. Los transmisores debajo
poder tienen dos ventajas:

-Las transmisiones de la base central y de los teléfonos en la


misma celda no salen de ésta. Por lo tanto, cada celda puede re-
utilizar las mismas 56 frecuencias a través de la ciudad.

-El consumo de energía del teléfono celular, que generalmente funciona


con baterías, es relativamente bajo. Una baja energía significa baterías más
pequeñas, lo cual hace posibles los teléfonos celulares.

Un teléfono celular es un dispositivo dual, esto quiere decir que utiliza una frecuencia para
hablar, y una segunda frecuencia aparte para escuchar. Una radio OC tiene 40 canales.
Un teléfono celular puede utilizar 1664 canales.Estos teléfonos también operan con "células" (o
"celdas") y pueden alternar la célula usada a medida que el teléfono es desplazado. Las
células le dan a los teléfonos un rango mucho mayor a los dispositivos que lo comparamos.
Unwalkie-talkie puede transmitir hasta quizás una milla. Una radio OC, debido a que
tiene un poder mucho más alto, puede transmitir hasta 5 millas. Alguien que utiliza un teléfono
mantener la conversación todo
celular, puede manejar a través de toda la ciudad y
el tiempo. Las células son las que dan a los teléfonos celulares un gran rango.

Entonces, cuando hacemos una llamada nuestro teléfono móvil empieza a


emitir ondas de radio que son interceptadas por la estación base mas
cercana. En la arquitectura interna de un teléfono celular estándar, podemos
ver tres módulos bien definidos (figura 8) que son: el módulo de radio
(RF radiofrecuencia), el módulo de audio (AF audiofrecuencias) y el módulo
lógico de control (CPU)

COMO FUNCIONA UN TELEFONO CELULAR

La gran idea del sistema celular es la división de la ciudad en pequeñas células o celdas. Esta
idea permite la re-utilización de frecuencias a través de la ciudad, con lo que miles de personas
pueden usar los teléfonos al mismo tiempo. En un sistema típico de telefonía análoga de los
Estados Unidos, la compañía recibe alrededor de 800 frecuencias para usar en cada ciudad. La
compañía divide la ciudad en celdas. Cada celda generalmente tiene un tamaño de 26 kilómetros
cuadrados. Las celdas son normalmente diseñadas como hexágonos (figuras de seis lados), en
una gran rejilla de hexágonos.

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Cada celda tiene una estación base que consiste de una torre y un pequeño edificio que contiene
el equipo de radio.

Cada celda en un sistema análogo utiliza un séptimo de los canales de voz disponibles. Eso es,
una celda, más las seis celdas que la rodean en un arreglo hexagonal, cada una utilizando un
séptimo de los canales disponibles para que cada celda tenga un grupo único de frecuencias y no
haya colisiones:
Un proveedor de servicio celular típicamente recibe 832 radio frecuencias para utilizar en una
ciudad.

Cada teléfono celular utiliza dos frecuencias por llamada, por lo que típicamente
hay 395 canales de voz por portador de señal. (las 42 frecuencias restantes
son utilizadas como canales de control).
Por lo tanto, cada celda tiene alrededor de 56 canales de voz disponibles.

En otras palabras, en cualquier celda, pueden hablar 56 personas en sus teléfonos celulares al
mismo tiempo. Con la transmisión digital, el número de canales disponibles aumenta. Por
ejemplo el sistema digital TDMA puede acarrear el triple de llamadas en cada celda, alrededor de
168 canales disponibles simultáneamente.

Los teléfonos celulares tienen adentro transmisores de bajo poder. Muchos teléfonos celulares
tienen dos intensidades de señal: 0.6 watts y 3.0 watts (en comparación, la mayoría de los
radios de banda civil transmiten a 4 watts.) La estación central también transmite a bajo poder.
Los transmisores de bajo poder tienen dos ventajas:

Las transmisiones de la base central y de los teléfonos en la misma celda no salen de ésta. Por
lo tanto, cada celda puede re-utilizar las mismas 56 frecuencias a través de la ciudad.

El consumo de energía del teléfono celular, que generalmente funciona con baterías, es
relativamente bajo. Una baja energía significa baterías más pequeñas, lo cual hace posibles los
teléfonos celulares.

La tecnología celular requiere un gran número de bases o estaciones en una ciudad de cualquier
tamaño. Una ciudad grande puede llegar a tener cientos de torres. Cada ciudad necesita tener
una oficina central la cual maneja todas las conexiones telefónicas a teléfonos convencionales, y
controla todas las estaciones de la región.

TECNOLOGÍAS DE ACCESO CELULAR.

En la actualidad existen tres tecnologías comúnmente usadas para transmitir información en las
redes:

• Acceso múltiple por división de frecuencia (FDMA, por sus siglas en inglés)
• Acceso múltiple por división de tiempo (TDMA, por sus siglas en inglés)
• Acceso múltiple por división de código (CDMA, por sus siglas en inglés)

Aunque estas tecnologías suenan complicadas, usted puede tener una idea de cómo funcionan
examinando cada palabra de los nombres.

La diferencia primordial yace en el método de acceso, el cual varía entre:

Frecuencia, utilizada en la tecnología FDMA

Tiempo, utilizado en la tecnología TDMA

Códigos únicos, que se proveen a cada llamada en la tecnología CDMA.

La primera parte de los nombres de las tres tecnologías (Acceso múltiple), significa que más de
un usuario (múltiple) puede usar cada celda.

A continuación detallaremos, sin entrar en complicados detalles técnicos, cómo funciona cada
una de las tres tecnologías comunes.
La tecnología FDMA separa el espectro en distintos canales de voz, al separar el ancho de banda
en pedazos (frecuencias) uniformes. La tecnología FDMA es mayormente utilizada para la
transmisión analógica. Esta tecnología no es recomendada para transmisiones digitales, aun
cuando es capaz de llevar información digital.

La tecnología TDMA comprime las conversaciones (digitales), y las envía cada una utilizando la
señal de radio por un tercio de tiempo solamente. La compresión de la señal de voz es posible
debido a que la información digital puede ser reducida de tamaño por ser información binaria
(unos y ceros). Debido a esta compresión, la tecnología TDMA tiene tres veces la capacidad de
un sistema analógico que utilice el mismo número de canales.

La tecnología CDMA es muy diferente a la tecnología TDMA. La CDMA, después de digitalizar la


información, la transmite a través de todo el ancho de banda disponible. Varias llamadas son
sobrepuestas en el canal, y cada una tiene un código de secuencia único. Usando al tecnología
CDMA, es posible comprimir entre 8 y 10 llamadas digitales para que estas ocupen el mismo
espacio que ocuparía una llamada en el sistema analógico.

En teoría, las tecnologías TDMA y CDMA deben de ser transparentes entre sí (no deben
interferirse o degradar la calidad), sin embargo en la práctica se presentan
algunos problemas menores, como diferencias en el volúmen y calidad, entre ambas tecnologías.

LAS GENERACIONES DE LA TELEFONIA INALAMBRICA

- Primera generación (1G)

La 1G de la telefonía móvil hizo su aparición en 1979 y se caracterizó por se analógica y


estrictamente para voz. La calidad de los enlaces era muy baja, tenían baja velocidad (2400
bauds). En cuanto a la transferencia entre celdas, era muy imprecisa ya que contaban con una
baja capacidad (Basadas en FDMA, Frequency División Múltiple Access) y, además,
la seguridad no existía. La tecnología predominante de esta generación es AMPS (Advanced
Mobile Phone System).

--Segunda generación (2G)

La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital.


EL sistema 2G utiliza protocolos de codificación más sofisticados y se emplea en los sistemas de
telefonía celular actuales. Las tecnologías predominantes son: GSM (Global System por Mobile
Communications); IS-136 (conocido también como TIA/EIA136 o ANSI-136) y CDMA (Code
Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en
Japón.

Los protocolos empleados en los sistemas 2G soportan velocidades de información más altas por
voz, pero limitados en comunicación de datos. Se pueden ofrecer servicios auxiliares, como
datos, fax y SMS (Short Message Service). La mayoría de los protocolos de 2G ofrecen
diferentes niveles de encripción. En Estados Unidos y otros países se le conoce a 2G como PCS
(Personal Communication Services).

--Generación 2.5 G

Muchos de los proveedores de servicios de telecomunicaciones se moverán a las redes 2.5G


antes de entrar masivamente a la 3. La tecnología 2.5G es más rápida, y más económica para
actualizar a 3G.
La generación 2.5G ofrece características extendidas, ya que cuenta con más capacidades
adicionales que los sistemas 2G, como: GPRS (General PacketRadio System), HSCSD (High
Speed Circuit Switched), EDGE (Enhanced Data Rates for Global Evolution), IS-136B e IS-95Bm
ebtre otros. Los carriers europeos y estadounidenses se moverán a 2.5G en el 2001. Mientras
que Japón irá directo de 2G a 3G también en el 2001.

--Tercera generación 3G.

La 3G se caracteriza por contener a la convergencia de voz y datos con acceso inalámbrico


a Internet; en otras palabras, es apta para aplicaciones multimedia y altas transmisiones de
datos.

Los protocolos empleados en los sistemas 3G soportan altas velocidades de información y están
enfocados para aplicaciones más allá de la voz como audio (mp3), video en movimiento,
videoconferencia y acceso rápido a Internet, sólo por nombrar algunos. Se espera que las redes
3G empiecen a operar en el 2001 en Japón, por NTT DoCoMo; en Europa y parte de Asia en el
2002, posteriormente en Estados Unidos y otros países.

Asimismo, en un futuro próximo los sistemas 3G alcanzarán velocidades de hasta 384 kbps,
permitiendo una movilidad total a usuarios, viajando a 120 kilómetros por hora en ambientes
exteriores. También alcanzará una velocidad máxima de 2 Mbps, permitiendo una movilidad
limitada a usuarios, caminando a menos de 10 kilómetros por hora en ambientes estacionarios
de corto alcance o en interiores.

En relación a las predicciones sobre la cantidad de usuarios que podría albergar 3G, The Yanlee
Group anticipa que en el 2004 habrá más de 1,150 millones en el mundo, comparados con los
700 millones que hubo en el 2000. Dichas cifras nos anticipan un gran número
de capital involucrado en la telefonía inalámbrica, lo que con mayor razón las compañías
fabricantes de tecnología, así como los proveedores de servicios de telecomunicaciones estarán
dispuestos a invertir su capital en esta nueva aventura llamada 3G.

13. QUE ASPECTOS ESTUDIA LA INFORMATICA


La informática es la ciencia que se encarga del tratamiento automático de la información. Este
tratamiento automático es el que ha propiciado y facilitado la manipulación de grandes
volúmenes de datos y la ejecución rápida de cálculos complejos.

La informática estudia lo que los programas son capaces de hacer (teoría de la computabilidad),
de la eficiencia de los algoritmos que se emplean (complejidad y algorítmica), de la organización
y almacenamiento de datos (estructuras de datos, bases de datos) y de la comunicación entre
programas, humanos y máquinas (interfaces de usuario, lenguajes de programación,
procesadores de lenguajes...), entre otras cosas.

La informática tiene su base en las matemáticas y la física, y a su vez se ha usado para


potenciar estas ciencias. Por ese motivo la informática está hoy presente en todos los ámbitos
en los que podemos encontrarlas: ingeniería, industria, administraciones públicas, medicina,
diseño de vehículos, arquitectura, investigación y desarrollo, administración de empresas ,arte,
etc.

Entre los campos más destacados en que se divide la informática están:

El manejo de grandes volúmenes de datos: actualmente, y desde hace unos años,


podríamos decir que hemos llegado a una explosión de información en nuestra sociedad, que
exige la aplicación de las tecnologías de la información. La cantidad de información que se debe
gestionar diariamente es abismal y estaríamos ante un problema intratable si no contáramos con
la informática. Las bases de datos y las altas capacidades de proceso nos permite afrontar el
reto. El concepto del que hablamos es muy extenso y para ayudar a su comprensión voy a poner
unos ejemplos: encontrar el historial de un paciente en un fichero con otros 600.000 pacientes,
manipular la información sobre los fondos bibliográficos de una biblioteca (miles de libros),
guardar el registro de habitantes de una gran ciudad, guardar el registro de los criminales de un
país y poder disponer de la información sobre uno en cuestión de segundos, listado de
conexiones de tendidos eléctricos entre las poblaciones de España, y un largo etcétera. Todas
estas actividades pueden hoy realizarse de manera eficiente gracias a la informática.

Ejecución rápida de cálculos complejos: ciertas áreas de la sociedad exigen la realización


“rápida” de gran cantidad de cálculos matemáticos de mayor o menor complejidad. Este es el
caso de la física, de la estadística, de la medicina, de la ingeniería, etc. No es posible concebir el
funcionamiento actual de las cadenas de montaje de vehículos sin que esté presente
la informática, ni los grandes avances producidos en la medicina gracias a la informática gráfica,
ni el diseño óptimo de la estructura de un edificio, etc.

Informática teórica: estrechamente relacionada con la fundamentación matemática, centra su


interés en aspectos como el estudio y definición formal de los cómputos, el análisis de problemas
y su resolución mediante algoritmos, incluso la investigación de problemas que no pueden
resolverse con ninguna computadora (es decir, dónde se hayan las limitaciones de los métodos
automáticos de cálculo). También abarca el estudio de la complejidad computacional y de la
teoría de lenguajes (de la que derivan los lenguajes de programación). Se trata en definitiva de
la parte más formal y abstracta de la informática.

Hardware: a pesar de que no lo parezca, este es uno de los campos de la informática menos
significativos, o al menos, podríamos decir que no es exclusivo de la informática sino que su
importancia reside en otras ciencias más particulares, como la electrónica y la física.
Software: este campo nace directamente de la informática teórica, trata de los programas y
procedimientos necesarios para que una máquina pueda llevar a cabo tareas útiles.

Informática gráfica: se ocupa de que se puedan realizar los cálculos pertinentes para obtener
representaciones gráficas aplicables a todo tipo de situaciones: simulaciones, tratamiento de
imagen en medicina, videojuegos y entretenimiento, publicidad, animación.

Informática empresarial: dentro del conocimiento empresarial y de gestión,


la informática tiene hoy un gran protagonismo. Sus logros son: la mejora de los procesos
productivos, el ahorro de costes, la óptima gestión de stocks, la aparición y el impulso del
comercio electrónico, la creación de sistemas de información, gestión del conocimiento e
inteligencia empresarial, entre otros.

Tratamiento de la información: área dedicada al estudio e implantación de los conceptos que


comenté anteriormente en el apartado “Manejo de grandes volúmenes de datos”. Aquí tienen
cabida las estructuras de datos, las bases de datos, también los algoritmos, la compresión y el
cifrado...

Otras áreas o metodologías: inteligencia artificial, seguridad informática, modelado y


simulación, reconocimiento del habla y reconocimiento de formas, evaluación de sistemas
informáticos, computación paralela y de alto rendimiento, bioinformática, informática médica,
química computacional, y un largo etcétera que debo omitir por cuestiones obvias de espacio y
extensión.

14. DIFERENCIA ENTRE HACKERS Y CRACKERS

Por lo general, el término “hacker” suele utilizarse de manera errónea en la informática, a un


hacker suelen asociarlo con las personas que realizan actos ilícitos por medio de las
computadoras (phishing, virus, defaces, etc.), esta es una idea completamente errónea pues se
podría decir que los hackers son los buenos (los que programan el software que utilizamos) y
los crackers lo malos (aquellos que se encargan de vulnerar los sistemas que crean los hackers).

La diferencia clave entre un hacker y un cracker es que el cracker vulnera el


software/sistema que el hacker crea. Por lo tanto, un hacker y un cracker son dos personas,
si bien, con conocimientos similares, pero con ideas completamente diferentes. En los hackers
suele existir un código de ética, contrario a los crackers que se valen de cualquier medio para
lograr su objetivo.

un hacker es simplemente alguien capaz de manejar con gran habilidad cualquier sistema
(aparato, dispositivo - no necesariamente un ordenador), con el fin de sacarle más partido o
divertirse.

Los crackers son en realidad hackers maliciosos cuyo objetivo es introducirse ilegalmente en
sistemas, crear virus, robar información secreta y todo tipo de acciones similares - pero no por
aprender o divertirse, sino con fines realmente malignos e ilegales.
Los crackers maliciosos utilizan mal sus conocimientos, y suelen meterse en problemas por
hacer precisamente eso: un mal uso de su «fuerza» (de ahí el simil con el «Lado Oscuro de la
Fuerza» de Star Wars, otro clásico de la cultura hacker). Hay muchos crackers que han acabado
en prisión por sus andanzas, a pesar de que la ley nunca fué demasiado explícita (al menos
hasta los años 90) sobre las acciones que podrían considerarse ilegales. Introducirse en un
sistema a través del teléfono no es lo mismo que atravesar una puerta de una empresa, y esto
ha permitido que en muchas ocasiones estos personajes salieran impunes.

Entre las variantes de crackers maliciosos están los que realizanCarding (Tarjeteo: uso ilegal de
tarjetas de crédito), Trashing(Basureo, obtención de información en cubos de basura, tal como
números de tarjetas de crédito, contraseñas, directorios o recibos);Phreaking y Foning (uso
ilegal de las redes telefónicas) y los clásicos y llanamente llamados Piratas (gente del Warez)
que se dedican a copiar software legal, música o vídeos, para revenderlo por ahí.

LA ÉTICA DEL HACKER:

- El acceso a los ordenadores, y a cualquier cosa que pudiera enseñarte algo sobre cómo
funciona el mundo debería ser ilimitado y total
- Básate siempre en el imperativo de la práctica
- Toda información debería ser libre
- Desconfía de la autoridad, promueve la descentralización
- Los hackers deberían ser juzgados únicamente por su habilidad en el hackeo, no por criterios
sin sentido como los títulos, edad, raza o posición social
- Se puede crear arte en un ordenador
- Los ordenadores pueden cambiar tu vida a mejor.

15 . WIKI, BLOG Y PAGINA WEB

WIKI

Un wiki es un sitio web que es usualmente editable por cualquier persona que disponga de un
computador, un navegador de internet y conexión a internet. Los wikis usan una sintáxis rápida
y fácil para permitir a los usuarios aplicar formato a los textos y crear vínculos entre páginas.
Esta sintáxis de formateo simple significa que los autores ya no necesitarán entender las
complejidades del HTML para crear contenido en la Web. La mayor fortaleza de un wiki es la
posibilidad de trabajar colaborativamente en el mismo documento siendo un navegador de
internet el único software instalado en el computador del usuario que se requiere para esto.

En consecuencia, los wikis se usan con una variedad de propósitos. Si cometes un error es fácil
volver a una versión previa del documento.

El nombre "Wiki" lo eligió Ward Cunningham -- el creador del primer wiki. Es una forma
abreviada de la palabra Hawaiana "wiki-wiki", que significa rápido.

La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la
creación de enciclopedias colectivas, género al que pertenece la Wikipedia. Existen muchas
otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en
común de conocimientos o textos dentro de grupos.

La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar
fácilmente cualquier estado anterior y ver qué usuario hizo cada cambio, lo cual facilita
enormemente el mantenimiento conjunto y el control de usuarios nocivos. Habitualmente, sin
necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada.

BLOG

Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que
recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el
más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea
pertinente. El nombre bitácora está basado en los cuadernos de bitácora, cuadernos de viaje que
se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora.
Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes
ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.

Este término inglés blog o weblog proviene de las palabras web y log ('log' en inglés = diario). El
término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza
preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero
publicado en la web (en línea).

Habitualmente, en cada artículo de un blog, los lectores pueden escribir sus comentarios y el
autor darles respuesta, de forma que es posible establecer un diálogo. No obstante es necesario
precisar que ésta es una opción que depende de la decisión que tome al respecto el autor del
blog, pues las herramientas permiten diseñar blogs en los cuales no todos los internautas -o
incluso ninguno- puedan participar agregando comentarios. El uso o tema de cada blog es
particular, los hay de tipo: periodístico, empresarial o corporativo, tecnológico, educativo
(edublogs), políticos, personales (Contenidos de todo tipo), etc.

PAGINA WEB

Una página web es una fuente de información adaptada para la World Wide Web (WWW) y
accesible mediante un navegador de Internet. Ésta información se presenta generalmente en
formato HTML y puede contener hiperenlaces a otras páginas web, constituyendo la red enlazada
de la World Wide Web.

Las páginas web pueden ser cargadas de un ordenador o computador local o remoto, llamado
Servidor Web, el cual servirá de HOST. El servidor web puede restringir las páginas a una red
privada, por ejemplo, una intranet, o puede publicar las páginas en el World Wide Web. Las
páginas web son solicitadas y transferidas de los servidores usando el Protocolo de Transferencia
de Hypertexto (HTTP - Hypertext Transfer Protocol). La acción del Servidor HOST de guardar la
página web, se denomina “HOSTING”.

Las páginas web pueden consistir en archivos de texto estático, o se pueden leer una serie de
archivos con código que instruya al servidor cómo construir el HTML para cada página que es
solicitada, a esto se le conoce como Página Web Dinámica. Las páginas dinámicas que se
generan al momento de la visualización se hacen a través de lenguajes interpretados,
generalmente JavaScript, y la aplicación encargada de visualizar el contenido es la que debe
generarlo. Las páginas dinámicas que se generan al ser solicitadas son creadas por una
aplicación en el servidor web que alberga las mismas.

Una página Web está compuesta por uno o varios documentos html relacionados entre sí
mediante hipervínculos (enlaces). Además estos documentos pueden contener otros elementos
como pueden ser imágenes, sonidos, animaciones multimedia, aplicaciones, etc.
16. EXTENSIONES DE ARCHIVO

JPG Imagen en formato JPG

El sistema de compresión que usa JPG se basa en reducir información promediándola en las
zonas de degradado. Es decir que se calcula el valor de color de algunos píxeles en función del
color de los píxeles que les rodean. Por esas características este formato es muy eficiente a la
hora de almacenar imágenes que posean muchos degradados y matices de color.

MP3

Identifica archivos que contienen sonido en formato MPEG Audio Stream, Layer III. Se trata de
un formato no propietario. Este formato tiene la capacidad de almacenar audio con calidad
similar a la de un disco compacto. Su ventaja radica en que se reduce considerablemente el
peso de los archivos generados (normalmente la proporción es de 1/10). Por este motivo, mp3
se ha convertido en el formato más utilizado para la distribución de música en Internet.

megp :Identifica archivos que contienen vídeo en formato MPEG. Este formato toma su nombre
de Moving Pictures Expert Group, que es grupo integrado por más de 70 compañías e
instituciones de todo el mundo, entre las que destacan Sony, Philips y Apple; que se han unido
con la finalidad de conformar un estándar para el manejo de video digital en CD, televisión por
cable, transmisión directa por satélite y televisión de alta definición. (Igual mpg)

.RAR

El archivo .rar es un tipo de archivo comprimido que sirve para hacer menos pesado y más
portatil cualquier tipo de archivo, puede ser desde una foto hasta una aplicación, éste tipo de
archivo es muy utilizado para ponerlo a disposición de todo mundo a través de internet, es decir
si se sube a un servidor un archivo por ejemplo tipo .pdf, es muy probable que en vez de
descargarlo, se abra el programa Adobe Acrobat Reader dentro del navegador o en el caso de
imágenes por ejemplo del tipo .jpg, si son muy pesadas es posible que tarde demasiado en
aparecer en pantalla, es para éso que mucha gente los sube comprimidos en.rar o .zip, al
hacerlo de ésta forma, automáticamente se abrirá la ventana de descarga y se podrá descargar.
XLSX

Extensión de archivo XLS es más comúnmente asociado con Microsoft Excel, una popular
aplicación de hoja de cálculo, y se utilizan para almacenar los libros que pueden contener uno o
más hojas de cálculo. XLS archivos son un formato propietario llamado intercambio de formato
de archivo binario (BIFF), y es la extensión utilizada por defecto de Microsoft Excel hasta Office
2007.

XLS ficheros contienen datos en formato de hoja de cálculo que se organiza en filas y columnas.
Cada elemento de datos se almacena en una celda, que puede ser la única referencia mediante
carta de la columna y el número de fila. XLS archivos se utilizan principalmente para almacenar
datos numéricos, y también pueden contener fórmulas, tablas y gráficos, lo que altera
dinámicamente para reflejar los datos de origen. XLS archivos objetos incrustados apoyo
también de otras aplicaciones, así como el formato de texto e imágenes para mejorar la
presentación de los datos almacenados en hojas de cálculo. XLS archivos son ampliamente
utilizados en cualquier aplicación que incluye el almacenamiento y manipulación de datos
numéricos, tales como presupuestación, contabilidad y la investigación científica.

WAV

WAV (o WAVE),es un formato de audio digital normalmente sin compresión de


datosdesarrollado y propiedad de Microsoft y de IBM que se utiliza para almacenar
sonidos en el PC, admite archivos mono y estéreo a diversas resoluciones y
velocidades de muestreo, su extensión es .wav.
Es una variante del formato RIFF (Resource Interchange File Format, formato de
fichero para intercambio de recursos), método para almacenamiento en
"paquetes", y relativamente parecido al IFF y al formato AIFF usado por Macintosh.
El formato toma en cuenta algunas peculiaridades de la CPU Intel, y es el
formato principal usado por Windows.

A pesar de que el formato WAV es compatible con casi cualquier códec de audio,
se utiliza principalmente con el formato PCM (no comprimido) y, al no tener
pérdida de calidad, es adecuado para uso profesional. Para tener calidad CD de
audio se necesita que el sonido se grabe a 44100 Hz y a 16 bits. Por cada
minuto de grabación de sonido se consumen unos 10 megabytes de espacio en
disco. Una de sus grandes limitaciones es que solo se pueden grabar archivos
de 4 gigabytes como máximo, lo cual equivale aproximadamente a 6,6 horas
en calidad de CD de audio. Es una limitación propia del formato,
independientemente de que el sistema operativo donde se utilice sea MS Windows u
otro distinto, y se debe a que en la cabecera del fichero se indica la longitud
del mismo con un número entero de 32 bits, lo que limita el tamaño del fichero
a 4 GB, como ya hemos dicho.

-
WEBGRAFIA

- http://www.informatica-hoy.com.ar/software-linux
- wikipedia.org/wiki/Componentes_de_software
- http://es.wikipedia.org/wiki/Pantalla_de…
http://en.wikipedia.org/wiki/LED-backlit…
- www.gstriatum.com/.../index.php?...hertz..
- roboticaandresdelgado.blogspot.com/.../avances-de-la-robotica-en-colombia
- http://www.avancestecnologicos.org
- http://www.yucatan.com.mx/especiales/celular/historia.asp
- www.mailxmail.com/...celular...caracteristicas/caracteristicas-telefonia-celular
- .wikipedia.org/wiki/Ciencias_de_la_computación
- wikipedia.org/wiki
- http://www.mitecnologico.com
- wikieducator.org/Tutorial/Que_es_un_wiki
- http://xls.extensionfile.net
- compuntoes.la100rra.com.mx
- wikipedia.org/wiki/Waveform_Audio_Format
- Silberschatz, Abraham.
(2006), Sistemas Operativos, México.
- http://www.google.com/search?
hl=es&biw=1280&bih=699&tbm=isch&sa=1&q=IMAGENES+DE+SONIDO&aq

También podría gustarte