Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DOCENTE
LIC. DAVID ROBLES MONJARAZ
MATERIA
INFORMATICA
ALUMNO
12/11/2013
TEMAS Y SUBTEMAS
2.1.1 Computadora
2.1.2 Informática
2.1.3 Información
3.2 Memoria
UNIDAD IV SOFTWARE
El ábaco
El ábaco es posiblemente el primer dispositivo mecánico de contabilidad de la historia. Tiene unos 5.000 años
de antigüedad, y su efectividad ha soportado la prueba del tiempo, puesto que aún se utiliza en varios lugares
del mundo.
El ábaco es un dispositivo sencillo: una serie de cuentas ensartadas en varillas que a su vez están montadas
en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores
almacenados. A pesar de su capacidad para representar y almacenar datos, a este dispositivo no se le puede
llamar computadora, puesto que –entre otras cosas– carece del elemento fundamental llamado programa.
El genio renacentista Leonardo Da Vinci (1452-1519) trazó alrededor de 1500 varios apuntes para una
sumadora mecánica. Más de un siglo después, hacia 1623, el alemán Wilhelm Schickard construyó la primera
máquina de calcular. Sin embargo, la Historia ha reservado el puesto de creador del primer ingenio mecánico
calculador a Pascal.
Efectivamente, en 1642, el filósofo y matemático francés Blaise Pascal (1623-1662) construyó la primera
sumadora mecánica, que se llamó Pascalina, y que funcionaba con un complicado mecanismo de engranes y
ruedas: la rotación completa de una de las ruedas dentadas hacía girar un paso a la rueda siguiente. La
Pascalina sólo realizaba sumas y restas.
A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina resultó un fracaso
financiero, pues resultaba más costosa que la labor humana para los cálculos aritméticos.
Por su parte, el alemán Gottfried Wilhelm von Leibniz (1646-1716) diseñó en 1671 otra sumadora mecánica,
que concluyó definitivamente en 1694, conocida como la Calculadora Universal o Rueda Escalada de Leibniz,
capaz de realizar sumas, restas, divisiones y raíces cuadradas.
En estas calculadoras mecánicas, los datos, representados mediante las posiciones de los engranajes, se
introducían manualmente, estableciendo dichas posiciones finales de las ruedas de manera similar a como
leemos los números en el cuentakilómetros de un automóvil.
A partir de este momento se fueron sucediendo nuevos modelos de calculadoras mecánicas, con distintas
variaciones y mejoras.
El fabricante de tejidos francés Joseph-Marie Jacquard (1752-1834) ideó en 1801 un telar, todavía utilizado
en la actualidad, que podía reproducir automáticamente patrones de tejidos leyendo la información codificada
en patrones de agujeros perforados en tarjetas de papel rígido. Las tarjetas se perforaban estratégicamente y
se acomodaban en cierta secuencia para indicar un diseño de tejido en particular. Para cambiar de diseño,
basta con preparar una nueva colección de tarjetas.
El telar consta de una serie de varillas, sobre las que pasan las tarjetas, y de las que están prendidos hilos de
distintos colores. Las perforaciones de las tarjetas determinan de manera mecánica qué varillas –y por tanto
qué hilos– intervienen en la formación del tejido y en la disposición de los dibujos.
El principio de las tarjetas perforadas de Jacquard es el mismo que rige el funcionamiento de ciertos aparatos
musicales. Más tarde, las tarjetas perforadas tendrán una gran influencia en los trabajos de Charles Babbage.
El telar de Jacquard supone una triple aportación teórica para el futuro desarrollo computacional:
Por primera vez se realiza una codificación de la información. Las tarjetas son la información
suministrada (input) y el tejido es el resultado (output).
Por primera vez se realiza la programación de las instrucciones. La cadena de tarjetas perforadas
prefigura la organización de los procesos mediante técnicas de programación.
Charles Babbage (1791-1871), visionario científico y matemático inglés, fue el más claro precursor del
hardware computacional, hasta el punto de que se le considera el padre histórico de la computación.
Preocupado desde su juventud por los frecuentes errores cometidos en el cálculo de las tablas numéricas (y
en la posterior impresión de sus resultados), ideó la Máquina de Diferencias (Difference Engine), cuyo modelo
definitivo es de 1823, capaz de calcular –e imprimir– tablas matemáticas de hasta veinte cifras con ocho
decimales y polinomios de sexto grado.
Babbage, subvencionado por el gobierno británico desde 1823, trabajó durante años en el perfeccionamiento
de su Máquina de Diferencias, pero finalmente tuvo que abandonar el proyecto, al agotarse la ayuda
económica antes de haber podido construir una máquina con el refinamiento técnico que exigía su diseño.
Babbage reaccionó ante el aparente fracaso de su invento con un proyecto aún más ambicioso, y en 1834
concibió su revolucionaria Máquina Analítica (Analytical Engine), que puede considerarse una auténtico
prototipo decimonónico de ordenador. En esencia, la Máquina Analítica era una calculadora polivalente con
capacidad para operar de forma distinta según el problema que se le planteara, es decir, algo muy cercano a
una computadora de propósito general.
En la máquina de Babbage aparecen ya los elementos básicos de los modernos ordenadores: dispositivos de
entrada y de salida, unidad de control, unidad lógico-aritmética y memoria. La programación se debía realizar
mediante fichas perforadas.
A pesar de su extraordinaria brillantez, el ambicioso proyecto no pudo realizarse por razones económicas e
industriales, puesto que la tecnología de la época no bastaba para hacer realidad el proyecto: el diseño
requería miles de engranes y mecanismos de gran precisión que cubrirían el área de un campo de futbol y
necesitarían accionarse por una locomotora.
Charles Babbage trabajó hasta su muerte en su Máquina Analítica (a la que los escépticos bautizaron
como La locura de Babbage), de la que sólo pudo contruir algún fragmento. Sin embargo, sus notas
describían asombrosamente casi todas las características incorporadas hoy en la moderna computadora
electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y los componentes de precisión,
seguramente habría adelantado varias décadas el nacimiento de la computadora electrónica. Sin embargo, su
obra cayó en un olvido tan completo que algunos pioneros del desarrollo de la computadora electrónica
ignoraron por completo sus ideas sobre memoria, impresoras, tarjetas perforadas y control de programa-
secuencia.
En 1843, Lady Ada Augusta Lovelace, estrecha colaboradora de Babbage, sugirió la idea de que las tarjetas
perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas
operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera
programadora.
La tabuladora de Hollerith
A finales del siglo XIX, la oficina de censos estadounidense se enfrentaba a un grave problema: había tardado
ocho años en finalizar el censo de 1880, y había llegado a la conclusión de que el censo de cada diez años
tardaría en terminarse más que esos mismos diez años.
Para intentar solucionar el problema, la oficina de censos encargó al estadístico Herman Hollerith (1860-1929)
que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Hollerith desarrolló una
máquina tabuladora, que se componía de un lector de tarjetas, un contador, un clasificador y un aparato de
tabular. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el
censo se terminó en sólo 3 años y la oficina se ahorró alrededor de 5 millones de dólares. Así comenzó el
procesamiento automatizado de datos.
Hollerit no tomó la idea de las tarjetas perforadas del telar de Jacquard, sino de la fotografía de perforación:
algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los
conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del
pasajero. Eso le dio a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular.
Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. Por ejemplo, el
primer censo llevado a cabo en Rusia (1897) se registró con el Tabulador de Hollerith. En 1911, la Tabulating
Machine Company se unió con otras Compañías y formó la Computing-Tabulating-Recording-Company.
Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que
en 1919 la Computing-Tabulating-Recording-Company anunció la aparición de la impresora/listadora. Esta
innovación revolucionó la manera en que las empresas efectuaban sus operaciones. Para reflejar mejor el
alcance de sus intereses comerciales, en 1924 la compañía cambió el nombre por el de International Bussines
Machines Corporation (IBM).
Desde los años cincuenta, la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más
dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (un
nombre, una dirección, etc.), el procesamiento de la tarjeta perforada se conoció también como procesamiento
de registro unitario.
El operador de un cuarto de máquinas en una instalación de tarjetas perforadas realizaba un trabajo que
demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica: las
tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales; el ruido
que producía eran tan intenso como el de una planta ensambladora de automóviles.
La computadora ABC
Una antigua patente de un dispositivo que muchos creyeron que era la primera computadora digital
electrónica se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V.
Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la
Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a
1942. Llamó a su invento la computadora Atanasoff-Berry, o ABC (Atanasoff Berry Computer). Clifford Berry,
un estudiante graduado, fue una útil ayuda en la construcción de la computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la
computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la
Universidad de Iowa aparece una placa con la siguiente leyenda: La primera computadora digital electrónica
de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff,
matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry,
estudiante graduado de física.
La Mark-I
En 1944 se presentó la Mark-I (o IBM ASCC), diseñada por un equipo encabezado por Howard H. Aiken, de la
Universidad de Harvard, con la colaboración de IBM. Era una máquina automática eléctrica, aunque tenía
componentes electromecánicos; podía realizar 5 operaciones aritméticas: suma, resta, multiplicación, división
y referencia a resultados anteriores.
La computadora ENIAC
John W. Mauchly y John Presper Eckert, después de estudiar prolijamente la computadora ABC, desarrollaron
en la Universidad de Pennsylvania una máquina capaz de calcular tablas de trayectoria para el ejército
estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se
terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer: integrador numérico y
calculador electrónico). La ENIAC, construida para aplicaciones de la Segunda Guerra mundial, se terminó en
treinta meses por un equipo de científicos que trabajaban contra reloj.
La ENIAC supuso un hito en la tecnología de la computación. Era mil veces más veloz que sus predecesoras
electromecánicas y poseía la capacidad de realizar 5.000 operaciones aritméticas en un segundo. No
obstante, la máquina pesaba 30 toneladas, ocupaba un espacio de 450 m2 (llenaba todo un sótano de la
universidad), contenía 18.000 bulbos (tubos de vacío), requería su completo sistema de aire acondicionado y
tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6.000 interruptores.
Además, introducir un nuevo programa era un proceso muy tedioso que requería días o incluso semanas.
A diferencia de las computadoras actuales, que operan con un sistema binario, la ENIAC operaba con el
sistema decimal. La ENIAC requería una gran cantidad de electricidad (se dice que bajaba la intensidad de las
luces de Filadelfia siempre que se activaba). La imponente escala y las numerosas aplicaciones generales de
la ENIAC señalaron el comienzo de la primera generación de computadoras.
La computadora EDVAC
En 1945, el ingeniero y matemático húngaro John von Neumann (1903-1957), que había trabajado con Eckert
y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas.
El concepto de programa almacenado permitía la lectura de un programa dentro de la memoria de la
computadora y la posterior ejecución de las instrucciones del mismo sin tener que volverlas a escribir.
Hacia 1948, von Neumann se integra en el equipo de Eckert y Mauchly auspiciado por el Departamento de
Defensa de los Estados Unidos. Sus ideas resultaron tan fundamentales para su desarrollo posterior, que es
considerado el padre de las computadoras.
Este nuevo equipo crea la computadora EDVAC (Electronic Discrete Variable Automatic Computer), la primera
en aplicar la idea básica de von Neumann: permitir que en la memoria coexistan datos e instrucciones, para
que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que
eléctricamente conecten varias secciones de control, como en la ENIAC. La EDVAC tenía aproximadamente
cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban
señales eléctricas sujetas a retardos.
Los programas almacenados dieron a las computadoras mucha más flexibilidad y confiabilidad, haciéndolas
más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de
programa almacenado podría ser utilizada para varias aplicaciones, cargando y ejecutando el programa
apropiado.
El desarrollo de las computadoras, desde los primeros modelos descritos en el apartado anterior hasta el
momento presente suele ordenarse en cuatro etapas, llamadas comúnmente generaciones.
Los criterios que determinan el paso de una generación a la siguiente no están muy bien definidos, pero
pueden señalarse al menos dos aspectos fundamentales: la forma en que están construidas y la forma en que
el ser humano se comunica con ellas.
Las computadoras de la primera generación emplearon bulbos para procesar información. Los operadores
introducían los datos y los programas en un código especial por medio de tarjetas perforadas. El
almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de
lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y
generaban más calor que los modelos contemporáneos.
Por su parte, la IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas
perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para
comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953,
un producto que tardó algún tiempo es ser comercialmente viable.
En 1954 fue introducido el modelo IBM 650, que es en gran medida la razón por la que IBM disfruta hoy de
una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó
una venta de 50 computadoras, número mayor que la cantidad de computadoras instaladas en esa época en
los Estados Unidos. Sin embargo, la IBM instaló 1000 computadoras. Aunque caras y de uso limitado, las
computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los
años 50, IBM y Remington Rand se consolidaban como los líderes en la fabricación de computadoras.
El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y
con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del
presupuesto de una Compañía.
Las computadoras de la segunda generación utilizaban redes de núcleos magnéticos en lugar de tambores
giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético,
enlazados entre sí, en los cuales se almacenaban datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL, desarrollado durante la generación anterior,
estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a
otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la
computación. Las computadoras de la segunda generación eran sustancialmente más pequeñas y rápidas
que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reserva en líneas
aéreas, control de tráfico aéreo y simulaciones para uso general.
Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como
manejo de inventarios, nómina y contabilidad. La marina de los Estados Unidos utilizó las computadoras de la
segunda generación para crear el primer simulador de vuelo (el Whirlwind I). HoneyWell se colocó como el
primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los años sesenta, se conocieron como el grupo
BUNCH.
Las computadoras de la tercera generación nacieron con el desarrollo de los circuitos integrados (pastillas de
silicio), en los cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las
computadoras se hicieron nuevamente más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos
integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas y
estandarizar sus modelos.
La IBM 360, una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto
análisis numéricos como administración o procesamiento de archivos. Los clientes podían escalar sus
sistemas 360 a modelos IBM de mayor tamaño y podían todavía ejecutar sus programas actuales. Las
computadoras trabajaban a tal velocidad que proporcionaban la capacidad de ejecutar más de un programa
de manera simultánea (multiprogramación). Por ejemplo, la computadora podía estar calculando la nómina y
aceptando pedidos al mismo tiempo.
Con la introducción del modelo 360, IBM acaparó el 70% del mercado. Para evitar competir directamente con
IBM, la empresa Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas.
Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se
desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970.
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de
las memorias con núcleos magnéticos por las de chips de silicio y la colocación de muchos más componentes
en un chip, producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador de chips hizo posible la creación de las computadoras personales (PC). El primer PC, de
IBM, es de 1981. Antes, ya se habían presentado otros dos ordenadores personales: el Apple-II y el Altair
8800. Hoy en día, las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala)
permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un
fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación
que ocupara un cuarto completo.
UNIDAD II COMPUTADORAS EN EL MUNDO ACTUAL
2.1.1 Computadora
Es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud
y rapidez una gran variedad de instrucciones que están organizadas precisamente, de acuerdo a lo indicado
por un usuario. Necesita de datos específicos (input) para proporcionar el producto final (output).
La característica principal que la distingue de otros dispositivos similares, como la calculadora no
programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de
acuerdo a las posibilidades que brinden los lenguajes de programación y el hardware. Debemos distinguir el
hardware del software de una computadora
2.1.2 Informática
Desde los orígenes de las más elementales civilizaciones, el ser humano siempre ha necesitado hacer
cálculos y procesar la información. Para cubrir esa necesidad, a lo largo de los tiempos lo que ha ido
inventando es: sistemas numéricos que permitiesen organizar y manejar esos datos de una forma eficiente,
tecnologías (máquinas) que trataran esos datos: que fuesen capaces de realizar cálculos con mayor velocidad
y facilidad que el hombre.
Dato e información son dos términos que suelen confundirse. Se consideran datos a toda entrada de
información a una computadora. Estos datos pueden ser administrativos, científicos, comerciales, etc. son
elementos primitivos, de los cuales a través del procesamiento se obtiene la información. La computadora se
utiliza para procesar en forma automática y a gran velocidad esos datos. Como resultado del procesamiento
de esos datos se obtiene la información deseada, la cual será útil en la toma de decisiones.
La información se mueve en torno a las organizaciones a través de redes formales e informales. Las redes
formales tienen una infraestructura visible y definida: cables, buzones de correo electrónico, direcciones,... Los
mensajes que estas redes proporcionan incluyen e-mail, servicio de entrega de paquetes, y transmisiones a
través de Internet. Las redes informales son invisibles. Se hacen a medida. Un ejemplo de este tipo de red es
cuando alguien te manda una nota o una copia de un artículo con las siglas “FYI” (For Your Information).
A diferencia de los datos, la información tiene significado (relevancia y propósito). No sólo puede formar
potencialmente al que la recibe, sino que está organizada para algún propósito. Los datos se convierten en
información cuando su creador les añade significado. Transformamos datos en información añadiéndoles
valor en varios sentidos. Hay varios métodos:
Categorizando: conocemos las unidades de análisis de los componentes principales de los datos.
Las computadoras pueden ayudar a añadir valor y transformar datos en información, pero es muy difícil que
puedan ayudar a analizar el contexto de dicha información. Un problema muy común es confundir la
información (o el conocimiento) con la tecnología que la soporta. Desde la televisión a Internet, es importante
tener en cuenta que el medio no es el mensaje. Lo que se intercambia es más importante que el medio que se
usa para hacerlo. Muchas veces se comenta que tener un teléfono no garantiza mantener conversaciones
brillantes.
1. Placa madre (o motherboard): Es el componente principal que conecta y coordina todos los demás
componentes de la computadora.
2. Procesador (o CPU): Es el cerebro de la computadora, encargado de realizar las operaciones y
procesar la información.
3. Memoria RAM: Es la memoria de acceso aleatorio donde se almacenan los datos y programas que
están siendo utilizados en tiempo real.
4. Disco duro (o SSD): Es el dispositivo de almacenamiento principal de la computadora, donde se
guardan permanentemente los archivos y programas.
5. Tarjeta de video (o GPU): Se encarga de procesar y mostrar las imágenes en el monitor,
especialmente importante para tareas gráficas y juegos.
6. Fuente de alimentación: Suministra la energía necesaria para el funcionamiento de todos los
componentes de la computadora.
7. Monitor: Es la pantalla donde se visualiza la información y los gráficos generados por la computadora.
8. Teclado: Permite introducir datos y comandos en la computadora mediante la pulsación de teclas.
9. Ratón (o mouse): Es un dispositivo de entrada que permite controlar el movimiento del cursor en la
pantalla y realizar selecciones y clics.
10. Unidad óptica: Aunque en la actualidad se utiliza menos, algunas computadoras aún cuentan con una
unidad de CD/DVD/Blu-ray para leer y grabar discos ópticos.
11. Tarjeta de sonido: Permite la reproducción de audio y el uso de altavoces o auriculares.
12. Tarjeta de red: Permite la conexión a redes, ya sea por cable o de forma inalámbrica.
13. Puertos USB: Permiten conectar dispositivos externos como impresoras, cámaras, unidades flash,
entre otros.
14. Tarjeta de captura (o capturadora de video): Utilizada para grabar y capturar contenido de video o
audio.
15. Ventiladores y sistema de refrigeración: Mantienen la temperatura adecuada de la computadora,
evitando el sobrecalentamiento de los componentes.
Las computadoras y las redes finalmente nos ofrecieron la posibilidad de escribir. ... Y de hecho escribimos en
nuestros sitios Web, blogs y redes sociales. Pero la capacidad subyacente, en la era de la computación es, de
hecho, programar, lo que casi ninguna persona sabe cómo hacer.
Un software de información no tiene un solo objetivo en común, pues existen diferentes tipos de soluciones
que puedes adaptar a las necesidades actuales de tu negocio y las metas a las que quieres llegar. Tienen la
gran ventaja de ser flexibles y personalizados para que respondan a tu manera de trabajar, de forma más
estratégica y efectiva
La utilización de las computadoras para la realización de tus actividades cotidianas, laborales y escolares, trae
consigo un sin número de ventajas, las cuales se describen a continuación:
La computadora nunca se cansa, distrae, o se enoja.
La información es procesada y almacenada.
Realiza funciones con un índice menor de errores.
Mayor rapidez en información.
Ofrecer a los alumnos conocimientos y destrezas básicas sobre la informática.
Desde el punto de vista del profesor la utilidad es doble:
1) Como usuario: le ayuda en sus tareas administrativas, en la preparación de sus clases, en la
evaluación.
2) Como docente: le ayuda en sus tareas de enseñanza.
Desde el punto de vista del alumno la informática se convierte en un medio de aprendizaje.
Brinda mayor presentación a los trabajos
Por otra parte podrían presentare algunas desventajas con la utilización de las mismas:
Representan una fuerte inversión, ya que los equipos son costosos y requieren el
acondicionamiento del área laboral.
Falta de cultura en cuanto a uso en equipo de cómputo.
El cambio vertiginoso de la tecnología.
La RAM es una memoria volátil, lo que significa que no puede retener información una vez que se apaga el
sistema. Por ejemplo, si copias un bloque de texto, reinicias la computadora y luego intentas pegar ese bloque
de texto en un documento, descubrirás que el equipo ha olvidado el texto copiado. Esto se debe a que solo se
almacenó temporalmente en su memoria RAM.
La memoria RAM hace posible que una computadora acceda a los datos en un orden aleatorio y, por lo tanto,
lee y escribe mucho más rápido que el almacenamiento secundario de una computadora.
La codificación de datos es el proceso de convertir información en un formato legible por un ordenador para su
almacenamiento y procesamiento. Hay que tener en cuenta que existen varios tipos de codificación de datos:
1. Codificación binaria:
Esta es la codificación más básica que utiliza sólo dos símbolos, 0 y 1, para representar información. Es
comúnmente utilizado en sistemas digitales de computadoras.
2. Codificación de caracteres:
Este tipo de codificación utiliza un conjunto de caracteres para representar información. ASCII y Unicode son
ejemplos comunes de codificación de caracteres.
3. Codificación de imágenes:
Las imágenes se pueden codificar utilizando diferentes formatos, como JPEG, PNG, BMP, etc. Cada formato
de imagen utiliza diferentes algoritmos de compresión y descompresión.
4. Codificación de audio:
El audio se puede codificar en diferentes formatos, como MP3, WAV, AAC, etc. Cada formato de audio utiliza
diferentes algoritmos de compresión y descompresión.
5. Codificación de video:
El video se puede codificar en diferentes formatos, como AVI, MP4, MKV, etc. Cada formato de video utiliza
diferentes algoritmos de compresión y descompresión.
Por otro lado, en el caso de tener que realizar una investigación, la codificación de datos se refiere al proceso
de asignar categorías o códigos a los datos recopilados durante la etapa de estudio. Esto se hace para
facilitar el análisis de los datos y encontrar patrones, temas y relaciones entre las variables. La codificación de
datos puede ser realizada manualmente o con software especializada.
Los datos pueden ser codificados en diferentes niveles, desde categorías amplias hasta subcategorías más
específicas. Es importante que la codificación de datos sea consistente y precisa para garantizar que los
resultados de la investigación sean confiables y válidos. Ya sea una codificación manual o automatizada, ¿por
qué se requiere la codificación de datos cualitativos? La codificación de datos cualitativos hace que la
información desorganizada sea cuantificable y contrastable. Esto prueba que los datos recopilados reflejan
con precisión las necesidades y preferencias del usuario.
• Nos permite distinguir entre cada proceso sin alterarlo ni cometer errores.
• Busca establecer conexiones entre códigos, permitiendo realizar análisis de los elementos codificados y la
elaboración de informes.
• Podemos utilizar señales, etiquetas y otras técnicas de búsqueda para localizar más rápidamente los
elementos codificados.
• Se ajusta a nuestro sistema informático, al método de trabajo que utilizamos, así como al área profesional
a la que pertenezcamos
• Mantiene nuestras tareas organizadas y minimizadas en la mayor medida posible para que su manejo no
sea problemático.
• Nos permite atenuar el ruido que se produce mientras trabajamos (carpetas vacías, procesos sin sentido,
etc.).
• Se ajusta a nuestros requerimientos para que podamos utilizarlo de manera más eficiente.
• Los sistemas de codificación se pueden modificar para que funcionen con las herramientas y tecnologías
que tengamos en ese momento.
El almacenamiento se refiere a los dispositivos que permiten grabar la información que generalmente se
encuentre en la RAM, y que tanto el usuario como el sistema operativo, disponen de ellos para su trabajo y
operación diarios. Pfaffenberger (1990) hace referencia a este tipo de almacenamiento como no volátil, es
decir, que tanto los programas como los datos no desaparecen, incluso cuando la computadora se apaga.
Esto significa, que el usuario puede guardar sus programas e información con la seguridad de que no se
borrarán aun cuando la computadora no esté encendida. Actualmente, los dispositivos de almacenamiento
más comunes son el disco duro, la memoria flash (conocida como memoria USB), el disco compacto y el DVD
regrabables. Estos dispositivos tienen la particularidad de grabar permanentemente o borrar la información si
así lo desea el usuario.
Las unidades componentes del ordenador se encuentran interconectadas por unos circuitos que permiten el
transporte físico de las distintas informaciones presentes en la ejecución del proceso. Estos circuitos reciben
el nombre de buses. Dentro de la arquitectura del ordenador se tienen tres buses:
Bus de datos: Transporta los datos desde la memoria hasta las distintas unidades de proceso y
viceversa.
Bus de direcciones: Transporta las direcciones de las posiciones de la memoria que intervienen en una
operación.
Bus de control: Transporta señales de control desde la Unidad de Control a las distintas unidades de
trabajo y viceversa.
Para la comunicación de la CPU con el exterior hay una serie de elementos situados en la propia CPU donde
se conectan los periféricos, son los puertos de entrada/salida. Cuando se deben enviar datos desde la
memoria a un puerto y viceversa, se emplean unos buses de datos utilizados para las entradas y salidas.
Unidad de Control
Las funciones principales de este elemento son el control, la coordinación y la interpretación de las
instrucciones que componen un programa. Las instrucciones que componen un programa en su conjunto
forman lo que se denomina el lenguaje-máquina.
Una instrucción de máquina tiene varias partes. Por un lado posee un código de operación que le indica a la
Unidad de Control qué operación debe hacerse con los datos. Por otro lado también posee dos direcciones de
memoria que indican la localización de esos datos. Las instrucciones que componen un programa están
almacenadas en la memoria central, ordenadas en posiciones de memoria consecutivas.
La UC extrae las instrucciones de la memoria, las interpreta y las manda por medio de señales a las restantes
unidades del ordenador. Por lo que la Unidad de Control se encarga también de controlar las operaciones de
las Unidades de Entrada/Salida (E/S) y las Aritmético-Lógicas.
La Unidad de Control lleva además un reloj electrónico, llamado reloj de sistema, que oscila con
una frecuencia de millones de veces por segundo. La velocidad a la que el procesador realiza las operaciones
viene determinada por dicho reloj. La velocidad de oscilación se mide en gigahertzios (GHz), es decir mil
millones de ciclos por segundo.
Unidad Aritmético-Lógica.
La ALU efectúa las operaciones aritméticas por medio de unos circuitos electrónicos que componen los
siguientes dispositivos: dispositivo de adición, registros y dispositivo de control de cálculo.
El dispositivo de adición sirve para calcular las operaciones de suma, resta, multiplicación y división.
Esto es así ya que estas tres últimas operaciones se pueden efectuar mediante sumas sucesivas o
cambiando el signo en la operación de sumar.
Los registros se utilizan para contener los operandos, los resultados parciales que se van obteniendo
en las distintas operaciones y los resultados finales.
El dispositivo de cálculo dirige y controla las operaciones de cálculo que se realizan en la ALU.
Para realizar las comparaciones la ALU dispone de un circuito llamado comparador, que es capaz de
detectar si dos datos son iguales, o cuál de los dos es el mayor o el menor.
La Unidad de Control también se encarga de controlar otras operaciones como son el transporte de los
resultados, comenzar la operación siguiente, etc.
3.2Memoria
Memoria Primaria (RAM – ROM) En la Memoria Primaria de la computadora se encuentran las memorias
RAM, ROM y CACHÉ.
La Memoria RAM (Random Access Memory - Memoria de Acceso Aleatorio) es un circuito integrado que
almacena los programas, datos y resultados ejecutados por la computadora y de forma temporal, pues su
contenido se pierde cuando esta se apaga. Se llama de acceso aleatorio - porque se puede acceder a
cualquier posición de memoria sin necesidad de seguir un orden. La Memoria RAM puede ser leída y escrita
por lo que su contenido puede ser modificado.
La Memoria ROM (Read Only Memory - Memoria de sólo lectura) viene grabada con una serie de programas
por el fabricante de hardware y es sólo de lectura, por lo que no puede ser modificada - al menos no muy
fácilmente - y tampoco se altera por cortes de corriente. En esta memoria se almacenan los valores
correspondientes a las rutinas de arranque del sistema y su configuración.
La Memoria Caché es una memoria auxiliar de alta velocidad, que no es más que una copia de acceso rápido
de la memoria principal almacenada en los módulos de RAM.
Memoria Secundaria (Disco Duro, Disco Flexibles, etc.) La Memoria Secundaria (también llamada Periférico
de Almacenamiento) está compuesta por todos aquellos dispositivos capaces de almacenar datos en
dispositivos que pueden ser internos como el disco duro, o extraíble como los discos flexibles (disquetes),
CDs, DVDs, etc.
La jerarquía de memoria es la organización piramidal de la memoria en niveles que tienen las computadoras.
El objetivo es acercarse el rendimiento de una memoria de gran velocidad al coste de una memoria de baja
velocidad, basándose en el principio de cercanía de referencias.1
Integral a DASD – pronunciado DAZ-dee – es el concepto de acceso directo, que se refiere a cómo se accede
a los datos en un dispositivo de almacenamiento. Con acceso directo, los datos se pueden escribir o leer
desde los medios de almacenamiento yendo directamente a una ubicación física específica en el dispositivo.
Un dispositivo de almacenamiento de acceso directo incluye los mecanismos que permiten operaciones de
lectura y escritura en cualquier ubicación direccionable del dispositivo.
El acceso directo significa no tener que buscar secuencialmente a través de los datos.
Con el acceso secuencial, se accede a los datos comenzando en una ubicación y luego pasando por
ubicaciones sucesivas hasta que se encuentran los datos. Un sistema de almacenamiento en cinta, como el
que se usa para archivar datos, es un ejemplo de un dispositivo de almacenamiento de acceso secuencial,
que es inherentemente más lento que DASD.
En el lenguaje informático se consideran periféricos a aquellos dispositivos auxiliares que son independientes
de la unidad central de procesamiento o CPU de un ordenador.
Los periféricos son por tanto un conjunto de dispositivos electrónicos físicos que, sin pertenecer al núcleo
fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de
entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.
Pero no podemos pensar en los periféricos como elementos independientes y no esenciales. Existen
periféricos que son elementos fundamentales para cualquier sistema informático tales como el monitor, el
teclado, etc.
Los periféricos pueden clasificarse en 3 categorías principales según la función que realizan:
Periféricos de entrada: Captan y digitalizan los datos introducidos por el usuario o por otro dispositivo y
los envían al ordenador para ser procesados. Los más conocidos son el teclado, el ratón (mouse),
escáner, cámara web, cámara digital, etc.
Periféricos de salida: Son dispositivos que muestran o proyectan información hacia el exterior del
ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta
información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible
para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
El monitor, la impresora, el fax, los altavoces, los auriculares, son periféricos de salida ya que
proyectan al usuario información.
Actualmente, los dispositivos de almacenamiento más comunes son el disco duro, la memoria flash (conocida
como memoria USB), el disco compacto y el DVD regrabables. Estos dispositivos tienen la particularidad de
grabar permanentemente o borrar la información si así lo desea el usuario.
Súper computadoras:
Macro computadoras
Mini computadoras
Micro computadoras
Supercomputadoras: Una supercomputadora es el tipo de computadora más potente y más rápido que existe
en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en
poco tiempo y son dedicadas a una tarea específica (científica, militar, etc.) Asimismo son las más caras, sus
precios alcanzan los $ 30 millones de dólares y más; y cuentan con un control de temperatura especial, para
disipar el calor que algunos componentes pueden alcanzar.
Algunos ejemplos de tareas a las que son expuestas las supercomputadoras son:
Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.
Macrocomputadoras – Mainframes: Las macro computadoras son también conocidas como Mainframes.
Los mainframes son grandes, rápidos y caros sistemas, capaces de controlar cientos de usuarios
simultáneamente, así como cientos de dispositivos de entrada y salida.
De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más
programas simultáneamente, en cambio las supercomputadoras pueden ejecutar un sólo programa más
rápido que un mainframe.
En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día,
un Mainframe es parecido a una hilera de archiveros ubicados en un cuarto con piso falso, para ocultar los
cientos de cables de los periféricos, y su temperatura tiene que ser controlada.
Minicomputadoras:
Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un
Mainframe, y esto ayudó a reducir el precio y costos de mantenimiento.
Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones
multiusuario.
Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en
las oficinas, escuelas y hogares.
El término PC se deriva de que para el año de 1981, IBM, sacó a la venta su modelo "IBM PC", la cual se
convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los
clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando
procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de
programas.
UNIDAD IV SOFTWARE
Los sistemas operativos son los programas encargados de administrar y gestionar de manera eficiente
todos los recursos de un ordenador y otros dispositivos. También se les conoce como software de sistema, y
su función comienza nada más encender el dispositivo en el que están instalados. Comienza entonces su
tarea de gestionar el funcionamiento del hardware del equipo. También, de poner en marcha las
herramientas y funciones que hacen que un ordenador pueda comunicarse e interactuar con quien lo está
utilizando, y viceversa.
En la actualidad, además de en los ordenadores, hay sistemas operativos en cualquier dispositivo en el que
haya un procesador instalado: Smartphone, tablets, reproductores multimedia, e incluso coches y televisores.
Pero, básicamente, la función de casi todos es la misma: ofrecer a sus usuarios una interfaz para interactuar
con el equipo. También se encarga de administrar sus recursos, archivos y tareas, así como de realizar
diversas tareas de soporte. Entre ellas, la actualización de las versiones de programas y del propio sistema
operativo, la gestión de su seguridad y el control de los periféricos que puedan conectarse al dispositivo.
Dentro de los distintos tipos de sistemas operativos, hay varios que podemos considerar básicos. Son los más
utilizados, tanto para ordenador como para dispositivos móviles. Dentro de los primeros están Windows, para
PC; Mac OS, que es el sistema operativo de los ordenadores de Apple; y Linux, también para PC, que está
disponible en varias versiones de funcionamiento similar. De estos tres, el más utilizado y popular es
Windows, de Microsoft, sobre todo por su facilidad de manejo e instalación. Su actualización también es muy
sencilla, y además suele venir preinstalado en muchos ordenadores, lo que facilita su difusión. Para
dispositivos móviles, los más utilizados son iOS y Android. El primero está incluido en las tablets y
Smartphone de Apple, mientras que el segundo lo lleva la inmensa mayoría de móviles y tablets del resto de
fabricantes.
Los que los principales sistemas operativos son los siguientes:
Este tipo de sistema operativo se caracteriza porque se encarga de ejecutar los procesos sin necesidad de
que el usuario del sistema tenga que interactuar con el ordenador de manera directa. El sistema cuenta con
un operador encargado de agrupar y dividir en varios lotes los trabajos que tienen que realizar, en función de
su similitud.
Se trata de un sistema que pueden emplear varios usuarios, y que presenta un nivel de inactividad bajo. Se
emplea sobre todo para el proceso de tareas de gran envergadura que pueden dividirse en varios lotes. Este
tipo de sistemas se utiliza sobre todo en determinados entornos empresariales, en operaciones como la
gestión de nóminas, o la generación de estados de cuentas en los bancos.
Esta clase de sistema operativo permite la ejecución de distintas tareas al mismo tiempo, tanto de un solo
usuario como de varios. Así, cuando el sistema termina de ejecutar una tarea, ya sea de un usuario o de
varias, continúa con la siguiente que tiene en espera. Un ejemplo de este tipo de sistema operativo es Unix.
Un sistema operativo en tiempo real es el que deja un espacio de tiempo muy pequeño para el proceso de
entradas, así como para darles respuesta. Se usan en sistemas que tienen unos requisitos muy elevados de
tiempo de respuesta, y muy estrictos. Entre otros escenarios, se emplean en robots, sistemas encargados del
control del tráfico aéreo o sistemas industriales. También, en determinados tipos de experimentos científicos.
Sistemas distribuidos
Estos trabajan con varios dispositivos a la vez, cada uno con su procesador, con el fin de ofrecer a sus
usuarios una potencia elevada de computación. También la posibilidad de realizar cálculos y procesos de una
manera muy veloz. Son sistemas que se han desarrollado hace relativamente poco tiempo, y permiten a sus
usuarios el acceso a ficheros y programas que no están instalados o almacenados en el equipo que utilizan en
un momento dado, pero que están en otros equipos que estén conectados al mismo sistema operativo que
tiene el que están empleando. Esto quiere decir que cuenta con funciones de acceso remoto dentro de una
misma red.
Son los que se ejecutan y administran en un servidor. A través de estos sistemas operativos se pueden
gestionar distintas funciones de red, así como usuarios, grupos o datos. También, la seguridad de todos los
equipos conectados a la red local o privada que tienen conexión con este servidor.
Son los que se han creado y desarrollado para dispositivos móviles, fundamentalmente móviles y tablets, pero
también relojes inteligentes. Los más conocidos son Android y iOS, como hemos visto, pero también hay otros
como webOS y watchOS, para relojes inteligentes.
En otras palabras, el lenguaje de programación es una herramienta que le permite al programador escribir
instrucciones que la computadora pueda entender y ejecutar para realizar una tarea específica.
En esta categoría se encuentran los más utilizados. Se usan palabras del inglés lo cual facilita que una
persona pueda intervenir más fácil que en los dos anteriores.
Según su generación y orden cronológico, los lenguajes de programación de alto nivel se clasifican en:
Segunda generación: aquí encontramos los primeros lenguajes de programación de alto nivel,
ejemplos de ellos son FORTRAN, COBOL.
Tercera generación: en esta generación encontramos los lenguajes de programación de alto nivel
imperativo, pero mucho más utilizados y vigentes en la actualidad (ALGOL 8, PL/I, PASCAL,
MODULA).
Quinta generación: estos son los más avanzados y fueron pensado para la inteligencia artificial y
para el procesamiento de lenguajes naturales (LISP, PROLOG).
Existen, en la actualidad, varios lenguajes de programación, pero destacaremos los más importantes de
acuerdo con el índice TIOBE (estudio realizado por una empresa holandesa que analiza los lenguajes de
programación más usados a nivel mundial).
A continuación, conoce los 6 más usados, sus objetivos y segmentos de uso actualmente.
1. Java
Él se ha mantenido a lo largo del siglo XXI en las primeras posiciones, lo cual da una idea de lo importante
que ha sido este lenguaje de programación en lo que utilizamos hoy en día.
También es una de las habilidades más requeridas entre desarrolladores, tanto es así que es del más
importante skill que buscan las principales empresas de software y tecnología.
Es utilizado en diferentes segmentos, tales como aplicaciones móviles, herramientas para aprendizaje, hojas
de cálculo, entre otras.
2. Lenguaje de programación C
3. Python
Un lenguaje de programación multiplataforma y multiparadigma, que también tiene un propósito general. Esto
significa que soporta la orientación a objetos, la programación imperativa y funcional.
Su sencillez, legibilidad y similitud con el idioma inglés lo convierten en un gran lenguaje, ideal para
principiantes.
4. C++
Este, sin embargo, tiene un enfoque en desarrollo de aplicaciones y softwares más complejos, que exigen, por
ejemplo, una intervención visual.
Los programas de diseño gráfico son un ejemplo del uso de este lenguaje de programación.
5. C#
Conocido también como “C Sharp” entre los programadores, también es una evolución de C y C++.
Ha tenido una rápida evolución en número de usuarios en los últimos años. Conocido por ser una herramienta
mucho más amigable, que no exige tanto conocimiento como, por ejemplo, el C#.
Por su sencillez, es bastante utilizado para herramientas de automatización de procesos y aplicaciones web,
por ejemplo.
7. SQL
8. PHP
9. Ruby
11. Rust
12. TypeScript
13. Swift
14. Perl
17. Scheme
18. Erlang
19. Elixir
20. Pascal
21. Postscript
22. Haskell
23. Objective-C
24. Scala
25. Lava
El término software de aplicación se refiere al programa que realiza funciones específicas para un usuario,
que interactúa directamente con este.
El objetivo principal de este tipo de tecnología es ayudar a las personas y empresas a realizar tareas
específicas de una manera mucho más rápida, segura y, en ocasiones, con el uso de inteligencia artificial.
Este tipo de programa informático, también conocido como software de usuario final, permite ejecutar
funciones que pueden ser personales, comerciales o educativas.
Entonces, cada programa se desarrolla para ayudar a los usuarios con algún proceso particular relacionado
con la productividad, la eficiencia y la comunicación.
La mayoría de las aplicaciones que vemos en nuestros teléfonos inteligentes están dentro de esta categoría, y
luego de leer sobre este tipo de software seguro ya tienes algunos ejemplos en mente.
Apps como Microsoft Word y Excel, así como navegadores web populares como Firefox y Google Chrome,
son buenos modelos a resaltar.
También engloba la categoría de aplicaciones móviles, que incluye servicios como WhatsApp para la
comunicación y reproductores multimedia como VLC.
1. Software de presentación
Este tipo de software de aplicación nos permite representar pensamientos e ideas con facilidad y claridad
mediante el uso de información visual.
En este caso, podrás checar los datos en diapositivas y hacer que estas sean más informativas y atractivas
agregando texto, imágenes, gráficos y videos. Tiene tres componentes:
2. Navegadores web
Los navegadores web son software de aplicación que se utilizan para navegar por Internet para localizar y
recuperar datos en la web.
Entre los más populares encontramos a Google Chrome, Firefox, MS Edge y Safari.
3. Programas multimedia
El software multimedia permite crear o grabar imágenes, archivos de audio o video. Se usan ampliamente en
animación, gráficos, imágenes y edición de video.
Existen claros ejemplos de programas multimedia como lo es el VLC y Windows Media Player. Seguramente
los usaste en alguna ocasión, ¿a poco no?
También denominado software académico, está diseñado específicamente para facilitar el aprendizaje de un
tema en particular.
En esta clasificación, podemos ver diferentes tipos de programas de tutoriales como, por ejemplo, JumpStart,
MindPlay y Kid Pix.
5. Software de gráficos
Nos permite editar o realizar cambios en datos visuales o imágenes. Comprende un software de ilustración y
edición de imágenes.
¿Conoces Adobe Photoshop y PaintShop Pro? Pues, estos son algunos ejemplos de software de gráficos.
En estas aplicaciones, podemos almacenar datos en formato de tabla; el área de intersección, denominada
celdas, se separa para definir campos como texto, fecha, hora y número.
A través de fórmulas y funciones, los usuarios pueden hacer cálculos de forma sencilla, para gestionar y
visibilizar grandes cantidades de datos.
Así es, en esta categoría encontramos a nuestros grandes amigos Microsoft Excel y Google Sheets.
Es aplicado para crear y administrar una base de datos. También conocido como DBMS (Sistema de gestión
de bases de datos), nos ayuda a organizar toda la información en un mismo lugar.
Entonces, cuando ejecutamos una App, la información se obtiene de la base de datos, se modifica y se
almacena nuevamente en esta.
Oracle, MySQL, Microsoft SQL Server, PostgreSQL, MongoDB e IBM Db2 son algunas de las bases de datos
más populares.
Este tipo de programa también es usado para formatear y embellecer el texto, brinda una gran cantidad de
funciones, como los diccionarios de sinónimos y antónimos. Además, las opciones de fuente nos dejan
cambiar el color, el efecto y el estilo de la fuente a elección. Las opciones de corrección de gramática y
ortografía también están disponibles para comprobar si hay errores. Los principales ejemplos incluyen
Documentos de Google y Microsoft Word.
9. Software de simulación
Se emplea en los campos de la ingeniería militar, la educación práctica en determinadas industrias, las
pruebas de maquinaria, la formación industrial y los videojuegos, entre muchísimos otros.
Es empleado cuando el trabajo en el sistema real o el entorno físico puede ser peligroso. Así, se trata de un
programa que nos permite estudiar u observar una operación o fenómeno a través de la simulación sin
realizar realmente esa operación.
Los mejores ejemplos de simulación se encuentran en el campo de la robótica, los sistemas de vuelo y el
pronóstico del tiempo. Las tecnologías de Realidad Aumentada (AR) y Realidad Virtual (VR) también son
tecnologías aplicadas para desarrollar software de aplicación que admiten simulaciones.
Los software de aplicación para las empresas son la categoría específica que las organizaciones utilizan
principalmente para fines comerciales.
En definitiva, están desarrollados específicamente para facilitar funciones de negocios particulares. Su uso le
brinda a las organizaciones un conjunto de beneficios, que incluyen productividad mejorada, eficiencia,
precisión e informes periódicos para el análisis comercial.
El Customer Relationship Management gestiona la interacción de la empresa con sus clientes actuales y
potenciales.
Además, ayuda a recopilar, analizar y crear estrategias para una gran cantidad de datos de clientes para el
crecimiento del negocio.
Enterprise Resource Planning es un software y un sistema donde podemos manejar todas las actividades
principales y otros procesos comerciales de una organización.
Un software ERP puede automatizar y simplificar las actividades comerciales, como adquisiciones y
contabilidad, gestión de riesgos, gestión de proyectos, cumplimiento y gestión de la cadena de suministro.
4. Base de datos
Un software de base de datos, también conocido como sistema de gestión de base de datos (DBMS), está
diseñado para crear una base de datos y almacenar, buscar, manipular y extraer los datos cruciales de una
organización.
El software Business Process Management, también conocido como software BPM, es una herramienta de
automatización de procesos. Define, informa y automatiza los procesos destinados a mejorar el desempeño
de una organización.
Ayuda a planificar los recursos, el capital y el personal para completar proyectos sin problemas. También
asiste en la gestión de múltiples proyectos y garantiza que todo se asigne en tiempo real.
7. Software educativo
El software educativo se refiere a aquellos que se desarrollan con fines educativos y de capacitación.
8. Software de productividad
El software de productividad ayuda a los usuarios a realizar sus tareas de manera más eficiente y puntual;
entre sus categorías encontramos la colaboración, gestión del tiempo, gestión de bases de datos y creación
de documentos.