Está en la página 1de 395

Procesamiento de Datos

- Integridad de los datos


- Modelado de datos
- Almacenamiento de datos
- Minería de datos
General
Procesamiento de datos se diferencia de la conversión de datos, cuando el proceso
es simplemente para convertir datos a otro formato, y no implica ninguna
manipulación o procesamiento de datos.

Terminología

Un bit es la unidad básica de almacenamiento de datos informáticos. Los bits se


agrupan en bloques de ocho para formar bytes, que pueden almacenar un valor que la
computadora puede interpretar como caracteres o calidad de la información.
Un campo es un elemento de información que puede almacenarse. Son
colecciones de bytes que almacenan las características de una entidad (para describir
una entidad), por ejemplo una persona, un ordenador, un coche etc.
Un registro consta de dos o más valores o variables almacenados en posiciones
consecutivas de memoria.
Un archivo está compuesto por una colección de registros.
Una base de datos es una colección integrada de registros relacionados
lógicamente, o archivos que consolidan los registros previamente almacenados en
archivos separados en un fondo común de los registros de datos que proporciona
datos para muchas aplicaciones.

Definiciones
Los datos pueden ser cualquier número o carácter que puede representar los valores
de las mediciones o los fenómenos observables. Un solo dato es una medición de un
fenómeno observable.
La información medida es deducida algorítmicamente derivada y/o lógica y/o
calculada estadísticamente a partir de múltiples datos (pruebas). La información es
una respuesta a una pregunta o un significativo estímulo que puede dar lugar a
nuevas preguntas.
Por ejemplo, la recolección de datos sísmicos conduce a la alteración de los datos
sísmicos para suprimir el ruido, mejorar la señal de los fenómenos sísmicos y migrar a
la ubicación adecuada en el espacio.
Suelen incluir los pasos de procesamiento de análisis de las velocidades y
frecuencias, correcciones estáticas, entre otros. El procesamiento de datos sísmicos
facilita una mejor interpretación, debido a que las estructuras del subsuelo y
geometrías de reflexión son más evidentes.

Datos vs Información
Los datos consisten en nada más que hechos (organizados o no organizados) que
luego pueden ser manipulados en otras formas para que sean útiles y comprensibles,
convirtiendo los datos en información.
El proceso de manipulación de hechos a información se conoce como
"procesamiento". Para ser procesado por una computadora, los datos deben primero
ser convertidos en un formato legible por máquina. Una vez que los datos están en
formato digital, se pueden aplicar varios procedimientos sobre los datos para obtener
información útil.
El procesamiento de datos puede involucrar varios procesos, incluyendo:
 Resumen de datos
 Agregación de datos
 Validación de datos
 Tabulación de datos
 Análisis estadístico

El procesamiento de datos puede o no puede distinguirse de la conversión de datos,


que implica el cambio de datos en otro formato, y no implica ninguna manipulación de
datos.
Durante el procesamiento, los datos brutos se utilizan como una entrada para producir
información como una salida, normalmente en forma de informes y otras herramientas
analíticas.

El análisis de datos

Cuando el dominio desde el que se recogen los datos es una ciencia o ingeniería, el
procesamiento de datos y de sistemas informativos se consideran términos
demasiado amplios, y el término más especializado, análisis de datos se suele utilizar,
centrándose en la altamente especializada y altamente precisa derivación algorítmica
y cálculos estadísticos que se observan con menos frecuencia en el típico entorno
empresarial.
En estos contextos, el análisis de datos de formatos json, csv o xml se utilizan con
frecuencia. Esta divergencia de nomenclatura se expone en las típicas
representaciones numéricas utilizadas en el procesamiento de datos numéricos.
Las Mediciones de procesamiento de datos normalmente están representados por
números enteros o de punto fijo con código binario o representaciones de los números
decimales, mientras que la mayoría de las mediciones del análisis de datos son a
menudo representados por representación de punto flotante de los números
racionales.

Tratamiento de datos

Prácticamente todos los procesos naturales pueden considerarse como ejemplos de


sistemas de tratamiento de datos donde la "información observable" en forma de
presión, luz, etc. se convierte en señales eléctricas en el sistema nervioso.
En los sentidos lo reconocemos como el tacto, el sonido, y la visión. Incluso en la
interacción de los sistemas vivos rudimentarios se pueden ver esta una forma básica
de sistemas de procesamiento de la información.
El uso convencional de los términos de procesamiento de datos y sistemas de
información limitan su utilización para referirse a las derivaciones algorítmicas,
deducciones lógicas, y los cálculos estadísticos que se repiten en los entornos
empresariales, en lugar de el más amplio sentido, que es la conversión de todas las
mediciones del mundo real en información del mundo real, por ejemplo, también en un
sistema biológico orgánico o incluso un sistema científico o de ingeniería.

Elementos del procesamiento de datos


Con el fin de ser procesados por un ordenador, en primer lugar los datos necesitan
ser convertidos en un formato legible por máquina.
Una vez que los datos están en formato digital, diversos procedimientos pueden
aplicarse a los datos para obtener información útil. Procesamiento de datos pueden
implicar diferentes procesos, entre ellos:

 Entrada de datos
 Captura de datos
 Tipos de datos
 La depuración de los datos
 Integridad de los datos
 Codificación (cifrado) de datos
 Transformación de datos
 Traducción de datos
 Resúmenes de datos
 Agregación de datos
 Validación de datos
 Modelado de datos
 El análisis de datos
 El análisis de datos estadístico
 Visualización de datos
 Almacenamiento de datos
 Minería de datos
 Interpretación de datos

Sistema de procesamiento
de datos
Publicado en septiembre 7, 2011 por edukativos Publicado en Ingenierías

Contenido: Sistema. Procesamiento. Procesamiento primario de datos. Procesamiento


secundario de datos. Funciones. Usos de un sistema de procesamiento de datos.

Sistema
Un sistema es un objeto compuesto cuyos componentes se relacionan con al menos algún
otro componente; puede ser material o conceptual. Todos los sistemas tienen composición,
estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos
sistemas materiales tienen figura (forma). Según el sistemismo, todos los objetos son sistemas
o componentes de algún sistema.

Por ejemplo, un núcleo atómico es un sistema material físico compuesto de protones y


neutrones relacionados por la interacción nuclear fuerte; una molécula es un sistema material
químico compuesto de átomos relacionados por enlaces químicos; una célula es un sistema
material biológico compuesto de orgánulos relacionados por enlaces químicos no-covalentes y
rutas metabólicas; una corteza cerebral es un sistema material psicológico (mental)
compuesto de neuronas relacionadas por potenciales de acción y neurotransmisores; un
ejército es un sistema material social y parcialmente artificial compuesto de personas y
artefactos relacionados por el mando, el abastecimiento, la comunicación y la guerra; el anillo
de los números enteros es un sistema conceptual algebraico compuesto de números positivos,
negativos y el cero relacionados por la suma y la multiplicación; y una teoría científica es un
sistema conceptual lógico compuesto de hipótesis, definiciones y teoremas relacionados por la
correferencia y la deducción.

Procesamiento
Se entiende por procesamiento al acto judicial por el que un juez o tribunal resuelve la
imputación de uno o más delitos contra una persona física o jurídica en virtud del cual se
concluye la fase de instrucción y preparación del sumario en un procedimiento judicial.

Con este acto se pasa a la fase siguiente del proceso penal, el juicio, una vez se han tomado
las declaraciones testificales y se han aportado el conjunto de pruebas precisas, sean de
cargo o de descargo.

El procesamiento no implica necesariamente la culpabilidad del acusado, cuestión que se


resuelve al finalizar el juicio.

No obstante, el procesamiento requiere una fuerte convicción del juez o tribunal respecto a los
cargos formulados que deben sostenerse en el sumario de forma coherente y precisa e
implica la existencia de indicios racionales de criminalidad.

Procesamiento primario de datos


La meta del procesamiento primario de datos es producir archivos de datos depurados y
editados.

El procesamiento primario de datos comprende los siguientes pasos:

– Ingresar en un archivo de datos todos los cuestionarios de un conglomerado


– Revisar la estructura del archivo de datos
– Ingresar los datos por segunda vez y luego verificar el archivo de datos
– Respaldar el archivo de datos revisado y verificado
– Llevar a cabo la edición secundaria del archivo de datos
– Respaldar el archivo de datos editado o final

El flujo del procesamiento primario de datos se resume en el diagrama de flujo de la página


anterior. Tome cuidadosa nota sobre el hecho que la revisión de la estructura, la verificación
del ingreso de datos y la edición secundaria son procedimientos iterativos que se repiten hasta
que los problemas se hayan resuelto o se haya establecido que son aceptables.

Procesamiento secundario de datos


La meta del procesamiento secundario de datos es producir archivos de análisis de datos y
crear las tablas estándar de MICS3.

El procesamiento secundario de datos comprende los siguientes pasos:

Concatenar todos los archivos de datos de los conglomerados en un solo archivo de datos:

– Exportar los datos a SPSS


– Calcular los factores de ponderación
– Computar el índice de riqueza
– Recodificar las variables para simplificar el análisis
– Crear las tablas necesarias para analizar los datos
– Archivar y distribuir los archivos de datos

Funciones
Dentro de una empresa, el Centro de proceso de Datos cumple diversas funciones que
justifican los puestos los puestos de trabajo establecidos que existen en él.

Explotación de sistemas o aplicaciones: La explotación u operación de un sistema informático o


aplicación informática consiste en la utilización y aprovechamiento del sistema desarrollado.

Consta de previsión de fechas de realización de trabajos, operación general del sistema,


control y manejo de soportes, seguridad del sistema, supervisión de trabajos, etc.

Usos de un sistema de procesamiento de


datos
Procesar datos es generar información para la toma de decisiones.

Para llegar a comprender la correcta definición de procesamiento de datos, podemos hablar


del modelo matemático. Esto es la representación de algo mediante números y operaciones
entre estos.

¿Para qué sirve el modelo matemático? Por ejemplo, una venta no puede verse literalmente,
entonces, el modelo matemático hace una factura, que representa un acto de compra-venta.
Esta es la manera en que una situación que no puede representarse, se resuelve usando un
sistema.

En realidad, esto se transmite en todos los órdenes de la vida. Por ejemplo, los conocimientos
que uno tiene son siempre relativos a un modelo.

Lo que tenemos que aprender de Sistema de Procesamiento de Datos son sus elementos
invariantes: dato, proceso y concepto de información. Todo eso conforma un modelo.
El resto depende de nosotros y nuestra voluntad de hacer algo.

Los datos los ponemos nosotros, los programas los inventamos nosotros y los resultados,
nosotros los obtenemos. Es decir que el proceso empieza y termina con nosotros.
Entonces, podemos decir que procesar datos es:

Elaborar las normas administrativas necesarias para que el dato llegue al proceso en tiempo y
forma.
Ejemplo que manifiesta claramente el asunto, es el siguiente: Si Marta viene, mira por la
ventana y cuenta la cantidad de alumnos que hay, entonces sabría cuántos han venido, y
hasta podría entregar la lista hoy mismo. El dato estaría en tiempo, pero no en forma.

Entonces, el ingreso de datos en tiempo y forma implica el proceso de los mismos, y este
último implica la comprensión de la información de la validez de ese dato. En definitiva, el
proceso de datos lleva al control de calidad de la información que tengo.

Un ejemplo del control de calidad estaría dado de la siguiente manera: si me están ingresando
alturas de personas, debo poder darme cuenta de que seis metros es una altura errónea.
Saber qué se va a hacer con ese dato.

Cada proceso atiende a la obtención de una información determinada. Una vez obtenido el
proceso, alguien observa el resultado que obtuvo nuestro sistema y analiza su coherencia.

Por ejemplo, en una fábrica, es el control de calidad lo que lleva a la clasificación entre
productos de primera y segunda selección.

Con los datos pasa lo mismo, si son de segunda selección no se desechan, a veces se
entregan al usuario para que lo reforme o lo intentamos reformar nosotros.

Fuentes: es.wikipedia.org / nbrolando.com.ar / childinfo.org

Procesamiento de datos
Enviado por Pablo Jara

Partes: 1, 2
1. Generalidades
2. Ciclos del procesamiento de datos
3. Operaciones en el procesamiento de datos
4. Hardware y software
5. Desarrollo del procesamiento de datos
6. Desarrollo del software
7. Carreras en el campo del procesamiento de datos

Generalidades
Los datos son un conjunto de hechos, es decir unidades individuales de información. Estos
datos pueden ser:
Numéricos: Dentro de estos tenemos, Reportes de ventas, cifras de los inventarios, notas en los
exámenes, etc.
No Numéricos: dentro de estos tenemos, Nombres y direcciones de los clientes, las fotografías,
los dibujos, los mapas, etc.
El "procesamiento de datos" es el manejo de estos datos en una forma mas útil.
Incluye operaciones por medio de una maquina (ordenador) o manualmente, como cálculos
numéricos, clasificación y transmisión de datos de un lugar a otro, etc. Los sistemas de
procesamiento de datos se pueden clasificar de la siguiente manera:
Sistema de procesamiento de datos por tarjetas perforadas. (1980 se utilizo en Estados
Unidos).
Sistema de procesamiento electrónico de datos (1940). Este a pasado por diversas etapas
de desarrollo o generaciones y ha hecho obsoleto al sistema de procesamiento de datos por
tarjetas perforadas. La "información" es definida como los datos ya procesados.

Ciclos del procesamiento de datos


El procesamiento de datos tiene seis etapas:
 1. ORIGEN.
Consiste en recoger los datos iniciales. Un registro original de datos recibe el nombre de
"documento fuente".
Ejemplo:
Pruebas calificadas de los estudiantes. Debe observarse que si se presenta alguna duda acerca
de la nota final de un estudiante se puede regresar a los documentos originales (hojas de
exámenes) y observar si se ha cometido algún error durante el procesamiento.
 2. ENTRADA.
Los datos iniciales de entrada se clasifican en forma conveniente para su procesamiento,
dependiendo esto de la maquina que se emplee.
Por ejemplo: Cuando se usan dispositivos electromecánicos, los datos de entrada se perforan en
tarjetas y en las computadoras electrónicas los datos se registran en discos o cintas.
 3. PROCESAMIENTO.
Durante el proceso se ejecutarán las operaciones necesarias para convertir los datos en
información significativa. Cuando la información esté completa se ejecutará la operación de
salida, en la que se prepara un informe que servirá como base para tomar decisiones.
 4. SALIDA.
Se recopila los resultados obtenidos en el proceso. La forma de los datos de salida depende
del empleo que se les vaya a dar a estos.
Por ejemplo: Un resumen impreso de ventas para la gerencia o simplemente datos que se
deben almacenar para procesamientos posteriores.
 5. DISTRIBUCIÓN.
Los registros de los datos de salida se denominan "Documentos de informe o reporte".
Por ejemplo: Las hojas que se envían a registro técnico. Los documentos de información
pueden llegar a ser documentos fuente para futuros procesamientos.
 6. ALMACENAMIENTO.
Los resultados del proceso se almacenan para utilizarlos posteriormente como datos de
entrada. Un conjunto unificado de datos en almacenamiento se denomina "archivo". "Una base
de datos" es un conjunto estructurado de archivos.

Operaciones en el procesamiento de datos


 1. REGISTRO.
Tiene que ver con la transferencia de los datos a alguna forma de o documento normalizado en
todo el ciclo de procesamiento. Ejemplo: un profesoranota en su lista los puntos obtenidos por
los estudiantes y al terminar el semestre calcula las notas finales y las anota en su lista. Recibe
un acta y coloca ahí las calificaciones finales, las registra en la hoja de calificaciones que se
envía al estudiante y luego hace entrega del acta a la oficina respectiva.
 2. DUPLICACIÓN.
Consiste en reproducir los datos en muchos documentos o formas. Ejemplo: se puede registrar
un informe mecanografiándolo y al mismo tiempo sacar copias con papel carbón. En otro caso
digitándolo en la computadora luego imprimir y fotocopiar en documento.
 3. VERIFICACIÓN.
Consiste en comprobar cuidadosamente los datos para evitar cualquier error. Ejemplo:
los informes escritos a maquina se pueden volver a leer para corregirlos.
 4. SEPARACIÓN.
Se separa los datos en varias categorías. Ejemplo: un grupo de cuestionarios para los
estudiantes, se pueden separar según el sexo o por cursos.
 5. CLASIFICACIÓN.
En la organización de los datos en un orden especifico. Ejemplo: los nombres de la lista
telefónica se han clasificado en orden alfabético. En este caso, los datos son clasificados sin
separar. La clasificación también se puede efectuar después de la separación.
Otro ejemplo: un archivo de registro de empleados contiene nombre, numero del seguro
social y lugar de trabajo. Si hay que clasificar el archivo de acuerdo con el orden alfabético de
los nombres, al "campo del nombre" se le denomina "CLAVE".
 6. INTERCALACIÓN.
Se toman dos o más conjuntos de datos que han sido clasificados con la misma clave y se
resumen para formar un solo conjunto de datos: Por ejemplo, Dos paquetes de tarjetas
clasificadas numéricamente, las mismas que se están intercalando y archivando en el paquete
combinado durante el paso de las tarjetas. Si las tarjetas tienen el mismo numero, una sub-
regla determina cual se debe archivar. Cuando un paquete queda vacío las tarjetas del otro se
colocan al final del paquete combinado.
 7. CALCULO.
La palabra cálculo se refiere al cómputo, cuenta o investigación que se hace de algo por
medio de operaciones matemáticas. El conceptotambién se utiliza como sinónimo de
conjeturaEs la ejecución de cálculos numéricos sobre los datos.
 8. RECUPERACIÓN.
La recuperación de datos hace referencia a las técnicas empleadas para recuperar archivos que
han sido perdidos o eliminados de algún medio de almacenamiento.

Hardware y software
Más allá de la popular definición hardware es lo que golpeas cuando falla el software,
el Hardware son todos los componentes y dispositivos físicos y tangibles que forman
una computadora como la CPU o la placa base, mientras que el Software es el equipamiento
lógico e intangible como los programas y datos que almacena la computadora.
HARDWARE
Los componentes y dispositivos del Hardware se dividen en Hardware Básico y Hardware
Complementario
 1. El Hardware Básico: son las piezas fundamentales e imprescindibles para que la
computadora funcione como son: Placa base, monitor, teclado y ratón.
Placa Base o Placa Madre
Los componentes Hardware más importantes de la computadora y esenciales para su
funcionamiento se encuentran en la Placa Base (también conocida como Placa Madre), que es
una placa de circuito impreso que aloja a la Unidad Central de Procesamiento (CPU)
o microprocesador, Chipset (circuito integrado auxiliar), Memoria RAM, BIOS o Flash-ROM,
etc., además de comunicarlos entre sí.
Unidad Central de Procesamiento (CPU)
La CPU (Central Processing Unit o Unidad Central de Procesamiento) puede estar
compuesta por uno o varios microprocesadores de circuitos integrados que se encargan de
interpretar y ejecutar instrucciones, y de administrar, coordinar y procesar datos, es en
definitiva el cerebro del sistema de la computadora. Además, la velocidad de la computadora
depende de la velocidad de la CPU o microprocesador que se mide en MHz (unidad de medida
de la velocidad de procesamiento). Se divide en varios registros:
Unidad de Control
La Unidad de Control es la encargada de controlar que las instrucciones se ejecuten,
buscándolas en la memoria principal, decodificándolas (interpretándolas) y que después serán
ejecutadas en la unidad de proceso.
Unidad Aritmético-Lógica
La Unidad Aritmético-Lógica es la unidad de proceso donde se lleva a cabo la ejecución de las
instrucciones con operaciones aritméticas y lógicas.
Memoria Principal o Primaria (RAM – ROM)
En la Memoria Principal o Primaria de la computadora se encuentran las memorias RAM,
ROM y CACHÉ.
La Memoria RAM (Random Access Memory o Memoria de Acceso Aleatorio) es un circuito
integrado o chip que almacena los programas, datos y resultados ejecutados por la
computadora y de forma temporal, pues su contenido se pierde cuando esta se apaga. Se llama
de acceso aleatorio - o de acceso directo - porque se puede acceder a cualquier posición de
memoria sin necesidad de seguir un orden. La Memoria RAM puede ser leída y escrita por lo
que su contenido puede ser modificado.
La Memoria ROM (Read Only Memory o Memoria de sólo lectura) viene grabada en chips
con una serie de programas por el fabricante de hardware y es sólo de lectura, por lo que no
puede ser modificada. Al menos no muy rápida o fácilmente y tampoco se altera por cortes de
corriente. En esta memoria se almacenan los valores correspondientes a las rutinas de
arranque o inicio del sistema y a su configuración.
La Memoria Caché o RAM Caché es una memoria auxiliar de alta velocidad, que no es más
que una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.
 2. El Hardware Complementario: son todos aquellos dispositivos adicionales no
esenciales como pueden ser: impresora, escáner, cámara de vídeo digital, webcam, etc.
LOS PERIFÉRICOS:
En informática, se denomina periféricos a los aparatos o dispositivos auxiliares e
independientes conectados a la unidad central de procesamiento de una computadora. Los
cuales se dividen en:
Periféricos de Entrada:
Los periféricos de entrada son dispositivos que generan entradas para la computadora y los
dispositivos de entrada más comunes son:
TECLADO (Keyboard)
Dispositivo de entrada, que por medio de un conjunto de teclas de entrada permite al usuario
comunicarse con la computadora. Los teclados de las terminales y de las computadoras
personales contienen las teclas de una máquina de escribir estándar, además de un cierto
número de teclas especiales.
RATON (Mouse)
Este dispositivo de entrada permite simular el señalamiento de pequeños dibujos o localidades
como si fuera hecho con el dedo índice, gracias a que los programas que lo aprovechan
presentan sobre la pantalla una flecha que al momento de deslizar el dispositivo sobre una
superficie plana mueve la flecha en la dirección que se haga sobre la pantalla. Una vez
señalado, permite escoger objetos e incluso tomarlos y cambiarlos de lugar.
LAPIZ OPTICO (Optical Reader)
Es un dispositivo de entrada que reconoce caracteres mecanografiados o impresos y códigos de
barras, y los convierte en sus correspondientes códigos digitales. Muy conocidos por nosotros
en los grandes supermercados, los cuales interpretan información codificada mediante un
sistema de barras.
EXPLORADOR (Scanner)
Es un dispositivo de entrada, que mediante haces de luz digitalizan punto por punto
una imagen y la transfieren a la memoria de la computadora en forma de archivo, el tipo de
información que pueden rastrear se las da su tipo, incluso los hay que rastrean a colores.
La calidad de éstos está representada por la resolución máxima a la que pueden rastrear una
imagen, los hay desde 300 dpi hasta 2400, aunque a la hora de comprarlos se debe tomar en
cuenta por un lado la máxima calidad de salida de su impresora y la cantidad de espacio
disponible en su disco duro, así como el tamaño de la memoria RAM de su máquina, ya que de
no coincidir nunca podrá usar su rastreador más allá de las capacidades de su equipo.
CAMARA DIGITAL (Digital Camera)
Es un dispositivo de entrada, que a través de una cámara de vídeo que graba las imágenes en
forma digital. A diferencia de las tradicionales cámaras analógicas que convierten las
intensidades de luz en señales infinitamente variables, las cámaras digitales convierten estas
intensidades en números discretos.
MICROFONO (Microphone)
Es un dispositivo de entrada, que permite por medio de la voz indicar alguna instrucción a la
computadora. Ya comenzamos a ver a nuestro rededor sistemas de cómputo basados en el
reconocimiento de voz que puede efectuar una computadora mediante una tarjeta instalada
específicamente para convertir la voz en bits y viceversa.
Periféricos de salida:
Cualquier dispositivo periférico que recibe la salida de información de la computadora, tal
como una pantalla de vídeo, impresora, perforadora de tarjetas o unidad de comunicaciones.
Dentro de estos los más comunes son:
MONITOR
La pantalla del ordenador o monitor de computadora, aunque también es común llamarlo
«pantalla» o «monitor» a secas, es un dispositivo de salida que, mediante una
interfaz, muestra los resultados del procesamiento de una computadora.
IMPRESORA (Printer)
Una impresora es un periférico de ordenador que permite producir una copia permanente de
textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos
en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta
o tecnología láser.
PLOTTER
Un plótter es una máquina que se utiliza junto con la computadora e imprime en forma lineal.
Se utilizan en diversos campos: ciencias, ingeniería,diseño, arquitectura, etc. Muchos son
monocromáticos o de 4 colores (CMYK), pero los hay de ocho y doce colores. Actualmente son
frecuentes los de inyección, que tienen mayor facilidad para realizar dibujos no lineales y
policromos, son silenciosos, más rápidos y más precisos.
LOS PARLANTES.
Un altavoz (también conocido como parlante en América del Sur) es un transductor
electroacústica utilizado para la reproducción de sonido. Es otro dispositivo de salida
Periféricos de entrada y salida
Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para
recibir información. Su función es la de almacenar o guardar de forma permanente o virtual
todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u
otros sistemas.
EL DISCO DURO
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un
dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación
magnética para almacenar datos digitales. También considerado como un dispositivo de
entrada y salida de datos.
MEMORIA USB
Una memoria USB (de Universal Serial Bus; en inglés pendrive, USB flash drive), es un
dispositivo de almacenamiento que utiliza una memoria flash para guardar información. Se lo
conoce también con el nombre de unidad flash USB.
GRABADORA DE DVD
La grabadora de DVD se trata de un periférico capaz de leer y grabar en formato DVD todo
tipo de datos: audio, video y datos. Los discos DVD grabados pueden ser reproducidos en
cualquier reproductor de DVD.
SOFTWARE
El Software es el soporte lógico e inmaterial que permite que la computadora pueda
desempeñar tareas inteligentes, dirigiendo a los componentes físicos o hardware con
instrucciones y datos a través de diferentes tipos de programas.
El Software son los programas de aplicación y los sistemas operativos, que según
las funciones que realizan pueden ser clasificados en:
Software de sistema
Se llama Software de Sistema o Software de Base al conjunto de programas que sirven para
interactuar con el sistema, confiriendo control sobre el hardware, además de dar soporte a
otros programas.
El Software de Sistema se divide en:
 1. Sistema operativo

El Sistema Operativo es un conjunto de programas que administran los recursos de la


computadora y controlan su funcionamiento.
Un Sistema Operativo realiza cinco funciones básicas: Suministro de Interfaz al
Usuario, Administración de Recursos, Administración de Archivos, Administración de Tareas
y Servicio de Soporte.
 Suministro de interfaz al usuario: Permite al usuario comunicarse con la computadora
por medio de interfaces que se basan en comandos, interfaces que utilizan menús, e
interfaces gráficas de usuario.
 Administración de recursos: Administran los recursos del hardware como la CPU,
memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida.
 Administración de archivos: Controla la creación, borrado, copiado y acceso de
archivos de datos y de programas.
 Administración de tareas: Administra la información sobre los programas
y procesos que se están ejecutando en la computadora. Puede cambiar la prioridad entre
procesos, concluirlos y comprobar el uso de estos en la CPU, así como terminar programas.
 Servicio de soporte: Los Servicios de Soporte de cada sistema operativo dependen de las
implementaciones añadidas a este, y pueden consistir en inclusión de utilidades nuevas,
actualización de versiones, mejoras de seguridad, controladores de nuevos periféricos, o
corrección de errores de software.
 2. Controladores de Dispositivos

Los Controladores de Dispositivos son programas que permiten a otros programas de mayor
nivel como un sistema operativo interactuar con un dispositivo de hardware.
 3. Programas Utilitarios

Los Programas Utilitarios realizan diversas funciones para resolver problemas específicos,
además de realizar tareas en general y de mantenimiento. Algunos se incluyen en el sistema
operativo.
 4. Software de aplicación

El Software de Aplicación son los programas diseñados para o por los usuarios para facilitar la
realización de tareas específicas en la computadora, como pueden ser las aplicaciones
ofimáticas (procesador de texto, hoja de cálculo, programa de presentación, sistema
de gestión de base de datos...), u otros tipos de software especializados como software
médico, software educativo, editores de música, programas de contabilidad, etc.
 5. Software de programación

El Software de Programación es el conjunto de herramientas que permiten al desarrollador


informático escribir programas usando diferentes alternativas y lenguajes de programación.
Este tipo de software incluye principalmente compiladores, intérpretes, ensambladores,
enlazadores, depuradores, editores de texto y un entorno de desarrollo integrado que contiene
las herramientas anteriores, y normalmente cuenta una avanzada interfaz gráfica de usuario
(GUI).

Desarrollo del procesamiento de datos


EDAD ANTIGUA (5000 A.C. HASTA 1890 D.C.)
Desde sus inicios de su historia, el hombre percibió la necesidad de desarrollar convenciones
o signos para comunicarse con sus semejantes. Pronto, el primitivo empleo de la mímica y los
sonidos onomatopéyicos resultaron insuficientes, aparece progresivamente el lenguaje. Pero
tan necesario como el lenguaje de las palabras, fue para el hombre contar con el lenguaje de la
magnitud o numeración.
En un primer momento, acudió a sus propios dedos para determinar las cantidades de las
cosas, correspondiendo a cada dedo o digito un número.
Esto lo llevo a descubrir que al terminarse los dedos, podía comenzar de nuevo, haciendo
alguna señal en los arboles que representan las primeras diez unidades. Así se origina el
sistema decimal, que fue común a la mayor parte de los pueblos antiguos y es hoy universal.
El hombre ha efectuado a lo largo de las distintas etapas de su evolución e investigaciones y
estudios, para hacer frente a lasa crecientes necesidades de resolver operaciones y cálculos cada
vez más complejos en forma rápida y precisa.
La idea de repetir muchas operaciones sencillas para cumplir grandes proyectos no es nueva,
los faraones del antiguo Egipto utilizaron este concepto para construir las pirámides, con cada
uno de los muchos esclavos, movían bloques en una pequeña distancia centenares de veces en
sucesión.
Este concepto de reducir laboriosas tareas en una serie de tareas repetidas sencillas, es la idea
fundamentas sobre la computadora. Esta es una época en la que se usaron exclusivamente
maquinas compuestas en su totalidad por dispositivos mecánicos manuales.
EL ABACO (APROX. 5000 A.C.)
Los antecedentes más primitivos de la computadora se encuentran en el ábaco, inventado
probablemente en la China, fue usado también por los aztecas, los japoneses (siglo XV) y los
rusos en el (siglo XVI).
El ábaco es un marco rectangular de madera con bolitas o cuentas insertadas en alambres o
varillas. Los cálculos aritméticos se realizan mediante la manipulación de estas bolitas.
En oriente se sigue usando mucho este aparato. Un operador experto en ábacos puede calcular
mas rápido que un funcionario que utilice una calculadora.
LOS HUESOS DE NEPIER (1617)
John Nepier, matemático Escoces diseño este aparato en el año en que ocurrió su muerte. Sus
"huesos" son un conjunto de once varillas con números marcados encima, de tal forma que,
simplemente colocando las varillas lado a lado, se obtiene productos y cocientes de números
grandes.
Nepier es mas conocido por el invento de los logaritmos, los cuales a su vez llevaron a la regla
de calculo.
REGLA DE CALCULO DE OUGHTRED (APROX. 1632)
Aunque la regla de cálculo apareció en Europa en formas diversas durante el siglo XVII, y el
invento (el invento el signo "X" para la multiplicación) se atribuye al matemático Ingles
William Oughtred.
Básicamente una regla de cálculo consiste en dos reglas movibles colocadas una al lado de la
otra. Cada regla esta marcada de tal manera que las distancias reales desde el comienzo de las
reglas son proporcionales a los logaritmos de los números impresos sobre la regla. Deslizando
las reglas se puede multiplicar y dividir rápidamente.
LA CALCULADORA DE PASCAL (1642)
En 1642, el genial filosofo, matemático y tecnólogo francés Blas Pascal, invento lo que podría
considerarse como la primera maquina de sumar y restar, aun cuando este tenía 19 años.
El dispositivo registraba números dando vueltas a un mecanismo de ruedas dentadas o
engranaje que tenia de uno a diez pasos, esta rueda tenía un trinquete que accionaba, a su vez,
otra rueda con los diez dígitos siguientes cuando la rueda dentada pasaba de las diez unidades
iniciales.
Treinta años después (1673), Leibniz, el famoso filosofo y matemático alemán dio un paso mas
al perfeccionar la maquina de Pascal, construyendo una maquina para multiplicar y dividir,
sumando números en forma repetitiva.
EL TELAR DE JACQUARD (1801)
Joseph Marie Jacquard, un tejedor francés, fue el primero que invento la maquina de tarjetas
perforadas. El patrón tejido por el telar estaba determinado por la distribución de los huecos en
una tarjeta de control; solamente podían entrar en el patrón aquellos hilos cuyo gancho guía
encontraba un hueco en la tarjeta.
LA MAQUINA DIFERENCIAL DE BABBAGE (1823)
Charles Babbage (1792 - 1871), llamado el padre de la computadora, fue profesor de
la Universidad de Cambridge (Inglaterra) y constructor de esta maquina.
Se basa en el principio de que para determinar formulas las diferencias entre ciertos valores es
constante

MAQUINA ANALÍTICA DE BABBAGE


La maquina de calcular automática recién llego en el siglo XIX (Aprox. 1833), gracias a los
trabajos realizados por Babbage que creo su maquina analítica, que es la continuación de la
maquina diferencial con un concepto mucho mas profundo y general.
Esta maquina nunca llego a ser una realidad debido a la tecnología limitada de aquella época,
pero constituye el primer paso serio en la historia de la computadora; hubiera incluido muchas
características de las computadoras actuales, un equipo de entrada con tarjetas perforadas, un
dispositivo de almacenamiento, una unidad aritmética, una unidad de impresión como
elemento de salida y el control mediante un programa secuencial.
EDAD MEDIA (1890 – 1944)
Se dice que la edad media del procesamientos de datos empezó cuando el Dr. Hernán Hollerith,
un estadístico que trabajaba en la oficina de censos de los Estados Unidos, invento un grupo de
maquinas para ayudar a procesar el censo efectuado en 1890 en dicho país, obteniendo
magníficos resultados. El cenco de 1890 se proceso en la cuarta parte del tiempo dado para
procesar el censo de 1880.
El fundamento de este equipo era el de una calculadora lectora de tarjetas perforadas, con el
concurso de tres maquinas: una caja para clasificar los datos, una reproductora y una
calculadora electromagnética que se accionaba manualmente para tabularlos. Usó tarjetas de
3x5 pulgadas para registrar los datos.
Se represento la contestación afirmativa por una perforación y la contestación negativa sin
perforación; en esencia nació la codificación digital (Si y No, es decir 0 y 1) como soporte de
la información.
Adán Byron, a quien se le conoce como el primer programador, trabajo con la maquina y
organizo el esquema lógico de la misma. Hollerith, renuncio a la oficina de censos
para poder construir y vender sus propias maquinas tabuladoras. Su compañía fue la
precursora de la IBM.
Su sucesor en la oficina de censos, el Dr. James Powers, también renuncio para formar su
propia compañía que al fin y al cabo se transformo en la Sperry Rand Corporation.
En 1908, Powers patento una maquina de perforación de 20 columnas. En el mismo año
Hollerith desarrollo una maquina de distribución vertical que procesaba casi 200 tarjetas por
minuto.
En 1911, Hollerith desarrollo un distribuidor horizontal cuyo promedio era de casi 275tarjetas
por minuto. La velocidad y las capacidades de las maquinas de tarjetas perforadas, continuaron
perfeccionándose.
La siguiente computadora fue desarrollada en el Instituto de Tecnología de Massachusetts por
Vannabar Bush, utilizo engranajes mecánicos y dispositivos de rotación para representar
funciones matemáticas. Estas maquinas conocidas como computadoras analógicas se
vendieron bien, pese a sus limitaciones en velocidad y precisión.
En 1879, en Merlo Park, Tomas Alva Edison, eclipsa a todo el mundo con la exhibición de la
primera lámpara eléctrica inventada por él, esto lo condujo al invento del tubo al vacio, gracias
al cual la "maravillas de la electrónica" contribuyen diariamente a proporcionar placer y
comodidad y elevar el nivel de vida de los seres humanos.
Pero recién en la década de 1930, se adopto la filosofía digital utilizando simples interruptores
en estado de activación o desactivación, encendido o apagado para funcionar con las maquinas
de modo que toda la información que se envía a las maquinas, se expresan utilizando
interruptores múltiples que la maquina lee como activado o apagado.
EDAD MODERNA (DESDE 1944).
Mark I (1944), Es el primer computador capaz de realizar automáticamente una secuencia
larga de operaciones aritméticas y lógicas.
Este invento de Howard G. Aiken, un profesor de matemáticas aplicadas de la Universidad de
Harvard, fue desarrollado por la IBM. Y dicha Universidad, se trataba de dispositivos
electromecánicos (relés), caracterizado por utilizar centenares de interruptores pero era un
aparato difícil de manejar, extremadamente ruidoso, caro y con capacidad limitada.
GENERACIONES DE COMPUTADORAS
Computadoras de la primera generación (1946 – 1959)
Las innovaciones principales que se realizaron fueron los tubos al vacío en lugar de relés y
programas almacenados.
No fue la IBM quien desarrollo una versión totalmente electrónica, si no JOHN MAUCHLY
junto con PRESPER ECKER, en la Escuela de Ingeniería Eléctrica Moore de la Universidad de
Pennsylvania, quien en 1946 acabaron de construir una computadora, la ENIAC (Electronic
Numerical Integrator And Calculator) que significa Integrador y calculador numérico
electrónico, que fue la primera computadora que utilizo tubos al vacío, diodos, resistencias, etc.
A gran escala, todos accionados con fluido eléctrico.
Al igual que el Mark I, esta máquina fue grande (peso 30 toneladas) y extremadamente cara
($750,000) y en lugar de ser ruidosa tenía el problema del recalentamiento; adema que se
ponía en marcha un ejército de 200 ingenieros y científicos, los mismos que tenían que revisar
la maquina en forma permanente, ya que cada problema exigía una configuración distinta.
El ENIAC, funcionaba a base de un millón de elementos, entre los que había 18
mil válvulas electrónicas. Los constructores de este computador calculaban que 100 ingenieros
tardarían un año en hacer el mismo trabajo que la maquina lo efectuaba en dos horas, así
mismo calcularon que era capaz de completar en un solo di aloque los antiguos computadores
habían realizado en 30 días.

Fabricantes y modelos de computadoras de la Primera Generación

FABRICANTE MODELO

Escuela de Ingeniería Eléctrica Moore ENIAC, EDVAC.

Universidad de Cambridge EDSAC.

UNIVAC. UNIVAC I, UNIVAC II.

Burroughs E101, Burroughs 2202

Mark II, Mark III

IBM. Perforadora electrónica de cálculo 604

IBM 650, 702, 704, 705, 709.

National Cash Register. CRC, 102A, 102D.

RCA. Bizmac I, Bizmac II.

El 1946, JOHN VON NEWMANN (matemático), H. H. Goldstine y A. W. Barks, anunciaron


los principios de funcionamiento de una computadora de modo que no fuese preciso modificar
los circuitos internos para cada programa y que este se almacenara en la memoria.
La lista de instrucciones o "programas almacenados", que controlara la operación del
computador y codificada en la misma forma que los datos de entrada, se almacena inicialmente
en le computador con los datos y luego este programa se ejecuta automáticamente.
El primer computador que usa el programa almacenado fue el EDSAC. (Electronic Delayed
Storage Automatic computer), que significa Computador Electrónico automático de
almacenamiento retardado, el cual se completo en 1949 en la Universidad de Cambridge
(Inglaterra).
El primer computador norteamericano que contó con el programa almacenado fue el EDVAC,
(Electronic Discrete Variable Automatic Computer), que significa, Computador Electrónico
Automático de Variable Discreta), construido en la Escuela de Ingeniería Moore en 1952, en
esta máquina el programa de computador se alimentaba en la unidad de almacenamiento de
datos por medio de una cinta perforada de papel.
En 1946, Ecker y Mauchely, formaron su propia compañía, la cual se incorporo en 1949, como
la división UNIVAC de la Remington Rand Inc. En el año de 1951, el UNIVAC I, inicio
operaciones en la oficina de censos. Este computador se auto controlaba y utilizaba cinta
magnética para la entrada y salida de datos, trabajo durante 24 horas al día hasta 1963, se
recuerda por haber predicho la elección de DWIGHT D. EISENHOWER en 1952.
En 1954, la General Electric uso un UNIVAC II, el primero que se produjo en cantidades y se
aplico comercialmente.
Computadoras de la segunda generación (1959 – 1965)
Las principales innovaciones que se realizaron en esta generación fueron la incorporación de
dispositivos de estado sólido (transistores) en lugar de los tubos al vacío y almacenamiento de
núcleo magnético.
Durante este periodo las computadoras se hicieron mucho más pequeñas, rápidas, más
confiables y tenían mayor capacidad de almacenamiento, gracias al uso de filtros y anillos
magnéticos, se incorporaron dispositivos para detectar errores y se desarrollaron medios más
eficientes para introducir y recuperar los datos del computador, gracias al avance de
la cibernética, se logro un bajo consumo de corriente, mayor exactitud y velocidad en los
procesos. Igualmente los métodos de programación se hicieron más eficientes.
El computador más popular de la segunda generación fue el IBM 1401, de cuyo modelo se
fabricaron unas 15 mil unidades.

Fabricantes y modelos de computadoras de la segunda generación.

FABRICANTES MODELOS

UNIVAC. UNIVAC III, 5580, 5590, 1107.

Burroughs. B5000, serie 200.

7070, 7989, 7090


IBM.
Serie 1400, serie 1600.

RCA. 501.

Control Data CDC 1604, 160ª.


General Electric. GE 635, 645, 200.

Honeywell. Serie 400, serie 600.

Philco. 2000.

NCR. 300.

Computadoras de la tercera generación (1965 – 1970).


En esta generación destacan los circuitos de estado sólido integrados, mejores dispositivos de
almacenamiento auxiliar, nuevos dispositivos de entrada y salida (terminales de representación
visual, lectoras de tinta magnética, impresoras de alta velocidad).
El nuevo sistema de circuitos integrados aumento la velocidad del computador en un factor de
10,000, sobre la primera generación. Ahora las operaciones aritméticas y lógicas se realizaban
en microsegundos (millonésima de segundo) e incluso en nanosegundos (billonésima de
segundo).
En la tercera generación la unidad de almacenamiento principal o memoria se aumento
considerablemente mediante los dispositivos de almacenamiento secundario (auxiliar),
localizados fuera del mismo computador. Todo esto junto con dispositivos más rápidos de
entrada y salida hicieron posible el multiprocesamiento y la multiprogramación, con lo cual se
podía pasar varios problemas de procesamiento de diferentes fuentes, virtualmente al mismo
tiempo en un computador central.
A lo largo de este periodo se introdujeron los lenguajes de programación como el BASIC
(Beginner"s All – purpose Symbolic Intruction Code).

Fabricantes y modelos de computadoras de la Tercera generación.

FABRICANTES MODELOS

UNIVAC. 1108, serie 9000.

Burroughs. 5700, 6700, 7700.

Serie sistema 360


IBM.
Serie sistema 370.

RCA. Serie Spectra 70.

Control Data Series 3000, 6000, 7000.

General Electric. GE Serie 600, GE 235.


Honeywell. Serie 200, serie 60.

Digital Equipment Serie PDP, serie PDP-11

NCR. Serie CENTURY.

Computadoras de la cuarta generación (1970 – 1985).


En esta generación destacan como principal innovación los microprocesadores,
perfeccionamiento de almacenamiento auxiliar y de los dispositivos de entrada y salida.
Un microprocesador, es un dispositivo inventado por HEWELIT PACKARD (HP) que se
caracteriza por la considerable reducción de su tamaño, a este dispositivo también se le llama
"CHIP" y consta en la impresión de 450,000 transistores dentro de 1.5 cm2; la velocidad de
proceso aumento a 770,000 instrucciones por segundo. Es de por si un pequeño computador
capaz de realizar operaciones aritméticas y lógicas.
En virtud de los microprocesadores, la cuarta generación incluye:
 a. Grandes Computadoras que son mas rápidas, menos costosas y con una capacidad de
almacenamiento mucho mayor que el de las computadoras equivalentes de la tercera
generación.
 b. Minicomputadoras, poco costosas y diversidad de modelos.
 c. Microcomputadoras, es decir computadoras mucho mas miniaturizas.
Entre los dispositivos perfeccionados de entrada y salida que se emplean en la cuarta
generación se encuentran las lectoras ópticas, por medio de las cuales se puede alimentar al
computador con documentos completos, terminales de respuesta auditiva y terminales de
respuesta grafica. Así mismo se crearon los terminales inteligentes que eran fáciles de construir
y hacían las tares de otras computadoras mas grandes y caras.
En 1973, una compañía llamada INTEL desarrollo el chip 8008, a partir de esta fecha
comenzaron a surgir computadoras basadas en el 8008, que fue el primer microprocesador de
uso domestico. Con este microprocesador nació la revolución de los "Micros". Números
compañías se lanzaron al final de la década de la conquista de
nuevos mercados "microcomputadoras" Apple, Radio Shack y Commodore international (todas
firma americanas), fueron las pioneras y aun hoy en día siguen en el mercado.

¿QUÉ ES EL PROCESAMIENTO DE DATOS?


Pao Web

FacebookTwitterLinkedInGoogle+Pinterest
Cada minuto se capturan y recopilan millones de datos acerca de búsquedas, intereses
y tendencias de los usuarios en internet, pero, ¿qué representa este conjunto de estadísticas,
números y símbolos para una empresa y qué puede hacer con toda esta información? Para
dar valor a este conjunto de datos almacenados en la red, ha surgido el procesamiento de
datos, cuya misión es procesar grandes cantidades de datos del internet y transformarlos en
información valiosa para la toma de decisiones gerenciales.
El procesamiento de datos se define como “la acumulación y manipulación de elementos
de datos para producir información significativa.”.

¿Sabías que El Big Data crece a una velocidad nunca antes vista y se estima que para 2020
cada individuo creará 1,7 megabytes de información nueva por segundo? Hay quienes
suelen decir que el internet es otro mundo y, como tal, alberga cantidades de información
acerca de nuestras acciones diarias y numerosos datos de importancia para su
funcionamiento. Dónde se almacena dicha información es un interrogante muy común y
para dar respuesta a ello nace el término “Big Data”.

Big data, también llamado macrodatos o datos masivos en español, es un término que hace
referencia al proceso que abarca la recolección de grandes cantidades de datos y su
inmediato análisis. Debido a su magnitud, este proceso supera la capacidad de un software
convencional para que dichos datos puedan ser capturados, administrados y procesados en
un tiempo razonable. Es por esta razón que nace la necesidad de dirigirse a nuevos canales
de procesamiento de información que haga más viable la captura y análisis de la misma.

Las 5 V’s del Big Data

El Big Data se ve representado por 5 V’s que logran describir su funcionamiento:

Volumen: Esta es quizás la característica más representativa del Big Data: los grandes
volúmenes de información que se manejan a diario en el internet. Captar y analizar todos
los datos que se recopilan a menudo es esencial para las empresas de la actualidad.

Velocidad: El Big Data genera la necesidad de reaccionar de manera inmediata a la


información recopilada en el internet con el fin de extraer valor de negocio.

Variedad: Una fortaleza del Big Data es poder combinar datos para alcanzar un todo
homogéneo y obtener información relevante a partir de esto.

Valor: Sin duda alguna, la información generada a diario en el internet y su respectivo


procesamiento de datos es de gran importancia no solo para empresas, sino también para
gobiernos y la sociedad en general.

Veracidad: En un mundo donde se generan 2.5 quintillones de bytes de datos a diario, es


de vital importancia identificar la veracidad de estos datos para extraer valor a partir de
ellos.

Puedes encontrar algunos artículos en la red que suman o restan la cantidad de dimensiones
que definen el big data: «El Big Data está, curiosamente, marcado por la letra V. Aunque
en un primer momento se hablaba de 3 V como las que marcaban esta tendencia, lo cierto
es que ahora ya se habla de las 7 V que están detrás del Big Data, aunque esta cifra no
deja de crecer y ya se considera incluso que hay un decálogo.».
Ahora que sabes qué es el procesamiento de datos y cómo podrás aportar al mundo siendo
un experto en esta área, estás listo para aprender todo lo que la tecnología Big Data puede
enseñarte. Estudia Big Data con Next U. ¡Te esperamos!

KNOWLED
GE
MANAGE
MENT
AND
INFORMA
TION
SYSTEMS
IN
ORGANIZ
ATIONS
LA
GESTIÓN
DEL
CONOCIMIE
NTO Y
LOS
SISTEMAS
DE
INFORMACI
ÓN EN LAS
ORGANIZA
CIONES
Karla Torres
1
Paola Lamenta
2
RESUMEN
En la actualidad, el
conocimiento y la
información son
considerados recursos
de vital importancia para
las
organizaciones, por ello
algunas de ellas se han
dado cuenta que la
creación, transferencia y
gestión del
conocimiento son
imprescindibles para el
éxito. El presente
artículo tiene como
propósito evidenciar la
gestión del
conocimiento como
fuente transformadora
para las organizaciones
con el uso de los
sistemas
de información;
abordando el estudio
desde la perspectiva
interpretativa con el uso
del método
hermenéutico en
contexto teórico,
documental. Se
concluye que las
empresas inmersas en
un entorno
cambiante,
característico del mundo
globalizado, así como
los cambios motivados
por la misma empresa,
han acelerado en ellas
la generación y
adquisición de nuevos
conocimientos y
capacidades innovativas
para alcanzar
posiciones competitivas
con la ayuda de los
sistemas de
información.
Palabras Clave:
Gerencia del
conocimiento,
capacidades
innovativas,
globalización, Sistemas
de
información.
ABSTRACT
At present, knowledge
and information are
considered vital
resources for
organizations, so some
of them
have realized that the
creation, transfer and
knowledge management
are essential for
success. This paper
aims to demonstrate
knowledge management
as a transformative
power for organizations
using information
systems; addressing the
study from the
interpretive perspective
with the use of
hermeneutical method
in
theory, documentary
context. It is concluded
that people living in a
changing characteristic
environment of
the globalized world
companies and
motivated by the same
company changes have
accelerated in them the
generation and
acquisition of new
knowledge and
innovative capabilities to
achieve competitive
positions
with the help of systems
of information.
Keywords:
Knowledge
management,
innovation capabilities,
globalization,
Information systems
1
Licenciada en Contaduría
Pública. Magíster en
Ciencias Contables.
Docente Agregado de la
Facultad de Ciencias
Económicas y Sociales de
la Universidad de
Carabobo. Doctorando en
Gerencia Universidad de
Yacambú email:
katopo@yahoo.com
2
Licenciada en Contaduría
Pública. Magíster en
Administración de Empresas
Mención Gerencia. Docente
Agregado de
la Facultad de Ciencias
Económicas y Sociales de la
Universidad de Carabobo.
Doctorando en Gerencia
Universidad
de Yacambú
email:
paolalamenta@gmail.com

Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

4 / 20
INTRODUCC
IÓN
El manejo de la
información es
determinante
tanto para la
excelencia como
para
la competitividad
en las empresas
y la calidad en la
toma de
decisiones de las
organizaciones
para el desarrollo
social y cultural
de las personas,
en el resto de
mundo y
Venezuela, este
manejo se ha
tornado cada vez
más complejo
debido
a la explosión de
la oferta y la
demanda de
información y al
desarrollo de
tecnología de
información y
comunicación en
el campo de la
telemática
durante
el siglo XXI; es
por esto que
deben existir
cambios en las
organizaciones
de
manera que se
involucre el
conocimiento en
cada uno de sus
miembros y debe
abarcar e
involucrar las
sociedades
generadora y
gestora de
conocimientos.
La gerencia en la
actualidad es un
proceso complejo
que incorpora el
manejo de
conocimientos,
creatividad,
innovación y el
desarrollo de
enfoques
proactivos.
Estas exigencias
requieren que las
empresas
desarrollen
capacidades para
el
aprendizaje, así
mismo, la
realización de
innovaciones en
productos y
procesos
organizacionales
requiere
conocimientos
sobre
las
necesidades
de
los
consumidores,
competidores,
avances
científicos y
tecnológicos y de
mercados.
Por tal motivo, es
importante que
las empresas
identifiquen y
analicen el
conocimiento
disponible y
requerido, y
planifiquen y
controlen las
acciones para
generar
activos
de
conocimientos
que
permitan
alcanzar
objetivos
organizacionales.
Es por esta
razón, que el
propósito de este
artículo
es evidenciar la
gestión del
conocimiento
como fuente
transformadora
para las
organizaciones
con el uso de
los sistemas de
información.
GESTIÓN
DEL
CONOCIMIE
NTO
Es un proceso
que apoya a las
organizaciones
para encontrar la
información
relevante,
seleccionar,
organizar y
comunicarla a
todo el personal
activo; este
ciclo es necesario
para acciones
tales como la
resolución de
problemas,
dinámica el
aprendizaje y la
toma de
decisiones.
REVISTA arbitrada indizada,
incorporada o reconocida por
instituciones como:
LATINDEX / REDALyC /
REVENCYT / CLASE /
DIALNET / SERBILUZ /
IBT-CCG UNAM /EBSCO
Directorio de Revistas
especializadas en Comunicación
del Portal de la Comunicación
InCom-UAB / www.cvtisr.sk
/
Directory of Open
Access Journals (DOAJ)
/
www.journalfinder.uncg.edu /
Yokohama National University
Library jp / Stanford.edu,
www.nsdl.org / University
of Rochester Libraries / Korea
Fundation Advenced
Library.kfas.or.kr /
www.worldcatlibraries.org /
www.science.oas.org/infocyt /
www.redhucyt.oas.org/
fr.dokupedia.org/index /
www.lib.ynu.ac.jp
www.jinfo.lub.lu.se / Universitè de
Caen Basse-Normandie SICD-
Rèseau
des Bibliothéques de L'Universitè
/ Base d'Information Mutualiste
sur les Périodiques Electroniques
Joseph Fourier et de L'Institutè
National
Polytechnique de Grenoble /
Biblioteca OEI /
www.sid.uncu.edu.ar /
www.ifremer.fr / www.unicaen.fr /
www.science.oas.org /
www.biblioteca.ibt.unam.mx /
Cit.chile,
Journals in Electronic Format-
UNC-Chapel Hill Libraries
/ www.biblioteca.ibt.unam.mx
/
www.ohiolink.edu
,
www.library.georgetown.edu /
www.google.com /
www.google.scholar /
www.altavista.com /
www.dowling.edu /
www.uce.resourcelinker.com /
www.biblio.vub.ac /
www.library.yorku.ca
/ www.rzblx1.uni-regensburg.de
/ EBSCO /
www.opac.sub.uni-
goettingen.de / www.scu.edu.au /
www.docelec.scd.univ-paris-
diderot.fr / www.lettres.univ-
lemans.fr / www.bu.uni.wroc.pl /
www.cvtisr.sk /
www.library.acadiau.ca
/www.mylibrary.library.nd.edu /
www.brary.uonbi.ac.ke /
www.bordeaux1.fr /
www.ucab.edu.ve / www.
/phoenicis.dgsca.unam.mx /
www.ebscokorea.co.kr /
www.serbi.luz.edu.ve/scielo./
www.rzblx3.uni-regensburg.de /
www.phoenicis.dgsca.unam.mx /
www.liber-accion.org /
www.mediacioneducativa.com.ar
/
www.psicopedagogia.com /
www.sid.uncu.edu.ar
/ www.bib.umontreal.ca
www.fundacionunamuno.org.ve/r
evistas / www.aladin.wrlc.org /
www.blackboard.ccn.ac.uk /
www.celat.ulaval.ca /
/
+++ /
No bureaucracy / not destroy
trees / guaranteed issues / Partial
scholarships / Solidarity /
/ Electronic coverage guaranteed
in over 150 countries / Free Full
text /Open Access
www.revistaonegotium.org.ve
/
revistanegotium@gmail.com

Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

5 / 20
La gestión del
conocimiento
puede mejorar el
desempeño de la
organización en
vías de lograr una
organización
inteligente, pero
no es suficiente
por sí sola;
puesto que este
involucra la
planeación de
estrategias y el
establecimiento
de
políticas y
además la
colaboración de
todo el personal
de la
organización un
alto
sentido de
compromiso para
ejecutar su
trabajo y la
aceptación del
proceso.
Brooking (1996)
señala que es el
área dedicada a
la dirección de las
tácticas y
estrategias
requeridas
para
la
administración
de
los
recursos
humanos
intangibles en
una organización.
Bueno (1999) la
define como la
función que
planifica,
coordina y
controla los flujos
de conocimiento
que se producen
en la
empresa en
relación con sus
actividades y su
entorno con el fin
de crear unas
competencias
esenciales.
Parera (2003)
expresa que la
gestión del
conocimiento
más bien, como
el poder
desarrollar las
condiciones de su
entono, todo lo
que hace posible
la apertura a
un nuevo
conocimiento, y
que estos
conocimientos
circulen de una
mejor
manera.
De acuerdo con
Reaich, Gemino y
Sauer (2012) la
gestión del
conocimiento
debe
propiciar un
ambiente social y
tecnológico que
favorezca las
actividades
relacionadas
con
el
conocimiento,
de
manera
de
promover
la
creación,
almacenamiento
y difusión de
este.
Para Figuerola
(2013) es la
práctica de
organizar,
almacenar y
compartir
información vital,
para que todos
puedan
beneficiarse de
su uso. Es decir,
esta
es vista como un
conjunto de
técnicas y
herramientas
involucradas en
el proceso
de almacenar,
distribuir,
compartir y
comunicar datos
e información,
con la
finalidad de
mejorar las
comunicaciones y
el conocimiento,
entre los
empleados
de una
organización,
permitiendo el
aprendizaje
continuo, a través
de las
experiencias
pasadas o
lecciones
aprendidas, que
han sido
previamente
capturadas y
almacenadas.
Por tanto, una
organización
basada en el
conocimiento
implica una
búsqueda
general de los
enfoques
tradicionales de
gestión,
pero con
un nuevo enfoque
empresarial
que
logre
combinar
los
sistemas
de
información
con
las
capacidades del
recurso humano
(participación,
compromiso,
motivación y
responsabilidad
de
los
trabajadores)
para
alcanzar
los
objetivos
organizacionales.
ENFOQUES
CRONOLÓG
ICOS QUE
FUNDAMEN
TAN
LA
GESTIÓN
DEL
CONOCIMIE
NTO.

Crecimiento de
Conocimiento
de Kogut y
Zander (1992)
: Consiste en
un
análisis
del
conocimiento
que
posee
la
empresa
distinguiendo
entre
información
declarativa
(semejante al
explícito) y de
proceso (tácito).
Esta
distinción es el
marco básico
para poder
explorar la
combinación de
ellos a través
del aprendizaje
tanto interno
(reorganización)
como externo
(adquisición),
dando
lugar a lo que
ellos llaman
capacidades
combinativas
mediante las
cuales, la
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

6 / 20
organización
genera nuevas
aplicaciones a
partir del
conocimiento
existente, que
darán lugar a
mejores
oportunidades
tecnológicas y
organizativas
para mejorar
oportunidades de
mercado.
Sostienen que el
conocimiento no
es fácilmente
transferible
debido a la
codificación y
complejidad del
propio
conocimiento que
se refiere al
número de
operaciones
requeridas para
realizar una
tarea, o al
número de
parámetros que
define un
sistema.
La codificación
hace referencia a
la habilidad de la
empresa para
estructurar el
conocimiento en
un conjunto de
reglas y
relaciones
identificables
fácilmente
comerciables.
Fuente: Kogut y
Zander (1992)

Transferencia y
Transformación
de
Conocimiento
de Hedlund
(1994):
No es un modelo
de creación de
conocimiento,
sino de
transferencia y
transformación de
conocimiento,
porque; a
diferencia del
modelo anterior
se
centra en como el
conocimiento
creado es
transformado y
difundido a toda
la
organización,
se
basa
en
una
distinción
entre
conocimiento
intuitivo,
no
verbalizado y
articulado es
aquel que puede
especificarse
verbalmente, por
escrito o en
programas
informáticos. Se
da una
articulación, que
se refiere a la
conversión del
conocimiento
tácito en
articulado o
explícito y tiene
lugar en los
cuatro niveles de
agentes. Este
proceso es
esencial para
facilitar la
transferencia
de información
pero también
para su
expansión y
mejora. La
internalización
aparece cuando
el conocimiento
articulado se
convierte en
tácito. Es
necesaria
porque
economiza
recursos
cognitivos
limitados,
perceptuales o
coordinativos.
La interacción
entre el
conocimiento
tácito y articulado
da lugar a la
reflexión.

También se da
una extensión y
apropiación del
conocimiento que
constituyen
conjuntamente el
diálogo (flechas
horizontales). La
extensión es la
transferencia y
transformación de
conocimiento
desde bajos a
altos niveles de
agentes, en
forma tácita o
articulada. La
apropiación es el
proceso inverso
como,
por ejemplo,
cuando la
organización
enseña a nuevos
empleados sus
productos
y les impregna de
la cultura
corporativa. El
diálogo es la
interacción entre
la
extensión y la
apropiación, y por
último la
asimilación y
diseminación
hacen
referencia,
respectivamente,
a
las
importaciones
y
exportaciones
de
conocimiento del
entorno.
Venta en los
mercados actuales
Aprendizaje
Interno y Externo
Oportunidades
de
mercado
Información
(Costos)
Knowhow
(División de tareas)
Capacidades
Gerenciales
Oportunidades
tecnológicas y
de organización

Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20
7 / 20
Individuo
Grupo
Organización
Dominio
Interrogativo
Conocimiento
Tácito
Conocimiento
Articulado
Conocimiento Tácito
y Conocimiento
Explicito
Fuente: Hedlund
(1994)

Creación de
Conocimiento
de Nonaka y
Takeuchi (1995)
: Es el modelo
más conocido y
aceptado para la
creación de
conocimiento
mediante las dos
dimensiones
siguientes:
La dimensión
epistemológica:
en la cual se
distinguen dos
tipos de
conocimiento:
explícito y tácito.
El conocimiento
explícito es el
expresado de
manera formal,
sistemática, fácil
de comunicarse y
compartir en
forma de
especificaciones
de
producto o
servicio. Por el
contrario, el tácito
resulta difícil de
expresar
formalmente y
comunicarlo.
La dimensión
ontológica: En la
cual se distinguen
cuatro niveles de
agentes
creadores de
conocimiento: el
individuo, el
grupo, la
organización y el
nivel inter-
organizativo.
Según los
autores el nuevo
conocimiento se
inicia siempre en
el
individuo y se
transforma en
conocimiento
organizativo
valioso para toda
la
empresa.
Dimensión
Epistemológica
Conocimiento
Explicito
Conocimiento
Tácito
Socialización
Internalización
Dimensión
Ontológica
Individual
Grupo
Organización
Inter-organización
Nivel de
Conocimiento
Fuente: Nonaka y
Takeuchi (1995)

Knowledge
Management
Assessment
Tool (KPMG)
Tejedor y
Aguirre
(1998)
: Enfocado hacia
el aprendizaje,
basado en un
enfoque
sistémico-
Apropiación
Extensión
Internacionalizació
n
Dialogo
Articulación
Asimilación
Diseminación
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

8 / 20
organizacional.
Explicativo de la
influencia, de
manera sistémica
de un conjunto
de variables que
determinan la
capacidad de
aprendizaje
organizacional.
Fuente: Tejedor y
Aguirre (1998)

Knowledge
Management
Asessment Tool
(KMAT) (APQC)
Andersen
(1999)
: Énfasis en el
nivel de
responsabilidad
individual (de los
trabajadores en
compartir y hacer
explícito el
conocimiento) y
organizacional
(demandando
infraestructura de
apoyo para
capturar, analizar,
sintetizar, aplicar,
valorar y
distribuir el
conocimiento).
Fuente: Andersen
(1999)

Teoría de
Capacidades
Dinámicas
(Teece, Pisano y
Shuen, 1997;
Dosi, Nelso y
Winter, 1999)
: Concibe a la
organización en
un entorno con
cambios
constante en el
que la única
forma de
competir con
éxito es crear
conocimiento
relevante (útil
para la acción)
que permita
generar
innovación y
obtener rentas.
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

9 / 20
Fuente: Teece,
Pisano y Shuen
(1997); Dosi,
Nelso y Winter
(1999)

Producción de
conocimiento
científico que
incluye la
evolución de
las teorías
científicas
según Damiani
(2005) citado por
Ibáñez y otros
(2010)
: analiza, evalúa y
critica el conjunto
de problemas que
presenta el
proceso
de producción de
conocimiento
científico que
incluye la
evolución de las
teorías
científicas. En
este sentido, se
comienza con el
estudio del
comportamiento
gerencial del
paleolítico al
neolítico.

Éxito de Gestión
de
Conocimiento
Jennex, Smolnik
y Croasdell
(2012) citado por
De Freitas y
Yaber (2014)
:
Basado en cuatro
dimensiones:
impacto en los
procesos del
negocio, el
impacto de la
estrategia de
gestión de
conocimiento,
liderazgo/apoyo
gerencial y el
contenido del
conocimiento.
Fuente: Jennex,
Smolnik y
Croasdell (2012)
citado por De
Freitas y Yaber
(2014):

Proceso-
Tecnología-
Capital
intelectual
Arellano (2013)
citado por De
Freitas y Yaber
(2014)
:
Enfocado a la
estrategia para la
asimilación,
utilización
y transferencia
del conocimiento
en las
organizaciones
(proceso de
gestión, TIC,
capital intelectual
y cultura
organizacional).
Desarrollo de
Capacidades
Tipo de Aprendizaje
Tipo de
Conocimiento
Capacidades
Estratégicas
Aprendizaje de
capacidades
estratégicas
Cambios de
Planteamiento
OBJETIVO
Combinación
Capacidades
Aprendizaje de
capacidades
estratégicas
Cambios de
Procedimientos
AUTOMATICO
Internalización
Practicas de trabajo
Aprendizaje de rutinas y
operático. Mejora
Continua
COLECTIVO
Socialización
Recursos
CONSCIENTE
Articulación

Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20
10 / 20
GERENCIA
DEL
CONOCIMIE
NTO
El estudio del
conocimiento
humano ha sido
objeto
fundamental de la
filosofía y
la epistemología
desde la época
de los griegos,
pero en los
últimos años ha
recobrado
importancia y se
le ha prestado
más atención que
antes. Autores
como Zorrilla
(1997) plantean
el surgimiento de
la gerencia del
conocimiento
como el proceso
de administrar
continuamente
conocimiento de
todo tipo para
satisfacer
necesidades
presentes y
futuras e
identificar y
explotar
conocimientos,
tanto
existentes
como
adquiridos
que
permitan
el
desarrollo
de
nuevas
oportunidades.
Para Guédez
(2003) la
gerencia del
conocimiento se
refiere a asumir el
conocimiento
como insumo,
proceso,
producto, y
contexto de la
acción gerencial,
persigue la
consolidación de
las personas más
que de las redes
tecnológicas,
revela el interés
por hacer que el
conocimiento
sirva para que los
usuarios se
hagan mejores a
partir del ejercicio
de generar,
compartir,
orientar, aplicar y
evaluar el
conocimiento. Por
último señala,
que la misma se
ocupa más de la
innovación que
surge de la
aplicación del
conocimiento que
del conocimiento
propiamente
dicho.
Por su parte,
Muñoz y Riverola
(2003) la definen
como aquel
proceso donde se
relaciona un
conjunto de
elementos que
aseguran la
óptima utilización
de un
activo que
siempre ha
estado presente
en la empresa,
pero que no
había sido
debidamente
aprovechado. La
gerencia del
conocimiento
trata de
garantizar que
esta utilización se
enfoque
deliberadamente
hacia la mejora
constante de la
productividad y
competitividad de
la empresa.
La Gerencia del
Conocimiento,
de acuerdo con
Lejter (2007)
citado por Añez
(2009), pretende
colocar al
“conocimiento
como el acto de
conocer y de
aprender, y al uso
del conocimiento
para añadir valor
y crear y reforzar
ventajas
competitivas
únicas a la
empresa como
objetivo central”.
Microsoft (2006)
señala
que la meta
principal de la
gerencia del
conocimiento
consiste en
promover la
capacidad
intelectual de la
empresa entre los
trabajadores
individuales del
conocimiento,
quienes toman
las decisiones
cotidianas que,
en forma
agregada,
determinan el
éxito o fracaso de
un negocio
.
Según Salazar
(2004), la
gerencia del
conocimiento
implica la
conversión del
conocimiento,
a
través
de
cuatro
formas,
tales
como:
la
socialización
(conocimiento
que nace de los
individuos en
forma de
conocimiento
tácito. Este
se socializa al
compartir una
experiencia, un
problema que
debe ser resuelto
de
forma conjunta o
en un mismo
entorno), la
externalización
(ahí está la clave
de
creación del
conocimiento, ya
que se articula el
conocimiento
tácito en
conceptos
explícitos), la
combinación (es
cuando el
conocimiento se
hace accesible a
cualquier
miembro de la
empresa, lo que
puede originar
nuevas ideas y
conocimiento
explícito) y la
internalización
(refiere al
conocimiento
explicito que
se convierte en
rutinario dentro
de la
organización).
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

11 / 20
Es por esto, que
para las
organizaciones
se le hace
necesario adquirir
la
conversión del
conocimiento a
través de la
capacitación al
personal, con la
finalidad de lograr
el apoyo
influyente de la
organización, es
decir de la fuerza
de
trabajo. Esto
facilita la efectiva
y eficiente
generación de
nuevo
conocimiento, así
como asegurar su
disposición de
innovar y mejorar
los productos y
procesos,
entre otros.
Se
puede
observar
que
las
propuestas
conceptuales
de
gerencia
del
conocimiento
muestran
características
similares
y
comunes
entre
las
explicaciones
planteadas la
connotación de
que las
organizaciones
deben
conocer la forma
cómo ocurren los
procesos que
forman parte de
su existencia
y ser capaces de
construir
explicaciones
sobre ellos,
favoreciendo la
producción
y
transferencia
de
conocimientos
dentro
de
la
organización
a
partir
de
información
externa así como
de sus propias
prácticas. De esta
manera, la
gerencia tiene el
reto de identificar
y retener el
conocimiento, así
como su
aplicación en el
momento que lo
necesite.
SISTEMAS
DE
INFORMACI
ÓN
La información se
describe como un
mensaje,
usualmente en
forma de
documentos
escritos
o
en
medios
audiovisuales.
En
ella
se
identifican
claramente un
emisor y un
receptor, cuyo
propósito
esencial es influir
de alguna
manera en el
receptor bien sea
modificando sus
puntos de vistas
o conductas,
ratificando una
posición, o
influyendo sobre
una decisión
anterior. En
esencia, la
información tiene
efecto sobre la
opinión o
conducta del
receptor.
La palabra
información
significa
dar forma a
. De acuerdo con
esto,
correspondería al
receptor decidir si
el mensaje que
recibe es
realmente
información, es
decir, si
realmente le
informa.
A medida que las
organizaciones
empiezan a
expandirse y
desarrollarse
necesita del
apoyo de una
unidad
independiente
que controle,
supervise
asesore, gestione
los posibles
riesgos
de
las actividades
operativas y
financiera
de la entidad,
permitiéndoles de
esa forma
alcanzar de una
manera
satisfactoria
todas las metas
establecidas por
la entidad.
De acuerdo a la
teoría general de
sistema
que surgió
después de la
Segunda
Guerra Mundial,
con los trabajos
del biólogo
alemán Ludwing
Von Bertalanfly,
publicados entre
1950 y 1968, que
se expandió
hacia todas las
ciencias, estudia
a la organización
como un sistema
abierto en
interacción con
un ambiente
(clientes,
proveedores y
accionistas), que
actúa en forma
sinérgica para el
logro
de
determinados
propósitos.
Además
esta
teoría
implica
elementos
característicos de
los sistemas
como:
1.
Conjunto o
combinación de
cosas o partes.
2.
Integrada e
interdependientes
.
3.
Cuyas relaciones
entre sí, le hacen
formar un todo
unitario y
organizado.
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

12 / 20
4.
Que cumple con
un propósito o
realiza
determinada
función.
En base a lo
señalado en esta
teoría se deduce
que el
funcionamiento
de un
sistema es un
conjunto
complejo de
interacciones
entre las partes,
componentes
y procesos que la
integran, que
abarca relaciones
de
interdependencia
entre
dicho complejo y
su ambiente.
Esta teoría es
aplicable ya que
la gestión
empresarial
implica dirigir y
solucionar
problemas en
cada una de las
partes de la
organización,
tomando en
cuenta que
las acciones
emprendidas en
una de las partes
afectan a las
demás parte de la
misma. Además
los insumos y
salidas de los
departamentos
organizacionales
dependerán de la
información sobre
las transacciones
de las entidades,
el
personal, los
recursos
financieros,
logísticos, entre
otros, que
le permitirá tomar
decisiones
acertadas,
asegurar la
calidad en el
trabajo realizado,
lograr el
mejoramiento
continuo de los
procesos
evaluados, añadir
valor, como
gestionar
adecuadamente
los riesgos y
controlar las
operaciones.
Mcleod (2000)
señala que es
importante tener
una visión
sistemática
porque:
1. Evita que el
gerente se pierda
en la complejidad
de la estructura
de
la organización y
los detalles del
trabajo.
2. Reconoce la
necesidad de
tener buenos
objetivos.
3. Destaca la
importancia de
que todas las
partes de la
organización
colaboren.
4. Reconoce la
interconexión de
la organización y
su entorno.
5. Asigna mucho
valor a la
información de
retroalimentación
que solo
puede obtenerse
con un sistema
de ciclo cerrado.
(p.15).
De esta manera
se puede ubicar
al pensamiento
gerencial como
parte del
sistema de
información
empresarial, que
surge de la
necesidad de
administrar
continuamente
el
conocimiento
de
todo
tipo
para
satisfacer
necesidades
presentes y
futuras que
permitan el
desarrollo de
nuevas
oportunidades.
También se hace
necesaria el uso
de los sistemas
de información
cuando la
empresa empieza
a expandirse
geográficamente,
cuando aumenta
en volumen,
cuando adquieren
nuevos
desarrollos
tecnológicos,
cuando existen
reformas del
estado, entre
otras actividades,
que hacen
imposible el
control directo de
las
operaciones por
parte
de la dirección.
Para llenar las
necesidades de
información de
una empresa
compleja, es
precisa
la utilización de
un sistema
mediante el cual
se pueda
recopilar toda
clase de
datos y
procesarlos de tal
manera que
pueda obtenerse
la información
requerida
para tomar
decisiones a
todos los niveles,
tanto dentro de la
organización
como
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

13 / 20
de las áreas que
la rodean.
Todas las
organizaciones
cuentan con
cierta clase de
sistema de
información,
sin embargo,
para contar con
un sistema
funcional de
información que
satisfaga
diversas
necesidades,
todos los datos
deben ser
organizados de
manera que
sea fácil
registrarlos,
almacenarlos,
procesarlos,
recuperarlos y
comunicarlos
según lo
requieran los
usuarios.
En Burch y
Strater (1981) se
contempla que
los sistemas de
información
pueden
ser
por función o
integrados. Un
sistema de
información por
función está
diseñado para el
soporte exclusivo
de un área
específica de la
empresa, sus
bases de datos y
sus
procedimientos,
en la mayor
parte, son
independientes
de
cualquier otro
sistema.
De lo anterior
surge la
necesidad de la
integración de los
sistemas por
función;
el resultado ha
sido un sistema
de información
integrado capaz
de canalizar
todos los datos
de la
organización
hacia un banco
común para
realizar el
procesamiento y
las funciones de
información de
toda la empresa
en forma
conjunta.
De acuerdo con
lo estipulado por
Burch y Strater
(ob.cit.) la debida
utilización de
los
sistemas
de
información
se
ha
venido
desarrollando
desde
que
se
comenzaron a
implementar los
ordenadores
informáticos en el
soporte técnico
de las empresas
para convertir sus
datos en algo ágil
y ordenado; por
esta razón
se han venido
creando
diferentes
sistemas de
información que
se acomoden a
las características
y los fines que se
quieren alcanzar
en los entornos
que se
desenvuelven las
empresas y
cumplir con la
información que
satisfaga los
clientes,
proveedores y
accionistas, como
la agilidad y
validez de los
datos que
se procesan.
Long y Long
(1999) definen
que:
Los sistemas de
información de
las empresas
están formados
por
cuatro
subsistemas que
son: SIAD
(Subsistema de
información para
el soporte de
decisiones), EIS
(Subsistema de
información para
ejecutivos), MIS
(Subsistema de
información
administrativa) y
SIC
(Subsistema de
información
contable); los
cuales se nutren
de todos
los datos e
informes
relevantes, tanto
de origen interno
como externo,
ya sea de
naturaleza
financiera o no
financiera. (p. 43-
44)
A partir de este
señalamiento, se
deduce que la
información está
estructurada y
solo se
transforma a
través de la
inteligencia y el
conocimiento de
las personas,
agregándole valor
dependiendo de
cada una de las
capacidades
particulares.
De acuerdo con
Larrea (2012), un
sistema de
gestión de
conocimiento es
un
sistema que tiene
como misión el
diseño y la
puesta en
práctica de las
soluciones
para crear y
distribuir el
conocimiento en
la organización,
para proceder,
posteriormente,
con la tarea de
medir los
intangibles
desarrollados y
para facilitar
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

14 / 20
los
procesos
de
aprendizaje
organizativo,
todo
ello
gracias
al
diseño
e
implantación de
programas,
caracterizados
por la presencia
de tres
elementos:
nivel de
información,
complejidad e
integración de los
flujos de
conocimientos
gestionados, de
forma que se
creen ventajas
competitivas
sostenibles o
competencias
esenciales para
alcanzar el éxito
de la estrategia
empresarial.
Para Arambarri
(2012), el objetivo
de un sistema de
gestión de
conocimiento es
la
recopilación,
organización,
refinamiento,
análisis
y
diseminación
del
conocimiento de
la organización.
Desde esta
perspectiva, un
sistema de
información tiene
la tarea de
gestionar el
proceso y el
espacio para la
creación de
conocimiento, es
decir, debe
permitir la
coordinación,
formación y
gestión, a través
del análisis y
organización del
conocimiento,
como también la
preparación y
reforma del grupo
de trabajo en
función de sus
capacidades al
igual que, de la
coordinación e
implantación del
sistema.
En consecuencia
existe una estrecha
relación entre
información,
gestión del
conocimiento y
capacidad.
CAPACIDAD
ES
Lall (1996)
plantea que las
capacidades se
pueden agrupar
en tres categorías
amplias
estrechamente
relacionadas:

Inversión física:
Planta y equipos
necesarios para
que exista la
industria,
pero lo más
importante es la
eficiencia con la
cual se utiliza el
capital.

Esfuerzos
tecnológicos:
El
capital
humano
y
el
capital
físico
son
productivos si se
combinan con el
esfuerzo de las
empresas por
asimilar y
mejorar la
tecnología
relevante.

Capital humano:
Habilidades
generadas por la
educación, la
capacitación
formal, la
práctica, la
experiencia en
las actividades
tecnológicas,
habilidades,
actitudes y
capacidades
heredadas.
Adicional a estas
capacidades la
gerencia deberá:
1.
Ser participativa a
fin de que los
trabajadores
intervengan
activamente en
las prioridades y
objetivos.
2.
Eficaz para
coordinar
esfuerzos y
recursos para el
logro de los
objetivos
económicos y
sociales de la
empresa.
3.
Estratégica
para
alcanzar
las
metas
propuestas
a
través
de
la
identificación
y
evaluación
permanente
de
oportunidades
y
amenazas
analizando los
propósitos,
intereses y
capacidades de
las fuerzas
sociales,
económicas y
políticas del
entorno.
4.
Líder, para liderar
los procesos de
cambios dentro
de la
organización.
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

15 / 20
5.
Impulsor del
desarrollo del
capital humano,
estructurar-
sistematizar el
conocimiento
desarrollado,
es
decir
surgir
la
formación,
capacitación
y
perfeccionamient
o
del
personal
como
elementos
claves
para
el
optimo
desempeño
dentro de las
organizaciones.
6.
Responsables y
deberá
esforzarse por
sintonizar con los
valores sociales
imperantes, y
ésta es
precisamente la
razón por la cual
se puede afirmar
que el
futuro también
vendrá marcado
por la exigencia
de
responsabilidade
s éticas.
Las
organizaciones
en la actualidad
deben contar con
la capacidad de
gestionar
la combinación
de
conocimientos,
materiales,
técnicas y
procesos para
crear
productos,
procesos y
servicios con
características
distintas a los ya
existentes.
Esto proporciona
a las
organizaciones
tanto
oportunidades de
mejora como
capacidades
internas de
gestión para
enfrentar
presiones
competitivas y
riesgos,
asumiendo
estrategias
empresariales,
liderazgos
y
estilos
administrativos
innovadores.
La capacidad de
una sociedad, así
como de una
empresa, para
adaptarse a los
requisitos de los
avances
tecnológicos y
para adaptar
tecnologías
avanzadas a
sus propios
objetivos y
circunstancias,
dependerá en
parte, al igual que
su
capacidad para
innovar, de las
habilidades
intelectuales,
conocimientos y
técnicas
adquiridas para
resolver los
problemas
realizando
actividades con la
participación de
las personas para
el logro de los
objetivos a través
de la
eficiencia y así
lograr en un
contexto exigente
y complejo.
Cabe preguntarse
¿Cómo se logra?
De acuerdo a los
autores Jordán,
O.,
González, O. y
Delgado, M (s/f),
se logra al optar
por un
pensamiento
estratégico
de concepción
racionalista,
evolutivo y
procesal,
desarrollando
estrategias
optimas para
buscar la máxima
utilidad.
Es por esto que
la sociedad de
conocimiento
deberá visualizar
como un recurso
estratégico ser
innovador para
producir ese
mundo diferente.
Por lo tanto las
organizaciones
multiplicarían
su
valor
si
conociera
y
aprovechara
el
conocimiento
acumulado, la
capacidad de
aprendizaje, los
aspectos
culturales,
y las personas.
La
innovación
debe
considerarse
como
fuente
primordial
de
ventajas
competitivas,
el
fomento
de
la
creatividad,
del
espíritu;
por
un
lado,
el
conocimiento
derivado de la
razón y la
deducción, y por
otro el
conocimiento
generativo.
Un liderazgo
compartido capaz
de integrar las
dimensiones
estratégica y
cultural
de la empresa se
trata, en suma,
de destacar el
papel de estos
activos
intangibles
como
recursos
estratégicos
fundamentales,
como
fuentes
de
ventajas
competitivas, de
diferencias reales
frente a la
competencia por
su
carácter singular
e inimitable.
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

16 / 20
Las
organizaciones
deben tratar de
equilibrar lo
interno con lo
externo, los flujos
que por ella
circulan (reales,
financieros y de
información), y
sus subsistemas
o
elementos
(integrando
personas,
tecnología y
gestión
financiera) para
así estar
direccionado
estratégicamente
para cumplir con
sus objetivos y
metas,
y debe
esforzarse por
sintonizar con los
valores sociales
como la ética.
La ética es una
dimensión
estructural de la
persona y su
actuar no se
reduce a
la relación de
trabajo dentro de
un modo de
producción, el
actuar está en
función
de la conciencia y
sobre esto
dependerá la
significación de la
toma de
decisiones. Para
Briola (s/f),
establece que el
hombre siempre
actúa para
obtener algún fin,
por lo tanto la
ética es la ciencia
que le enseña
actuar cómo
conseguir ese fin.
En este contexto
de análisis, cabe
decir que es
cierto que a
través de la
globalización se
han producido
profundas
transformaciones
en los sistemas
de
producción y
distribución de las
riquezas, y por
consiguiente en
el conocimiento.
En tal sentido, ha
habido un
importante
incremento de
empresas que
ofrecen
servicios
intangibles
basados en el
conocimiento.
Esto se debe a
que conforme
el entorno
cambia, las
organizaciones
como
generadoras de
conocimientos,
van
asumiendo
nuevas formas de
adaptación. Es
precisamente la
capacidad de
adaptación de las
organizaciones lo
que Marín (2002)
plantea como
esencial
para su
supervivencia.
Las nuevas
tecnologías
han acelerado el
ritmo de los
cambios e
impuesto
nuevos
condicionantes:
mercados
cambiantes,
predominio de la
incertidumbre,
multiplicidad de
competidores,
rápida
obsolescencia de
productos y
servicios y
empresas
exitosas
caracterizadas
por
la
habilidad
de
crear
nuevos
conocimientos e
incorporarlos en
sus nuevos
productos o
servicios para
mantener o
mejorar sus
ventajas
competitivas.
Esto da lugar a lo
que se denomina
una nueva
economía global
basada en
conocimiento
Banco Mundial
(2003) entendida
como aquella que
se fundamenta
primordialmente
en
capacidades
intangibles
(habilidades,
experiencias,
conocimientos,
valores) más que
las tangibles
(infraestructura
física y equipos),
así como en la
aplicación de la
tecnología más
que en la
transformación de
materia prima o la
explotación de
mano de obra
económica. Es
una economía
en la que el
conocimiento es
creado, adquirido,
transmitido y
utilizado más
eficazmente por
personas
individuales,
organizaciones y
comunidades
para
fomentar el
desarrollo
económico y
social.
CONCLUSIO
NES
El entorno
cambiante del
mundo
globalizado, así
como los
constantes
cambios
internos
promovidos por
las propias
organizaciones
empresariales, ha
acelerado
en ellas la
generación de
nuevos
conocimientos
para alcanzar
posiciones
competitivas. Por
lo tanto se
concluye lo
siguiente:
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

17 / 20
1.
Los
conocimientos
pueden ser
tácitos o
explícitos, siendo
el primero
considerado un
elemento muy
importante para
estimular la
innovación en las
organizaciones y
constituye un reto
convertirlo en
explícito para
difundirlo en toda
la empresa y así
van asumiendo
nuevas formas de
adaptación. De
esto se
desprende que
conceptos como
conocimiento y
aprendizaje, así
como capital
intelectual y
capital social e
innovación estén
estrechamente
relacionados.
2.
Las
organizaciones
que asumen
activamente la
práctica del
aprendizaje
permanente, se
asocian a lo que
se denominan
organizaciones
inteligentes; es
decir, aquellas
con capacidad
organizada para
tomar decisiones
innovadoras
sobre problemas
emergentes, con
una mínima
utilización de
recursos como el
tiempo, la
información, el
conocimiento, los
financieros y los
humanos.
3.
La gerencia en
las
organizaciones
debe estar bajo
un eje de gestión
de la
información como
productor de
conocimientos.
4.
La generación de
estos
conocimientos
demanda como
valor agregado,
que se
desarrollen en las
empresas
capacidades
innovativas de
distinta índole
que le permitan
adaptarse,
sobrevivir y
competir; así
como también
para
transformarse a
sí mismas.
5.
El uso de la
información debe
ser desarrollado e
incrementado
para
alcanzar un
posicionamiento
efectivo dentro de
los sistemas de
información en
la organización,
lo cual hará
posible un mayor
apoyo a la
gestión de la
información.
6.
Las
organizaciones
deberán pensar
estratégicamente
con visión de
futuro
proactivo,
facilitador e
innovador capaz
de interpretar y
producir con
valores
definidos los
cambios sin
originar
conflictos,
ya que l
a globalización
nos ha traído
nuevos retos y
exigencias en las
relaciones
económicas y
empresariales,
donde
la ética toma más
relevancia y cada
vez se hace más
exigente.
7.
Es importante
fortalecer los
valores y
principios de las
organizaciones
ya
que
tienen
efectos
en
el
capital
humano;
generando una
cultura
de
responsabilidad y
principios éticos.
8.
Las
organizaciones
empresariales
están sujetas a
cambios y
presiones
que requieren
nuevos patrones
de gestión, que
den respuesta a
un contexto
donde la
información, la
comunicación, el
liderazgo y el
conocimiento se
convierten en el
eje estratégico de
los negocios.
9.
La gerencia
deberá definir con
claridad quien es
y que ofrece,
donde está
y adonde quiere
llegar,
pues son los
elementos clave
para mantener y
superar
la competitividad
y excelencia en
los negocios con
una clara visión,
humildad de
aprender y crecer
constantemente.
10.
Como tarea
básica de la
gerencia es llevar
a cabo las
actividades con la
participación de
las personas con
una
comunicación
clara para el logro
de los
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

18 / 20
objetivos a través
de, la eficiencia
para así lograr
consolidar la
planificación de
las metas y
objetivos, la
organización de
las tareas, la
dirección a
seguir,
la
evaluación de los
procesos y
retroalimentación
de los mismos,
para así, caminar
hacia una
sociedad del
conocimiento que
implica, por otra
parte, la
necesidad de
generar
estrategias
políticas
y
económicas
que
faciliten
y
garanticen
la
formación, la
educación y el
aprendizaje a lo
largo de la vida,
es decir buscar la
estimulación a la
adquisición de
conocimientos,
creación de una
red de
educación,
mejorar y divulgar
conocimientos
sobre métodos de
aprendizaje.
REFERENCI
AS
Andersen, A. (1999).
El Management en
el Siglo XXI
. Buenos Aires:
Granica.
Añez H., Carmen
(2009).
Gerencia del
conocimiento:
Modelo de creación
de valor y
apropiación de la
creatividad del
capital intelectual.
Actualidad Contable
FACES Año
12 Nº 18, Enero-Junio
2009. Mérida.
Venezuela (22-33) 22
Arellano F. (2013)
Desarrollo de
modelo estratégico
para la asimilación,
utilización y
transferencia del
conocimiento en las
organizaciones
petroleras
. XVIII Congreso
internacional en
Contaduría,
Administración e
Informática: Octubre
2,3 y 4. Ciudad
Universitaria Ciudad
de México D.F
Arambarri, J. (2012).
Metodología de
Evaluación y
Gestión del
Conocimiento
Dinámico por
Procesos Utilizando
como Soporte TIC
en el Entorno
Colaborativo de
Trabajo
Basado en el
Modelo de Creación
de Conocimiento de
Nonaka-Takeuchi.
Caso de
Estudio en el Área de
Gestión de Proyectos
en Institución
Avanzada en
Conocimiento.
Tesis Doctoral,
Universidad de
Córdova. Revisado el
10 de septiembre de
2015 en la
World Wide Web:
www.uco.es/publicaci
ones.
Banco Mundial
(2003).
Aprendizaje
permanente en la
economía global del
conocimiento
.
Alfaomega Grupo
Editor, México.
Briola, C. (s/f).
Ética organizacional
. Revisado el 11 de
junio de 2015 en la
World Wide Web:
http://www.econ.uba.
ar/www/institutos/epis
temologia/marco.
../Briola.pdf.
Brooking, A. (1996).
Intellectual Capital
Core Asset for Third
Millennium
Enterprise
. Paidós
Empresa, Madrid.
España.
Bueno, E. (1999).
Gestión del
conocimiento,
aprendizaje y capital
intelectual
.
Boletín del
Club Intelect, no. 1,
enero. Madrid.
España.
Burch, J. y Strater, F.
(1981).
Sistemas
de Información
Teoría y Práctica
. Editorial Limusa
México.
Centeno, Máximo,
Ugarte, Vega (2007).
La ética empresarial
como creación de
valor
. Gestión
en el Tercer Milenio,
Revista de
Investigación de la
Facultad de Ciencias
Administrativas,
UNMSM Vol. 10, Nº
19. Lima. Perú.
Damiani, L. (2005).
Epistemología y
ciencia en la
modernidad: El
traslado de la
racionalidad
de las ciencias
físico-naturales a
las ciencias
sociales
. Caracas: Ediciones
FACES-
UCV. 1ª reimpresión.
Trabajo original
publicado en 1997.
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20

19 / 20
De Freitas, V. y
Yáber, G. (2014).
Modelo holístico de
sistema de gestión
del conocimiento
para las
instituciones de
educación superior
. Enl@ce Revista
Venezolana de
Información,
Tecnología y
Conocimiento, 11
(3),123-154.
Dosi, G.; Nelson, R.;
Winter, S. (1999).
The Nature of
Dynamics of
Organizational
Capabilities
, Forthcoming.
Figuerola, N. (2013).
Gestión del
Conocimiento
(Knowledge
Management),
Pirámide D-IK-
W.
Revisado
el
10
de
septiembre
de
2015
en
la
World
Wide
Web:
http://www.produccio
ncientifica.luz.edu.ve/i
ndex.php/enlace/articl
e/download/19120/19
1
03.
Guédez, V (2003).
Aprender a
emprender.
De la gerencia del
conocimiento
. Editorial Planeta.
Venezuela.
Hedlund, G. (1994).
A Model of
Knowledge
Management and
the N-form
Corporation
.
Strategic
Management Journal
15. Summer Special
Issue.
Ibáñez, N; Castillo, R.
(2010).
Hacia una
epistemología de la
gerencia
. Orbis. Revista
Científica
Ciencias Humanas,
vol. 6, núm. 16, julio-
octubre, 2010, pp. 54-
78 Fundación Miguel
Unamuno y Jugo
Maracaibo,
Venezuela.
Jordán, O., González,
O. y
Delgado, M (s/f).
La gerencia desde
la perspectiva del
pensamiento
estratégico
. Revisado el 23 de
enero del 2015 en la
World Wide Web:
http://www.uru.edu/fo
ndoeditorial/articulos/
Mariadelgado/LA%20
GERENCIA%20DES
D
E%20LA%20PERSP
ECTIVA.pdf.
Kogut, B. Zander, U.
1992.
Knowledge of the
firm, combinative
capabilities and the
replication of
technology
. Organization
Science.
Lall, S (1996).
Las capacidades
tecnológicas
. En: Una búsqueda
incierta. Ciencia,
tecnología
y desarrollo. Jean-
Jacques Salomón,
Francisco Sagasti y
Céline Sachs
(Compiladores).
Editorial de la
Universidad de las
Naciones Unidas.
Centro de
Investigación y
Docencia
Económica. Fondo de
Cultura Económica.
México.
Larrea, M. (2012).
Gestión del
Conocimiento y la
Institución
Universitaria, Una
Visión
Aupoiética
. ARJÉ: Revista de
Postgrado.
Lejter, N. (2007).
¿Moda o
revolución?.
Web Tema: gerencia
del conocimiento.
Revisado el 10
de
septiembre
de
2015
en
la
World
Wide
Web:
http://www.saber.ula.
ve/bitstream/1234567
89/29609/1/articulo2.
pdf
Long, L. y Long, N.
(1999).
Introducción a las
Computadoras y a
los Sistemas de
Información
.
Edición Internet. 5ª
edición. Prentice Hall
México.
Marín, F (2002).
El autoaprendizaje y
la asimilación de
conocimiento
. Revista Venezolana
de Gerencia. Año 7,
No. 18. Venezuela.
Mcleod, R. (2000).
Sistemas de
información
gerencial
. Pearson educación.
México.
Microsoft (2006).
El énfasis en capital
humano: el reto del
talento
. Revisado el 10 de
septiembre
de
2015
en
la
World
Wide
Web:
http://www.degerenci
a.com/articulo/gerenci
a_del_conocimiento_
moda_o_revolucion
Negotium
Revista Científica
Electrónica de Ciencias
Gerenciales
/ Scientific e-journal of
Management Sciences
PPX 200502ZU1950
ISSN: 1856-1810 Edited
by Fundación Unamuno /
Venezuela /
Cita / Citation:
Karla Torres, Paola
Lamenta (2015)
LA GESTIÓN DEL
CONOCIMIENTO Y
LOS SISTEMAS DE
INFORMACIÓN EN
LAS
ORGANIZACIONES
www.revistanegotium.or
g.ve / núm 32 (año 11)
pág 3-20
20 / 20
Muñoz, B y Riverola,
J (2003).
Del buen pensar y
mejor hacer. Mejora
permanente y
gestión
del conocimiento
. Mc Graw-
Hill/Interamericana de
España, S.A.U.
España.
Nonaka, Ikujiro y
Takeuchi, Hirotaka
(1995).
La organización
creadora de
conocimiento
.
Oxford University
Press. México.
Parera, A. (2003).
La gestión del
conocimiento
. Ediciones Gestión
2000.
Reaich, B, Gemino,
A. y Sauer, C. (2012).
Knowledge
Management and
Projectbased
Knowledge in it
Projects
. A Model and
Preliminary Empirical
Results. International
Journal of Project
Management. Vol. 30,
(6), 663-674.
Salazar del Castillo,
J. (2004).
Algunas
Reflexiones sobre la
Gestión del
Conocimiento en
las Empresas
. Revista Intangible
Capital. Nº 1.Vol. 17.
Teece, D.; Pisano,
G.; Shuen, A. (1997),
Dynamic
Capabilities and
Strategic
Management
Strategic
Management Journal,
vol. 18, núm. 7.
Tejedor, B., &
Aguirre, A. (1998).
Proyecto Logos:
Investigación
relativa a la
Capacidad de
Aprender de las
Empresas
Españolas
. Boletín de Estudios
Económicos 64.
Zorrilla, H (1997).
La gerencia del
conocimiento y la
gestión tecnológica
. Programa de
Gestión Tecnológica.
Universidad de Los
Andes. Mérida.
Venezuela.

El Sistemas de Gestión del Conocimiento como un


sistema de proceso
Enviado por Niurka Elena Remedios Ballesteros
Partes: 1, 2
1. Resumen
2.
3. Bibliografía

Resumen
El conocimiento puede definirse como aquella información almacenada en una entidad y que
puede ser utilizada por la inteligencia de acuerdo a ciertos objetivos. Se puede dividir el
conocimiento en dos grupos: uno natural que pertenece a los organismos vivos con sistema
nervioso y el otro, artificial, que poseen aquellos mecanismos que simulan o reproducen
parcialmente al sistema natural. En el caso del hombre, el conocimiento
es producto deprocesos mentales que parten de la percepción, el razonamiento o la intuición.
En ese sentido, uno de los conceptos fundamentales para el conocimientoes la capacidad de
relación o asociación entre estos.
Según Puleo (1985), el conocimiento como información específica acerca de algo puede
referirse a dos entidades diferentes: su forma y su contenido. La forma es esencial al
determinar las condiciones por las cuales algo puede llegar a ser objeto del conocimiento. El
contenido se produce bajo influencias externas y donde se pueden distinguir dos actividades de
la mente: percibir y concebir.
Percibir es la actividad mental mediante la cual llegan al cerebro los estímulos del exterior y se
realiza el proceso de cognición. De otro lado, concebir es la actividad mental mediante la cual
resultan conceptos e ideas e a partir de los estímulos percibidos, los cuales determinan a su vez
los conceptos de entender y comprender que hacen que el proceso cognoscitivo culmine
en aprendizaje.
Se debe diferenciar el entender de comprender, se entiende un hecho, una relación, una
palabra, un método, en cambio, se comprende una serie, un sistema, un plan. La comprensión
es una aptitud elevada del pensamiento humano.
Se rescata la idea de que la información es el insumo esencial del conocimiento, en ese sentido,
el desarrollo de las redes de información fundamentadas sobre todo por
la tecnología de Internet crea un nuevo contexto a las organizaciones de hoy. En este entorno,
las posibilidades de publicar, almacenar y distribuir información se ha expandido
considerablemente, conduciendo a las organizaciones al planteamiento de objetivos más
ambiciosos y, poco a poco, al traslado de la idea de gerencia de la información a la idea de
gerencia del conocimiento.
Las organizaciones empresariales y públicas disponen de un recurso vital e intangible que les
permite desarrollar su actividad esencial, ese recurso es el conocimiento. El conocimiento
reside en el complejo sistema de procesos que da como resultado, la materialización de
los bienes o servicios. Existen dos soportes básicos del conocimiento:
 1. Los recursos humanos que intervienen en los procesos de producción o de soporte
organizacional (formación, capacidades, cualidades personales, entre otras).
 2. La información manejada en dichos procesos, que capacita a estas personas a
incrementar su formación o habilidades para el desarrollo de sus tareas.
De la fusión de estos dos soportes emerge el conocimiento. De manera, que en la medida de
que la estructura organizacional facilite la sincronía entre persona e información se creará un
entorno de conocimiento. Este es uno de los objetivos esenciales de la gestión del
conocimiento. Las condiciones necesarias para la creación de un entorno de conocimiento
como una red de orden superior que enlaza los recursos constituidos por:
 La calidad del recurso humano.
 La capacidad de gestionar la información.
 La habilidad del modelo organizativo para implementar e integrar
las herramientas, técnicas y métodos adecuados.
Este conjunto de herramientas, técnicas y métodos es o que constituye el sistema de gestión del
conocimiento en las organizaciones públicas y privadas. La principal característica funcional
del sistema de gestión del conocimiento es hacer coincidir las necesidades concretas de
información de las distintas personas y equipos de trabajo con la disponibilidad efectiva de
dicha información.
De esta concepción acerca del conocimiento y la información manejada han surgido nuevas
áreas de trabajo vinculadas a la creación de nuevos modelosorganizacionales. Sobre la base de
lo anterior, se puede señalar que una organización es una suprarred de recursos de
conocimiento compuesta por una red de recursos humanos, la red de recursos de información y
la red de recursos informáticos y telemáticos.
Una de las ventajas más significativa de este enfoque es que una organización dotada de un
sistema de gestión del conocimiento tenderá a maximizar el rendimiento del aprendizaje. En
este sentido, uno de los mayores exponentes de una corriente en la administración, Senge
(1992), plantea la necesidad de que los equipos, en una organización abierta al aprendizaje,
funcionen como una totalidad, es decir que la energía de cada uno de los miembros del equipo
se encaucen en una misma dirección. Este fenómeno denominado alineamiento, a nivel de los
equipos también es necesario entre los equipos, la red de información y la de recursos
telemáticos. Tal alineamiento de recursos genera costos de aprendizaje mucho menores.

El Sistemas de Gestión del Conocimiento como un


sistema de proceso (página 2)
Enviado por Niurka Elena Remedios Ballesteros

Partes: 1, 2

En la actualidad, hay al menos dos factores a favor de la concepción


de sistemas de gestión del conocimiento:
 1. Una mayor conciencia de los gerentes hacia la información como un recurso más de
la organización y como fundamento del capital intelectual.
 2. El avance tecnológico en informática documental, telemática y la integración de ambos a
partir de Internet, y de su desviación privada, las Intranets.
Según Drucker (1994), en nuestro tiempo existe una transformación en la concepción del
conocimiento. Este ha pasada de una situación aplicable a ser a otra aplicable a hacer, es decir
de una situación referida al desarrollo intelectual de la persona a otra como factor
de producción tomando como base su utilidad. En este sentido, el conocimiento se convierte en
un instrumento o medio para obtener resultados.

Gestión del Conocimiento


La gestión del conocimiento involucra dos aspectos relevantes. Por una parte la idea de gestión
indica de algún modo, la organización, la planificación, la dirección y
el control de procesos para conformar o disponer de ciertos objetivos. De otro lado, al hablar de
conocimiento se pone e manifiesto que una organización, como cualquier ser humano, está
sometida a una dinámica en la que del exterior y del interior mismo, capta o percibe
información, la reconoce, la organiza, la almacena, la analiza, la evalúa y emite una respuesta al
exterior, basada en dicha información y englobada en el total de información almacenada
procurando un resultado.
La realidad o parte de la realidad que es el objeto de nuestra comprensión siempre se ve bajo
los ojos de un paradigma o conjunto relacionado de
ideas, principios, teorías, métodos, técnicas, herramientas y, también, creencias básicas o
esenciales. El paradigma constituye el entorno mental y sobre él se construyen las decisiones y
las acciones.
En la actualidad, el modelo holístico por excelencia es el modelo biológico, sistemas con sus
propias reglas y autoorganizados, capaces de optimizar sus propios recursos. De allí su uso
referencial al momento de identificar problemas y ofrecer soluciones para poder realizar algo
nuevo.
Evidentemente un sistema neuronal de un ser vivo es capaz de elevadísimos y sutiles procesos
de datos y de información, de elevados ratios de respuesta y de aprendizaje. En la gestión del
conocimiento interesa sobre todo el aprendizaje. No en vano una de las tendencias más sólidas
durante la última década en las organizaciones ha sido el de los programas de formación
permanente del personal y demás postulados planteados en la V Disciplinarelativos al
aprendizaje en equipo.
En el ámbito organizacional se ha valorado el recurso humano como algo dinámico. Sin
embargo, se valora más la capacidad de aprendizaje que los conocimientos adquiridos. Es más
importante aprender, ya que esto significa conocer el conocimiento, que poseer una colección
de conocimientos.
Retomando el planteamiento de Drucker, la aplicación de conocimiento al conocimiento
implica la gestión del conocimiento o aplicación del conocimiento existente en la obtención de
resultados y la innovación sistémica o la definición de los nuevos conocimientos necesarios,
su factibilidad y del método para hacerlo eficaz. Adicionalmente agrega que la tarea de hacer
productivo el conocimiento es una tarea de la administración. De esta manera, la gestión del
conocimiento implica la explotación continua del mismo para desarrollar nuevos y diferentes
procesos y productos dentro de las organizaciones.
El autor señala que las organizaciones deben incorporar tres prácticas sistémicas en la gestión
del conocimiento, estas son:
 1. Mejorar continuamente procesos y productos.
 2. Aprender a explotar el éxito y,
 3. Aprender a innovar.
Asociado a la gestión del conocimiento, el problema de las organizaciones consiste en consultar
o acceder a la información y producir información de factores estáticos y de otro dinámico. En
particular, se debe analizar la información que se maneja en la organización real, por ejemplo,
datos o bases de datos, soportes de decisiones, documentos diversos, tanto en formato como en
procedencia o localización y documentos electrónicos.
El éxito de la organización resulta de su capacidad de identificar y respetar los individuos y de
la capacidad de integrarlos en un todo. Un sistema de gestión del conocimiento, en un sentido
general, supone que una organización se dote de tres funcionalidades estratégicas distintas,
pero reunidas en una sola y misma aplicación informática:
- Reutilización o realimentación del valor añadido que la organización genera y adquiere, y que
representa el capital intelectual de la misma, al serviciode la resolución de nuevos problemas,
incrementando de esta manera el valor añadido de los servicios producidos y el rendimiento de
dicha actividad.
- Investigación y análisis al servicio de las personas, que en la organización son los productores
de valor añadido y/o son responsables de tomar decisiones críticas, sobre la base de una
adecuada disposición de información diversa (datos, papel, textos electrónicos, etc.), y una
rápida respuesta.
- Acceso unificado a todas y cada una de las capas de información tejidas sobre
la estructura organizacional.
En la práctica, el individuo en la organización se enfrenta a todo el conocimiento o a una
parcela de él, por eso la gestión del conocimiento organizacional debe ser también un
instrumento de investigación.
El soporte de un sistema de gestión del conocimiento lo constituye la información documental
que a diario es generada en las organizaciones. De manera que sí la misma se maneja en forma
automatizada se podrá mantener más accesible y más segura, por lo tanto mas viva.
Este objetivo justifica por sí mismo la incorporación de unos métodos y unas aplicaciones
informáticas apropiadas.
En la consideración entre el manejo de información producida en la organización y la
integración de esa información a nuevo conocimiento se deben considerar dos alternativas
válidas. La primera es la posibilidad de introducir un sistema de gestión documental el cual
soluciona la gestión de los archivos que internamente se mantienen,
transformando operaciones manuales en automatizadas y generando documentos electrónicos
y soportes en papel en los casos requeridos.
La segunda opción está referida al manejo integrado e independiente de los sistemas de
información ya existentes el cual introduce el concepto de sistemas de gestión del
conocimiento, sin que ello signifique mayores costos o mayores complicaciones tecnológicas.
Esta posibilidad incorpora la presencia de una capa superior a la estructura informacional de
la red existente o metasistema externo e independiente de los sistemas de
información operativos.
Al capturar, almacenar y emplear el conocimiento, en los procesos organizacionales se genera
valor añadido a las organizaciones lo cual reduce el costode aprendizaje. Los sistemas de
gestión del conocimiento deben orientarse a minimizar la energía consumida y maximizar la
energía producida para la adquisición y producción de nuevos conocimientos que a su vez
agreguen valor a la organización.
La ecuación del conocimiento en las organizaciones plantea que en un momento dado cuando
la realización de los procesos organizacionales envuelve la utilización del conocimiento, se
consume una determinada cantidad de energía en recursos (humanos y materiales).
Al plantearse en otro momento un proceso análogo pueden ocurrir dos cosas: reproducir el
mismo consumo energético o minimizar dicho consumo, disponiendo de un sistema de gestión
del conocimiento que permita utilizar el conocimiento producido y acumulado.
En resumen, un sistema de gestión del conocimiento permite la reutilización de la información
almacenada en la organización y su incorporación en los procesos funcionales y operacionales
integrando los sistemas de información existentes y permitiendo la durabilidad de la
información y el conocimiento.
Sistemas de archivos
¿Qué son los sistemas de archivos?

Un sistema de archivos son los métodos y estructuras de datos que un sistema


operativo utiliza para seguir la pista de los archivos de un disco o partición; es
decir, es la manera en la que se organizan los archivos en el disco. El término
también es utilizado para referirse a una partición o disco que se está utilizando
para almacenamiento, o el tipo del sistema de archivos que utiliza. Así uno puede
decir “tengo dos sistemas de archivo” refiriéndose a que tiene dos particiones en
las que almacenar archivos, o que uno utiliza el sistema de “archivos extendido”,
refiriéndose al tipo del sistema de archivos.

La diferencia entre un disco o partición y el sistema de archivos que contiene es


importante. Unos pocos programas (incluyendo, razonablemente, aquellos que
crean sistemas de archivos) trabajan directamente en los sectores crudos del disco
o partición; si hay un archivo de sistema existente allí será destruido o
corrompido severamente. La mayoría de programas trabajan sobre un sistema de
archivos, y por lo tanto no utilizarán una partición que no contenga uno (o que
contenga uno del tipo equivocado).

Antes de que una partición o disco sea utilizada como un sistema de archivos,
necesita ser iniciada, y las estructura de datos necesitan escribirse al disco. Este
proceso se denomina construir un sistema de archivos.

La mayoría de los sistema de archivos UNIX tienen una estructura general


parecida, aunque los detalles exactos pueden variar un poco. Los conceptos
centrales son superbloque, nodo-i, bloque de datos, bloque de directorio,
y bloque de indirección. El superbloque tiene información del sistema de
archivos en conjunto, como su tamaño (la información precisa aquí depende del
sistema de archivos). Un nodo-i tiene toda la información de un archivo, salvo su
nombre. El nombre se almacena en el directorio, junto con el número de nodo-i.
Una entrada de directorio consiste en un nombre de archivo y el número de nodo-
i que representa al archivo. El nodo-i contiene los números de varios bloques de
datos, que se utilizan para almacenar los datos en el archivo. Sólo hay espacio
para unos pocos números de bloques de datos en el nodo-i; en cualquier caso, si
se necesitan más, más espacio para punteros a los bloques de datos son colocados
de forma dinámica. Estos bloques colocados dinámicamente son bloques
indirectos; el nombre indica que para encontrar el bloque de datos, primero hay
que encontrar su número en un bloque indirecto.
Los sistemas de archivos UNIX generalmente nos permiten crear un agujero en
un archivo (esto se realiza con la llamada al sistema lseek(); compruebe su
página de manual), lo que significa que el sistema de archivos simplemente
intenta que en un lugar determinado en el archivo haya justamente cero bytes,
pero no existan sectores del disco reservados para ese lugar en el archivo (esto
significa que el archivo utilizará un poco menos de espacio en disco). Esto ocurre
frecuentemente en especial para pequeños binarios, librerías compartidas de
Linux, algunas bases de datos, y algunos pocos casos especiales. (los agujeros se
implementan almacenando un valor especial en la dirección del bloque de datos
en el bloque indirecto o en el nodo-i. Esta dirección especial indica que ningún
bloque de datos está localizado para esa parte del archivo, y por lo tanto, existe
un agujero en el archivo).

Sistemas de archivos soportados por Linux

Linux soporta una gran cantidad de tipos diferentes de sistemas de archivos. Para
nuestros propósitos los más importantes son:

minix

El más antiguo y supuestamente el más fiable, pero muy limitado en


características (algunas marcas de tiempo se pierden, 30 caracteres de
longitud máxima para los nombres de los archivos) y restringido en
capacidad (como mucho 64 MB de tamaño por sistema de archivos).

xia

Una versión modificada del sistema de archivos minix que eleva los
límites de nombres de archivos y tamaño del sistema de archivos, pero por
otro lado no introduce características nuevas. No es muy popular, pero se
ha verificado que funciona muy bien.

ext3

El sistema de archivos ext3 posee todas las propiedades del sistema de


archivos ext2. La diferencia es que se ha añadido una bitácora
(journaling). Esto mejora el rendimiento y el tiempo de recuperación en el
caso de una caída del sistema. Se ha vuelto más popular que el ext2.

ext2
El más sistema de archivos nativo Linux que posee la mayor cantidad de
características. Está diseñado para ser compatible con diseños futuros, así
que las nuevas versiones del código del sistema de archivos no necesitará
rehacer los sistemas de archivos existentes.

ext

Una versión antigua de ext2 que no es compatible en el futuro. Casi nunca


se utiliza en instalaciones nuevas, y la mayoría de la gente que lo utilizaba
han migrado sus sistemas de archivos al tipo ext2.

reiserfs

Un sistema de archivos más robusto. Se utiliza una bitácora que provoca


que la pérdida de datos sea menos frecuente. La bitácora es un mecanismo
que lleva un registro por cada transacción que se va a realizar, o que ha
sido realizada. Esto permite al sistema de archivos reconstruirse por sí sólo
fácilmente tras un daño ocasionado, por ejemplo, por cierres del sistema
inadecuados.

Adicionalmente, existe soporte para sistemas de archivos adicionales ajenos, para


facilitar el intercambio de archivos con otros sistemas operativos. Estos sistemas
de archivos ajenos funcionan exactamente como los propios, excepto que pueden
carecer de características usuales UNIX , o tienen curiosas limitaciones, u otros
inconvenientes.

msdos

Compatibilidad con el sistema de archivos FAT de MS-DOS (y OS/2 y


Windows NT).

umsdos

Extiende el dispositivo de sistema de archivos msdos en Linux para


obtener nombres de archivo largos, propietarios, permisos, enlaces, y
archivos de dispositivo. Esto permite que un sistema de archivos msdos
normal pueda utilizarse como si fuera de Linux, eliminando por tanto la
necesidad de una partición independiente para Linux.

vfat
Esta es una extensión del sistema de archivos FAT conocida como FAT32.
Soporta tamaños de discos mayores que FAT. La mayoría de discos con
MS Windows son vfat.

iso9660

El sistema de archivos estándar del CD-ROM; la extensión popular Rock


Ridge del estándar del CD-ROM que permite nombres de archivo más
largos se soporta de forma automática.

nfs

Un sistema de archivos de red que permite compartir un sistema de


archivos entre varios ordenadores para permitir fácil acceso a los archivos
de todos ellos.

smbfs

Un sistema de archivos que permite compartir un sistema de archivos con


un ordenador MS Windows. Es compatible con los protocolos para
compartir archivos de Windows.

hpfs

El sistema de archivos de OS/2.

sysv

EL sistema de archivos de Xenix, Coherent y SystemV/386..

La elección del sistema de archivos a utilizar depende de la situación. Si la


compatibilidad o alguna otra razón hace necesario uno de los sistemas de
archivos no nativos, entonces hay que utilizar ése. Si se puede elegir libremente,
entonces lo más inteligente sería utilizar ext3, puesto que tiene todas las
características de ext2, y es un sistema de archivos con bitácora.

Existe también el sistema de archivos proc, generalmente accesible desde el


directorio /proc, que en realidad no es un sistema de archivos, aún cuando lo
parece. El sistema de archivos proc facilita acceder a ciertas estructura de datos
del núcleo, como la lista de procesos (de ahí el nombre). Hace que estas
estructuras de datos parezcan un sistema de archivos, y que el sistema de
archivos pueda ser manipulado con las herramientas de archivos habituales. Por
ejemplo, para obtener una lista de todos los procesos se puede utilizar el
comando
$ ls -l /proc
total 0
dr-xr-xr-x 4 root root 0 Jan 31 20:37 1
dr-xr-xr-x 4 liw users 0 Jan 31 20:37 63
dr-xr-xr-x 4 liw users 0 Jan 31 20:37 94
dr-xr-xr-x 4 liw users 0 Jan 31 20:37 95
dr-xr-xr-x 4 root users 0 Jan 31 20:37 98
dr-xr-xr-x 4 liw users 0 Jan 31 20:37 99
-r--r--r-- 1 root root 0 Jan 31 20:37 devices
-r--r--r-- 1 root root 0 Jan 31 20:37 dma
-r--r--r-- 1 root root 0 Jan 31 20:37 filesystems
-r--r--r-- 1 root root 0 Jan 31 20:37 interrupts
-r-------- 1 root root 8654848 Jan 31 20:37 kcore
-r--r--r-- 1 root root 0 Jan 31 11:50 kmsg
-r--r--r-- 1 root root 0 Jan 31 20:37 ksyms
-r--r--r-- 1 root root 0 Jan 31 11:51 loadavg
-r--r--r-- 1 root root 0 Jan 31 20:37 meminfo
-r--r--r-- 1 root root 0 Jan 31 20:37 modules
dr-xr-xr-x 2 root root 0 Jan 31 20:37 net
dr-xr-xr-x 4 root root 0 Jan 31 20:37 self
-r--r--r-- 1 root root 0 Jan 31 20:37 stat
-r--r--r-- 1 root root 0 Jan 31 20:37 uptime
-r--r--r-- 1 root root 0 Jan 31 20:37
version
$

(Puede haber no obstante algunos archivos adicionales que no correspondan con


ningún proceso. El ejemplo anterior se ha recortado.)

Tenga en cuenta que aunque se llame sistema de archivos, ninguna parte del
sistema de archivos proc toca el disco. Existe tan sólo en la imaginación del
núcleo. Cuando alguien intenta echar un vistazo a alguna parte del sistema de
archivos proc, el núcleo hace que parezca como si esa parte existiera en alguna
parte, aunque no lo haga. Así, aunque exista un archivo /proc/kcore de muchos
megabytes, no quita espacio del disco.

¿Qué sistemas de archivos deben utilizarse?

Existe generalmente poca ventaja en utilizar muchos sistemas de archivos


distintos. Actualmente, el más popular sistema de archivos es ext3, debido a que
es un sistema de archivos con bitácora. Hoy en día es la opción más inteligente.
Reiserfs es otra elección popular porque también posee bitácora. Dependiendo de
la sobrecarga del listado de estructuras, velocidad, fiabilidad (percibible),
compatibilidad, y otras varias razones, puede ser aconsejable utilizar otro sistema
de archivos. Estas necesidades deben decidirse en base a cada caso.
Un sistema de archivos que utiliza bitácora se denomina sistema de archivos con
bitácora. Un sistema de archivos con bitácora mantiene un diario, la bitácora, de
lo que ha ocurrido en el sistema de archivos. Cuando sobreviene una caída del
sistema, o su hijo de dos años pulsa el botón de apagado como el mío adora
hacer, un sistema de archivos con bitácora se diseña para utilizar los diarios del
sistema de archivos para recuperar datos perdidos o no guardados. Esto reduce la
pérdida de datos y se convertirá en una característica estándar en los sistemas de
archivos de Linux. De cualquier modo, no extraiga una falsa sensación de
seguridad de esto. Como todo en esta vida, puede haber errores. Procure siempre
guardar sus datos para prevenir emergencias.

Crear un sistema de archivos

Un sistema de archivos se crea, esto es, se inicia, con el comando mkfs. Existen
en realidad programas separados para cada tipo de sistemas de archivos. mkfs es
únicamente una careta que ejecuta el programa apropiado dependiendo del tipo
de sistemas de archivos deseado. El tipo se selecciona con la opción -t fstype.

Los programas a los que -t fstype llama tienen líneas de comando ligeramente
diferentes. Las opciones más comunes e importantes se resumen más abajo; vea
las páginas de manual para más información.
-t fstype

Selecciona el tipo de sistema de archivos.


-c

Busca bloques defectuosos e inicia la lista de bloques defectuosos en


consonancia.

-l filename

Lee la lista inicial de bloques defectuosos del archivo dado.

Para crear un sistema de archivos ext2 en un disquete, se pueden introducir los


siguiente comandos:
$ fdformat -n /dev/fd0H1440
Double-sided, 80 tracks, 18 sec/track. Total capacity
1440 kB.
Formatting ... done
$ badblocks /dev/fd0H1440 1440 $>$
bad-blocks
$ mkfs -t ext2 -l bad-blocks
/dev/fd0H1440
mke2fs 0.5a, 5-Apr-94 for EXT2 FS 0.5, 94/03/10
360 inodes, 1440 blocks
72 blocks (5.00%) reserved for the super user
First data block=1
Block size=1024 (log=0)
Fragment size=1024 (log=0)
1 block group
8192 blocks per group, 8192 fragments per group
360 inodes per group

Writing inode tables: done


Writing superblocks and filesystem accounting information:
done
$

Primero el disquete es formateado (la opción -n impide la validación, esto es, la


comprobación de bloques defectuosos). A continuación se buscan los bloques
defectuosos mediante badblocks, con la salida redirigida a un archivo, bad-
blocks. Finalmente, se crea el sistema de archivos con la lista de bloques
defectuosos iniciada con lo que hubiera encontrado badblocks.

La opción -c podría haberse utilizado con mkfs en lugar de badblocks y un


archivo a parte. El ejemplo siguiente hace esto.
$ mkfs -t ext2 -c
/dev/fd0H1440
mke2fs 0.5a, 5-Apr-94 for EXT2 FS 0.5, 94/03/10
360 inodes, 1440 blocks
72 blocks (5.00%) reserved for the super user
First data block=1
Block size=1024 (log=0)
Fragment size=1024 (log=0)
1 block group
8192 blocks per group, 8192 fragments per group
360 inodes per group

Checking for bad blocks (read-only test): done


Writing inode tables: done
Writing superblocks and filesystem accounting information:
done
$

La opción -c es más conveniente que la utilización a parte de badblocks,


pero badblocks se necesita para comprobar el sistema de archivos una vez
creado.

El proceso para preparar sistemas de archivos en discos duros o particiones es le


mismo que para los disquetes, excepto que no es necesario el formateo.
Montar y desmontar

Antes de que se pueda utilizar un sistema de archivos, debe ser montado. El


sistema operativo realiza entonces operaciones de mantenimiento para asegurarse
que todo funciona. Como todos los archivos en UNIX están en un mismo árbol
de directorios, la operación de montaje provocará que el contenido del nuevo
sistema de archivos aparezca como el contenido de un subdirectorio existente en
algún sistema de archivos ya montado.

Por ejemplo, la Figura 6.4, “Tres sistemas de archivos independientes.” muestra


tres sistemas de archivos independientes, cada uno de ellos con su propio
directorio raíz. Cuando se montan los dos últimos sistemas de archivos
bajo /home y /usr respectivamente, en el primer sistema de archivos, obtenemos
un único árbol de directorios, como se observa en la Figura 6.5,
“/home y /usr montados.”.

Figura 6.4. Tres sistemas de archivos independientes.

Figura 6.5. /home y /usr montados.

El montaje puede realizarse como en el siguiente ejemplo:


$ mount /dev/hda2 /home
$ mount /dev/hda3 /usr
$

El comando mount tiene dos argumentos. El primero es el archivo de dispositivo


correspondiente al disco o partición que contiene el sistema de archivos. El
segundo es el directorio bajo el cual va a ser montado. Tras estos dos comandos
el contenido de los dos sistemas de archivos aparecen como los contenidos de los
directorios /home y /usr, respectivamente. Se dice que “/dev/hda2 está montado
en /home”, e igualmente para /usr. Para ver cualquiera de los sistemas de
archivos, se puede mirar el contenido del directorio en el que fue montado, como
si fuera cualquier otro directorio. Observe la diferencia entre el archivos de
dispositivo, /dev/hda2, y el directorio de montaje, /home. El archivo de
dispositivo proporciona acceso al contenido crudo del disco, el directorio de
montaje proporciona acceso a los archivos del disco. El directorio de montaje se
denomina punto de montaje.

Linux soporta multitud de sistemas de archivos. mount intenta adivinar el tipo


de sistema de archivos. Se puede utilizar la -t fstype para especificar el tipo
directamente; esto es necesario en determinados casos, puesto que la
heurística que utiliza mount no siempre funciona. Por ejemplo, para montar un
disquete MS-DOS, se puede utilizar el comando siguiente:
$ mount -t msdos /dev/fd0 /floppy
$

El directorio de montaje necesita estar vacío, aunque debe existir. Cualquier


archivo en él, en cualquier caso, será inaccesible por su nombre mientras el
sistema de archivos esté montado. (Cualquier archivo que estuviera abierto
seguirá estando accesible. Archivos que tengan enlaces duros desde otros
directorios podrán accederse utilizando esos nombres.) No hay daño alguno
haciendo esto, y puede incluso ser útil. Por ejemplo, a alguna gente le gusta tener
a /tmp y /var/tmp como sinónimos, y poner /tmp como enlace simbólico
a /var/tmp. Cuando el sistema arranca, antes de montar el sistema de
archivos /var, se utiliza un directorio /var/tmp residente en el sistema de
archivos raíz en su lugar. Cuando /var se monta, convertirá al
directorio/var/tmp del sistema de archivos raíz inaccesible. Si /var/tmp no existe
en el el sistema de archivos raíz, será imposible utilizar los archivos temporales
antes de montar /var.

Si no tiene intención de escribir nada en el sistema de archivos, utilice el


modificador -r de mount para realizar un montaje de sólo-lectura. Esto
provocará que el núcleo detenga cualquier intento de escribir en el sistema de
archivos, y también impedirá que el núcleo actualice el tiempo de acceso a los
nodos-i. Montaje de sólo-lectura son necesarios para medios no grabables, como
los CD-ROM.

El lector atento habrá notado un ligero problema lógico. ¿Cómo se monta el


primer sistema de archivos (denominado sistema de archivos raíz, ya que
contiene al directorio raíz), si obviamente no puede montarse sobre otro sistema
de archivos? Bueno, la respuesta es que se realiza un truco de magia. [14]El
sistema de archivos raíz se monta mágicamente a la hora del arranque, y se puede
confiar en que siempre será montado. Si el sistema de archivos no puede
montarse, el sistema no arrancará. El nombre del sistema de archivos que
mágicamente se monta como root está compilado dentro del núcleo, o se
especifica utilizando LILO o rdev.

El sistema de archivos raíz se monta generalmente para sólo-lectura. Los guiones


(scripts) de inicio ejecutarán entonces fsck para comprobar su validez, y si no
hay problemas, volverá a montarlo para permitir la escritura. fsck no debe
ejecutarse en sistemas de archivos montados, puesto que cualquier cambio en el
sistema de archivos mientras se ejecuta fsck puede causar problemas. Como el
sistema de archivos raíz se monta como sólo-lectura mientras se
comprueba, fsck puede corregir cualquier problema sin preocuparse, porque la
operación de remontaje vaciará cualquier metadato que el sistema de archivos
mantuviera en memoria.

En muchos sistemas existen otros sistemas de archivos que también deben


montarse de forma automática durante en el arranque. Estos se especifican en el
archivo /etc/fstab ; vea la página de manual de fstab para los detalles en el
formato. Los detalles sobre cuándo se montan exactamente los sistemas de
archivos adicionales dependen de muchos factores, y pueden ser configurados
por cada administrador si lo necesita; vea el Capítulo 8, Encendido y apagado.

Cuando un sistema de archivos no se necesita seguir montado, puede


desmontarse con umount. [15] umount toma un argumento: o bien el archivo de
dispositivo o el punto de montaje. Por ejemplo, para desmontar los directorios del
ejemplo anterior, se pueden utilizar los comandos
$ umount /dev/hda2
$ umount /usr
$

Lea la página de manual para más información sobre cómo utilizar el comando.
Es obligatorio que siempre se desmonte un disquete montado. ¡No saque
únicamente el disquete de la disquetera! Debido al cacheado de disco, los datos
no se escriben necesariamente hasta que se desmonta el disquete, así que sacar el
disquete de la disquetera demasiado pronto puede provocar que el contenido se
vuelva erróneo. Si únicamente lee del disquete, esto no es muy usual, pero si
escribe, incluso accidentalmente, el resultado puede ser catastrófico.

Montar y desmontar requieren privilegios de superusuario, esto es, sólo root


puede hacerlo. La razón para esto es que si un usuario puede montar un disquete
en cualquier directorio, entonces es relativamente fácil crear un disquete con,
digamos, un caballo de Troya disfrazado de /bin/sh, o cualquier otro programa
frecuentemente utilizado. De cualquier modo, se necesita generalmente permitir a
los usuarios utilizar los disquetes, y hay varias maneras de hacerlo:

 Dar al usuario la contraseña de root. Esto es obviamente inseguro, pero es


la solución más sencilla. Funciona muy bien si no hay otras necesidades de
seguridad, que es el caso de muchos sistemas personales sin red.
 Utilizar un programa como sudo para permitir a los usuarios que monten.
Esto también es inseguro, pero no proporciona privilegios de superusuario
directamente a todo el mundo. [16]
 Hacer que el usuario utilice mtools, un paquete para manipular sistemas de
archivos MS-DOS, sin tener que montarlos. Esto funciona bien si todo lo
que se necesitan son disquetes MS-DOS, pero es bastante lioso en otros
casos.
 Listar los dispositivos flexibles y su punto de montaje permitido junto a las
opciones oportunas en /etc/fstab.

La última alternativa puede implementarse añadiendo una línea como la siguiente


en el archivo /etc/fstab:
/dev/fd0 /floppy msdos user,noauto 0 0

Las columnas corresponden a: archivo de dispositivo a montar, directorio de


montaje, tipo de sistema de archivos, opciones, frecuencia de copia de seguridad
(utilizado por dump), y el número de paso para fsck (especifica el orden en el
que los sistemas de archivos son comprobados en el arranque; 0 significa que no
se comprueba).

La opción noauto impide que se monte automáticamente al iniciar el sistema (es


decir, previene que mount -a la monte). La opción user permite a cualquier
usuario montar el sistema de archivos, y, debido a cuestiones de seguridad,
deniega la ejecución de programas (normales o con setuid) y la interpretación de
sistemas de archivos desde el sistema de archivos montado. Después de eso,
cualquier usuario puede montar un disquete con un sistemas de archivos msdos
con el comando siguiente:
$ mount /floppy
$

El disquete puede (y necesita de ello, por supuesto) desmontarse con la


orden umount correspondiente.
Si desea otorgar acceso para varios tipos de disquetes, necesita proporcionar
distintos puntos de montaje. Las opciones pueden ser diferentes para cada punto
de montaje. Por ejemplo, para permitir accesos a disquetes MS-DOS o ext2, se
pueden tener las siguientes líneas en /etc/fstab:
/dev/fd0 /dosfloppy msdos user,noauto 0 0
/dev/fd0 /ext2floppy ext2 user,noauto 0 0

Para sistemas de archivos MS-DOS (no sólo disquetes), probablemente quiera


restringir el acceso utilizando las opciones del sistema de
archivos uid, gidy umask, descritas en detalle en la página de manual de mount.
Si no es cuidadoso, montar un sistema de archivos MS-DOS proporciona al
menos acceso de lectura a los archivos que hay en él, lo que no es una buena
idea.

Comprobar la integridad de un sistema de archivos con fsck

Los sistemas de archivos son criaturas complejas, y como tales, tienden a ser
propensos a los errores. La corrección y validación de un sistema de archivos
puede ser comprobada utilizando el comando fsck. Puede ser instruido para
reparar cualquier problema menor que encuentre, y alertar al usuario si hay
errores irreparables. Afortunadamente, el código implementado en los sistemas
de archivos puede estudiarse de forma muy efectiva, así que escasamente hay
problemas, y normalmente son causados por fallos de alimentación, hardware
defectuoso, o errores de operación; por ejemplo, no apagar el sistema
adecuadamente.

La mayoría de los sistemas se configuran para ejecutar fsck automáticamente


durante el arranque, así que cualquier error se detecta (y esperemos que
corregido) antes que el sistema se utilice. Utilizar un sistema de archivos
corrupto tiende a empeorar las cosas: si las estructuras de datos se mezclan,
utilizar el sistema de archivos probablemente las mezclará aún más, resultando en
una mayor pérdida de datos. En cualquier caso, fsck puede tardar un tiempo en
ejecutarse en sistemas de archivos grandes, y puesto que los errores casi nunca
suceden si el sistema se ha apagado adecuadamente, pueden utilizarse un par de
trucos para evitar realizar comprobaciones en esos casos. El primero es que si
existe el archivo /etc/fastboot, no se realizan comprobaciones. El segundo es
que el sistema de archivos ext2 tiene una marca especial en su superbloque que
indica si el sistema de archivos se desmontó adecuadamente después del montaje
previo. Esto permite a e2fsck (la versión de fsck para el sistema de archivos
ext2) evitar la comprobación del sistema de archivos si la bandera indica que se
realizó el desmontaje (la suposición es que un desmontaje adecuado indica que
no hay problemas). Que el truco de /etc/fastboot funcione en su sistema
depende de sus guiones (scripts) de inicio, pero el truco de ext2 funciona cada
vez que utilice e2fsck. Debe ser sobrepasado explícitamente con una opción
de e2fsck para ser evitado. (Vea la página de manual de e2fsck para los detalles
sobre cómo.).

La comprobación automática sólo funciona para los sistemas de archivos que se


montan automáticamente en el arranque. Utilice fsck de forma manual para
comprobar otros sistemas de archivos, por ejemplo, disquetes.

Si fsck encuentra problemas irreparables, necesita conocimientos profundos de


cómo funciona en general un sistema de archivos, y en particular el tipo del
sistema de archivos corrupto, o buenas copias de seguridad. Lo último es fácil
(aunque algunas veces tedioso) de arreglar, el precedente puede solucionarse a
través de un amigo, los grupos de noticias y listas de correo de Linux, o alguna
otra fuente de soporte, si no sabe cómo hacerlo usted mismo. Me gustaría
contarle más sobre el tema, pero mi falta de formación y experiencia en este
asunto me lo impiden. El programa de Theodore Ts'o debugfs puede ser de
ayuda.

fsck debe ser utilizado únicamente en sistemas de archivos desmontados, nunca


en sistemas de archivos montados (a excepción del raíz en sólo-lectura en el
arranque). Esto es así porque accede al disco directamente, y puede por lo tanto
modificar el sistema de archivos sin que el sistema operativo se percate de
ello. Habrá problemas, si el sistema operativo se confunde.

Comprobar errores en el disco mediante badblocks

Puede ser buena idea comprobar los bloques defectuosos periódicamente. Esto se
realiza con el comando badblocks. Saca una lista de los números de todos los
bloques malos que puede encontrar. Esta lista puede introducirse en fsck para
grabar en el sistema de archivos las estructuras de datos para que el sistema
operativo no intente utilizar los bloques malos para almacenar datos. El ejemplo
siguiente muestra cómo puede hacerse esto.
$ badblocks /dev/fd0H1440 1440 >
bad-blocks
$ fsck -t ext2 -l bad-blocks
/dev/fd0H1440
Parallelizing fsck version 0.5a (5-Apr-94)
e2fsck 0.5a, 5-Apr-94 for EXT2 FS 0.5, 94/03/10
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Check reference counts.
Pass 5: Checking group summary information.

/dev/fd0H1440: ***** FILE SYSTEM WAS MODIFIED *****


/dev/fd0H1440: 11/360 files, 63/1440 blocks
$

Si badblocks informa de que un bloque se está utilizando, e2fsck intentará mover


el bloque a otro lugar. Si el bloque estaba realmente defectuoso, no tan sólo
marginado, el contenido del archivo puede estar corrupto.

Luchar contra la fragmentación

Cuando un archivo se escribe en el disco, no puede escribirse siempre en bloques


consecutivos. Un archivos que no está almacenado en bloques consecutivos
está fragmentado. Leer un archivo fragmentado requiere mayor tiempo, puesto
que la cabeza de lectura-escritura del disco debe moverse más. Es deseable evitar
la fragmentación, aunque es un problema menor en un sistema con un buen caché
buffer con lectura progresiva.

El sistema de archivos ext2 intenta mantener la fragmentación al mínimo,


manteniendo todos los bloques de un archivo juntos, incluso cuando no pueden
almacenarse en sectores consecutivos. Ext2 efectivamente localiza el bloque libre
más cercano a los otros bloques del archivo. Por lo tanto para ext2 hay poca
necesidad de preocuparse por la fragmentación. Existe un programa para
desfragmentar un sistema de archivos ext2, llamado extrañamente defrag
[24].defrag [17] .

Existen muchos programas de desfragmentación MS-DOS que mueven los


bloques por todo el sistema de archivos para eliminar la fragmentación. Para
otros sistemas de archivos, la desfragmentación debe hacerse guardando el
sistema de archivos, volverlo a crear, y restaurando los archivos de la copia
guardada. Guardar un sistema de archivos antes de desfragmentarlo es una buena
idea para cualquier sistema de archivos, puesto que muchas cosas pueden ir mal
durante la desfragmentación.

Otras herramientas para todos los sistemas de archivos

Algunas herramientas adicionales pueden resultar útiles para manejar sistemas de


archivos. df muestra el espacio libre en disco de uno o más sistemas de
archivos. du muestra cuánto espacio en disco ocupa un directorio y los archivos
que contiene. Estos pueden utilizarse para encontrar desperdiciadores de espacio
en disco. Ambos tienen páginas de manual que detallan las (muchas) opciones
que pueden utilizarse.
sync fuerza que todos los bloques en el buffer caché no escritos (vea la Sección
7.6“ El Buffer Cache”) se escriban al disco. Es raro hacer esto esto a mano; el
demonio update hace esto automáticamente. Puede ser útil en caso de catástrofe,
por ejemplo si update o su proceso ayudante bdflush muere, o si debe apagar el
ordenador ahora y no puede esperar que se ejecute update. De nuevo, están las
páginas de manual. El comando man es su mejor amigo en linux. Su
sobrino apropos es también muy útil cuando no sabe cuál es el nombre del
comando que quiere.

Otras herramientas para el sistema de archivos ext2/ext3

Además del creador (mke2fs) y del comprobador (e2fsck) de sistemas de


archivos accesibles directamente o a través de las caretas independientes del tipo
del sistema de archivos, ext2 posee herramientas adicionales que pueden resultar
útiles.

tune2fs ajusta parámetros del sistema de archivos. Algunos de los parámetros


más interesantes son:

 Un contador máximo de montados. e2fsck fuerza una comprobación


cuando el sistema de archivos se ha montado demasiadas veces, incluso si
la bandera de limpiado está activa. Para un sistema que se utiliza para
desarrollo o pruebas de sistema, puede ser una buena idea reducir este
límite.
 Un tiempo máximo entre comprobaciones. e2fsck puede también forzar un
tiempo máximo entre dos comprobaciones, incluso si la bandera de
limpiado está activa, y el sistema de archivos no se monta frecuentemente.
De cualquier forma, esto puede desactivarse.
 Número de bloques reservados para root. Ext2 reserva algunos bloques
para root de manera que si el sistema de archivos se llena, todavía será
posible realizar tareas de administración sin tener que borrar nada. La
cantidad reservada es por defecto el 5%, lo que en la mayoría de discos no
supone un desperdicio. De cualquier manera, para los disquetes no existe
justificación en reservar ningún bloque.

Vea la página de manual de tune2fs para más información.

dumpe2fs muestra información acerca de un sistema de archivos ext2, la


mayoría referente al superbloque. La Figura 6.6, “ Salida de ejemplo
dedumpe2fs ” muestra una salida de ejemplo. Alguna información en la salida es
técnica y requiere comprensión acerca de cómo trabaja el sistema de archivos
(vea el apéndice XXX ext2fspaper), pero la mayoría es comprensible incluso
para aprendices.

Figura 6-5.

Figura 6.6. Salida de ejemplo de dumpe2fs

dumpe2fs 0.5b, 11-Mar-95 for EXT2 FS 0.5a, 94/10/23


Filesystem magic number: 0xEF53
Filesystem state: clean
Errors behavior: Continue
Inode count: 360
Block count: 1440
Reserved block count: 72
Free blocks: 1133
Free inodes: 326
First block: 1
Block size: 1024
Fragment size: 1024
Blocks per group: 8192
Fragments per group: 8192
Inodes per group: 360
Last mount time: Tue Aug 8 01:52:52 1995
Last write time: Tue Aug 8 01:53:28 1995
Mount count: 3
Maximum mount count: 20
Last checked: Tue Aug 8 01:06:31 1995
Check interval: 0
Reserved blocks uid: 0 (user root)
Reserved blocks gid: 0 (group root)

Group 0:
Block bitmap at 3, Inode bitmap at 4, Inode table at 5
1133 free blocks, 326 free inodes, 2 directories
Free blocks: 307-1439
Free inodes: 35-360

debugfs es un debugger para un sistema de archivos. Permite acceso directo al


sistema de archivos y a las estructuras de datos almacenadas en el disco y puede
utilizarse por tanto para reparar un disco tan estropeado que fsck no puede
repararlo automáticamente. También es conocido por recuperar archivos
eliminados. De cualquier modo, debugfs requiere mucho que comprenda lo que
está haciendo: un fallo puede destruir todos sus datos.

dump y restore pueden utilizarse para guardar un sistema de archivos ext2. Hay
versiones específicas para ext2 de las herramientas tradicionales de copias de
seguridad UNIX. Vea el Capítulo 12 Capítulo 12, Copias de seguridad
(Backups) para más información sobre copias de seguridad.

[14]
Para conocer mas detalles lea los archivos fuentes del kernel, o el libro Kernel
Hackers' Guide.
[15]
Este nombre debería ser por supuesto unmount, pero la n misteriosamente
desapareció en los años 70s, y no se ha visto desde entonces. Por favor, devuelva
esta letra a los laboratorios Bell, NJ, si llegase a encontrarla.
[16]
Se requieren varios segundos de duro pensamiento.. It requires several
seconds of hard thinking on the users' behalf. Furthermore sudo can be
configured to only allow users to execute certain commands. See the sudo(8),
sudoers(5), and visudo(8) manual pages.
[17]
http://www.go.dlr.de/linux/src/defrag-0.73.tar.gz

También podría gustarte