Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema 25. Ofimatica e Informatica
Tema 25. Ofimatica e Informatica
Esta obra científica ha sido creada por los autores con carácter docente y su contenido ha sido inscrito
y registrado en el Registro Territorial de la Propiedad Intelectual de Madrid con Nº de Solicitud y con Nº
de Referencia arriba indicados, otorgando al presente documento y a su autor los derechos recogidos
en Ley de Propiedad Intelectual (Texto Refundido aprobado por Real Decreto Legislativo 1/1996, de 12
de abril)
A tal efecto, queda prohibido el plagio o copia del mismo según la Ley de propiedad intelectual y artística
vigente. Asimismo queda totalmente prohibida la reproducción total o parcial de cualquiera de sus
apartados en cualquier soporte mecánico o digital sin el consentimiento por escrito del propietario y sin
hacer mención a la fuente y al autor.
En caso contrario, se incurrirá en un delito tipificado en los Artículos 270, 271 y 272 del Código Penal
(Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal -Última modificación del 28 de abril de
2015) sobre los Delitos relativos a la Propiedad Intelectual e Industrial, al Mercado y a los Consumidores
y podrá por tanto ser perseguido por ello.
ÍNDICE DE CONTENIDOS
25.1. INTRODUCCIÓN
Vamos a intentar introducir el concepto más sencillo que hemos encontrado del término “Informática”’. Este término es
utilizado para infinidad de pequeñas tareas, o componentes, que se mezclan con otro término, que es “Computación”. Si
empezamos a buscar algún tipo de definición dentro de los diccionarios que pudiéramos tener a nuestro alcance,
encontramos definiciones como: “ciencia que se encarga de la automatización del manejo de la información”, “rama de la
ingeniería que estudia el tratamiento de la información por medio del uso de máquinas automáticas”, “conjunto de
conocimientos y herramientas científicas, técnicas y tecnológicas que se encargan del tratamiento racional estructurado de
la información por medios automáticos, electrónicos y digitales”. Como hemos podido observar existen sobre el mismo
término múltiples acepciones.
La palabra informática es una evolución comercial del término “computación”, el que, según define la Real Academia de la
Lengua Española es: Contar o calcular algo con números. Esto con el tiempo generará la palabra “informática” acuñada por
una definición francesa que es “informatique” (información automática). Básicamente todo lo que vamos a tratar en este
capítulo va a estar orientado a cómo, y de qué forma, manejar información, alterar y obtener resultados sobre determinada
información.
Para cerrar y dejar una definición o un concepto básico de lo que hace la informática, podremos decir que es la ciencia
empírica que, a partir de una entrada, es capaz de hacer una manipulación o un proceso y obtener una salida.
Finalmente, esperamos que este viaje por el apasionante mundo de la informática, sus componentes y técnicas, faciliten y
simplifiquen conceptos cotidianos como son los ordenadores, las aplicaciones y las comunicaciones.
Para tratar de agrupar de alguna manera los ordenadores, vamos a realizarlo por el uso que tienen. Analizaremos los
componentes que intervienen en todos y cada uno de ellos con carácter común, y esto nos aportará una catalogación para
poder determinar que equipos se necesitan según nuestras necesidades.
Cada día es más difícil separar donde acaba el hardware y donde empieza el software en estos elementos, pero ambos
son necesarios para obtener e implantar cualquier tipo de solución, unos son más idóneos y aconsejables para ciertas tareas
y otros son más desaconsejables. Desde un punto de vista teórico todos los ordenadores valen para todo.
Los componentes que tiene un ordenador como ya hemos dicho anteriormente son los mismos, la diferencia de los
fabricantes es montarlo de una manera o de otra para que dentro de las distintas arquitecturas puedan realizar equipos con
objetivos y propósitos distintos.
De ahí derivamos los conceptos servidor, puesto cliente, estación de trabajo, PC doméstico, PC profesional, u otros
dispositivos, como pueden ser las PDA`S o los Tablet PC. Si los analizamos, vemos que se provoca una cierta dispersión
para el no profesional, incluso a veces confusa para cualquier interlocutor, dado el bombardeo de procesadores (marcas:
Intel / AMD, megahercios, ciclos, megabytes de memorias, cachés o cachés de niveles L1, L2,...) con términos o siglas para
definir el mismo componente.
Podemos clasificar los ordenadores de muchas maneras, no obstante vamos a tratar de clasificarlos o de denominarlos por
su potencia de cálculo y por la posición en la que pueden estar (o se les puede colocar) dentro de una red de ordenadores.
El primer modelo son las Supercomputadoras. Manejan muchos procesadores (desde decenas hasta miles de ellos), son
prácticamente hechos a medida y realizan cálculos muy complejos. Suelen tratarse de grandes modelos teóricos, de
elementos finitos, modelos matemáticos complejos. Básicamente los podemos agrupar por la manera de trabajar en:
matriciales o vectoriales. Se utilizan en modelos climáticos, física cuántica, tecnología aeroespacial. Son los denominados
ordenadores de laboratorio, de ensayo, donde se van implantado los nuevos procesadores. Las nuevas capacidades que
aportan, una vez testeados y utilizados en estas supermáquinas, suelen pasar a escalones inferiores.
El segundo nivel lo compondrían los Mainframes o Host. Son los ordenadores centrales, grandes ordenadores que suelen
tener las áreas comerciales o de gestión y que disponen de elementos seguros, con una potencia de cálculo menor que los
anteriores, pero aún máquinas robustas que son capaces de hacer muchas operaciones por segundo, para poder tratar
grandes volúmenes de información. Los grandes centros de cálculo que podemos encontrar, suelen ser de entidades
financieras, bancos y grandes organizaciones.
El siguiente nivel lo componen los Servidores de Red, que son máquinas inferiores a los Miniordenadores. Son máquinas
basadas en procesadores Intel, AMD`s, Power PC, etc., que se utilizan para propósitos muy concretos. Su capacidad de
cálculo es inferior a los anteriores.
Los PC, que es como comúnmente se denominan los Personal Computer, están asociados a ordenadores personales.
Pueden funcionar de una manera totalmente autónoma o se pueden conectar como clientes de los ordenadores explicados
en los niveles anteriores.
Finalmente, nos encontramos con los Portátiles y Estaciones de Trabajo o Workstation. Hoy en día son los más extendidos;
son máquinas de altas prestaciones que tienen una potencia de cálculo elevada pero son de uso individual.
Hoy en día, contamos también con modernos terminales de última generación tipo i-Pod de Apple o las “tablets” de diferentes
marcas con las que el usuario puede navegar por internet, ver su correo electrónico, leer un e-book, etc. desde cualquier
parte y en cualquier lugar con una alta velocidad y una enorme calidad de intercambio de datos y de imagen.
− Servidores: Ordenadores de los cuales dependen otros ordenadores o usuarios, para poder utilizar los servicios que
estos prestan. Siempre que necesitemos un ordenador que esté ofreciendo un servicio, o dato, al resto de equipos,
ahí habría un servidor. Por tanto nos encontramos con servidores de aplicaciones, de bases de datos, de ficheros,
de impresión, de almacenamiento de cualquier índole, de acceso a Internet, o de cualquier servicio u operación que
se pueda configurar en una red de tratamiento de datos.
− Clientes: Son ordenadores que dependen de un servidor para poder ejecutar sus funciones.
− Ordenadores Autónomos: Son aquellos que están en un entorno no conectado pero tienen todos los elementos
necesarios para poder funcionar por sí mismos.
Vamos a comenzar por los elementos hardware, en este vamos a describir los elementos o componentes más importantes,
que son piezas o partes de la construcción de un ordenador.
En castellano la traducción sería Unidad Central de Proceso o Procesador. Es el elemento que realiza todas las operaciones
de manipulación y cálculo dentro del ordenador, y a su vez está dividido en muchos componentes. Depende de la
arquitectura, el diseño, las instrucciones que soporte la CPU. Los componentes inferiores o partes que componen la CPU
pueden variar según el diseño pero no así su funcionamiento.
Su misión se basa en ejecutar instrucciones básicas por ciclo de reloj, de ahí viene la denominación de la velocidad de
trabajo en función de una frecuencia dada en megahercios. Se distribuye en varias unidades funcionales, por ejemplo la
unidad de lógica aritmética, la unidad de coma flotante, bloque de registros, bloque de instrucciones. Básicamente lo que
realiza son operaciones básicas como sumas, restas, multiplicaciones o divisiones. Además es capaz de manejar y buscar
datos en posiciones concretas de memoria, localizando la posición, recuperando el dato y manipulándolo a continuación.
La unidad básica de información es el Byte.
Es la parte que permite almacenar información, datos y programas para que estén disponibles cuando la CPU precise
utilizarlos.
− RAM: Memoria de acceso aleatorio. Es donde se cargan los programas y se manejan los datos.
− ROM: Cada vez con más limitaciones y menos conocida, son unidades de solo lectura.
La Memoria se compone de celdas en circuitos eléctricos, donde se almacenan bytes. La característica fundamental es una
alta velocidad de acceso y recuperación de los datos que contienen así como que pueden trabajar a velocidades de ciclos
de reloj muy bajos. Diferencias fundamentales aparte de las capacidades, son la paridad, donde se permite hacer un
chequeo y otro atributo que es la memoria con corrección de errores lo que en terminología inglesa se denomina ECC.
• El BUS
Otro elemento importante es el Bus, es el camino físico que transporta y por donde circula la información entre los distintos
elementos, sistemas o componentes. Es el conjunto de conductores que une entre sí estos elementos. Los parámetros que
miden un BUS son la anchura y velocidad de reloj.
También existe el Bus de entrada y salida que se encarga de manejar los dispositivos más lentos como son los de entrada
y salida, que son los encargados de recibir y presentar al exterior la información.
Es donde se colocan los elementos como los terminales, las pantallas, los sistemas de comunicación, los teclados, los
ratones, las unidades de almacenamiento. Es donde se encuentran todos los elementos de los periféricos que interactúan
con el exterior, con los usuarios o con los elementos fuera de los elementos de ordenador.
• Periféricos
Es la parte más compleja de los ordenadores, pues tienen que establecer comunicación con el ordenador. La consola,
sistemas de almacenamiento externo, paletas de arquitectura, impresoras, scanner, plotters, lectores de huella digital,
analizadores de retina, micrófonos, etc. En definitiva todos son elementos de entrada y salida.
Una vez construido y diseñado el ordenador, tendremos lo que se considera vulgarmente “los hierros” o plataforma
hardware. Pero para que esto empiece a funcionar necesita, aparte de la corriente, otro elemento básico que es el software.
El sistema operativo es el lenguaje o conjunto de instrucciones que es capaz de interactuar con los elementos que hemos
puesto en el ordenador, pudiéndose pasar las instrucciones que generan a código máquina para que la CPU sea capaz de
interpretarlo.
Si disponemos del ordenador y un sistema operativo tendremos lo que denominamos un conjunto de hierros, que tiene una
lógica y que es capaz de estar dispuesto a hacer algo. Después tendremos que poner el siguiente elemento, es decir una
aplicación, la cual dialogará con el sistema operativo para que este a su vez baje las instrucciones a la CPU, las manipule
y las devuelva al sistema operativo, y este a su vez a la aplicación, con lo que ya podremos utilizar el ordenador. Después
pondremos un dispositivo de entrada y salida como por ejemplo una pantalla, un teclado, introduciríamos un dato mediante
la aplicación, éste pasaría a través del sistema operativo generando las instrucciones a la máquina y después a la CPU,
donde serían manipuladas según se hubiera diseñado el programa de esa aplicación, y devueltas por el mismo camino a la
pantalla o a la salida específica.
• Tabletas o “Tablets”
Una tableta digitalizadora o tableta gráfica es un periférico que permite al usuario introducir gráficos o dibujos a mano, tal
como lo haría con lápiz y papel. También permite apuntar y señalar los objetos que se encuentran en la pantalla. Consiste
en una superficie plana sobre la que el usuario puede dibujar una imagen utilizando el estilete (lapicero) que viene junto a
− Tabletas Pasivas
Las tabletas pasivas, fabricadas por Wacom, hacen uso de inducción electromagnética, donde la malla de alambres
horizontal y vertical de la tableta operan tanto transmitiendo la señal como recibiéndola.
Este cambio se efectúa aproximadamente cada 20 microsegundos. La tableta digitalizadora genera una señal
electromagnética, que es recibida por el circuito resonante que se encuentra en el lápiz.
Cuando la tableta cambia a modo de recepción, lee la señal generada por el lapicero; esta información, además de las
coordenadas en que se encuentra puede incluir información sobre la presión, botones en el lápiz o el ángulo en algunas
tabletas. (El lapicero incluye un circuito en su interior que proporciona esta información).
Usando la señal electromagnética, la tableta puede localizar la posición del estilete sin que éste llegue a tocar la superficie.
El lapicero no se alimenta con pilas sino que la energía se la suministra la rejilla de la tableta por el acoplamiento de la
resonancia. Esta tecnología está patentada por la empresa Wacom, que no permite que los competidores la utilicen.
Las tabletas activas se diferencian de las anteriores en que el estilete contiene una batería o pila en su interior que genera
y transmite la señal a la tableta. Por lo tanto son más grandes y pesan más que los anteriores. Por otra parte, eliminando la
necesidad de alimentar al lápiz, la tableta puede escuchar la señal del lápiz constantemente, sin tener que alternar entre
modo de recepción y transmisión constantemente.
Para las dos tecnologías, la tableta puede usar la señal recibida para determinar la distancia del estilete a la superficie de
la tableta, el ángulo desde la vertical en que está posicionado el estilete y otra información (Por ejemplo: botones laterales
del lápiz, borrador…).
Comparándolo con las pantallas táctiles, una tableta digitalizadora ofrece mayor precisión, la habilidad para seguir un objeto
que no está tocando físicamente la superficie de la tableta y además puede obtener más información sobre el lapicero
(ángulo, presión…).
Las tabletas digitalizadoras por el contrario son más caras y únicamente se pueden usar con el estilete u otros accesorios
que funcionan con un modelo concreto de la tableta digitalizadora.
Demos una visión global del complejo mundo de las comunicaciones aplicadas a redes de datos. El objetivo será identificar
la evolución que han tenido las redes, entender el modelo de referencia que existe ahora, poder clasificar las distintas
tecnologías y conocer los equipos que nos permiten la interconexión de redes y su cometido.
Los años 60-70 son las décadas donde había entornos informáticos tradicionales que estaban basados en ordenadores
centrales llamados Host o Mainframe. Esto requería de terminales básicos que accedían a ellos a través de un cableado
más o menos eficiente. Se conectaban al ordenador principal para trabajar en el Host. En estos años se diseñaron
protocolos propietarios de los mismos fabricantes que generaban los Hosts, no obstante se empieza a ver la necesidad de
interconexión con el Host. La Agencia de Defensa Americana empieza a trabajar en un protocolo que tendrá unos años más
adelante una expansión importante: TCP-IP.
En los años 70-80 los terminales que se conectaban al Host pasan a ser sustituidos por el personal computer. Esto
revolucionó las comunicaciones, porque se dan cuenta de la potencia de los ordenadores que estaban trabajando como
terminales y se les van requiriendo más prestaciones, de ahí empezaron a salir las primeras redes de área local como una
alternativa de coste y rendimiento a los grandes equipos Host con sus terminales.
Todo lo comentado anteriormente obligó a diseñar unas estructuras de red, lo que se conoce como LAN (redes próximas y
cercanas), que se caracterizan por tener un servidor o Host donde conectarse, al que se conectaban los PCs, y dependiendo
del fabricante que suministraba el protocolo, salieron diferentes protocolos de conexión.
En los años 80-90, tras superar la etapa de conexión entre los grandes ordenadores, servidores, redes cercanas y redes
extensas, lo que se pretendía era conectar oficinas con fábricas, oficinas próximas con oficinas distantes. Empiezan a
aparecer otra serie de fabricantes de soluciones con otros protocolos, y llegamos a finales de los 90 y principios de los 2000
donde empezamos a superar las dificultades más importantes de conexión y empezamos a desear conexiones de todos
con todos, aparece el fenómeno de Internet y empieza a haber proveedores de conexión global y otro tipo de protocolos en
la evolución de las redes.
Para entender la evolución de las redes a lo largo del tiempo vamos a conocer el modelo de referencia OSI. Es un
normalizador, trata de reducir la complejidad, fijar un Standard y facilitar el diseño de equipos. Es un modelo de referencia.
Hay organismos que generan estos estándares y el modelo de referencia OSI (Modelo de referencia de Interconexión de
Sistemas Abiertos), que está regulado por la ISO (Organización Internacional de estándares), se define en la norma ISO
74/89 y lo define en 7 etapas:
1. Capa física
2. Capa de enlace
4. Capa de transporte
5. Capa de sesión
6. Capa de presentación
7. Capa de aplicación
Al definir estos niveles y la interacción entre ellos aislamos el modelo de definiciones propias de fabricantes, arquitecturas
de equipos, sistemas operativos, sistemas de transporte, etc.
Las redes surgen como respuesta a la necesidad de interconectar equipos y ordenadores entre ellos, para permitir el
intercambio de información y archivos entre ellos. La nomenclatura que se utiliza viene normalmente de términos
anglosajones:
− MAN (Metropolitan Area Network): Son redes más extensas que permiten conectar varios edificios y utilizan la
misma tecnología que LAN.
− WAN (Wide Área Network): Son redes más extensas, de un área mucho más amplia.
Vamos a tratar de agrupar los componentes físicos o hardware y los componentes lógicos o de software.
Podemos identificar varios elementos dentro de este tipo de componentes como son:
− Los nodos que son los puntos activos dentro de la red que serán los servicios a los que se va a acceder.
Es el elemento hardware que está diseñado acorde con la arquitectura del ordenador donde se va utilizar. Es la puerta de
entrada y salida de la información para el dispositivo al que se va a conectar, de un lado diseñado y configurado para la
arquitectura del computador donde se va a conectar, y del otro lado diseñado y adaptado al tipo de cableado que le vamos
a conectar para realizar la conexión a la red.
❖ SISTEMAS DE CABLEADO
Permiten el enlace entre dos dispositivos. Se les puede considerar un bus de datos. Existen varios tipos en función del tipo
y de la arquitectura del cable.
El cable más antiguo es el cable Coaxial. Es similar al que se utiliza como cable de antena. Se empleó en las primeras
redes, mantiene una señal de manera inmune a interferencias, con un conductor cubierto de un aislante y de una malla de
apantallamiento que es el segundo conductor. Necesita tapones terminadores al final del tendido.
Existen otros tipos de cables en función de la sección, más gruesos o finos en función de sus eléctricas. (50 ohm, 75 ohm,
93 ohm, 100 ohm). El conector utilizado se denomina BNC.
− Cable paralelo, compuesto de varios hilos. Pueden ir desde 4 pares de hilos hasta 25 pares, permitiendo más
velocidad en las transmisiones, pero por su atenuación en las distancias se estuvo utilizando relativamente muy poco
tiempo.
El objetivo de esta aclaración es introducir conceptos comunes referentes a redes locales, las redes locales en poco tiempo
han pasado al primer plano de la tecnología y de la complejidad. Como hemos comentado anteriormente antes había unos
sistemas centrales entre ellos Host o Mainframes, y a partir de la aparición del PC aparece la necesidad de que los equipos
estén interconectados entre ellos, de ahí podemos definir redes de área local LAN (Local Área Network), otras redes de
ámbito más extenso que se llaman MAN (Metropolitana Área Network) que básicamente lo que hace es interconectar varios
edificios y luego encontramos las redes extensas o de área amplia que se llaman WAN (Wide Área Network) son accesos
más extensos, más lejanos.
Las redes surgen con fuerza a partir de los años 80 cuando aparecen las primeras redes para compartir ficheros e
impresoras y toman su auge con las arquitecturas cliente-servidor donde parte de las aplicaciones residían en el puesto
cliente.
En una red vamos a encontrar los puntos principales, “servidores”, los clientes que son los puestos que se quieren conectar
entre ellos y a su vez con el servidor, y los dispositivos periféricos que, no siendo puntos de acceso, ni clientes, son
dispositivos que están a disposición de los servidores y los clientes, por ejemplo impresoras, escáner, fax, donde
lógicamente para conectarlos haría falta un sistema de cableados que en función de la topología de la red podremos
establecer según varias tipologías, y la electrónica de red que son los equipos donde se acaban conectando los cables y es
la electrónica más o menos inteligente dependiendo de las características y las funciones que tengan que realizar.
Cuando nos encontramos con las aplicaciones informáticas vamos a buscar una solución de software que nos permita
alinear el negocio con el usuario y con la tecnología.
La eficiencia con que conjuntemos estos tres parámetros nos va a dar un resultado donde, aparte de contemplar los
requisitos legales contractuales de calidad y relación con nuestros clientes, entidades y organismos regulatorios, la eficiencia
de estos tres parámetros va a producir, necesariamente, más ingresos con menor coste. La parte de negocio cuyos
problemas son similares, hay que ver si la solución que requieren es diferente o es única y personalizada, el usuario debe
ver la eficiencia y la operatividad de la herramienta y la tecnología debe tender a ser entornos muy colaboradores con
tecnologías estándares y basadas en tecnologías abiertas y que además nos protejan la inversión que vamos a realizar.
Parece sencillo pero es bastante complejo y es lo que da la diferencia competitiva de unas empresas frente otras. Aumentar
la productividad, si una aplicación es usable, si requiere pocos requerimientos de formación y no contiene errores, la no
dependencia de los técnicos para su uso, todo ello va a ir a favor o en contra, para obtener más o menos eficiencias y más
o menos beneficios.
Respecto al software para la gestión de nuestro negocio podemos encontrar dos opciones e incluso una mezcla de las dos,
es decir pueden ser software: Standard o desarrollado a medida.
El software desarrollado a medida lógicamente está adaptado a las necesidades y requerimientos de la persona que lo hace
y tiene justo lo que está pidiendo, está más pensado para la empresa o profesional que lo está diseñando, puede tener
utilidades muy concretas y específicas de esa empresa, nos va a permitir meter todas esas funcionalidades específicas y
adecuarlo al uso y al funcionamiento al que queramos adecuar a nuestra empresa y por el contrario vamos a tener un
requerimiento muy riguroso que indica cómo se debe hacer, puede contener errores, que la programación no sea la más
adecuada, puede tener un problema de diseño porque no se haya estructurado la información de una manera correcta y
nos puede llevar a un alto coste de mantenimiento, e incluso en un momento determinado nos puede dar que la inversión
realizada, por errores de diseño, haya que sustituirla en su totalidad, también a favor no tendremos ninguna dependencia
con el suministrador, ni en costes de licencias, derechos de uso actualizaciones e incluso de contenidos, también tendremos
que contar con la variable tiempo, en función de la complejidad y del diseño del modelo estaríamos hablando de unos
tiempos mayores o menores de puesta en funcionamiento.
Por otro lado, podremos ir al mercado y buscar soluciones ya hechas, en este caso no tendremos que definir los procesos,
vamos a tener las operaciones que soporta el paquete y será el usuario el que se adapte a la herramienta con sus ventajas
e inconvenientes, tendrá funciones que necesitemos o no , tendrá más de las que usamos pero menos personalizadas a
nuestros procesos, por lo que a lo mejor hemos comprado cosas que no usemos, será importante el modelo del proceso
que contempla la aplicación, es lo que debemos mantener en nuestro negocio, porque es lo que nos está imponiendo el
sistema que hemos comprado, puede incorporar o no las “best practices”, es decir las mejores prácticas del mercado, o
Normalmente, las herramientas paquetizadas no se pueden manipular, como ventaja suelen ser software más depurados
que no contienen errores, el mantenimiento suele venir hecho, es simple y solo hay que contemplar actualizaciones y el
modelado del proceso es todo el mismo, para la misma actividad. Se puede tener una solución mixta para ciertas
funcionalidades e irnos a software estándar y para otras funcionalidades, irnos a desarrollos a medida.
Aparte de los elementos a favor y en contra, aquí lo importante es el punto de la complejidad de la integración, ya que si
queremos que nuestro circuito de información circule por varios contenedores, unos Standard y otros realizados a medida,
lo que van a ser entradas y salidas entre ambos tendremos que contemplarlos y pueden ser los puntos más críticos del
proceso.
Respecto a software estándar podemos entrar en los buscadores disponibles y en función de lo que se quiere obtener
buscar distintos proveedores. Sin desmerecer a ninguno daremos alguna referencia a modo de ejemplo.
Para la gestión de mediadores podíamos hablar de un software de fabricante que suelen venir como paquetizados y por
módulos: gestión de pólizas, tarificadores, sistema de publicación de Internet, sistema de tratamiento de clientes CRM y
sistema de cotizadores.
Los ramos que suelen trabajar estas herramientas suelen ser muy amplios y suelen ir incorporando las tendencias del
mercado, la legislación y regulación del sector. Adicionalmente, han diseñado una batería de informes y formularios
Normalmente, van a mantener estructuras muy sencillas, donde tendremos contenedores de información de los clientes, de
las solicitudes, de las pólizas que han vendido esas solicitudes, de los riesgos asociados a las pólizas, de los siniestros y
de los recibos y de la gestión de cobros, pagos, liquidaciones suelen ser multi-producto, multicompañía, normalmente
cuando se compran paquetes, se suelen comprar aquellos que tengan funcionalidades y publicaciones en presencia en
Internet que nos pueden dar un sistema de publicación. Incluso en otros sitios nos podemos ir a sistemas donde la
administración del dato ni siquiera se recibe en nuestros sistemas, sino que estamos contratando un pago por uso y, sin
tener infraestructura técnica, tengamos la gestión de contenidos en Internet.
La calidad de la información y los atributos van a depender del diseño, de la evolución, de los planes correctivos y de los
planes evolutivos que mantengan los fabricantes, por el contrario, si nos hemos ido a software de diseño propio o a medida,
nos vamos a encontrar que vamos a tener todas las funcionalidades que seamos capaces de diseñar y de modelizar los
procesos importantes o “Core Business” de nuestro negocio, según las directrices o iniciativas que queramos adoptar.