Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Libro Materia PDF
Libro Materia PDF
DE INGENIERIA
1.Proceso de diseño
2. Planificación y Programación
3. Optimización
4.Innovación y Prospección
5.Fiabilidad
6.Mantenibilidad
7.Calidad
8.Manufacturabilidad
9.Documentación
DERECHOS RESERVADOS
II
1.Proceso de diseño 1
2.Planificación y Programación 31
Planificación 32
Método del camino critico 33
Márgenes de las tareas 34
Técnica de evaluación, programación y revisión (PERT) 36
Estimación de tiempos y recursos 39
Estimación de la duración del proyecto 40
Simulación de Monte Carlo 41
Caminos semicríticos 42
Programación 43
Diagrama de Gantt 43
Asignación de recursos 45
Control del proyecto 46
Factibilidad económica 48
Costo objetivo 48
Mercado objetivo 50
Ciclo de vida 51
Precio de venta 52
Análisis de rentabilidad 55
Análisis de riesgo y sensibilidad 127
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice
3.Optimización 59
Métodos de optimización 62
Métodos tabulares 63
Método del Calculo diferencial 64
Método de los Multiplicadores de Lagrange 65
Métodos de búsqueda de intervalo 68
Búsqueda uniforme 68
Búsqueda secuencial 68
Búsqueda dicotómica 70
Búsqueda de Fibonacci 70
Búsqueda por relación áurea 77
Método del gradiente 78
Método de Programación lineal 80
Aplicación de las herramientas de optimización de MATLAB 80
4.Innovación y Prospección 81
IV
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice
5.Fiabilidad 105
V
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice
6.Mantenibilidad 153
7.Calidad 177
VI
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice
8.Manufacturabilidad 209
9.Documentación 241
VII
Proceso de diseño
Los científicos exploran lo que es.
Los ingenieros crean lo que nunca ha sido
T. von Karman
Proceso de diseño
Fig. 1 Fig.2
Al final de cada paso del diseño se debe comprobar que los objetivos parciales
comprometidos en esa etapa han sido logrados, figura 1. Una vez completado el diseño, se realiza
una verificación del diseño en su totalidad para comprobar que satisface los requerimientos
establecidos en las entradas. Esta etapa puede incluir actividades tales como:
• Realización de cálculos alternativos
• Comparaciones entre el nuevo diseño y diseños anteriores
• Realización de pruebas y demostraciones
• Revisiones a la documentación previo a su distribución
Pasada la verificación, sigue el proceso de validación del diseño, cuya finalidad es
comprobar que el producto satisface la necesidad para la que es propuesto, figura 2.
2
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 3
Metodología de desarrollo
Desde siempre se ha reconocido la necesidad de seguir una metodología para lograr una
exitosa ejecución del desarrollo, y a ese fin se han propuesto diversos modelos. Son muchas las
organizaciones, asociaciones empresariales, y grandes corporaciones que han propuesto y aplican
estos modelos para el desarrollo de sus productos
2 a 5 años
Fig. 3
Los primeros modelos de desarrollo diferenciaban claramente dos etapas: Una abocada a
la ingeniería del producto y otra al desarrollo de la manufactura, tratándose ambas etapas con
bastante independencia entre si, figura 3.
3
4 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Análisis de caso: Una variante del método, aplicada por Siemens en el desarrollo de equipos electromédicos,
o
es el esquema de la figura 4 (Revista Siemens XLIII (1975) N 5).
En este esquema de diseño el proceso de desarrollo se efectúa en dos fases. Al final del desarrollo
preliminar se obtiene un prototipo de laboratorio (1) con el que se hacen luego los ensayos médicos (3) a fin de
determinar las especificaciones del producto (13) a las cuales deberá ajustarse el desarrollo del producto (2).
La comprobación del prototipo (4) se efectúa al final del desarrollo del producto. Se verifica la seguridad
después de ser sometido a carga, haciendo una comprobación de la carga de los distintos elementos, y un
análisis de aspectos relacionados con la manufactura (procesos y controles), y el mantenimiento.
Después de superar las pruebas realizadas sobre el prototipo se terminan los planos de construcción
y la documentación de fabricación. La fabricación comienza con la preparación de los trabajos (10). Al mismo
tiempo se obtienen los certificados de prueba legalmente exigidos, y se definen los procesos y planes de
pruebas, elaborándose los verificadores automáticos correspondientes (6). Antes de iniciar la fabricación (11)
se lleva a cabo una comprobación de los componentes (7), y durante la fabricación se hacen pruebas de
subconjuntos (8). Concluida la fabricación tiene lugar la verificación final (9). En esta fase tiene lugar también la
elaboración del manual técnico del usuario (14), el manual de servicio técnico (15), la documentación técnica
de venta (16) y la documentación para la instalación (17).
1 2
Desarrollo
Verificacion 3 4 5 6 7 8 9
Fabricacion 10 11
Ventas 12 13 14 15 16 17
tiempo
4
Etapa de aprovisionamiento Produccion
Definicion y actividades de diseño Etapa desarrollo y planeamiento producion
y produccion piloto seriada
Grupo de trabajo
Coordinacion de Desarrollo
Coordinacion de Produccion
DR: Revisiones del diseño 31
18
1 5 32
14 19 23 27 40
9 37
DR DR DR DR
2 6 12 15 24 28 33 41 44
A C 20 D
B 10 E 38 F G H
3 7 13 16 34
21 25 29 42 45
11 39
4 8 17 26 30 35 43
22
36
A. Objetivos B. Metas del sistema C. Propuesta especificación D. Especificación consolidada E. Liberación para aprovisionamiento de maquinas de
producción F. Liberación producción piloto G. Liberación para el comienzo de la producción seriada H. Liberación para el lanzamiento de producción
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño
1.Requerimientos del cliente 2.Legislaciones 3.Idea de Producto 4.Análisis de mercado y competencia 5.Meta de calidad 6.Estudios de ingeniería de producto 7.Escala de
producción. Precio de venta y Costeo 8.Planeamiento de tiempos 9.Plan de Aseguramiento de la calidad 10. Diseño 11.Diseño de estilo 12.Tentativa de especificación
13.Planeamiento de tiempos 14. Anticipo del plan de equipamiento para fabricación y control 16.Memoria Técnica del Producto 17.Planos 18.Desarrollo prototipo 19.Plan de
aseguramiento de la calidad 20.Selección de Proveedores 21.Aceptación prototipo 22.Listado de partes. Arranque fabricación de partes a medida 22. Consolidación Especificación
23.Evaluación de la capacidad de proveedores 24.Plan de controles y del equipamiento de control 25.Plan del equipamiento de producción 26.Delineamiento de la línea serie
27.Análisis de la capacidad de maquinas y procesos 28.Selección final de proveedores 29.Resultados prototipo desarrollado 30.Prueba de la línea 31.Capacitación del personal
32.Delineamiento planes de muestreo componentes 33. Delineamiento planes de muestreo de producción 34.Aceptación equipos de control 35.Aceptación equipos producción
36.Aceptación de partes producción piloto 37. Consolidación documentación 38.Prueba de producción serie 39.Primer muestreo de partes de proveedores 40.Liberación partes
provisión interna 41.Serie Piloto 42.Estimación metas calidad 43.Manufactura, aprovisionamiento y control componentes seriados 44.Producción seriada 45.Registro de datos de
producción en gran escala
Fig . 5
5
5
6 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Determinación de la necesidad
El proceso de diseño parte del reconocimiento de una necesidad insatisfecha, mal
satisfecha, o susceptible de mejorar en algún sentido. Las necesidades resultan o surgen por
motivaciones muy variadas:
• Investigaciones de mercado, que muestran que los productos actuales han quedado
obsoletos, o fuera de competencia
• Aparición de nuevas legislaciones, normativas o demandas. Por ejemplo, Brasil emitió
en el 2001 una normativa que obligo a partir del 2003 a que todos los televisores
comercializados en dicho país tengan incorporado el V-chip ( violence-chip). El V-chip
permite bloquear electrónicamente aquellos programas cuyos contenidos los adultos
consideren inapropiados para los menores, por tener escenas de violencia, sexo o lenguaje
obsceno. Para hacer esto posible, cada emisora además debe emitir una calificación del
contenido en forma codificada durante el intervalo de borrado vertical.
• Complementos de productos, por análisis de un mercado ya existente, desarrollado con
anterioridad, y sobre el que se ven posibilidades de un mayor desarrollo futuro. Por
ejemplo, las posibilidades de integración que surgen para el desarrollo de redes
personales (PAN, personal area network ) debidas al empleo del protocolo Bluetooth
para la interconexión mediante medio inalámbrico de computadoras, teléfonos,
impresoras, y periféricos de baja potencia, como las PDA ( Personal Digital Assistant ).
• Nuevas posibilidades que surgen durante la ejecución de otro proyecto
• Pedidos formales, donde el cliente formula directamente el requerimiento
• Pedidos informales, en donde un potencial cliente sugiere que una determinada
propuesta, en un área de interés particular, tendría gran aceptación o grandes
posibilidades futuras. Por ejemplo las necesidades que surgen a consecuencia del cambio
en el valor de la tensión de batería de los automóviles, debido a que esta previsto en un
futuro próximo pasar de los +12V actuales a +42V.
• Nichos de mercado insatisfechos de productos existentes. Por ejemplo algunos
fabricantes de monitores de PC han pensado que el formato del monitor estándar es poco
adecuado para el diseño de documentos, entreviendo en ello una necesidad no atendida.
Para este tipo de aplicación el monitor debería contener una pagina de documento
completa por pantalla, y tener además la posibilidad de rotar 180º para tomar el formato
tradicional. Otra solución innovadora, dentro de este segmento de mercado ha sido el
desarrollo del monitor doble; con este es posible trabajar simultáneamente con dos
documentos a pantalla plena, en forma independiente, y desde una sola PC.
En resumen, el proceso de diseño puede ser iniciado basándose en una idea para una
solución a una necesidad existente, y aún no atendida, o en ideas pensadas para solucionar
necesidades futuras. En muchos casos, la necesidad la “descubre” el departamento de marketing de
la propia organización, o es el resultado de prospecciones realizadas por empresas especializadas.
El departamento de marketing debe colaborar estrechamente con el sector de desarrollo con el fin
de reconocer tendencias y discontinuidades tecnológicas que se constituyan en nuevas
oportunidades; es además el encargado de evaluar el valor que el cliente asigna a las nuevas
características que ingeniería le puede conferir al producto, como consecuencia de los avances en
la tecnología, y que sirven de base para determinar los cambios que deben introducirse.
Debe tenerse presente que un mismo producto puede ser definido de muchos modos, y
cada uno de ellos responde a una estrategia que cada empresa se impone para posicionarse mejor
en el mercado. Consideremos por ejemplo el caso de una impresora por chorro de tinta. Cuando se
apunta al mercado masivo, muy sensible al precio de adquisición, el producto puede ser definido
de modo que tenga bajo precio de venta inicial, compensando esto con un mayor costo del
cartucho. En este caso el cartucho debe ser concebido de modo que no permita la recarga, es decir
pensado para usar y desechar: El negocio no es la venta de impresoras, sino de los cartuchos.
6
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 7
Requerimientos funcionales
Definicion de Producto
Especifica y describe los modulos, placas Especifica el software de cada modulo y su
o subsistemas, que funcion cumplen y como interrelacion, incluyendo diagramas de
se interrelacionan (protocolos y conectores). flujo o de estado.
Especificacion de ingenieria
Metodos de ensayos sobre modulos y sistema
Validacion
7
8 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
8
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 9
• Despacho al mercado: tipo de embalaje, empaquetadura, etc. de modo tal que de existir
mecanismos o partes que puedan verse dañados en el transporte, las mismas se encuentren
protegidas o bloqueadas
• Cantidad: volumen de fabricación esperado, lo cual hará convenientes ciertas técnicas de
diseño sobre otras, y será además útil para definir procesos y herramental especial para la
fabricación.
• Instalaciones especiales para su manufactura, en función de las cuales se determinará la
conveniencia de subcontratar partes o todo a terceros, haciendo que el proyecto sea menos
capital intensivo y reduciendo los costos fijos
• Tamaño y forma, básicamente buscando que no haya restricciones condicionantes
• Peso y modo de fijación
• Apariencia y terminación: estética del producto.
• Tiempo de vida: estimación del tiempo en el que va a permanecer en el mercado.
• Normas o regulaciones que debe satisfacer. Los productos, en relación a las normas, pueden
clasificarse en :
• productos regulados, como ser equipos electromédicos, con implicancias ambientales, o
con posibilidad de afectar a terceros. En general estos productos están sujetos al
cumplimiento de leyes y regulaciones gubernamentales
• productos no regulados: es la condición de la mayoría de los productos dedicados al área
de entretenimiento
• Aspectos ergonómicos, vinculados con su interacción con las personas, disposición y tipos de
controles y visualizaciones; cuplas y esfuerzos mecánicos mínimos y máximos de
accionamiento, etc.
• Caracterización del cliente o usuario: preferencias, prejuicios, etc.
• Calidad y fiabilidad que debe alcanzarse para asegurar su inserción en el mercado.
• Condiciones de almacenamiento, para evitar efectos de desgaste o corrosión prematura.
• Metas de tiempo, sea para el desarrollo de algunas de sus partes o fases, o para el total del
proyecto, debido a que su lanzamiento puede estar ligado a un evento especial.
• Exigencias de ensayo: deben ser conocidas las características que deberán evaluarse sobre el
producto terminado a la salida de fábrica, cuales hacerse sobre el total de las unidades y cuales
solo sobre algunas muestras.
• Seguridad: relacionado con la probabilidad de que por falla el equipo pueda causar daños que
sean fuente de futuro litigios.
• Restricciones internas, que puedan existir dentro de la empresa y prohíban el uso de ciertos
materiales, o el uso de ciertos procesos de manufactura, o métodos de control, etc.
• Restricciones de mercado, que tomen en cuenta restricciones o particularidades de uso.
• Existencia de patentes que limiten de algún modo las soluciones, u obliguen a obtener y
pagar licencias.
• Implicaciones políticas y sociales que pudieran afectarlo.
• Aspectos legales, los cuales deben ser considerados especialmente tomando en cuenta que
pueden existir leyes publicas que crean obligaciones del fabricante frente al usuario, o que se
requieren aprobaciones por entes específicos previo a la comercialización .
• Instalación: accesorios necesarios y exigencias para que la instalación sea compatible con los
demás equipos con los cuales debe interactuar.
• Documentación: manuales a generar: de usuario, de instalación, de mantenimiento.
• Disposición del equipo: recomendaciones acerca de qué hacer cuando se produce la baja.
9
10 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Dado que las especificaciones sirven de guía para el equipo de proyectistas, es por ello
esencial que los participantes del proceso de diseño posean un completo entendimiento de las
mismas, y para que este sea común es fundamental una coordinación entre los distintos sectores.
Para ello, se establecen grupos interdisciplinarios para discutir cómo se deben interpretar las
especificaciones en las distintas áreas y cómo deben ser aplicadas. A pesar de que las
especificaciones se establecen con carácter permanente e inviolable, deberían ser continuamente
revisadas y revalidadas durante el proceso de diseño, para asegurar que siguen reflejando las metas
y objetivos del proyecto.
Conceptualización
Para definir la solución hay dos caminos opuestos: el ascendente y el descendente. En el
primer caso, se parte de componentes existentes, alrededor de los cuales se va construyendo la
solución. En el segundo se hace un desglose en sub-problemas y así sucesivamente hasta llegar a
componentes definidos a la medida de la necesidad, los cuales, de no existir, será necesario
desarrollarlos, figura 7.
Fig. 7 Fig. 8
Rara vez se usa en exclusividad uno de estos métodos, sino mas bien una combinación de
ambos. La técnica ascendente busca usar elementos estándar, y la descendente requiere definir
elementos dedicados, de una capacidad dimensionada a la medida de su carga. Tiene además la
ventaja de que, siendo elementos dedicados, restringe el acceso de competidores a esos elementos.
La desventaja es que el esfuerzo de diseño es mayor, y sólo redituable con suficiente volumen de
mercado.
En cualquier caso no debe perderse la perspectiva del problema: La necesidad estará
asociada a un sistema o equipo, y la tarea de proyecto es definir los componentes de la solución,
pero teniendo claro a que nivel de descenso debe llegarse para obtener las mayores ventajas
competitivas y de beneficio, diferenciando aquellas partes que integran el núcleo del producto.
La complejidad del proyecto, y por ende el esfuerzo de diseño, depende del escalón al que
se descienda: cuanto más bajo, mayor es el número de partes a definir y la complejidad
tecnológica, figura 7, y menor el valor agregado, figura 8. Algo que no debe perderse de vista:
Siempre los mayores beneficios están por el lado de los sistemas. El problema de la ingeniería de
desarrollo es como ubicarse en ambas pirámides. Con componentes cuyo valor se ubica por
debajo de las milésimas de dólar la unidad, ¿cuantos miles son necesarios para que su diseño
específico tenga sentido económico? La excepción son los componentes que forman el núcleo del
sistema o equipo.
Definido el sistema, el paso siguiente será determinar que cosas se van a resolver por hard
y que cosas por soft, y la manera más simple de decidirlo es, a partir de los requerimientos,
generar especificaciones consistentes para el desarrollo de ambos. Bajo este esquema, el software
y el hardware quedan definidos en una etapa temprana, haciendo que su desarrollo sea en gran
medida independiente, y por tanto pueda hacerse en forma paralela, figura 8. Esto, que supone que
el diseño del software se reduce a escribir código alrededor de un hardware definido, es posible en
pequeños proyectos; en los grandes hay una interacción continua.
10
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 11
Definir tempranamente que cosas se implementaran en hard y que cosas en soft no es una
decisión fácil y de respuesta única. La tendencia es volcar la mayor funcionalidad posible en el
soft. Las limitaciones para esto son la capacidad de memoria, la velocidad de procesamiento
requerida, y los retardos de tiempo admisibles para la atención de interrupciones. Pero, a medida
que se pone mas funcionalidad en el soft se incrementan la complejidad, el tiempo para codificar,
la cantidad de errores, y el tiempo necesario para depurar. En resumen, el problema puede ser
planteado de este modo:
• La solución por hard implica siempre agregar algún integrado adicional, y esto
agrega un costo extra por cada unidad producida, que puede ser importante en
productos de bajo costo. Esto hace que aquellas funciones que no pueden cumplirse
por soft, por falta de memoria o velocidad, deben ser descartadas
• La solución por soft es un costo no recurrente, en la medida en que este exenta de
errores y se implemente mediante mascara
Evaluación de viabilidad
La evaluación de viabilidad se realiza usualmente como parte de la tarea de
conceptualización en pequeños proyectos, pero es la acción principal en proyectos importantes,
llevando en muchos casos varios años de estudios. El propósito de la evaluación de viabilidad es
asegurar que el proyecto sea exitoso, sobre la base de que su realización será factible tanto técnica
como económicamente. La manera en que se hagan estas evaluaciones dependerá del tamaño y la
complejidad del proyecto. El período de evaluación es el momento para definir conceptos que el
diseño seguirá para asegurar que el producto final cumpla el objetivo propuesto, basándose en los
recursos disponibles. Primero se hace un análisis técnico, buscando determinar la disponibilidad de
los componentes que integran el núcleo del proyecto, y luego el esfuerzo se concentra en la
estimación de los costos, ya que éstos son, en general, los principales factores limitantes.
En el diseño de productos es necesario valorar los beneficios de cada alternativa. La tarea
de predecir cuantitativamente el comportamiento de cada alternativa con respecto a cada uno de
los criterios que se hayan fijado para el proyecto no es tarea sencilla. La mayoría de estas
predicciones han de hacerse cuando el proyecto aún está en su etapa conceptual, debido a que la
experimentación raramente es económica. Precisamente bajo estas condiciones es cuando no se
puede predecir con exactitud el desempeño futuro ni los costos relacionados con cada alternativa,
ya que es difícil poner en forma cuantitativa, en términos monetarios, todos los factores que
inciden sobre el resultado, siendo aceptables aproximaciones del 20% al 30%, y aun mayores.
Integrando los estudios de viabilidad están los análisis de fortalezas y debilidades, con
los cuales se busca determinar las oportunidades y las amenazas a las que esta sujeto el proyecto.
Estos análisis tratan de mostrar que acciones serán necesarias para llevar el proyecto hacia aquel
horizonte donde se es fuerte, donde están las mayores oportunidades de éxito. Es decir, el análisis
de fortaleza busca definir las áreas o puntos en los que se apoya el proyecto y donde la empresa es
fuerte, y las amenazas a las que esta sujeto por parte de los competidores y de los clientes.
Diseño preliminar
Durante el diseño preliminar se define la configuración total del sistema, el diagrama de
bloques, y se hace la selección de los componentes que integran el núcleo del proyecto, teniendo
en cuenta disponibilidad, costo, limitaciones y facilidades de manufactura, metas de fiabilidad,
etc. y se desarrollan los diferentes planos, esquemas y/o documentos generales que asistirán a los
proyectistas en la etapa del diseño detallado. Los requerimientos que se establezcan en esta fase
del proceso serán la base de las especificaciones finales, aunque es importante tener en cuenta los
siguientes conceptos:
11
12 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Diseño detallado
El propósito de esta etapa del proyecto es:
• seleccionar los circuitos,
• establecer modelos para el cálculo de los elementos, a fin de determinar la carga a la que
se ven sometidos,
• seleccionar los componentes estándar en función de la carga a la que están sometidos,
indicando fabricante y número de parte correspondiente
• establecer las especificaciones que deben ser satisfechas por los componente a medida,
• realizar análisis de valor de cada elemento,
• documentar los problemas detectados en las etapas de verificación, y las acciones de
corrección correspondientes
• documentar los resultados de los ensayos de validación efectuados sobre prototipos
• generar la documentación y las especificaciones que describan completamente el diseño,
etc.
En otras palabras, en esta etapa, diferentes grupos de profesionales y departamentos de la
organización de diferentes disciplinas trabajan activamente en procesos de síntesis y análisis de las
soluciones, realizando evaluaciones de componentes para validar los requerimientos establecidos
previamente, especificando aquellos que hasta el momento habían permanecido indefinidos y
estimando los efectos de los distintos componentes en el sistema. Las especificaciones son, en
general, planos con detalles de terminación, con medidas y datos de los ensayos a los que esta
sujeta cada parte, y donde por lo general el número de plano se convierte en el número de parte.
Para los componentes y demás elementos dedicados del sistema se realizan los planos de
detalle, que especifican las dimensiones necesarias, los materiales de construcción, técnicas de
maquinado o ensamble, requerimientos para su ensayo, etc. Los planos de detalle deben incluir
toda la información necesaria para producir y verificar el componente; además deben mostrarse las
vistas de las piezas que serán necesarias para la manufactura.
La selección de los componentes estándar que giran alrededor de los componentes
principales que integran el núcleo del proyecto deberá hacerse teniendo en cuenta:
• Costo ( considerando el volumen )
• Calidad y fiabilidad ( niveles de AQL y tasa de fallas )
• Características funcionales especificas (tolerancia, comportamiento térmico, etc )
• Disponibilidad en el mercado ( tiempo de entrega )
• Exigencias de manufactura ( tipo de montaje y soldadura )
• Racionalización ( gama preferida de valores )
• etc
12
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 13
13
14 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Matriz de
interrelacion
Especificaciones
Requerimientos para el diseño
Peso
relativo Analisis
E1 E2 E3 E4 E5 E6 posicion
competitiva
R1 P1
R2 P2
R3 P3
R4 P4
R5 P5 Fig.10
R6 P6
competidor COM O
D is e ñ o d e D i s e ñ o d e
P r o d u c t o M a n u f a c t u r a M a n u f a c tu r a
Fig.9 Fig.11
14
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 15
Caracteristicas y
especificaciones
Departamentos involucrados
tecnicas
Analisis de
Reclamos y garantias
y
competitividad Analisis de
Parametro critico
Desarrollo de ... competitividad
Parametro critico
¿COMO?
Reclamos y garantias
Competencia
Estilo Ensayos Manufactura
producto
Competencia
Prioridad
¿COMO?
Prioridad
del cliente
del cliente
Actual
Meta
Actual
Meta
¿QUE? 1 2 3 4
¿QUE?
1 2 3 4 5 5
requerimiento 1 requerimiento 1
requerimiento n requerimiento n
Fig.12 Fig.13
Analizando el posicionamiento actual de la empresa, se determinara la meta propuesta
para el proyecto, de lo cual resultara el futuro posicionamiento pretendido y la interrelación entre
las diversas características, figuras 9 y 13, mostrando a la vez los sectores internos que deben
cooperar y trabajar de un modo coordinado.
15
16 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Diseño experimental
El esquema del proceso del diseño representado en la figura 1 contempla tres pasos bien
definidos:
• Saber que es lo que se quiere ( que es parte de las entradas del diseño )
• Definir la forma de darle solución ( proceso de diseño propiamente dicho )
• Verificar que la solución propuesta satisface los requerimientos (validación )
y para este último paso se requiere siempre efectuar pruebas experimentales. Los ensayos no son
exclusivos de la etapa de validación, también son necesarios:
• Durante la concepción para verificar principios y hacer evaluaciones tempranas de
desempeño, o caracterizaciones de entorno o de carga,
• Durante el desarrollo del producto, para confirmar cálculos o estimaciones de carga
• Durante la etapa de crecimiento de la fiabilidad, para aportar información sobre las fallas
• Durante la producción, para la optimización de los procesos
• Después del lanzamiento del producto al mercado para hacer evaluaciones de campo con
el fin de confirmar los objetivos de mantenibilidad, fiabilidad y operatividad.
Ahora bien: ¿cual es la mejor manera de experimentar? Un modo seria construir el
sistema, ponerlo en marcha, y empezar a recolectar datos. Aunque es el modo más común, el
mismo presenta problemas a la hora de tratar los datos. El diseño de experimentos busca,
manipulando el sistema bajo estudio, obtener con menos datos, o sea menos volumen
experimental, no solo mas información, sino además de superior calidad (menor error). Esto
requiere formular un plan como paso previo a la ejecución del ensayo, donde conste:
Planteo del problema, definiendo los objetivos del ensayo
Análisis teórico, determinando las leyes y principios que rigen el proceso
Plan de medición, definiendo variables, métodos, y protocolos de medición
Análisis de errores , determinando las fuentes de error y formas de minimizarlas
Capacidad de los instrumentos, evaluando la adecuadicidad del instrumental
Datos a obtener y su forma de presentación ( tabular y grafica )
Tratamiento de datos, definiendo las herramientas apropiadas
Conclusiones que se esperan y en que análisis se fundamentaran
Uno de los pasos mas importantes será verificar que se esta midiendo la variable correcta
y en el punto adecuado, evitando fuentes de error debidas al método. Aquí debe mencionarse el
peligro de tomar ciegamente las indicaciones de los instrumentos sin consideración adicional a sus
valores. Las observaciones que sean totalmente inconsistentes, o se apartan de lo esperado deben
rechazarse, o confirmarse repitiendo el ensayo. Es decir, aunque en ciertos casos podrá ser
suficiente una sola experiencia, lo conveniente es siempre repetir el ensayo para saber si la
medición es consistente y tener una idea de la variabilidad por factores que están fuera de control.
Usualmente convendrá replicar el ensayo para no dejar afuera errores debidos a falta de
uniformidad del material bajo estudio y variabilidades de proceso, o bien cuando no sea posible
repetir la experiencia. Pero, esto trae aparejado otro problema: Que las diferencias observadas sean
consecuencia de otras diferencias entre las replicas, y no solo del factor observado.
Cuando existe la convicción de que una variable influye sobre la experiencia y puede ser
controlada, esta debe ser incluida como un factor más. Cuando su influencia es menor, o no puede
ser controlada, entonces lo conveniente es buscar la forma de que se manifieste de modo aleatorio.
Con la aleatoriedad se busca que la asignación de factores y niveles que no se pueden mantener
bajo control se distribuya aleatoriamente entre todas las observaciones, de modo que sus efectos
resulten compensados.
Cuando la aleatoriedad no es posible, se recurre a la bloquización. Con la bloquización se
busca realizar los experimentos formando bloques como un modo de eliminar fuentes indeseadas
de variación; es decir, evidenciando las diferencias entre las unidades bajo experimentación.
16
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 17
17
18 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Como cada columna de la matriz esta asociado con un termino de la expresion (4), el
arreglo experimental de la figura 16 quedara definido por las columnas que corresponden a los
terminos principales, columnas que estan marcadas en sombreado en la expresion (11).
Los efectos de un factor también pueden verse como el promedio de los cambios que
resultan cada vez que se varía solamente dicho factor. En el presente caso, para el factor A debería
promediarse y2-y1 e y4-y3.. Las expresiones (5) a (8) permiten hallar el efecto de A, coeficiente
α1, en función de dichas diferencias, el cual queda así expresado en la forma
y − y1 y − y3 y + y y3 + y1
efecto de A = 2
+ 4
= 4 2
− (12)
2 2 2 2
y de igual modo se obtiene el valor de los otros efectos. Esto lleva al proceso de calculo conocido
como ANOM (Analysis of means), en el cual se promedian por un lado todas las observaciones
que corresponden a un nivel dado de un factor sin importar el nivel de los demás, y por otro se
hace el promedio de todas las observaciones en el otro nivel. La diferencia entre ambos determina
el efecto de ese factor.
El modelo propuesto, expresión (4), supone que el resultado de la observación queda
determinado solo por los factores que están bajo control, y que además no hay error de medición.
Bajo estos supuestos es innecesario realizar repeticiones: basta con una observación por factor y
nivel. Pero la realidad es que los errores y la influencia de factores fuera de control estarán siempre
presentes, de modo que es necesario considerar un modelo ampliado
y = α 0 + α 1 . x α 1 + α 2 . x α 2 + α 12 . x α 1 . x α 2 + ξ (13)
en el cual se agrega un termino de error, ξ. Determinar este nuevo parámetro exige contar con más
observaciones, las cuales pueden obtenerse repitiendo o replicando cada ensayo un número dado
de veces, En este caso, en la expresión (13), el vector y será el promedio del conjunto de las
observaciones repetidas, y el error podrá estimarse en función de la varianza de estas.
18
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 19
Familia de ensayos
tiempo
19
20 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Fig.18 Fig.19
Supongamos ahora que no se realizan algunos experimentos, en particular los que
corresponde a las observaciones y8, y4, y3, e y2. En este caso, en base a los signos de los
coeficientes que restan en la tabla vemos que no es posible diferenciar algunos efectos, como ser
el A y el –BC, dado que para ambos resultan idénticas expresiones; igual sucede con B y –AC, y
con C y –AB, etc. Es decir, el cálculo lleva a una confusión de los factores.
Un caso especial de experimentación fraccional lo constituyen los ensayos ortogonales,
donde solo interesa estimar los efectos principales, en cuyo caso el modelo es del tipo
k
y =α0 + ∑α
1
i .xα i (14)
Para estos ensayos hay un arreglo del diseño que minimiza la covarianza de los
coeficientes αi. Si X es la matriz del diseño, el diseño se dice ortogonal cuando los elementos que
están fuera de la diagonal de la matriz (X’X ) son nulos, donde X’ es la matriz traspuesta de X;
esta propiedad la verifica la matriz de Hadamard.
Factor
1 1 1 1 1 1 1 1 L8 Experiencia A B C D E G H
1 -1 1 -1 1 -1 1 -1 1 1 1 1 1 1 1 1
1 1 -1 -1 1 1 -1 -1 2 -1 1 -1 1 -1 1 -1
1 -1 -1 1 1 -1 -1 1 3 1 -1 -1 1 1 -1 -1
X= 4 -1 -1 1 1 -1 -1 1
Fig.20 1 1 1 1 -1 -1 -1 -1
1 -1 1 -1 -1 1 -1 1 5 1 1 1 -1 -1 -1 -1
6 -1 1 -1 -1 1 -1 1
a) 1 1 -1 -1 -1 -1 1 1 b) 7 1 -1 -1 -1 -1 1 1
1 -1 -1 1 -1 1 1 -1 8 -1 -1 1 -1 1 1 -1
Por caso, para X = hadamard(8) resulta la matriz h(8) indicada en la figura 20a, con la
cual se puede hacer la estimación de la media general, o efecto medio, y de hasta otros 7 factores
principales. Esta función lleva al denominado plan de experiencias L8, indicado en la figura 20b.
Mención especial merecen los denominados diseños ortogonales de Taguchi. Taguchi
introdujo el diseño experimental como una importante herramienta para el diseño de productos,
diferenciando entre factores específicos que determinan las características del producto, de otros
factores, que considera perturbadores, de poca incidencia y de difícil o imposible control. Los
diseños ortogonales de Taguchi buscan encontrar con mínimo esfuerzo experimental la condición
óptima que minimice los factores de perturbación sobre el parámetro objetivo, y permita al mismo
tiempo optimizar los factores de control ensayando con dos o más niveles para cada factor.
20
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 21
Como se puede apreciar en la figura 21b, si no hay diferencia entre los grupos los valores
medios muestrales serán muy similares, y por lo tanto la varianza entre grupos debería ser próxima
a cero. Esto indica que una manera de reconocer si dos grupos son significativamente diferentes
21
22 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
sería valerse de la relación entre ambas varianzas. En este principio se basa el procedimiento
ANOVA.
Tratamiento Tratamiento
sA sA
A A
s B s
B B B
C s C s
C C
D sD D
sD
sT sT
distribuccion del conjunto x
x
Fig.21 x
x ≅ x A ≅ x B≅ x ≅ xD
x x x x Seg C
a) A B C D
b)
Supóngase que se tienen distintos grupos, cada uno responde a un tratamiento distinto. Si
se realizan varias mediciones sobre distintas replicas del mismo tratamiento, las diferencias entre
los correspondientes valores medios serán consecuencia del tratamiento. La cuestión es saber cuan
diferentes deben ser los valores medios como para considerar que el tratamiento tuvo algún efecto,
y no es solo una consecuencia del error experimental. Claramente, observando la figura 21a, se ve
que si la varianza entre grupos s2eg es suficientemente grande con respecto a la varianza dentro de
los grupos s2dg (SA,SB, etc) puede rechazarse la hipótesis nula que supone que no hay diferencia
entre tratamientos. Más propiamente, es sabido que la relación entre dos varianzas muestrales, s12
y s22, obtenidas en dos muestreos de una misma población normal determina una variable
aleatoria que sigue la distribución F de Fisher,
s 12
F = (16)
s 22
2
A su vez, como la varianza muestral esta relacionada con la variable χν , donde ν son los
grados de libertad de la prueba, la expresión (16) puede también ponerse en la forma
s2 χ 12 ν 1 (17)
F = 12 = 2
s2 χ 2 ν 2
de modo que la distribución de la variable F(ν1,ν2), será función de los grados de libertad ν1 y ν2,
usados para definir ambas varianzas muestrales, figura 22. La figura 22 grafica la función de
densidad de la variable F para algunas combinaciones de grados de libertad ν1 y ν2.
f(F,v1,v2) f(5,8)
P(F≤3.6875) = 0.95
Fig.22 Fig.23
Ahora bien, siendo conocida la función de distribución de la variable F se puede calcular
el intervalo de confianza para F, o sea el intervalo dentro del cual debe estar la relación entre las
varianzas, para aceptar que ambas varianzas muestrales son estadísticamente iguales, figura 23, y
por lo tanto corresponden a la misma población, habiendo prefijado un nivel de confianza.
El cálculo se ve muy simplificado recurriendo a paquetes de tratamiento computacional.
Específicamente Matlab dispone para este análisis de la función p=anova1(datos, grupos), con la
cual se pueden comparar las medias de dos o más grupos de datos. El argumento de la función es
22
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 23
una matriz donde cada columna corresponde a un grupo distinto. La función determina cuando las
medias de las columnas son iguales. En su forma más simple, la función devuelve la probabilidad
p de que sea cierta la hipótesis nula de que las medias son iguales, y además genera la tabla
ANOVA, una forma convencional de resumir los cálculos. Provee también gráficos de caja para
cada grupo, para apreciar su dispersión, figura 24. Los diagramas de caja separan la distribución
de valores en cuartiles. Los cuartiles dividen la distribución en 4 partes iguales.
En definitiva, de la tabla ANOVA generada por Matlab se obtiene directamente la
probabilidad de que sea cierta la hipótesis nula. Este valor debe ser comparado con el nivel de
significancia que se haya predeterminado para la prueba. Es decir, solo si p ≥ (1-α) se deberá
aceptar la hipótesis nula de que las medias de grupo son iguales.
El desarrollo anterior supone que la diferencia entre las distintas muestras se debe
únicamente al tratamiento. Se trata por consecuencia de una prueba sobre una única variable, por
lo cual al método también se le conoce como ANOVA con clasificación en una sola dirección.
Esta dirección se supone que es la de los tratamientos, cada uno de los cuales forma un grupo
homogéneo. Cuando el agrupamiento se hace según dos variables el método es denominado
ANOVA con clasificación en dos direcciones, figura 25.
Bloques
1 2 3 ..j.. n Medias x 111
x 112
1
Tratamientos
2 x11.....................x1n x1. x 113
. celda 11 x 114
i ................................... x 115
. x 116
k xk1 ............. x kn xk.
x 117
x.n
x 118
Medias x.1 x..
Fig.24 Fig.25
De este modo es posible determinar simultáneamente si hay diferencia entre los
tratamientos y también si existe diferencia entre los bloques. Se tienen así dos hipótesis nulas: que
las medias de los tratamientos y las medias de los bloques son iguales.
Para el análisis ANOVA en dos direcciones Matlab dispone de la función anova2(). Para
aplicar la función, los datos de las observaciones deben agruparse en forma ordenada: Columnas
para bloques, y filas para tratamientos, o al revés. La función de Matlab
[P,tabla] = anova2(x,rep,display) (18)
realiza un ANOVA de dos direcciones, y hace posible comparar medias de dos o más columnas y
de dos o más filas de una muestra x. Los datos en una columna representan cambios en un factor.
Los datos en diferentes filas son cambios del otro factor. Si hubiera mas de una observación por
cada par línea-columna, entonces el argumento rep indica el número de observaciones por celda,
sean estas repeticiones o replicas. P es un vector del riesgo para la prueba de filas, columnas y
efectos de interacción, si estos fueran posibles, y tabla es una matriz de caracteres, con el
contenido de la tabla ANOVA.
Si solo interesa determinar si dos o más medias son o no iguales, los métodos
desarrollados son suficientes. En otros casos, importa además saber cuales de estas medias pueden
considerarse iguales. Una manera de resolver esto es probando todos los pares posibles de
combinaciones. Como esto implica muchas pruebas, se han ideado métodos de comparación
múltiple, uno de los cuales es el denominado de Bonferroni, para el cual Matlab dispone de la
función multcompare(). Esta función tiene la forma
[comparacion, medias, h]= multcompare(estad,alfa,display,’bonferroni’,estimacion)
y la misma realiza una comparación usando una estructura estad obtenida como salida, entre otras,
de una de las siguientes funciones de Matlab: anova1 o anova2.
23
24 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
24
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 25
Formular un FMEA orientado al diseño implica determinar cuales son los potenciales
modos de falla de cada elemento. Esto comprende analizar los modos de falla que históricamente
se han dado, los usos y abusos que pueda tener el producto, y tener en cuenta las prácticas de
diseño usados en elementos similares. En el paso siguiente se establecerán los potenciales efectos
de cada falla, asignándole un índice de severidad (S). En los primeros FMEAs las fallas se
distinguían según sus efectos, buscando eliminar todos los riesgos catastróficos y minimizando los
riesgos críticos. Para ponderar la gravedad de los efectos de cada modo de falla i se usa un factor
de peso Pi, para medir las consecuencias de ese modo de falla, figura 26.
Fig.26 Fig.27
Luego, para cada falla se estima su tasa de ocurrencia (O), lo cual permite calificar los
eventos como muy poco probables, poco probables, probables y altamente probables, figura 27.
La severidad y tasa de ocurrencia determinan el parámetro de criticidad Ci,
Ci = S*O (19)
y según sea su valor se definirán las acciones preventivas y correctivas apropiadas. Dado que las
consecuencias únicamente se manifiestan si la falla ocurre en manos del usuario, esto implica que,
si se realizan tareas de detección previas, el riesgo dependerá de la tasa de detección (D) asociada
al método de control. Combinando todos estos valores se define un número de prioridad del
riesgo (RPN, risk priority number ), donde
(20)
RPN = S * O * D
valor que sirve para determinar la necesidad de mejoras. Este proceso de optimización implicará:
• modificación del concepto de solución, con la finalidad de evitar la causa de falla o bien
reducir su severidad
• mejoramiento de la fiabilidad, con la finalidad de minimizar la ocurrencia de la falla
• mejorar el proceso de detección para evitar que la falla se traslade al usuario
Acciones Acciones
RPN
de parte
RPN
asignado
Numero
Funcion Modo de
Tiempo
Fig.28
Es decir, la finalidad última del FMEA es concluir con un plan de acción en el que
consten los nuevos objetivos, los rediseños que se deben encarar, los ensayos, las fechas y los
responsables. Concluidas las mejoras, se realiza un nuevo FMEA, y esto se repetirá hasta lograr
que el nuevo RPN este conforme con los objetivos. A este fin se usan formas convencionales, tal
como la indicada en la figura 28.
Finalmente, el producto de la tasa de ocurrencia y la tasa de detección determinaran la
proporción residual de partes cuya falla se admite pase al cliente
25
26 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Ecodiseño
La atención del problema ecológico en el diseño implica que en el mismo se considere
críticamente el uso de materiales que dan lugar a desechos tóxicos, y cuando esto sea inevitable,
que sea contemplada la forma en que deberán ser abandonados y tratados tales desechos para
evitar consecuencias ambientales indeseadas, y no afectar gravemente a las personas o al
ambiente. La consideración del problema ecológico como requerimiento fundamental del diseño
ha tomado un gran impulso en la última década, especialmente a partir de la declaración de
principios emanados de la Conferencia de la Tierra de Rio de Janeiro en 1992.
En electrónica, los desechos pueden aparecer en tres momentos:
• Durante el proceso de manufactura, donde los desechos son mayormente plaquetas
defectuosas y todos los materiales residuales de proceso
• Durante el mantenimiento, debido al reemplazo de elementos contaminantes
• En el momento de la disposición final del producto o equipo, al final de su vida útil.
En la fase de manufactura es donde se genera el mayor volumen de desechos, pero es
también la más fácilmente controlable. Algunos desechos electrónicos son reprocesados para
recuperar materia prima, como el cobre, y en especial el oro y la plata, dado que estos metales
preciosos están presentes en un alto porcentaje en muchos componentes. Esto posibilita que
empresas especializadas, especialmente habilitadas y reconocidas, se hagan cargo del
reprocesamiento de las plaquetas y otros desechos de manufactura sin agregar costo alguno.
En electrónica se usa intensamente una aleación de estaño-plomo como material de
soldadura, a pesar de que el plomo es altamente tóxico y posible causante de daños irreversibles a
las personas. Igualmente son dañinos el cadmio, cromo, cobre, berilio, arsénico, litio, mercurio,
antimonio, y bismuto, aun en contenidos mínimos. Por ejemplo, en agua es suficiente una
fracción de mg/l de cualquiera de ellos para producir afecciones graves. Algunos de estos
materiales están expresamente prohibidos, y para otros hay regulaciones para controlar el
abandono de aquellos desechos que los contengan.
Si bien el empleo de materiales tóxicos es en mayor o menor grado una fuente segura de
contaminación, otros materiales o condiciones de diseño son también peligrosos por ser causa de
daño potencial, como es el caso de materiales inflamables, materiales nutrientes de hongos, o
materiales plásticos que liberen, bajo la acción de la temperatura, gases tóxicos o altamente
corrosivos
El problema de la contaminación esta influido por las decisiones del diseño, y por ello
muchas empresas tienen políticas para que el desarrollo de sus productos sea ecológicamente
correcto. Pueden considerarse así aquellos productos en cuyo desarrollo se hayan seguido algunos
de los siguientes requisitos:
• Bajo consumo de energía
• Menor uso de materiales perjudiciales para el medio ambiente
• Menos gasto de materia prima
• Menores desechos, con posibilidad de reciclaje
• Menores tamaños de los encapsulados
Estos factores están intervinculados: Un mayor nivel de integración y un aumento de la
densidad implican menor consumo, menores encapsulados, y menor uso de materia prima. Para los
encapsulados actualmente se usan nuevos plásticos, denominados de tipo verde, debido a que no
usan componentes químicos que agravan el medio ambiente.
En el diseño, adicionalmente a los requerimientos medioambientales, se agregan otras
exigencias cuya finalidad es evitar toda posibilidad de afectar al operador o ser causa de un daño
mayor, como ser:
• Limitar la temperatura de cualquier parte expuesta a no más de 60ºC
26
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 27
Factibilidad Tecnológica
La idea de analizar una especificación es ver si ésta:
• No tiene falencias referidas al uso, es decir, que pueda haber características o
condiciones de uso del producto que no han sido consideradas en la especificación
• Es completa en sus datos, como para llevar a cabo el diseño y su verificación
• No tiene incongruencias; es decir, que en distintas partes de la especificación se pidan
cosas contradictorias
• Es cumplible
Lo que el proyectista puede interpretar como que es un grado de libertad y pensar por
ello que puede orientar el proyecto de un modo que resulte óptimo desde el punto de vista de la
fabricación del producto o de su desarrollo, puede no necesariamente coincidir con lo que es
mejor para el uso. Esto significa que cuando hay falencias en la especificación, se debe analizar si
esto afecta al usuario del producto, en cuyo caso es necesario que esa parte del requerimiento sea
especificada o acordada con el mismo, solicitando una ampliación en la especificación de aquellas
características que hacen al empleo del producto. La determinación de estas falencias no es en
muchos casos tarea sencilla. Por ejemplo en la especificación del usuario puede no haber ninguna
especificación referida a condiciones anormales de uso o de posibles abusos, pero ello no debería
inducir al proyectista a suponer que tales condiciones no van a existir.
Se ha dicho que el diseño parte de lo que los clientes requieren, o se establece en algún
sector de la empresa, y serán ellos lo que deberán definir las características que debe tener el
producto. El problema es que el punto de vista del cliente o del usuario queda expresado como un
requerimiento y no como lo que el proyectista necesita para establecer la solución. Eso significa
que seguramente los requerimientos van a tener que traducirse en una o un conjunto de
especificaciones técnicas, para lo cual ayuda la construcción de la casa de calidad. Hay usuarios
que sí tienen claro qué es lo que necesitan: Son grandes integradores, denominados fabricantes
OEM ( Original Equipment Manufacturer ), que producen sus equipos con partes y componentes
requeridas a proveedores, basándose en normas y especificaciones propias. Si bien toda empresa
puede basarse en normas propias, por lo general se usan normas de alcance nacional, regional, o
internacional, para atender las exigencias de algún tipo de servicio, o algún tipo de producto.
27
28 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
28
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 29
Responsabilidad legal
El diseñador se debe cuidar de cometer errores que puedan volver inseguro el uso del
producto, en cualquiera de las fases de su ciclo de vida. Hay dos tipos:
• Errores por omisión, que involucra no haber previsto una situación crítica
• Errores por comisión, habiendo previsto el problema, se adopta una solución equivocada
Los errores de diseño se evitan, o cuando menos se reducen, formulando FMEAs,
diagramas de árbol de fallas y de causa-efecto2 desde las etapas mas temprana del proyecto.
De todas las posibles fuentes de error, especialmente se deben analizar las debidas al error
humano. Esto implica determinar si se pueden generar situaciones peligrosas en las fases de
instalación, operación o mantenimiento, como consecuencia de la interacción persona-equipo.
Básicamente los daños pueden resultar de:
• Accionamientos inseguros ( debidos básicamente a error humano )
• Condiciones inseguras (por fallas del equipo o defectos de concepción o diseño)
Supongamos que se debe definir como accionar las pinzas de un robot. Podría pensarse en
dos alternativas: Pinza normalmente cerrada, al activarse se abre y toma la pieza, o normalmente
abierta, que se cierra para tomar la pieza. En el primer caso, un corte de energía retiene la pieza,
mientras que en el segundo la suelta; no considerar las consecuencias seria un error por omisión.
Una situación similar se da para el acceso a la parte interna de un equipo dentro del cual
hay altas tensiones, o partes en movimiento. Según el peligro, las alternativas serán colocar
carteles de advertencia, dificultar el acceso, o disponer de seguros de puerta o de acceso tales que
si se destraba o abre una puerta o tapa que da acceso a partes peligrosas, automáticamente el
equipo se desenergiza. En ciertos casos, el acceso solo debería ser posible pasado un temporizado
que garantice que el peligro ha desaparecido: por descarga de capacitores, frenado de las partes
móviles, etc.
Análisis de caso: Un estudio jurídico de California presento una demanda contra las empresas Palm y 3Com,
grupo al cual pertenecía en aquel momento Palm, debido a que una característica destinada a sincronizar
datos entre los dispositivos de mano Palm y las PC podía causar daños en la PC, obligando al usuario a tener
que cambiar la placa madre de la PC. La demanda alegaba que dichas empresas no advirtieron a los usuarios
que la característica HotSync que tienen los dispositivos de Palm puede desactivar el puerto serie en algunas
marcas de PC.
Ciertos equipos requieren la realización de homologaciones por parte de entes externos,
gubernamentales o independientes, previo a la comercialización, tal el caso de equipos
electromédicos; en otros casos, puede ser requerida una autorización para su uso, como ser
equipos de radiocomunicaciones. Pero, aun no existiendo regulaciones gubernamentales, es
importante atender los requerimientos derivados de normas en el área específica que corresponda.
La consulta de normas especificas nacionales o internacionales como las ISO, las normas del IEC,
o de la UIT, o normas de seguridad aplicadas en otros países pueden servir como referencia, tales
como las normas DIN, las BS, las AFNOR, las AENOR, etc.
Especialmente deberán analizarse posibles problemas derivados de la falla o mal uso, y
documentarse la realización de ensayos propios y por parte de terceros que atiendan estos
aspectos. Esto si bien no exime de responsabilidad frente a daños a terceros, la existencia de
ensayos y controles de proceso puede ser un factor atenuante.
Si bien siempre la responsabilidad primaria es del fabricante, solidaria con ésta, esta la
del proyectista, sobre el cual recae la responsabilidad mayor de la aprobación de los planos. La
responsabilidad puede ir más allá de la existencia de daños derivados del uso; este seria el caso,
por ejemplo, cuando se falsea una especificación, o el resultado de una prueba.
29
30 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño
Ética Profesional
Se define como ética profesional al conjunto de principios que regulan la conducta de
las personas en sus actividades profesionales, de modo que ésta se ajuste a lo que la sociedad
acepta como moralmente correcto. Es decir, cuando el ingeniero propone soluciones, en las
mismas siempre debe hacer prevalecer el interés general.
Casi todas las asociaciones profesionales, independientemente de las regulaciones propias
del ejercicio de la profesión, emiten códigos de ética. Los códigos de ética son recomendaciones
que los ingenieros debieran cumplir y respetar en el ejercicio de su profesión. Los códigos tratan
problemas comunes como competencia, confidencialidad, conflicto de intereses, etc. y estimulan
la conducta ética, sirviendo además de guía en cuanto a las obligaciones del ingeniero; además,
engrandecen la imagen pública de la profesión y promueven el profesionalismo.
Existen muchos códigos de ética dentro de la Ingeniería. En general, cada especialidad
adopta el suyo, pero algunas organizaciones engloban a varias disciplinas, como es el caso de la
NSPE (National Society of Professional Engineers) de los Estados Unidos. La NSPE establece las
normas de conducta para todos los ingenieros, y es tan importante que los principales elementos de
su código de ética se convirtieron en ley en muchos estados norteamericanos. A continuación se
destacan los artículos más importantes de dicho código:
I. Los ingenieros, en cumplimiento de sus deberes profesionales deberán:
• Preservar la seguridad, la salud y el bienestar del público.
• Prestar servicio sólo en las áreas de su competencia.
• Realizar declaraciones públicas en forma objetiva y veraz.
• Actuar de manera profesional con empleados y clientes.
II. Obligaciones profesionales
• Los ingenieros admitirán sus equivocaciones y errores, absteniéndose de
distorsionar o alterar los hechos para justificar sus decisiones.
• Los ingenieros deberán advertir a sus clientes o empleadores cuando crean que
un proyecto no será exitoso.
• Los ingenieros no participarán en huelgas, piquetes u otras acciones colectivas
coercitivas.
• Los ingenieros evitarán cualquier acto tendiente a promover sus propios
intereses a expensas de la dignidad e integridad de la profesión.
• Los ingenieros no firmarán, aprobarán o sellarán planos y/o especificaciones de
un diseño que sea perjudicial para la salud pública y el bienestar general. Si
clientes o empleadores insistieran con esa conducta no profesional, el ingeniero
deberá notificar a la autoridad que corresponda.
• Los ingenieros no utilizarán equipamientos, laboratorios u oficinas para llevar a
cabo prácticas privadas sin consentimiento.
• Los ingenieros, cuando empleen a otros ingenieros, ofrecerán salarios de acuerdo
con las calificaciones profesionales de los interesados.
Otro buen ejemplo lo constituye el código de ética propuesto por el IEEE, el cual se
puede bajar de Internet de la pagina de dicha entidad, o simplemente valiéndose de cualquier
buscador usando como clave de búsqueda “IEEE code of ethics”. Este código también se
encuentra en castellano en la página de la rama estudiantil IEEE de la PUCP, a la cual se puede
acceder entrando para la búsqueda con “codigo de etica del IEEE”.
30
Planificación y Programación
Cualquier cosa que pueda cambiarse será cambiada
hasta que no quede tiempo para cambiar nada
ARTHUR BLOCH ( “El libro completo de las Leyes de Murphy”)
Reconocimiento
Necesidad
Requerimientos
Definición de Producto
Especificaciones
Estudio de
Factibilidad Tecnologica tiempo
fase I b fase II fase III fase IV
conceptualizacion planificacion ejecucion documentacion
Factibilidad de Factibilidad Factibilidad
Tiempos Economica fiananciera
Fig.1 Fig.2
Para realizar el estudio de factibilidad es necesario contar con una estimación de los
recursos necesarios para la ejecución del proyecto. Para ello, primero habrá que definir como
se organizara el desarrollo, y formular luego planes para el diseño de cada etapa, estableciendo
metas para cada una que permitan luego un control eficaz de su progreso y efectividad.
El esfuerzo de planificación es una parte importante del esfuerzo total del proyecto,
figura 2, ampliamente justificado porque con el mismo no solo se demuestra que las metas
pueden ser cumplidas, sino que además permite lograrlo con un menor esfuerzo total. Es por
ello que las normas ISO exigen que los proyectos estén apoyados en un plan, definiendo al
plan de proyecto como “un documento en el cual se expresan las prácticas especificas, los
recursos y secuencia de actividades requeridas para cumplir con los objetivos del proyecto”.
32 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Planificación
Antes de ponerse a resolver los problemas planteados en el proyecto se necesario
delinear un plan. Recién después de trazado el plan, se elaborara un programa de trabajo. Con
la planificación se busca determinar qué tareas hay que hacer, qué recursos son necesarios para
ejecutarlas, y en que orden deben ejecutarse. En la elaboración del programa se parte de
recursos definidos con algún criterio, y se busca establecer un tiempo calendario, indicando el
momento en que se debe comenzar y se debería terminar cada tarea, asignándole los recursos y
definiendo los responsables de las mismas. Un programa es, entonces, solo una posible forma
de ejecución del plan.
Es decir, en la planificación no interviene el tiempo calendario, tan solo toma en
cuenta el tiempo de duración de las tareas, pero no está dicho en qué momento se van a
ejecutar, ni de que forma se va a trabajar; en el programa sí. De la planificación surgirá por
ejemplo que se requieren X horas para ejecutar una tarea. El programa toma en cuenta las
horas de trabajo diario, la existencia de feriados, días de descanso semanal, periodo de
vacaciones, etc. Esto implica que la duración establecida en la planificación debe ser
multiplicada por un factor que tome en cuenta el número de horas efectivas de trabajo anuales,
por lo cual la duración puesta en tiempo calendario se ve incrementada entre 4 y 5 veces.
Algunos piensan que la planificación es una pérdida de tiempo, considerándola una
actividad totalmente prescindible. Esto, que puede ser cierto cuando se trata de tareas simples,
deja de serlo cuando se trata de desarrollar productos en los que están implicadas múltiples
tareas y sectores. En el primer caso será suficiente trazar un plan de acción. En el segundo
caso son necesarias herramientas específicas para la coordinación, el control y la revisión. La
planificación obliga a fijar claramente los objetivos que se deben alcanzar, que existan recursos
para satisfacerlos, y que estén contemplados esfuerzos dedicados a la revisión, evaluación de
progreso, y el control.
La planificación determina el proceso para llevar a cabo el proyecto del modo más
eficiente y efectivo, para cumplimentar el propósito planteado. Busca definir el que, el donde,
el como, el porque y a que costo. Para ello es necesario:
1. Definir las metas generales
2. Trazar un plan de tareas
3. Desarrollar en detalle los alcances
4. Asignar objetivos para cada actividad
5. Relacionar las actividades mediante una red lógica
6. Establecer la duración y demoras de cada actividad
7. Verificar la consistencia de la red
8. Determinar la necesidad de recursos para cada actividad
La planificación se hace usualmente sobre la base de recursos infinitos, con la
finalidad de determinar el menor tiempo en que podría ejecutarse el desarrollo. Trabajar con
recursos infinitos significa que se puede poner tanta gente a trabajar en el proyecto como sea
necesario y posible, y que se cuenta además con todo el soporte que sea requerido. La variante
extrema a esta opción sería hacer el desarrollo aprovechando recursos libres. Ahora bien:
¿Quién decide como debe ejecutarse el proyecto? En función de los estudios de factibilidad y
planes estratégicos, la dirección de la empresa determinará la forma apropiada de ejecución, es
decir, el soporte que va a tener el proyecto, en base al cual se hará el programa de trabajo.
Entre las actividades necesarias deben incluirse los mecanismos de control y
monitoreo de perfomance. Esto implica incluir actividades tales como informes de progresos,
de aseguramiento de la calidad, de control de costos, etc.
Para poder establecer la carga de trabajo, el esfuerzo global debe partirse en esfuerzos
menores, y estos a su vez nuevamente deben descomponerse, de modo que se va conformando
32
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 33
una estructura de partición del trabajo, una WBS ( Work Breakdown Strcuture ), hasta un
nivel en que pueda determinarse la carga de trabajo y los recursos requeridos.
Las dos herramientas usuales para la planificación son el CPM (Critic Path Method),
método del camino crítico, y el PERT (Program evaluation and review technique ), o técnica
de evaluación y revisión de programas. El CPM, orientado a actividades, trabaja con tiempos
determinísticos, considera que la fluctuación en la duración de las tareas es despreciable. El
PERT esta orientado a eventos, y, por trabajar con tiempos aleatorios, es más apropiado para
la planificación de proyectos, en los que se supone que al menos alguna de las tareas no se
realizo nunca, ni es simple, ni su solucion es directa, y que además exige esfuerzos de
creatividad difíciles de cuantificar en tiempo. Esto lleva a suponer que su duración no puede
ser precisada exactamente, pero, como todo proyecto requiere que sea determinado su tiempo
de ejecución, es necesario contar con una herramienta que ayude para esa determinación.
66
Fig.3 Fig.4
tarea t4
El grado de desglose que se tiene que hacer en las tareas, debe ser lo suficientemente
amplio como para poder definir o estimar su duración, la cual, bajo el supuesto de recursos
infinitos, será el menor valor posible.
Supongamos por ejemplo que la primer tarea t1 requiere 23 h (horas) para ser
completada, la tarea t2 17 h, y así sucesivamente, figura 4. En función de esto se puede
computar el tiempo que debe transcurrir para lograr un evento dado a contar desde el arranque
del proyecto. La carga de trabajo dependerá de la cantidad de personas involucradas; vale
decir, es necesario diferenciar entre la duración de la tarea y la carga medida en horas-hombre.
Si en la tarea t1 intervienen dos personas, la carga será de 46 HH (horas-hombre). Alcanzado el
nodo 2 pueden ser ejecutadas tres tareas en forma simultánea, t2, t3 y t4. Podría ser, por
ejemplo, que la tarea t2 requiriese 1 persona ( 17 HH ), la t3 3 personas ( 30 HH), etc.
Como vemos, en este diagrama no hay ningún calendario. Recién después de tener las
directivas del directorio se realizará el programa de trabajo, con un calendario que estará
vinculado a los criterios definidos para la asignación de recursos.
El diagrama puede incluir tareas ficticias, indicadas en punteado, tareas de duración
nula, como es el caso de la tarea t5, indicada en la figura 5a. Su finalidad es respetar las reales
33
34 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
tarea t2 tarea t2
10 30 10
60 25 30 25
1 2 tarea t3 3 5 6 1 2 60
3 5 6
tarea t1 tarea t7 tarea t8 tarea t1 tarea t3 tarea t7 tarea t8
16 0 16 50
tarea t5
tarea t4 50 tarea t4 tarea t6
Fig.5 4
a) tarea t6 b)
La tarea ficticia sirve también para diferenciar nodos a los efectos de simplificar su
tratamiento por computadora, cuando se quiere identificar a las tareas por los nodos que
vinculan, figura 6a, b. Esto ocurrirá cuando las distintas tareas partan y concurran a los
mismos nodos; es decir, el nodo 6 para el caso indicado en la figura 6c seria innecesario.
4 5 4 5 4 5 7
tarea A tarea 4-5 tarea 4-5 tarea 6-7
Para completar el proyecto es necesario realizar el total de las tareas, muchas de ellas
simultáneas. Por tanto, para hallar el tiempo de ejecución se debe hallar cual es el mayor de los
tiempos requeridos para ejecutar las tareas sucesivas de cada uno de los distintos caminos que
vinculan el inicio y final del proyecto. Ese es el denominado camino crítico. Si la ejecución
de alguna de las tareas de ese camino se prolonga, el proyecto se va a retrasar en igual medida.
Por ello, las tareas incluidas en el camino crítico son las tareas críticas del proyecto, es decir,
las que más deben controlarse.
El método CPM aunque no es la herramienta adecuada para la planificación de
proyectos, es útil para introducir el concepto de camino crítico y de holgura o margen de una
tarea. Si se observa la figura 5a se ve que el inicio de la tarea t2 se puede retrasar sin afectar
para nada la duración del proyecto. Se dice en tal caso que la tarea tiene una holgura. En otras
palabras, siempre, cualquiera sea la tarea, habrá un tiempo más tardío en que se debe empezar
a ejecutar para no prolongar la duración del proyecto. Es decir, en el caso de la figura 5a, la
tarea t2 debe comenzar a mas tardar a las 32 horas de iniciado el proyecto; de no ser así, su
retraso de ejecución se trasladara directamente a la duración del proyecto.
34
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 35
evento 5 se debe llegar como muy tarde a las 125 h menos las 25 h que demanda la tarea t8.
Por tanto, el inicio más tardío de la tarea t6 será la hora 50 a contar del inicio del proyecto.
t1 t t1 t4 t2 t
t3 t2
Inicio mas temprano Terminación mas tardía Inicio más temprano Comienzo más temprano Terminación
de las tareas siguientes más tardía
Fig.7 Fig.8
Supongamos una tarea j cualquiera que no pertenece al camino crítico, y que sea t1 el
momento más temprano en que la misma se puede comenzar, figura 7, y que sea t2 el
momento más tardío en que debe finalizar para no comprometer la duración del proyecto. Estos
instantes t1 y t2 se obtienen adelantando las tareas que preceden a la tarea j y postergando las
que le siguen tanto como sea posible. Si a la diferencia t2-t1 se le descuenta el tiempo de
duración de la tarea, se obtiene la máxima holgura, o margen total, que puede tener. Esto
define el instante t3 como el momento más tardío en que debe ser iniciada la ejecución de la
tarea j para no modificar la duración total del proyecto.
El margen total de una tarea j supedita la ejecución de las demás tareas para lograr
que el margen de esa tarea j sea máximo. Si solo se restringe el inicio de las tareas que
anteceden a la tarea j, se habla de un margen libre. Esto supone que todas las demás, incluidas
las tareas que siguen a la j, se inician también lo más temprano que se pueda. Suponiendo que
ese instante fuera el t4, figura 8, entonces el margen libre se obtiene descontando a (t4-t1) el
tiempo de duración de la tarea j.
Si las tareas que anteceden a la tarea j se iniciaran lo más tardíamente posible,
cuidando de no afectar la duración total del proyecto, esto nos lleva al instante t5, figura 9. En
el caso límite, teniendo en cuenta también que las tareas que siguen se inician lo más temprano
posible (tiempo t4), resulta un margen independiente de las demás tareas, el cual se obtiene
restando del valor (t4-t5) la duración de la tarea j.
Holgura
independiente Duración de la tarea j
Fig.9 t1 t5 t4 t2 t
Inicio mas Terminación Terminación mas tardía
temprano mas tardía de Comienzo mas temprano
las tareas de las tareas siguientes
precedentes
35
36 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
38 38
tarea t2 tarea t2
0 10 10 70 100 125 0 10 10 70 100 125
60 30 25 60 30 25
1 2 3 5 6 1 2 tarea t3 3 5 6
tarea t1 tarea t3 tarea t7 tarea t8 tarea t1 tarea t7 tarea t8
0 10 70 125
0 0 100
16 tarea t5 16 tarea t5
26 26
tarea t4 50 tarea t4 50
4 tarea t6
4 tarea t6
Fig.11 50
Fig.10
Existen varios paquetes de software para el análisis CPM y PERT. Entre los más
difundidos deben mencionarse el Primavera Project Planner y el Microsoft Project. Este
último, si bien tiene una capacidad limitada, es normalmente suficiente, y es además uno de
los más económicos y simples de usar.
36
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 37
0 x 1
0 to t tp t
Fig.12 Fig.13
x moda =
(α − 1 )
(α − 1 ) + (β − 1 ) (7)
Definidos los tiempos optimista ( to) y pesimista (tp), queda definido el intervalo de
incerteza, relacionado con el intervalo de existencia de la variable beta normalizada x, figura
13, en la forma,
t − to
x = (8)
t p − to
t = t o + x .( t p − t o ) (9)
Determinar los parámetros α y β del modelo con los únicos datos disponibles (las tres
estimaciones, to, tm, tp ) no es posible, y aunque bastaría con otra suposición adicional,
convencionalmente se agregan dos supuestos más, el tiempo medio y la varianza del modelo,
que se ligan a las tres estimaciones anteriores. Como el tiempo medio es un valor comprendido
entre to y tp y cercano a tm, se lo establece suponiéndolo como una media ponderada de los tres
tiempos, siendo convencional asignar a tm un peso 4 veces mayor, es decir
t o + 4 .t m + t
t =
p
(10)
6
y además se considera como un hecho imposible que el rango supere en más de 6 veces el
desvío estándar, o sea, en el limite
⎛ t p − to ⎞
2
(11)
var( t ) = ⎜⎜ ⎟⎟
⎝ 6 ⎠
Como el modelo tiene dos parámetros solo podrán cumplirse dos de las tres
condiciones ( µ, σ, xmoda ). Si se supone que las expresiones (10) y (11) definen exactamente
los valores medios y la varianza, reemplazando estos valores (normalizados) en las
expresiones (5) y (6), se pueden obtener los valores de los parámetros para ese supuesto,
α = µ .[36 .( µ − µ 2 ) − 1] (12)
⎛ 1 ⎞
β = α . ⎜⎜ − 1 ⎟⎟ (13)
⎝ µ ⎠
37
38 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Esta solución vuelve coherentes las expresiones (5) y (6) con las (10) y (11), pero tiene
como limitación que el valor de la moda difiere del valor del tiempo más probable supuesto.
Otra alternativa de solución seria respetar los valores estimados de la media y de la moda, y
vincularlos con los parámetros de la función Beta. En este caso la moda concordara con el
valor del tiempo mas probable supuesto, pero la varianza diferirá del valor estimado en base a
la expresión (11). El modo más simple de considerar esta alternativa consiste en adoptar
p+q = 4 (14)
aprovechando que bajo esta condición la expresión (10) lleva a un error nulo en el valor medio
cualquiera sea el valor de p, como se observa en la Figura 14, y la varianza se aproxima al
valor dado por la expresión (11), tal como muestra la figura 15.
20
10 p+ q= 5
error(%)
Fig.17
4
0
3
-10
-20
0 0.2 0.4 0.6 0.8 p/p+ q 1
Fig.14
0.04
teoric a
0.03 aprox im ac ion
va ria n z a
0.02
Fig.15 0.01
0 0.2 0.4 0.6 0.8 p /(p + q ) 1
Como además el tiempo mas probable tm marca el sesgo de la curva, y por lo tanto
la relación entre p y q, o lo que es igual entre α y β, por lo que si se tiene en cuenta que bajo la
condición
p+q=k (15)
fijando un valor para k, de acuerdo a la expresión (7), la moda ( xm ) variara con p en la forma
p
xm = (16)
k
o lo que es equivalente,
(17)
p = k .x m
Fijando entonces k=4, para estar dentro de la aproximación (10), y teniendo en
cuenta (15), resulta
tm − to
p = 4. (18)
t p − to
y por (14)
t p − tm
q = 4. (19)
t p − to
Dada la poca diferencia entre los distintos métodos de cálculo, y el carácter estimativo
implícito, la mayor simplicidad hace aconsejable emplear esta última aproximación.
38
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 39
estimacion 2
estimacion 3
estimacion 4
Fig.16
tp
to tmp tiempo
Basándose en diferentes estimaciones de duración de cada una de las tareas, con datos
obtenidos en forma independiente entre si, es posible hacer una mejor estimación de los
tiempos optimista, pesimista y más probable, tal como muestra la figura 16.
Para estimar los recursos será necesario tener una descripción de cada tarea y de como
se llevara a cabo su ejecución, a los efectos de poder determinar los recursos de ingeniería, de
técnicos, o del recurso humano que sea necesario, y a ello se deben agregar los demás recursos
requeridos para cumplimentar la tarea: componentes y materiales, espacio físico e
instalaciones, el instrumental, y todo soporte que se aprecie necesario. Es decir, además del
tiempo que se supone demandara el desarrollo, es necesario indicar la cantidad de personas
comprometidas en cada tarea. Estos valores se integran a una planilla, en un cuadro similar al
siguiente:
Esta planilla, útil para construir el PERT, también lo es para la asignación de recursos
(programación) y para realizar los estudios de costeo y de factibilidad económica.
1
ver pagina 100
39
40 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
donde, cada una de las ti es una variable aleatoria. Ahora bien, es sabido que la distribución de
la suma de muchas variables aleatorias tiende a una distribución normal, si todas tienen similar
incidencia. Esto permite conocer el tiempo que lleva la ejecución de las tareas de un camino j
como suma de los valores medios de cada tarea más un tiempo que contemple la incerteza.
Este tiempo es función del desvío estándar de la duración de las tareas de ese camino j y de un
factor zα, fractil de 1-α, que depende del riesgo α que se acepte para la estimación, o sea
Tj = ∑ t i + z α .σ j = T j + z α .σ j (21)
tareas en j
f(t)
Esta área mide el
riesgo Tci⏐10%
Tjmedio = Tj Tj t Tcj⏐10%
Tci⏐50% Tcj⏐50%
Fig.17 Fig.18
Entonces, cuando se requiere saber cuál es el tiempo que puede llevar la concreción de
todas las tareas del camino j, esto admite muchas respuestas, dependiendo del riesgo α que se
quiera asumir. Por ende, un valor sin especificación de riesgo carece de sentido. Tampoco
tiene sentido operar con riesgos menores al 5%, dado que se parte de datos estimados.
Prefijado un riesgo, se puede determinar la duración para los distintos caminos, y
evidentemente la duración del proyecto quedara determinada por el camino de mayor duración,
el cual pasa a ser el camino crítico. Pero, si se adoptara otro riesgo puede resultar otro camino
crítico, tal como muestra la figura 18, en la cual se indican las funciones de densidad de dos
caminos, el i y el j. Para un riesgo del 50%, el camino crítico es el j. Si en cambio se plantea
un riesgo del 10%, el camino crítico sería el i. Esto muestra lo inconveniente de trabajar con
valores medios, que corresponden a un riesgo del 50%.
40
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 41
x1 Áreas iguales
y fz(z)
y=f(x 1 ,x ,...,x n ) fx(x)
2
xn
dx x z
dz
Fig.19 Fig.20
41
42 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Caminos semicríticos
Si las curvas de densidad de los distintos caminos se solapan, como en cada ejecución
del proyecto solo puede haber un único valor de tiempo de duración para cada camino, es claro
que cualquiera de los caminos cuyos tiempos de ejecución sean los mas altos y se solapen son
potencialmente posibles caminos críticos. A estos caminos se les denomina caminos
semicríticos. Los caminos a, b, c, y d de la figura 21 son todos caminos semicríticos, dado que
cualquiera de ellos puede resultar eventualmente crítico. Pero, una vez fijado un riesgo solo
uno de ellos es crítico. Por caso, con un riesgo del 50%, o sea, trabajando con los valores
medios, pasa a ser crítico el camino c de la figura 21.
c
f(t)
e b
d
a
Fig.21
Ta Tb Tc t
La determinación de los caminos semicríticos, caminos que tienen alguna
probabilidad de ser críticos, es de cálculo difícil por medio analítico pero muy simple en base
a simulación de Monte Carlo.
Supongamos conocidos los parámetros de la distribución beta, α y β, de la tarea j.
Entonces, un posible valor de duración de la tarea j estará dado por
t = to + [ Betainv(aleatorio, α , β)].(tp-to) (26)
donde Betainv() es la función beta inversa normalizada, o sea definida en el intervalo (0,1). Si
esto se repite para cada tarea, la suma de los tiempos correspondientes a las tareas de un
camino determina el tiempo de ejecución de ese camino. Si este cálculo se hace para todos los
caminos, el de mayor duración será el camino crítico de esa realización. Usualmente no será
necesario determinar la duración de todos los caminos, pues muchos de ellos podrán ser
descartados, porque por simple análisis se sabe que no podrían ser nunca críticos.
En un nuevo intento de realización del proyecto, como si fuera ejecutado por otro
equipo de trabajo, seguramente en condiciones de entorno distintas, resultaran sin duda otros
valores. Esto implica hacer otra simulación, repitiendo el proceso anterior. Si esto se repite un
número elevado de veces, se esta en condiciones de hacer el tratamiento estadístico que
permita responder a las preguntas:
1. ¿Cuál es la probabilidad de concretar el proyecto en un tiempo dado, independientemente
de cual resulte ser el camino crítico?
2. ¿En que tiempo puede concluirse el proyecto, bajo riesgo impuesto, independientemente
de cual resulte ser el camino critico?
3. ¿Bajo un riesgo dado, en que tiempo se puede concretar el proyecto para un dado camino
semicrítico?
4. ¿Que probabilidad tiene un camino de ser critico?
El valor de duración X que resulte debe verse solo como una referencia, debido a que
supone recursos infinitos y computa unidades de tiempo. Considerando condiciones normales
de trabajo, se podría hacer una estimación de la duración en semanas de trabajo en base a
X
s = (27)
40
valor que deberá aumentarse para considerar días festivos y días perdidos. También,
asumiendo 1800 horas de trabajo anuales, se puede tener una idea de la duración del proyecto
en días calendario, suponiendo una ejecución normal.
42
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 43
Programación
Se ha visto que el diagrama de flechas, a veces llamado grafo de redes, sirve para
indicar la secuencia lógica entre las tareas, y determinar la duración del proyecto sobre la base
de que se dispone de recursos infinitos, pero sin ajustarse a calendario alguno. Como resultado
de los estudios de factibilidad la dirección de la empresa decidirá los recursos efectivos que
van a ser volcados al proyecto y el momento en que el mismo comenzara. Es en función de
esas directivas que se debe replantear la duración, establecer la posible fecha de finalización y
determinar un presupuesto ajustado al nuevo replanteo. La asignación de recursos: cuantos y
quienes participaran, conque medios, y en que momento (fijación de un calendario), es la
tarea de la programación del proyecto.
Las directivas que establezca la dirección de la empresa para la ejecución del proyecto
podrán basarse en alguno de los criterios siguientes, o en su combinación:
• mínimo tiempo de ejecución ( bajo condición normal o acelerada)
• mínimo costo de desarrollo
• máximo aprovechamiento de los recursos existentes en la empresa
• asignación de recursos limitados en ciertas áreas
• cumplir con una fecha ligada a algún evento especial
• posibilidad de contrataciones externas en ciertas áreas
• conclusión de alguna etapa en una fecha prefijada
Diagrama de Gantt
La programación se vale del diagrama de barras o diagrama de Gantt. Este diagrama
tiene en su eje horizontal el tiempo calendario, destacando los días laborables, y cada tarea esta
representada por una barra horizontal. La barra queda definida por su fecha de inicio, las
precedencias que debe satisfacer, los días laborables y horas diarias de trabajo, y la duración
de cada tarea. El grafico marca también la vinculación de precedencia entre tareas, figura 22.
Tarea A
Tarea B
El primer problema que se presenta para construir este diagrama es como representar
la duración de una tarea que esta sujeta a incertidumbre. Obviamente, si se hiciera con los
valores medios, la duración del proyecto que resulta del diagrama de Gantt no seria congruente
con la duración que se determino previamente con el PERT, donde se contemplo una duración
con un nivel predeterminado de riesgo. El otro problema es que para hacer el control, a fin de
evaluar la marcha del proyecto, necesariamente se deben considerar las incertidumbres.
Analicemos esto con más detalle. Si quisiéramos determinar la duración de una única
tarea que esta sujeta a incertidumbre, adoptado un riesgo dado, su duración tendrá un valor,
t j = t j + γ j .σ j (28)
donde t j es el valor medio de duración de la tarea j, σj es el desvió estándar correspondiente a
esa tarea, el cual se ha visto esta dado por
43
44 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
t pj − t oj
σ j = (29)
6
y γj un factor que toma en cuenta el riesgo asumido, figura 23. Para un conjunto de tareas, por
ejemplo las tareas involucradas en el camino k, la estimación debiera considerar la
incertidumbre que resulta en la ejecución de cada una de las tareas que integran dicho camino.
f(t) riesgo
Fig.23
to tm tj tp t
tcamino k riesgo
= ∑ t j + zα . ∑σ 2
j = ∑ t j + z α .σ k (30)
tareas en k tareas en k tareas en k
para lo cual bastaría con asumir un riesgo para cada tarea proporcional a la incerteza de la
misma en relación a la incerteza total,
σ
γ i = zα . i
(32)
m
∑
1
σ i
2
2
ver Control de Proyecto, página 46
44
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 45
Asignación de recursos
Se ha visto que la asignación de recursos y el calendario al que deben ajustarse las
tareas deberá hacerse según los criterios que hayan sido fijados por la dirección de la empresa.
Si bien en la etapa de planificación se determina el tiempo que lleva la ejecución de cada tarea,
estableciendo un número de horas, no dice como estas se distribuyen; es decir, no toma en
cuenta cuantas horas por día, ni cuantos días a la semana se trabaja. Cuando la organización no
es por proyecto, sino que se usan recursos de distintos departamentos de la empresa, cada uno
de ellos trata de ir llenando los tiempo libres, manteniendo la carga de trabajo lo mas nivelada
posible. Para eso se aprovechan los márgenes que puedan tener las tareas. Si la empresa no
tiene recursos disponibles, deberá agregar recursos, incorporando gente, nuevos equipos, o
contratando externamente.
t1 t1
t2 t2
t3 t3
t4 t4
15
t2
15 20 b d
t1 t3
5 t1 t1
t4 t2 t2
t3 t3
a
t4 t4
Fig.24 c e
La figura 24a muestra tareas de un tramo del diagrama PERT. Se trata de establecer
la carga de ingeniería, suponiendo que la ejecución de cada tarea requiere un ingeniero.
Algunas posibles formas de asignación se indican en las figura 24b,c,d y e, pudiendo cada una
ser optima según sea el criterio que se considere: mínimo empleo de recursos por unidad de
tiempo, c; mejor nivelación en el uso de recursos, d y e; el caso d será mejor que el caso e, si t4
requiere una mayor inversión. Otro criterio seria adelantar las tareas con mayor incerteza.
A (2) A (2)
C (4) C (4)
E (1) E (1)
B (3) B (3)
D (6) D (6)
$ condicion acelerada
F (4) F (4)
to duración
t t
a) b)
Fig.25 Fig.26
Si se pretendiera ejecutar el proyecto en el menor tiempo se debería acelerar la
ejecución de cada una de las tareas, lo cual acarreara sin duda mayores costos. La relación
entre costo y duración toma típicamente la forma indicada en la figura 25. La curva muestra
que por más recursos que se dispongan no es posible acortar la duración más allá de un valor
dado. Si la meta es minimizar el costo, el tiempo óptimo sería to, figura 25. Como la relación
costo-duración es propia de cada tarea, cuando el proyecto deba acelerarse habrá que buscar
cual es la alternativa mas efectiva en costo. El perfil de recursos requeridos, indicados debajo
del diagrama de Gantt, será diferente con cada asignación. En el caso de la figura 26a se han
retrasado las tareas no críticas tanto como es posible. Esto acarrea una fuerte desnivelación en
los recursos requeridos. Manejando los márgenes disponibles en las tareas C y E es posible
lograr una mejor nivelación, figura 26b, sin por ello producir retrasos en el proyecto.
45
46 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
B (1) F (4) tA tB
C (1) 2. z α . ( σ 2 A + σ 2 B + σ 2 C ) 1/2
D (3)
tC
Carga de trabajo diario
(Horas-hombre)
acumulado
t1 t2
5/02 12/02 19/02 26/02 05/03 12/03 tiempo calendario
Fig.27 Fig.28
Dado que las tareas tienen duración incierta, para decidir si se va adelantado o
atrasado es necesario saber cual es el intervalo de incerteza para los instantes de control, figura
28. Por ejemplo el trabajo planeado TE1 se debería completar entre los tiempos t1 y t2 para
estar dentro de lo planeado. Pero, el control no solo busca saber si lo ejecutado esta dentro de
lo planeado, pretende además:
• estimar, en base a lo ejecutado, si se va a cumplir con la fecha de finalización
• determinar una nueva fecha de terminación, bajo el riesgo asumido
• disparar acciones correctivas, para situarse dentro de lo planeado
El problema es que aun estando al momento del control dentro del intervalo de
incerteza previsto, esto no implica que se pueda concluir con la planificación prevista. Ahora
se tiene un nuevo escenario: la información a posteriori modifica la previsión inicial.
α/2=27%
α2 = 5%
T T
Fig.29 Fig.30
Supongamos que la planificación prevé terminar el proyecto en el momento T, bajo un
riesgo dado, figura 29, y que al momento de finalizar la tarea j se hace un control de la marcha
del proyecto. Supongamos que, con un riesgo del 5%, las tareas previas deberían quedar
concluidas a más tardar en el instante t1, y que efectivamente sea ese el tiempo de conclusión.
La cuestión que se plantea ahora es: ¿habiendo concluido las tareas previas en un instante t1,
que esta dentro de lo previsto, que chances hay de no concluir el proyecto dentro del tiempo T?
46
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 47
Ahora bien, dado que T y t1 están impuestos, el nuevo valor del riesgo esta dado por
α = 1- P(T-t1) (33)
donde P(t) es la función de distribución de las tareas pendientes de ejecución, figura 30.
Esto muestra una nueva posibilidad de enfoque, haciendo que la variabilidad
admisible para las tareas previas al momento de control se establezca en base a la incerteza de
las tareas que aun resta ejecutar de modo de asegurar que se este dentro de las metas del
proyecto. En cierto modo, esto es un planteo inverso al indicado en la figura 28.
En el control conviene trabajar con medidas relativas en vez de manejarse con valores
absolutos, por ser más indicativo y facilitar el control. Como la acción de control es una acción
programada, seguramente, al momento del control, algunas tareas tendrán un estado de avance
parcial. En tal caso, cada tarea debe ser medida en relación al tiempo total del proyecto, y su
nivel de avance o progreso estimado en función de lo ejecutado en relación al tiempo invertido,
y al nivel de conformidad en el cumplimiento de objetivos, figura 31.
Nivel de conformidad (%)
Tarea Horas Porciento Peso 20 40 60 80 100
100
Trabajo previsto 2
1 40 9.1
0 5 10 20 30 50 80 100 30
2 200 45.5
0 15 30 80 100
3 120 27.3 Trabajo 28
conseguido 0 40 80 100
4 80 18.2 40
Porciento del trabajo
Total 440 100 0 10 20 50 80 100 (%) 100
100 (%)
excedido de
presupuesto total
presupuesto
Porciento del
horasde trabajo
Presupuesto ejecutado
Presupuesto previsto 50
Pociento de
Trabajo planificado
Trabajo conseguido retraso
Fig.31 0
0 25 50 75 100 (%)
Porciento del tiempo de duracion instante
actual
Frente a la pregunta: ¿cuál es el estado del proyecto?, no hay una única respuesta. Se
debe diferenciar lo previsto (Budgeted cost of work scheduled, BCWS), de lo conseguido
(Budgeted cost of work performed, BCWP) y lo invertido (Actual cost of work performed,
ACWS). Es decir, para un conjunto de tareas que esta previsto ejecutarse en 100 h (BCWS =100
h) si transcurrido ese tiempo solo se han ejecutado 80 horas y conseguido realizar el trabajo
correspondiente a 60 horas del trabajo previsto, es BCWP=60 h y ACWS=80 h. Es decir, en
este caso habrá un retraso, debido a poca efectividad y a un bajo ritmo de trabajo.
Si se quiere conocer el estado de situación del proyecto en un instante dado se debería
comparar lo ejecutado contra lo planificado, considerando no solo el tiempo y el presupuesto,
sino además el nivel de cumplimiento de los objetivos. Es decir, es necesario distinguir entre
estado de situación del proyecto y una evaluación de desempeño, en la cual debe incluirse el
grado de cumplimiento de los objetivos técnicos.
Cuando no se esta dentro de lo planeado será necesario introducir correcciones. Como
es imposible satisfacer el plan tiempos y el plan costos simultáneamente, necesariamente uno
de ellos quedara subordinado, salvo que se alteren las metas del proyecto. Esto puede
significar un aumento de recursos, un estiramiento de los plazos, o un cambio en las
especificaciones como recurso extremo. Lo menos adecuado es tratar de hallar culpables y
darlo por terminado, o justificar su prosecución en razón de lo invertido.
47
48 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Factibilidad económica
El proyecto debe integrarse al plan de negocios de la empresa El plan debe incluir un
análisis del mercado al que se quiere llegar, un análisis de la competencia, evaluaciones
referidas a las expectativas del cliente, sobre posibilidades de crecimiento y mejoras, planes de
evolución del producto, objetivos de costo, políticas de comercialización y precios,
necesidades de desarrollo de recursos humanos, planes de investigación y de desarrollo, y una
evaluación de como el producto afectara el futuro de la empresa, etc. El plan de negocios
debe contemplar tanto el corto (1 a 2 años) como el largo plazo ( 3 años o mas ). Todo ello
será la base para decidir la conveniencia del proyecto.
En las empresas occidentales, tradicionalmente, los proyectos se analizaban
basándose exclusivamente en su tasa de retorno, y decidir entre varios era solo una cuestión de
saber cual era el más redituable. Esto implica que las decisiones de las empresas son tomadas
bajo la visión de los accionistas, que son considerados los verdaderos dueños de la empresa.
Por el contrario, en Japón, los accionistas son “socios silenciosos” de directivos y trabajadores.
Se considera que la empresa son directivos y trabajadores, y no solo edificios, instalaciones y
equipos. La decisión en este caso se basa en el valor agregado por el proyecto:
valor de los valor de productos y
valor agregado = productos –
servicios comprados
el cual es compartido por accionistas, directivos y trabajadores, y en reinversiones en partes
prácticamente iguales. En este caso, los proyectos se seleccionan según una evaluación del
valor agregado y la posición competitiva de la empresa a largo plazo, y no solo considerando el
beneficio de los accionistas. Es decir, importa más el futuro de la empresa que el resultado de
los beneficios a distribuir entre los accionistas que resultan del balance anual.
Costo objetivo
El beneficio resulta por diferencia entre el precio de venta y los costos. El precio de
venta esta acotado por sus dos extremos: El piso esta fijado por el costo, y el techo por el
valor o la utilidad que el producto representa para el usuario. La tarea del desarrollo es
maximizar dicha diferencia, lo cual implica minimizar el costo y maximizar la utilidad para el
usuario, como medio para aumentar la demanda. Es decir, los componentes del costo de un
producto no deben verse como algo rígido e inmodificable: Se puede y debe trabajar sobre
ellos para viabilizar el proyecto. En la mayoría de los casos habrá que operar sobre el producto
y sobre los procesos, y en otros casos será necesario disponer de otras variables externas a la
empresa para hacer viable el proyecto.
Para su análisis, conviene desglosar los costos según la etapa formadora:
• Desarrollo: Marketing, planificación, desarrollo de producto, validación del
desarrollo de producto, desarrollo de manufactura, validación del proceso de
manufactura
• Producción: compras, licencias, recepción, almacenamiento ( materia prima y
producto terminado), manufactura, control, embalaje
• Comercialización: promoción ,ventas, despacho y entregas, cobros
• Servicio postventa: Instalación y puesta en marcha, atención postventa, garantía
• Administración: Sueldos personal administrativo, amortizaciones, tasas
• Financiación (intereses): Carga financiera del capital propio invertido, carga
financiera resultante de la venta, debido a plazos de pago o toma de créditos
Tradicionalmente, el costo total se obtenía por acumulación de costos, pero la
tendencia moderna es operar en base a un costo objetivo, invirtiendo las cosas: Se va de
48
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 49
adelante hacia atrás. Este es un nuevo concepto que toma al usuario o cliente como base total
para la definición del producto, incluyendo además de las prestaciones del equipo, como una
característica mas, el precio que esta dispuesto a pagar el consumidor. Es bajo este enfoque
que deben ser desarrollados los nuevos productos.
Establecido el precio de venta como valor de mercado y fijado el beneficio deseado,
entonces el costo objetivo resulta de la expresión
Costo objetivo = Precio de venta – beneficio objetivo (34)
Impuestas dos de las variables, resultara la tercera. Como el precio de venta lo impone
el mercado, solo resta trabajar sobre los costos o aceptar un menor beneficio. En el método
aditivo, como se parte de los costos de producción actuales, quedara afectado el beneficio
resultante, lo cual viabilizará o no el proyecto. En el método sustractivo se impone el beneficio,
y en tal caso solo resta saber si el costo objetivo esta por encima del costo real de producción.
La parte mas importante de cualquier desarrollo es justamente la de lograr suficiente
innovación en el producto, los componentes y los procesos, de modo de satisfacer la meta de
costo objetivo. Para ello, partiendo de la meta de costo, se establecen metas para cada
elemento formador del costo. Este método se usa básicamente para los análisis de costo en la
etapa de desarrollo del producto, con la finalidad de influir en la estructura de costos del
mismo. El modelo parte del supuesto que todo producto puede desglosarse en funciones y que
estas pueden valorarse según la apreciación del cliente, para ser consideradas en la definición
del producto según sea su relación costo / valoración.
La escala de producción afecta todos los costos. Un volumen alto hace que los
costos de desarrollo, los que corresponden al desarrollo del producto y desarrollo de
manufactura, denominados costos no recurrentes, tengan mínimo peso. También el costo de
los componentes es muy dependiente del volumen, y de acuerdos de compra. La compra de los
componentes está actualmente globalizada a nivel de grandes grupos empresariales
multinacionales, con precios muy diferentes a los que un pequeño fabricante puede obtener.
Aun entre las grandes compañías multinacionales puede haber diferencias de casi uno a dos en
el costo de un mismo componente, aun tratándose en ambos casos de grandes volúmenes de
compra. Esto determina que actualmente, el costo final del producto a la salida de fábrica
descanse fundamentalmente en el costo de estructura, y en el costo de proceso que resulta del
armado, la soldadura, el control, la empaquetadura y el despacho a plaza.
Contar con una economía de escala redunda en:
• muy baja incidencia del costo de la I&D
• reducción del costo de compra de los componentes, debido a descuentos por
volumen
• alto beneficio por reducción de costos logrados por optimización del diseño
Esto no es posible cuando el mercado es pequeño y el producto aprovecha un nicho
del mismo. Las reglas para el diseño son otras. Partes o elementos que pueden ser dedicados, y
con importante reducción del costo, ya no son posibles de usar. Igualmente, no es posible usar
los métodos de manufactura aplicados en altos niveles de producción. Tampoco es posible
reducir el tamaño del producto, estrechamente ligado al costo, sea porque implicaría diseñar un
nuevo gabinete o algunas de las partes. En estos casos, el diseño debe asumir como inevitable
que al menos en su primer lanzamiento el producto sea una versión con bajo volumen de
producción y de alto costo. Luego de introducido el producto, con un mercado mas maduro,
se buscara ampliar el volumen. Esto, obviamente, solo será posible si la demanda del producto
es elástica, es decir, si aun con un alto precio existe un mercado suficiente que justifique el
desarrollo. Usualmente este es el caso de los productos de alta tecnología, como es el caso de
gran numero de productos electrónicos.
49
50 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Mercado objetivo
El conjunto de clientes que en un dado momento manifiesta un grado suficiente de
interés por el producto, y dispone de capacidad de compra, pero sin tomar en cuenta el precio
de venta, determina el mercado potencial del producto. Su estimación suele hacerse en base a
indicadores relacionados con la capacidad de compra, como ser el producto bruto per capita, el
nivel de ingreso medio, etc. La demanda en cambio mide, para un momento dado, la cantidad
de un producto que puede ser comprada en relación a su precio de venta, expresada en
unidades monetaria o unidades físicas, considerando tres supuestos:
• el mercado se compone de aquellos que están deseosos del producto en cuestión y
tienen capacidad para comprarlo ( es decir, supone un mercado potencial )
• existe una relación inversa entre la cantidad demandada (Q) y el precio de venta (P)
• la demanda solo es valida por un tiempo limitado. Con el tiempo los productos, las
costumbres y exigencias cambian.
El primer paso de un estudio de factibilidad económica es cuantificar el mercado
potencial, y analizar luego como este se deprime en relación al precio de venta. La variación
porcentual que sufre la demanda cuando se produce un cambio porcentual en el precio define
lo que se denomina la elasticidad E del producto,
dQ Q
E = (35)
dP P
Los productos de consumo masivo son poco elásticos, y por lo general superado un
cierto precio la demanda cae abruptamente. El codo de la curva de demanda esta vinculado con
el ingreso per capita. La existencia de este codo hace muy difícil que una pequeña compañía
pueda entrar en el mercado de entretenimiento., pero afortunadamente, dentro del área de la
electrónica, la situación no es tan mala, dado que es posible definir productos dedicados a
explotar nichos de mercado
Como el mercado esta integrado por todos los productos que compiten entre si para
satisfacer idéntica necesidad de un grupo de usuarios, si estos estuvieran estratificados,
también lo estaría el mercado. De no ser así, debe buscarse la posibilidad de segmentar el
mercado, desarrollando estrategias diferenciadas de promoción, comercialización o
desarrollando un producto diferente para un grupo de usuarios. Se busca con esto dividir un
mercado global en franjas menores, diferenciando a los usuarios y dando lugar a una función
de demanda también diferente, y a un mercado temporalmente cautivo.
Para una empresa el mercado potencial quedara limitado por la capacidad instalada o
que va a instalar. Eso da potencialmente sus posibilidades de crecimiento. Luego, lo novedoso
del producto, la estrategia de comercialización, la propaganda, la posición competitiva y el
precio de venta determinarán el factor de penetración y el perfil del mercado. Un lanzamiento
mas temprano, una mayor penetración inicial y una mayor porción del mercado, determinaran
mayor volumen de ventas y mayores beneficios, figura 32.
Pm Precio
Volumen de ventas
Mayor porción de mercado
Lanzamiento
temprano
P
Generacion
siguiente
Q Qm
tiempo
unidades
Ciclo de vida
Fig.32 Fig.33
50
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 51
Definir el perfil del mercado que se quiere tomar no es tarea fácil sobre todo cuando
se trata de productos nuevos. Este perfil determinará el resultado de la evaluación de
factibilidad económica, y afectara a los planes de compras y de producción futura, planes que
luego no son fácilmente modificables para adaptarlos rápidamente a las exigencias reales del
mercado. Uno de los errores de IBM cuando lanzo el primer computador personal, la PC, fue
precisamente subestimar el mercado, tanto que al mes y medio del lanzamiento de la PC ya
había cubierto toda la cuota del año, y se encontraba en imposibilidad de responder a esa
mayor demanda, lo cual posibilito que se introdujera la primera imitación.
La habilidad de muchas empresas es despertar el mercado, creando expectativas
previas al lanzamiento, de modo de saltar las etapas de introducción y difusión, o achicarlas; un
buen ejemplo de esta práctica se dio con el lanzamiento a nivel mundial del Windows 95.
La curva de demanda guarda una relación inversa entre la cantidad de unidades y el
precio de venta de cada unidad. Habrá un precio de venta suficientemente alto, Pm, para el cual
no va a haber ningún comprador interesado. En el otro extremo, regalando el producto, habrá
un número de unidades máximo que el mercado puede absorber, Qm, figura 33. Una
simplificación es aproximar entre estos dos límites por una recta. Esta aproximación lineal
tendrá sentido si se trabaja en un entorno de la curva, donde los valores de Pm y Qm resultan
por extrapolación, figura 33; para definirla, simplemente basta producir un cambio en el precio
de venta y ver como reacciona la demanda.
Ciclo de vida
Todos los productos tienen un ciclo de vida, que comienza con la aparición de la
innovación, le sigue una etapa de crecimiento (difusión del producto), y luego sobreviene la
madurez ( o saturación ) para finalmente caer en la declinación hasta la completa desaparición
del mercado, figura 34. Este perfil deberá ser hallado para el producto en desarrollo.
Producción
Declinacion
Saturacion
Crecimiento
Introducción
t
Fig.34 Fig.35
Muchos productos tienen un ciclo corto y único, como fue el caso de los equipos de
banda ciudadana, muy populares en los años 1970, figura 35. Otros productos están sujetos a
ciclos sucesivos, debidos a cambios generacionales, como es el caso del computador personal.
Como indica la figura 36 la tendencia, en todas las áreas, es a que los productos
tengan ciclos de vida cada vez más cortos, siendo en algunos casos el tiempo de permanencia
en el mercado mas corto que la duración del desarrollo. Esto llega al límite en que se esta
trabajando simultáneamente sobre varias generaciones distintas a la vez, con distintos grados
de avance.
cosmeticos 50 años atras
juguetes
hoy
herramientas
alimentacion
Fig.36
farmaceuticos
0 5 10 15 20 25
duración ciclo de vida
51
52 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Precio de venta
Hay dos modos de aumentar o asegurar beneficio: trabajando sobre el costo o
imponiendo el precio de venta. El proyectista solo puede influir sobre los costos; el precio de
venta es un problema de marketing. Cuando el producto debe penetrar en un mercado existente
debe ser competitivo, y en tal caso el único camino es trabajar sobre los costos. El precio de
venta en condiciones de competencia perfecta esta determinado por el mercado, y ningún
comprador o vendedor de por si puede alterarlo. Por ello, la tarea del desarrollo será obtener un
producto que satisfaga la especificación bajo metas de costo. Esto es lo que puede hacer
posible un mercado que antes no existía. Este fue el caso de las fotocopiadoras, para las que
Xerox nunca considero ni desarrollo un producto que permitiera salir de unos pocos clientes,
generalmente grandes empresas o corporaciones. Canon, en cambio pensó un producto para un
mercado mas amplio. Lo mismo ocurrió con las videograbadoras, producto introducido por
Ampex, empresa que nunca salió del ámbito profesional; igual situación se repitió con otros
productos electrónicos. El desafió es innovar para acercar el producto a segmentos de mercado
mucho mayores, y eso implica fijar el precio de venta como una restricción en la solución. Es
decir, en este caso el precio de venta se fija en función del mercado al que se quiere llegar.
Ahora bien, las empresas producen solo si el hacerlo es más beneficioso que no
producir. En otras palabras, se justificara producir para un precio de venta dado si los ingresos
exceden a los costos evitables. Desglosando los costos totales en costos fijos (CF) y costos
variables (CV), para una cantidad de unidades producidas q se define el costo medio total por
CF + CV CF CV
CMT = = + = CMF + CMV (36)
q q q
Los costos evitables son usualmente los costos variables, de modo que mantener la
producción se justificara si el precio de venta P es mayor al costo medio variable, CMV, es
decir si
P > CMV (37)
Esto implica que una empresa puede decidir continuar produciendo aun cuando el
precio de venta P este por debajo del costo medio total, CMT, solo que transitoriamente. El fin
último de cualquier empresa es obtener beneficio, el mayor posible. El punto de equilibrio
quedara definido por un precio de venta que resulte de la condición de no perder dinero; es
decir para un nivel de producción qc que se corresponde al mínimo de los costos medios totales
(CMT), figura 37.
Cuando el costo de producir una unidad mas, denominado costo marginal (CM),
verifica
∆ C (q )
CM = < CMT (38)
∆q ∆ q =1
decimos que hay economía de escala, siendo C(q) el costo total de producir q unidades.
CMT
Pc
qc Q
Fig.37 Fig.38 qc
52
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 53
Fig.39 Fig.40
53
54 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Fig.41 Fig.42
$
Dem anda 1 CM $
demanda
Pm
Beneficio 1 Beneficios
monopólicos Precio bajo competencia perfecta
Pc
CMT
Beneficio 2
Dem anda 2
$
Beneficios
Q Q
m Q
c
Fig.43 Fig.44
Las empresas tratan de encontrar ese máximo. Esto significa que si se está en una
condición inicial donde se obtiene un cierto beneficio BA, la empresa debe determinar si dicho
beneficio puede ser aumentado. Para ello introduce una variación temporaria en el precio y ve
cómo reacciona el mercado; si los beneficios aumentasen, se prosigue en igual dirección hasta
el límite en el que estos se ven disminuidos. Como la curva de demanda no se mantiene fija
con el tiempo, periódicamente se deben hacer tanteos, buscando mantenerse en el máximo.
Cuando la curva de demanda es muy inelástica (curva de demanda 1, figura 43 ) se da
una condición ideal para el monopolio. La figura 44 muestra como se maximiza el beneficio
cuando se tiene el monopolio de un producto.
54
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 55
Análisis de rentabilidad
El desarrollo del proyecto tendrá sentido si del mismo resulta una rentabilidad
aceptable. El resultado de este análisis no es sin embargo único, ya que dependerá de:
cambios futuros del escenario estimado
el concepto de solución que se considere
el criterio para la evaluación de la rentabilidad
Es obvio que cualquiera sea la forma de análisis, en todos los casos se parte de
estimaciones a futuro de los distintos factores de costo, del mercado, y de la tecnología. En
razón de ello, según sea el tipo de proyecto, será necesario analizar otros posibles escenarios,
considerando su probabilidad de ocurrencia, y en base a ello calcular el riesgo de cada
alternativa del proyecto ( concepto de solución ).
La evaluación económica busca determinar para cada alternativa de solución:
• el beneficio total o flujo de caja descontado
• el tiempo para el retorno de la inversión
• la tasa interna de retorno
• la relación costo / beneficio
a fin de decidir cual es la mejor opción. Para realizar estos análisis son de gran utilidad el
conjunto de herramientas financieras que dispone Matlab. Analizaremos seguidamente cada
uno de estos criterios.
1. Flujo de caja descontado (VAN). Este criterio determina como aceptable un proyecto si el
flujo de caja descontado neto total es mayor a cero. El flujo de caja se calcula como diferencia
entre los egresos y los ingresos al final del ciclo de vida. Como el ciclo de vida de la mayoría
de los productos electrónicos se sitúa entre los 3 y los 5 años, es necesario diferenciar entre el
resultado contable y el resultado económico. En este último es necesario considerar el costo del
capital, medido por la tasa de interés, lo que lleva al flujo de caja descontado.
Sea FCi el flujo de caja en un periodo i, balance entre ingresos y egresos en ese
periodo,
FC i = I i − E i (46)
Cuando se multiplica el flujo de caja por un factor de descuento βi se habla de un flujo
de caja descontado
FCD i = (I i − E i ). β i (47)
Al flujo de cada descontado también se le denomina valor actualizado neto, o VAN.
Para hallar el beneficio al final del ciclo de vida simplemente se contabilizan los flujos de caja
descontados de cada periodo refiriéndolos al momento inicial, mediante un factor de
descuento que toma en cuenta la tasa de interés,
1
β i
= (48)
(1 + t i ) i
donde ti, tasa de interés, es el costo del capital previsto para el periodo i. Este valor dará un
valor equivalente al valor del capital al inicio del proyecto de no haber depreciación o
inflación. Si pi es la tasa de inflación prevista para el periodo i, entonces, deberá considerarse
FC i 1
F CD = (49)
(1 + t i ) i (1 + p i ) i
i
55
56 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Acumulando los flujos de caja netos por periodo, y llevados a una grafica, dentro del
ciclo de vida del producto, el valor al final del último periodo representa el beneficio total del
proyecto, figura 45.
T asa de interés = 0
FC (valo r con ta ble)
T a sa de interés de
m ercado: ti<T IR
desarrollo producció n B n
T asa interés =T IR t
Eo
TRI
Fig.45
de modo que si el intervalo k esta muy próximo al final del ciclo de vida estimado para el
producto, o es mayor a cierto tiempo prefijado, entonces el proyecto resulta poco atractivo.
3. Tasa interna de retorno. Todo proyecto lleva implícito diversos riesgos. Por lo tanto, el
proyecto debe producir un beneficio más atractivo que el que resultaría de colocar el capital a
interés bancario. Por otro lado, como el beneficio B es función de la tasa de interés ti, habrá
una tasa de interés para la cual al final del proyecto resulta un beneficio nulo. Esta tasa de
interés se conoce como tasa interna de retorno, o TIR, de modo que
n n
FC i
B n = FCD = ∑ FCD i = ∑ = 0 (52)
1 i =1 (1 + TIR ) i
En la medida en que la TIR se acerque al valor de la tasa de interés de mercado el
proyecto se vuelve menos atractivo.
4. Relación costo beneficio. Este criterio se basa en determinar la relación entre el valor
actualizado de los ingresos brutos, o netos de egresos, en relación al valor actualizado del total
de los egresos; es decir, toma en cuenta el valor total comprometido en el proyecto. La relación
k
costo beneficio bruto esta dada por Ii
∑ (1 + ti ) i
Relación costo beneficio bruto = RCBB = i =k 0
Ei (53)
∑
i=0 (1 + t ) i
i
56
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 57
α
a b riesgo de
B
perdida
Xim XiM
Fig.46 Fig.47
57
58 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación
Fig.48 t
El ciclo de vida y el perfil del mercado en el que se inserta el producto son otras
variables sujetas a fluctuación que también deben ser consideradas Obviamente el final del
producto estará determinado por varios factores. En una situación como la indicada por la
curva a, figura 48, donde pasado un cierto tiempo resulta desventajoso desde el punto de vista
del beneficio continuar con la fabricación, igualmente puede justificarse continuar para
mantener presencia en el mercado y no dejar un vacío que seria aprovechado por un
competidor, al menos hasta tanto no exista un producto sustituto. Esto muestra la necesidad de
tener lista a tiempo la generación siguiente.
También puede ocurrir que si es retirado de producción las perdidas serian de todos
modos mayores, debido a los costos fijos. Es decir, la meta a nivel de proyecto es obtener
máximo beneficio; una vez en el mercado, de lo que se trata es de obtener mínimas perdidas
evaluadas a largo plazo.
Para realizar estos análisis es conveniente apoyarse en análisis de sensibilidad previos,
a fin de que sean considerados todos los factores de mayor peso. Los análisis de sensibilidad
se realizan con la finalidad de determinar cuales son los factores que más inciden en el
resultado del proyecto, buscando:
• refinar los modelos a medida que se avanza en el proyecto, tratando de disminuir la
imprecisión propia de las primeras etapas
• controlar durante el desarrollo del proyecto la evolución de los costos más
significativos y las condiciones del mercado, para ver que el beneficio proyectado se
mantiene dentro de lo esperado
Uno de los mayores problemas asociados con el uso de modelos y estimaciones es el
de llegar a decisiones incorrectas debido a las imprecisiones con que se establecen los modelos.
Es decir, se trata de reducir el error de estimación de aquellos factores que en principio
pudieron haber sido estimados muy groseramente en los inicios del proyecto, sin conocer
todavía el peso que los mismos tienen en el resultado económico.
Hay diversos tipos de modelos desarrollados por las fuerzas armadas de USA y
grandes corporaciones, la mayoría de los cuales requiere soporte de computadora, como el
FLEX, desarrollado para realizar estimaciones dentro del ciclo de vida. El FLEX es un modelo
militar basado en el HDBK-259 ( Military Handbook 259).
58
Optimización
La perfección se alcanza no cuando ya no queda
nada más por agregar, sino cuando
ya no resta nada para mejorar
ANTOINE DE SAINT-EXUPÉRY
Podría decirse que hay dos tipos de problemas: unos con solución conocida, y otros de
solución desconocida. Los primeros pueden resolverse en base a información que se encuentra
en libros, revistas técnicas, o lograrse basándose en el conocimiento de expertos dentro del
área. En tales casos, la solución sigue un camino convencional: A partir de la solución
estándar desarrollada para este tipo de problema, el ingeniero, simplemente por cálculo,
desarrolla una solución particular adaptada al problema específico. Puede decirse que esta es
una vía de solución inercial, afincada en la experiencia existente.
Pero, en ciertos casos, con apropiado estudio del problema y de las soluciones
existentes, es posible desarrollar pequeñas mejoras, y excepcionalmente mejoras importantes.
En otros casos, se busca aprovechando otros principios, producir un cambio mayor en la
solución. Estos son los dos caminos que puede seguir el ingeniero, aportando en mayor o
menor medida una dosis de creatividad en la solución de los problemas:
• Optimizar las soluciones existentes, buscando mejorarlas
• Innovar, proponiendo alternativas distintas de solución
El primero, sin duda el camino más fácil, es aplicable en cualquiera de las fases del
ciclo de vida del producto, o solo puede limitarse al rediseño de alguna parte o cambios en el
proceso de manufactura. En muchos casos, con el simple cambio de valor de un componente es
posible obtener una mejora notable en el desempeño de un circuito. La condición óptima
resultara de evaluar cuan cerca se este en el ideal de producto, evaluando:
• Efectos indeseados, tales como un alto costo, altos rechazos, alta temperaturas,
alta tasa de fallas, gran volumen, etc.
• Efectos deseados, como larga vida útil, alta eficiencia, alta capacidad de
disipación, y mejores prestaciones en general
debiendo encauzar el proyecto de modo de minimizar los primeros y maximizar los segundos,
aprovechando para ello los grados de libertad disponibles. La relación de ambos determina un
factor de ideal del producto, o sea, su idealidad, al que debiera acercarse la solución,
Suma de los efectos deados
Idealidad =
Suma de los efectos indeseados
No siempre existe una solución ideal. Pero, de existir, podría ser tan compleja y
difícil de hallar, que es mejor quedarse con una solución aceptable. Es decir, un criterio
adicional a tener en cuenta es ver si los beneficios que resultan de una optimización compensan
los esfuerzos necesarios para su logro. Con frecuencia los proyectos están sujetos a urgencias,
por lo cual la toma de decisiones es rápida y por tanto resulta difícil contemplar todas las
alternativas que llevarían a una mejor solución.
A veces suele expresarse que “la meta de un ingeniero de diseño es desarrollar el
mejor sistema posible, de acuerdo a los recursos asignados, que cumpla el objetivo
establecido”. En la expresión “mejor sistema posible” están implícitos los dos conceptos mas
importantes del proceso de optimización:
60 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
• La existencia de un criterio frente al cual se valore que un sistema es mejor que otro; este
criterio no necesariamente puede estar explícitamente expresado dentro de los
requerimientos, y en tal caso deberá ser elaborado como parte del proceso de diseño
• la existencia de alternativas, o grados de libertad. De hecho cuando la solución es única,
no hay posibilidad de optimización alguna. En realidad, en este caso tampoco existe un
problema de ingeniería de diseño.
Cuando se dice “de acuerdo a los recursos asignados”, se esta fijando un concepto
importante del proceso de optimización: Las soluciones deben contemplar las restricciones
propias del problema. Claramente, la expresión “con el fin de cumplir un objetivo establecido”
es una condición básica: Solo puede hablarse de solución, si se da cumplimiento al
requerimiento o especificación, o al conjunto de objetivos fijados para el diseño. Surgen así,
los dos aspectos que siempre deben ser considerados:
1. Criterios de optimización: característica, condición o regla a satisfacer, la cual puede
ser de carácter puramente técnico o económico, aunque usualmente los dos aspectos
interactúan entre si. En el aspecto técnico se considera englobados todo lo que hace a
la prestación y operatividad. En el aspecto económico esta todo lo que tienda a formar
el costo: tecnologías, circuitos, componentes, procesos, controles, etc
2. Variables del sistema: las cuales pueden ser divididas en dos categorías:
(1) Variables dependientes, cuando están asociadas directamente al
cumplimiento de una especificación
(2) Variables independientes, cuando pueden ser establecidas para ajustarse
a los criterios de diseño
optimizacion
costo
economica
optimizacion
tecnica
Campo de soluciones
Soluciones óptimas
prestación
Fig.1 Fig.2
60
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 61
El enfoque del proyecto queda impuesto por los criterios que deben ser aplicados,
reconociéndose usualmente que es posible hallar criterios comunes según el segmento de
mercado al que este orientado el producto, tal como muestra la curva de la figura 2.
Usualmente se diferencia entre:
1. Área de entretenimiento: El factor preponderante es el costo, y fundamentalmente el
de fabricación.
2. Área profesional: Para estos productos la prestación debe siempre ajustarse a
especificaciones y se requiere además que el diseño sea validado. La gran cantidad de
especificaciones a cumplir y el mayor nivel de exigencia vuelven muy onerosas las
pruebas de validación de estos productos.
3. Área militar: Se busca que los equipos o sistemas superen en prestación a los del
potencial enemigo, y que además se garantice su funcionamiento en un ambiente
hostil que impone solicitaciones extremas. Todo ello acarrea costos elevados para
estos productos, lo cual no implica aceptar el concepto muy arraigado de suponer que
para equipos militares el costo no importa. El costo importa siempre, solo que se esta
dispuesto a pagar mas para conseguir mas; pero siempre se trata de lograr la meta con
el mínimo costo. En esta área importa normalmente el costo dentro del ciclo de vida.
En general hay dos tipos de problemas de optimización:
• Problemas de criterio simple: El objetivo es maximizar o minimizar una sola
función objetivo E.
• Problemas multicriterio: El objetivo es maximizar o minimizar más de una
función objetivo E, en forma simultánea.
En el primer caso se debe vincular el parámetro que surge del criterio con las
variables del sistema, basándose en un modelo apropiado de análisis. Esta vinculación definirá
una función de mérito o función de prestación, también denominada función objetivo,
expresada como
E ( x) = E ( x , x ,...., x )
1 2 n
(1)
donde, a su vez, las distintas variables podrán estar vinculadas por una función de
restricción, o un conjunto de ellas. Estas restricciones tienen las siguientes características:
9 Definen las condiciones factibles de diseño.
9 Establecen restricciones en las variables de diseño:
9 Directas sobre los valores de las mismas
9 Definiendo relaciones entre ellas
9 Fijan restricciones sobre el comportamiento del sistema:
9 Limitando la carga máxima, la potencia de salida, las impedancias, los umbrales
lógicos, etc.
9 Limitando los valores que pueden asumir las variables por imposición de leyes
físicas fundamentales, o porque la gran mayoría de las magnitudes físicas deben
ser siempre superiores a cero. En otros casos serán exigencias de
manufacturabilidad las que requieran que la magnitud deba superar un umbral
prefijado, como por ejemplo que el valor de capacidad deba ser superior a la
capacidad residual del propio circuito.
9 Pueden estar establecidas tanto por ecuaciones como por inecuaciones.
En la optimización multicriterio habrá un conjunto de funciones objetivo, cada una
asociada a un criterio, la cual busca optimizar un parámetro ligado a alguna especificación, o
vinculado a una condición del desarrollo, la fabricación, el control, la instalación, el
mantenimiento, etc. Según el énfasis que se ponga en alguno de estos aspectos se habla de un
61
62 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
diseño orientado por el criterio elegido. De lo que se trata es de aprovechar al máximo los
grados de libertad disponibles. Cada una de estas funciones objetivo se expresará en la forma
E j = E j ( x 1 , x 2 ,..., x n ) (2)
donde xi es una variable de diseño, y n es el número de estas. Luego, jugando con el conjunto
de variables independientes se trata de satisfacer las limitaciones o restricciones propias del
proyecto, las cuales pueden tomar la forma de igualdades y/o desigualdades
h i ( x ) = h i ( x 1 , x 2 ,..., x n ) = 0
(3)
g i ( x ) = g i ( x 1 , x 2 ,..., x n ) ≥ 0
o simplemente establecer los limites dentro de los cuales se debe lograr la optimización
Métodos de optimización
Existen una gran variedad de técnicas para hallar la condición óptima que satisface un
dado criterio. Algunas de ellas serán superiores a otras en su aplicación a ciertos problemas,
dependiendo esto de que las funciones sean lineales o alinéales, que las variables sean
determinísticas o aleatorias, que se puedan establecer expresiones analíticas o solo puedan ser
relacionadas por datos experimentales, o que la función sea continua o tenga discontinuidades.
Los distintos métodos pueden clasificarse en métodos indirectos y directos. En los métodos
indirectos se determina la condición que debe ser satisfecha para considerar la solución como
óptima, y de ella se deduce el valor que satisface esa condición. En los métodos directos se
evalúa directamente la función de prestación a cumplir mediante la aplicación sistemática de
técnicas recursivas. Los métodos indirectos son normalmente tratables mediante métodos
analíticos: Estos incluyen la diferenciación, métodos variacionales y el uso de los
multiplicadores de Lagrange. Los métodos directos son apropiados para tratamiento por
computadora. El empleo de técnicas numéricas hace posible el tratamiento de problemas
lineales y no lineales.
Una solución eficiente y precisa para los problemas de optimización no es solo
dependiente del tamaño del problema en términos del número de restricciones y las variables
de diseño, sino también de características de la función objetivo y de las restricciones. Cuando
ambas, la función objetivo y las restricciones, son funciones lineales de las variables de
diseño, el problema se conoce como un problema de programación lineal (LP). La
programación cuadrática (QP) se relaciona con la maximización o minimización de una
función objetivo cuadrática que esta sujeta a una restricción de tipo lineal. Para ambos casos se
han desarrollado diversos procedimientos de solución.
Mucho mas difícil es la programación no lineal (NLP), en la cual, ambas, la función
objetivo y las restricciones, están sujetas a relaciones no lineales con las variables del diseño.
La solución en este caso recurre a un procedimiento iterativo, donde en cada nuevo intento se
establece la dirección de búsqueda en base al resultado del paso anterior. Esto se logra
usualmente por la solución de una LP, una QP, o llevándolo a un subproblema sin
restricciones.
Los distintos métodos deben verse como simples herramientas, que por si solo no
resuelven los problemas. Los problemas de la optimización giran siempre alrededor de dos
62
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 63
elementos que no son siempre fáciles de plantear, a saber: los criterios que juegan y la función
objetivo que se deriva de ellos.
Usualmente se piensa en la función objetivo como una expresión analítica que
vincula las variables en juego. No siempre es posible establecer una función de este tipo,
porque lo único que se puede establecer es una relación causa-efecto, que no puede volcarse en
un modelo matemático. A veces se hace una aproximación mediante modelos simples, y luego
se refina la solución en forma experimental. Diferentes métodos de optimización pueden ser
de ayuda en ambos casos, para reducir el número de iteraciones. En otros, el tratamiento
analítico solo permite marcar la dirección del camino óptimo. La solución óptima resultara del
compromiso con otros factores.
En muchos casos la solución óptima es un compromiso entre varios criterios con
exigencias contrapuestas. Básicamente, esta situación se da normalmente entre el costo y el
desempeño. Por ejemplo, en el caso del diseño de un transformador, la temperatura a la que
debiera trabajar es compromiso entre dos factores:
• fiabilidad superior a un valor impuesto
• costo
Un aumento de la temperatura por encima de cierto valor reduce la fiabilidad, y una
temperatura inferior, aumenta la fiabilidad a costa de un mayor costo. Para estar dentro de una
fiabilidad aceptable, la temperatura debiera estar por debajo de un valor limite, pero cercano al
valor que satisface la fiabilidad mínima aceptable. En tal caso, si En es el valor mínimo
aceptable, y x la variable de diseño, se trata de hallar el valor de x que verifica
En=f(x) (5)
Esta función puede convertirse en la búsqueda de mínimo, simplemente bastaría con
considerar la expresión
y = abs(f(x)-En) (6)
La forma de instrumentar la búsqueda dependerá de la herramienta de cálculo. Por
ejemplo, con Matlab se podría trabajar, entre otras alternativas, con
[v,po] = min(y) (7)
para obtener el valor ( v) y la posición del mínimo ( x(po) ). Si lo que importa es simplemente la
posición, también se podría usar
po = sum(f(x)<En) (8)
suponiendo la función f(x) creciente con x.
Métodos tabulares
Cuando no es posible un tratamiento analítico, un modo de determinar cual es la
mejor opción entre varias posibles consiste en armar una tabla, cuyos encabezamientos sean
“Pros” (ó “Positivo”), “Contras” (ó “Negativo”), e “Implicancias”. Debajo de las dos primeras
columnas se van anotando los factores que resultan favorables o desfavorables de tomar esa
decisión, y en implicancias los resultados de la misma ( que pueden ser tanto favorables como
desfavorables ). Asignando un puntaje a cada factor, y ponderándolos, la mejor alternativa es la
que resulta con el mayor puntaje.
63
64 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
Fig.3
Cuando son muchos los objetivos a cumplir resulta conveniente armar una tabla de
doble entrada: por un lado se anotan las características o factores que se van a tener en cuenta
en la decisión, y por otro las distintas opciones. El problema que se plantea es como balancear
características distintas. Esto se resuelve incluyendo un factor de ponderación para cada
característica, que tome en cuenta su importancia. Luego se le asigna a cada opción un
puntaje, según sea el grado de satisfacción de la característica. Tomando en cuenta el factor de
ponderación, resultara ganadora aquella opción que sume el mayor puntaje.
El mayor problema del método es la reducción a un único número, el puntaje,
evitando que el mismo no sea establecido en base a subjetividades, y contemple asimismo el
efectivo nivel de satisfacción de cada factor. Una manera de lograrlo es evaluando el costo o el
esfuerzo requerido para alcanzar igual meta.
64
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 65
cuando estos no están formulados como parte del problema. De estos, algunos son criterios
básicos que juegan en todas las soluciones, a saber:
• criterio económico
• satisfacción del modelo de cálculo
• facilidad de realización
• mejor cumplimiento del objetivo
Dejando de lado el aspecto económico, el cual siempre deberá considerarse, el modelo
podría ir validándose a medida que se van determinando los valores y seleccionando los
elementos del circuito. En otros casos recién cuando se hayan terminado los cálculos se podrá
verificar si se satisfacen las condiciones del modelo, es decir si el cálculo cierra.
En la facilidad de realización se incluyen variados aspectos, relacionados estos con el
tipo de componente, el tipo de montaje, y con su valor. Específicamente, de cálculo pueden
resultar valores que no sean obtenibles prácticamente, o que condicionan el armado o la
realización de la placa de circuito impreso, y por ello deben desecharse.
En el caso en que deba cumplirse cierta característica, la pregunta es: ¿cómo podría
optimizarse la misma? Acá entra a jugar un criterio importante: el de mínima variabilidad
alrededor de la meta. Siguiendo el criterio de Taguchi, a medida que la solución se aparta del
valor nominal establecido como meta se originan pérdidas (insatisfacción del cliente), que son
mayores en la medida en lo que lo sea el apartamiento. En otras palabras, entre dos soluciones,
es mejor aquella que, con elementos de igual costo, conlleva a menor dispersión en la
especificación debido a variabilidad de los componentes. En tal caso, la optimización es
puramente técnica. En otros casos importara que el elemento de mayor costo tenga la menor
exigencia de tolerancia, en cuyo caso la optimización es económica. Será así, por ejemplo,
cuando se aprovecha el hecho de que el costo de algunos elementos es independiente de su
valor nominal, a condición de que se mantenga igual tolerancia y disipación.
de las cuales se derivaría una solución que seria inaceptable porque no garantiza que se
satisfaga el conjunto de las restricciones. Estas restricciones se dan en la mayoría de los
problemas de ingeniería, en los cuales no son posibles todos los valores. Por ejemplo, para que
sea posible la realización física en la mayoría de los casos será necesario que las xi tengan un
valor positivo, por lo cual es necesario considerar dicha restricción en la búsqueda de la
solución. Los multiplicadores de Lagrange permiten crear una función objetivo aumentada
con variables artificiales, los multiplicadores de Lagrange, cuya finalidad es incluir en la
función objetivo las restricciones propias del problema. Para entender y justificar el método
supongamos que la función de prestación este dada por
P = E ( x1 , x 2 ) (15)
65
66 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
dx 1 ∂ x1 ∂ x 2 dx 1
∂h ∂ h dx (18)
+ 2
= 0
∂ x1 ∂ x 2 dx 1
Para hallar un valor de x1 que sea un valor extremo de P se debe hallar el valor de x1
que anule la derivada en dicho punto. Es decir, se debe determinar el valor de x1 que cumple la
condición
dP ∂E ∂ E dx 2
= + = 0 (19)
dx 1 ∂x1 ∂ x 2 dx 1
∂E
∂E ∂ x1 ∂h 1
= − = λ. . (25)
∂x2 dx 2 ∂ x 1 dx 2
dx 1 dx 1
de la cual resulta
66
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 67
∂E ∂h
+ λ. = 0 (26)
∂x1 ∂x1
y repitiendo el proceso para la expresión (24), se obtiene también
∂E ∂h
+ λ. = 0 (27)
∂x 2 ∂x2
Todo esto puede ponerse de un modo simplificado en la forma
∂
(E + λ . h ( x 1 , x 2 ) ) = ∂ L = 0 (28)
∂ x1 ∂ x1
∂ ∂L
(E + λ .h ( x 1 , x 2 ) ) = = 0 (29)
∂x 2 ∂x2
67
68 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
Búsqueda uniforme
En la búsqueda uniforme del intervalo óptimo se deben realizar primero todas las
experiencias para definir luego, con los resultados, el intervalo dentro del cual se encuentra el
valor óptimo, figura 4. Aunque el método es para la mayoría de los casos poco adecuado, es
útil, sin embargo, cuando la función posee máximos y mínimos locales.
LISTADO 1
e=(incerteza/2);
x=a:e:b;
y=f(x);
[m,p]=min(y);
minimo=x(p)
Fig.4
Búsqueda secuencial
En vez de hacer todos los cálculos y hallar después entre estos el óptimo, una mejor
opción seria, partiendo desde un extremo del intervalo, ir comparando cada nuevo valor con el
anterior hasta encontrar la inversión en la tendencia. Cuando en base al resultado de cada
experimento se decide continuar o no, según sea el resultado de la experiencia anterior, se
habla de un método de búsqueda secuencial. Este es un método más eficiente que el anterior,
68
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 69
LISTADO 2
n=round((b-a)/e)
y(1)=f(a);
y(2)=f(a+e);
signo=sign(y(2)-y(1));
for i=2:n
y(i)=f(a+i*e);
if sign(y(i)-y(i-1))+signo==0 x=a+(i-1)*e break end
end
a b
n pasos a1 b1
an-1 bn-
Fig.5 1
xi-2 xi-1 xi = xi-1+ 2.ε x
Otra posible forma seria la siguiente: Supóngase que se debe hallar el valor de x para
el cual la función E=E(x) pasa por su mínimo valor. Supongamos que partiendo desde uno de
los extremos se haya evaluado la función en los puntos xi - ∆x y xi , y se hayan determinado
dos valores E(xi-∆x) y E(xf) tales que
(40)
E (xi − ∆x) < E (xi )
Esto significa que se ha pasado por un mínimo para ese valor de x, el cual estará
comprendido dentro del intervalo:
(41)
xi − ∆x < x < xi
69
70 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
Búsqueda dicotómica
La búsqueda secuencial se hace más eficiente si en cada paso de búsqueda el intervalo
de incerteza se reduce a la mitad. Se habla en tal caso de una búsqueda secuencial dicotómica.
Este método requiere determinar en cada prueba dos valores muy próximos entre si, elegidos
en el centro del intervalo, figura 7. Con estos dos valores se puede determinar de que lado de
dichos puntos esta el óptimo. Si se busca un mínimo, y los valores obtenidos fueran los
indicados en la figura 7, entonces el mínimo se encontrara en el subintervalo izquierdo.
2
f(x)
1
3
4 5 7 o
o
6
8 9
∆x f(xi)
x1 xf -∆x xf 2 x2
1
4 3 a xi x i +∆ x b x
5 6
8 7
9
Fig.6 Fig.7
Búsqueda de Fibonacci
Muchos problemas de ingeniería pueden ser optimizados de un modo sencillo cuando
se cuenta con un modelo analítico que los representa; en otros casos, la optimización debe
valerse de ensayos experimentales. Si este es el caso, importa usar un método de búsqueda que
permita llegar al óptimo con mínimo esfuerzo de búsqueda. Esto sucede cuando la función f(x)
a optimizar no es conocida explícitamente, pero puede ser evaluada experimentalmente. Solo
se requiere que la función sea unimodal, y conocer además el intervalo L dentro del cual hacer
la búsqueda del óptimo,
L= (b-a) (44)
70
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 71
prestación en dichos puntos, y según el extremo que se busca ( máximo o mínimo ), se decidirá
cual de las dos secciones extremas deberá descartarse. Si por ejemplo se tratara de hallar un
máximo, como f(x1)>f(x2), figura 8, se debería descartar la sección derecha (Sd).
El procedimiento de búsqueda a desarrollar se apoya en las tres reglas siguientes:
1. el intervalo de incerteza que reste después de cada evaluación debe tener igual valor,
independientemente de cual haya sido la sección descartada
2. debe aprovecharse para la siguiente decisión el resultado del ensayo que esta ubicado
dentro del intervalo de incerteza ganador
3. Los puntos de prueba deben ser seleccionados de modo tal que el intervalo de incerteza
que reste sea el menor posible; o planteado de otro modo, cada evaluación debe permitir
descartar el mayor intervalo posible
f(x1)
f(x2)
Si Sc Sd
x0 x1=x1(n) x2=x2(n)
Fig.8 L(n)
vale decir, las dos secciones ubicadas a ambos extremos deben ser siempre iguales.
Supongamos ahora haber llegado, después de realizar n ensayos, al intervalo final de
incerteza L. Para simplificar, supondremos que este intervalo sea de valor unitario, L(1)=L=1.
La idea es hallar la magnitud que debería tener el intervalo inicial L(n) para que después de los
n ensayos resulte el intervalo de incerteza L=1, aplicando reiteradamente el método basado en
los tres principios anteriores.
Evidentemente el intervalo final de incerteza debe resultar de los dos últimos ensayos,
el n-1 y el n, figura 9. Por ser los últimos no es de aplicación la segunda condición, pero si la
primera y tercera. La única manera de satisfacer ambas es dividiendo el intervalo en dos
mitades, y probar en dos puntos cercanos entre si, ubicados al centro del intervalo L(2), figura
9, es decir tales que
x n = x n −1 + δ (46)
con δ tendiendo a cero, y en tal caso
L 1 ≈ L 2 ≈ L (1) = L (47)
Si se buscara un máximo, como f(n-1)>f(n), es obvio que el mismo estará en la
sección derecha; es decir, en base al nuevo ensayo n y el resultado del ensayo anterior n-1,
del intervalo anterior L(2) se deriva el intervalo final de incerteza L = L(1) ≈ L1 ≈ L2, de lo
cual claramente resulta L(2)=2L.
f(x n-1 ) f(x n-1 )
f(x n )
x n-1 xn x n-1 xn
L1 L2
Fig. 9 L(2)
71
72 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
Veamos como juega la tercera condición. Supongamos que a cierta altura de los
ensayos el intervalo se haya reducido a La, figura 10, y que sean e1 y e2 los dos ensayos que
deben ser considerados en este intervalo para definir un intervalo de incerteza más reducido.
En base al segundo principio, uno de estos ensayos se supone que ya fue realizado: podría
tratarse de cualquiera de los dos, e1 o e2. Por la condición primera, si fuera e1, entonces el
intervalo anterior seria el Lc, mientras que si fuera el e2, el intervalo anterior seria el Lb.
Cualquiera de los dos satisface la primera regla, pero solo Lb satisface la tercera. Este es por lo
tanto el único posible.
e1 e2
La
x1
x2
e2 e3
Lb
x2
Fig.10 e1 e3
Lc
x1
L n-2
x2
en-2 en-1
L n-1
x2
x3=L n-2
en-1 en
Ln
Fig.11 x3=Ln-2
xn=L n-1
Como la sección Ln-2 es la que se agrega al intervalo Ln-1 para formar el intervalo Ln, se
concluye también que la proporción de intervalo descartado por cada ensayo esta dado por
Ln −2
d n = (49)
Ln
Si se fija el intervalo final L1 en L, para poder determinar el intervalo L2 aplicando la
formula (48) se debería conocer el valor del intervalo L2-2 =L0, que claramente no existe. Sin
embargo, para obtener una expresión de validez general se define un intervalo ficticio L0. El
valor de este intervalo ficticio se puede establecer, dado que se conoce L2=2.L1, por lo cual en
base a (48)
L 0 = L 2 − L1 = L (50)
Cuando se hace L=1, la serie de números así definida se conoce como serie de
Fibonacci, la cual determina la expansión del intervalo de incerteza. Un termino j cualquiera de
la serie de Fibonacci se define por
F j = F j −1 + F j − 2 (51)
72
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 73
Esta expresión recursiva, requiere que sus dos primeros términos sean prefijados en la
forma,
Fo = 1 , F 1 = 1 (52)
Aplicando la expresión (51), teniendo en cuenta (52), se pueden determinar los
sucesivos términos de la serie de Fibonacci, así como la proporción de intervalo descartado con
cada ensayo, basándose en la expresión (49).
n 0 1 2 3 4 5 6 7 8 9 10 11 12 13
dn 0.5 0.3333 0.4 0.375 0.3846 0.381 0.3824 0.3818 0.382 0.3819 0.382 0.382
L(1)=1
2 L(2)=2
3 L(3)=3
4 L(4)=5
5 L(5)=8
Fig.12 6 L(6)=13
La aplicacion del metodo supone que previamente este definida la cantidad de ensayos
a ejecutar, valor que puede hallarse en base a la expresión (53), donde
L= (b-a) (54)
Determinando el valor de Fn , en base a (53), el valor de n debe ser el menor valor
para el cual se verifica
F ( n − 1) ≤
L
≤ F (n )
(55)
2e
Determinado el valor de n por la condición (55), los dos primeros valores para los
cuales se debe realizar los ensayos son elegidos de modo que estén separados de los extremos
del intervalo en un valor
Fn−2 (56)
d1 = .L = d n .L
Fn
vale decir, figura 13,
x1 = a + d 1 (57)
x2 = b − d1 (58)
o también
x1 = a +
F n−2
L (59)
Fn
73
74 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
y
L1 = L −
Fn−2
.L =
F n −1
L (60)
Fn Fn
Hallados los valores de x1 y x2, si los resultados fueran los indicados en la figura 13 y
se buscara un máximo, es claro que el intervalo 3 puede ser descartado; es decir, el máximo se
encuentra en el subintervalo L1. El procedimiento se repite ahora sobre el intervalo L1, y así
sucesivamente hasta el n-esimo ensayo. Obsérvese que en el método de búsqueda dicotómica,
cada prueba exige obtener el valor en dos puntos, mientras que el método de Fibonacci solo
exige en cada paso una determinación adicional. Visto de otro modo, con el método
dicotómico cada dos ensayos se reduce el intervalo de incerteza un 50%, mientras que en el
método de Fibonacci se reduce aproximadamente un 75%. La figura 14 compara la reducción
del intervalo de incerteza de ambos métodos en función del número de pruebas, partiendo de
un intervalo inicial L=1.
d1 f1 f2 d1
1 2 3
a L1 x1 x2 b
Fig.13 Fig.14
El método de Fibonacci, además de su mayor eficiencia, tiene otra ventaja. El método
dicotómico supone que la evaluación debe hacerse en dos puntos próximos. Cuando se realizan
ensayos experimentales, los resultados de los mismos están siempre sujetos a error
experimental. Esto implica que el valor real puede diferir del valor medido. Supongamos que
sea em1 el valor medido y ε el error de medición, figura 15a. En tal caso, el verdadero valor ev
será
e1 = e m 1 − ε ≤ e v ≤ e 2 = e m 2 + ε (61)
por lo que solo si se cumple
em 2 a + ε 2 a ≤ e2 o em 2 b − ε 2b ≥ e1 (62)
(112)
se puede asegurar que el método no lleva a una falsa decisión, figura 15b.
ε2b
f(x) Ln
em1
e1 dn.Ln
ε
dn.Ln
ε 2a em2 b
em2 a
e2
a) b)
a x1 x2 b x
Fig.15 Fig.16
74
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 75
dentro del intervalo de búsqueda que estén por encima del mínimo valor que puede ser
observado. Por ejemplo, supóngase que la función toma valores no nulos sobre un intervalo
restringido de la variable x, figura 16. Cuando se tiene un comportamiento de este tipo, para
hacer posible la búsqueda debe antes determinarse el rango dentro del cual la función objetivo
toma valores que puedan ser discernidos con el instrumental usado.
Por otro lado, el método de Fibonacci supone que el valor extremo se ubica en uno
cualquiera de los Fn subintervalos en que se puede dividir el intervalo de búsqueda inicial Ln, y
supone que todos son iguales, lo cual no necesariamente es así. Esto sucede si por ejemplo el
valor óptimo debe restringirse a un conjunto de valores preestablecidos, definidos por ejemplo
en base a una escala de tolerancia normalizada.
Las escalas de tolerancias definen el conjunto de valores disponibles por década, de
manera que dos valores sucesivos, considerando sus tolerancias extremas, se establecen con
mínimo o nulo solapamiento. Esto implica que la relación entre dos valores contiguos de la
escala es aproximadamente constante, y que además según sea la tolerancia será el número de
valores por década. Por caso, a una tolerancia del 5% le corresponden 24 valores por década,
lo cual define la escala E24. Por la forma en que son definidos, el conjunto de valores se alinea
según una recta en un gráfico semilogarítmico, figura 17, con una densidad de los valores
posibles de ser óptimos apiñados hacia los bajos valores, figura 18.
Fig.17 Fig.18
Visto de otro modo, la magnitud del intervalo de incerteza dependerá del valor
alrededor del cual se ubique el óptimo, como muestra la figura 18. Esto implica que la
cantidad de ensayos para llegar al óptimo no va a ser siempre la misma: dependerá del cual sea
el intervalo ganador. Si el óptimo se ubica en su valor mas bajo, el intervalo de incerteza final
es más chico que si se ubica en su valor más alto, y por lo tanto se requerirán más ensayos para
llegar al óptimo, figura 19. Si el número de ensayos se determina considerando el intervalo más
pequeño, de no resultar ese el ganador, el método pierde eficiencia. Un modo de optimizar el
proceso de búsqueda sería, después de realizar cada experiencia, recalcular el número de
ensayos necesarios en base al nuevo intervalo más pequeño con posibilidad de resultar
ganador.
Numero de ensayos
La
Lb
valor optimo
Fig. 18 Fig. 19
75
76 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
Fig.20 b
Por otro lado, en el último paso de decisión no es posible aplicar el método, ya que,
debiendo siempre trabajar con valores estándar, no es posible probar con un valor muy cercano
al valor que se retiene de la evaluación anterior, figura 21a, lo cual permitiría reducir el
intervalo de incerteza en L/2, figura 21b. Debiendo realizar las mediciones con valores
normalizados, la prueba puede llevar a uno de los resultados indicados en la figura 21c y 21d,
con desigual reducción del intervalo de incertidumbre. Según el caso será necesario realizar,
figura 21c, o no, figura 21d, un ensayo adicional.
a) b)
c) d)
Fig.21
76
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 77
Fig.22 Fig.23
Supongamos definido el intervalo de variación para la variable independiente x,
dentro del cual se supone hay un valor que hace óptima la prestación, siendo
L=xMax –xmin (66)
entonces, el método exige evaluar la función objetivo en dos puntos interiores del intervalo,
figura 24, definidos de la siguiente manera:
x 1 = x min + 0 , 618 ⋅ L (67)
x 2 = x Max − 0 , 618 ⋅ L (68)
77
78 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
e e
ε ε
x x
xmin x1 x2 xMax
f1 ∆ f1 f2 f f1 ∆ f2 f2 f
Fig.24 Fig.25
Método de gradiente
Muchos problemas de optimización requieren tratar con más de una variable, y si
bien es posible extender en muchos casos técnicas de búsqueda sobre intervalo, como el
método de Fibonacci, o el de relación áurea, estos exigen realizar muchas búsquedas
unidimensionales de un modo secuencial hasta la obtención del máximo (o mínimo) para cada
dimensión. El problema que esto acarrea es que la búsqueda multidimensional, basándose en
búsquedas unidimensionales, no es eficiente, exceptuando el caso en que una de las variables
pueda tomar solo unos pocos valores.
Cuando se hace la optimización de una variable mediante búsqueda de intervalo, a las
restantes se le asignan los valores óptimos que se han encontrado hasta ese momento, y se
procede en forma reiterada hasta lograr la convergencia a un punto.
Debido a que el método por búsquedas sucesivas sobre cada variable tiene una
convergencia lenta, esto lo hace poco adecuado. Lo conveniente es hacer la búsqueda del
óptimo considerando todas las variables al mismo tiempo, basándose en la información sobre la
pendiente de la función, o sea, su gradiente. La idea es, en cada nuevo punto, hacer la
búsqueda en la dirección de máxima pendiente.
Supongamos que la función de prestación dependa de dos variables
E = E ( x1, x2 ) (69)
con curvas de nivel como las indicadas en la figura 26. Partiendo de un punto P0, en el método
por búsqueda de intervalo primero se hace la búsqueda del valor óptimo de x2 sobre el
intervalo (a,b), bajo la condición x1=x10, lo cual lleva al punto P1. Luego, la búsqueda del
valor óptimo de x1 sobre el intervalo (c,d), asignando a x2 el valor que corresponde al punto
P1, x21, lo cual lleva al punto P2, y así sucesivamente hasta llegar al óptimo. En el método del
gradiente se produce un cambio simultáneo en las dos variables, moviéndose sobre la línea g.
Esto hace que se llegue a la convergencia en forma simultánea en ambas variables.
78
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 79
X2
b
P2 X2
x2 1 E1 E2 E3
P1 T O
P3
t N
g Po n
a I2
P0
c x1 0 X1 I1 X1
d
Fig.26 Fig.27
Supongamos para la función E las curvas de nivel indicadas en la figura 27, y que sea
O el punto óptimo a hallar. Partiendo de un punto arbitrario Po, para el mismo se debe definir
el vector de gradiente N, vector que es normal a la tangente T a la curva de nivel en ese punto,
⎛ ∂E ⎞ ⎛ ∂E ⎞
N = ∇ E = ⎜⎜ ⎟⎟ . I 1 + ⎜⎜ ⎟⎟ . I 2
(69)
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠
el cual marcara la dirección donde debe situarse el próximo punto en el que se debe hacer la
nueva evaluación de la función objetivo. Para definirlo exactamente se usan métodos de
interpolación polinomial, por ser los más efectivos cuando la función a minimizar es continúa.
Suponiendo que en el paso de búsqueda k se este con valores xi(k) , entonces la nueva
iteración se hará en x i ( k + 1) , donde
x i ( k + 1) = x i ( k ) + α i .∆ = x i ( k ) + ∆ x i (71)
siendo αi la proyección de n en la dirección xi, y ∆ un parámetro escalar que mide la magnitud
del paso. Para dos variables, x1 y x2, los valores de los incrementos de cada variable serán por
tanto
∂E
( ). ∆
∂ x1
∆ x1 =
⎛ ∂E ⎞
2
⎛ ∂E ⎞
2
(72)
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠
∂E
( ). ∆
∂x2
∆ x2 =
⎛ ∂E ⎞
2
⎛ ∂E ⎞
2 (73)
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠
79
80 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización
x1 E(x1,x2)
x1<f1(x2)
x1>f2(x2)
Fig.28
x2
En los problemas de programación lineal la función de desempeño esta dada por una
ecuación algebraica lineal, a la cual se agregan otras ecuaciones algebraicas lineales que actúan
como restricciones para la optimización del problema. Es decir, en general habrá una función
de prestación
E = a 1 . x 1 + ....... + a n . x n (74)
y un conjunto de restricciones del tipo
(75)
h i = b i 1 . x 1 + ........ + b in . x n ≤ , = , ≥ C i
Cuando el número de variables lo permite es conveniente utilizar un método de
solución gráfico, transformando las restricciones expresadas por desigualdades en igualdades a
fin de determinar las condiciones limites de la región de solución, figura 28. Este método es de
utilidad cuando existe, más que un valor, un conjunto de valores que satisfacen las condiciones
del problema. Es decir, cuando la solución esta representada no por un punto sino por una
región.
80
Innovación
y
Prospección
Cuanto más original es un descubrimiento,
mas obvio parece después
ARTHUR KOESTLER
paso a la opinión de que la facultad creadora se estimula y desarrolla, y es un don que poseen
en mayor o menor grado todas las personas.
Lo cierto es que algunas sociedades han desarrollado una cultura que favorece la
invención y la innovación tecnológica, mientras que en otras este don permanece aletargado.
En las primeras se ha desarrollado una actitud en la cual prima la búsqueda continua de una
mayor eficiencia, un mejor aprovechamiento de los recursos y una mejor satisfacción de las
necesidades. Esto lleva a un continuo desarrollo de mejores soluciones, o como suele decirse,
a la búsqueda de la excelencia. Otras culturas son mas bien dogmáticas, asumiendo frente a los
problemas actitudes sumisas, conformista o de resignación.
Una justificación a los dos puntos anteriores lo constituye el hecho de que personas
que pasan de una cultura que no favorece la invención a otra que si lo hace, logran destacarse
en estas, debido a que han podido desarrollar su don personal en un ambiente propicio.
La creatividad ha sido relacionada con la edad de las personas. En este sentido vale la
observación de Del Buono, cuando explica que planteada la pregunta: ¿para que puede ser útil
una carretilla de ruedas ovaladas?, figura 1, encontró que la respuesta era muy diferente según
que la audiencia fueran niños de escuela primaria o grupos de dirigentes empresariales. Del
Buono manifiesta que encontraba respuestas en los niños; en los mayores solo una sonrisa.
Capacidad
innovadora
Fig.1 Fig.2 20 30 40 50 60
edad
En USA se han hecho estudios que muestran que los profesionales de ingeniería son
más creativos al finalizar su formación universitaria, figura 2. Muestra esto que la creatividad
máxima se manifiesta en una edad en la que:
• La persona tiene sus conocimientos frescos y actualizados
• No tiene preconceptos
• Hay menor cantidad de compromisos formales
La creatividad se da en todas las áreas de la actividad humana. En el área de la ingeniería
podría decirse que la creatividad es el uso del conocimiento y la tecnología en la búsqueda de
mejores soluciones a problemas existentes: No hay ingeniería si no hay creatividad.
Los individuos que se orientan a seguir carreras relacionadas con el mundo material,
tienen dos opciones básicas:
• realizar investigación, para aumentar la comprensión y los conocimientos. Es
desarrollado por la ciencia. Es un modo de convertir dinero en conocimientos.
• hacer ingeniería, aplicando los conocimientos disponibles a propósitos humanos
específicos. Es un modo de convertir conocimientos en dinero.
En ambos la base es la creatividad. Esta puede ser incentivada apoyándose en
diferentes métodos, algunos de los cuales se describirán mas adelante.
La labor del ingeniero esta relacionada con la creación de objetos materiales para
servir a las necesidades humanas. En la búsqueda de este propósito, el ingeniero encontrará que
la ejecución de su labor requiere conocimientos científicos algunas veces disponibles y otras
no. En ausencia de estos, procede con un programa de investigación, haciendo hipótesis
juiciosas acerca de los principios en los cuales se puede basar el diseño, hasta llegar a
soluciones satisfactorias. Podría decirse que los desarrollos de la ingeniería no pueden existir
sin la investigación. La investigación suele dividirse en:
82
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 83
costos y riesgos
tiempo
Esto justifica que si se hace un balance de las mayores invenciones se encuentra que
en una proporción de 3 a 1 estas recaen más en individuos que en empresas. Esto podría
llevarnos a pensar que la invención es predominantemente una tarea que se apoya en la
creatividad individual. De ser así, habría una gran limitación para futuras invenciones e
innovaciones, dado que estas necesitan cada vez mayores recursos, solo disponibles en
empresas, y además, la mayor complejidad inherente de los equipos requiere también del
aporte de personas con conocimientos en áreas muy diversas. Esto podría llevarnos a inducir
que hoy en día no hay lugar para el inventor solitario; pero tampoco esta es una verdad
incontrovertible. Es cierto que actualmente se necesitan grandes recursos, muchos más de los
que una sola persona pueda disponer, pero también lo es que:
• Los inventores son personas con una mente divergente, que difícilmente puedan integrarse
a un grupo de trabajo, y si lo hacen, raramente producirán algo original debido a que
deben ajustar sus ideas al esquema de trabajo del grupo, que tiende a disciplinar a cada
individuo hacia objetivos bien definidos.
• El inventor necesita, además de materiales e instalaciones, mucho tiempo. Normalmente
dispone de los dos primeros cuando integra una organización o grupo empresarial de I&D,
pero de tiempo dispone hasta cierto límite. Dentro de una empresa, el departamento de
I&D debe producir resultados en tiempos precisos. Si al cabo de un tiempo una línea de
investigación no logra ciertas metas, es posible que la dirección de la empresa decida
discontinuarla. Una decisión en tal sentido puede impedir que se alcance un logro
importante, posible si se dispusiera de un poco más de tiempo. Esta es la ventaja de la
dedicación personal. El inventor solitario, por el contrario, no se fija en el tiempo, y la
confianza en sus ideas es tan grande que ve las dificultades, decepciones y resultados
adversos solo como pequeños desafíos u obstáculos que debe vencer, y la escasez de
recursos es solo uno más, no reparando en medios con tal de lograr su propósito.
83
84 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
84
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 85
• Nos muestra como un problema tiene más de una solución; el desafío es determinar
opciones y hallar la mejor. En este caso, si se debiera definir la mejor, ¿que criterio
debería emplearse?
El Eureka de Arquímedes
R.M.Roberts en el libro Serendipity, Accidental Discoveries in Science (Wiley, 1989)
relata la tan conocida anécdota sobre Arquímedes. Este, al descubrir casualmente mientras se
estaba bañando la solución al problema que lo aquejaba, sale corriendo desnudo por las calles
de Siracusa gritando:”Eureka, Eureka” (“la halle, la halle”). Lo que Arquímedes había hallado
era la solución al problema que le había planteado el rey Heredoto. El rey le había
encomendado a un joyero que le hiciera una corona de oro puro, y cuando la recibe, le entran
dudas sobre si la corona contendría todo el oro que el le había dado. Para despejar sus dudas le
encomienda a Arquímedes el problema de determinar si la corona era realmente de oro o una
mezcla. Para ello Arquímedes disponía de dos datos: el volumen y el peso del oro. El rey había
entregado un cubo regular de oro de medidas y peso conocidos. Estos eran los dos valores
que debían ser satisfechos. El desafío que tenía por delante Arquímedes era calcular el
volumen de la corona. Si conociese el volumen, conociendo además el peso, estaba en
condiciones de saber si se trataba de oro o de una aleación.
La actitud creativa
“No puede hacerse, es demasiado tarde para hacerse, no está dentro de lo planeado,
es demasiado costoso, ya ha sido probado, no es práctico, es contrario a las reglas de diseño,
no creo que funcione, ...”, estos son los obstáculos comunes que afronta el individuo que
propone algo nuevo y diferente. Evaluar e inmediatamente criticar las ideas de otros, es un
rasgo muy humano y común. Pocos pueden enfocar las ideas de otros con una mente abierta y
una actitud constructiva.
En consecuencia, cuando enfocamos las fases de un proyecto de diseño relacionado
con la proposición de conceptos alternativos, debemos suprimir intencionalmente nuestra
actitud crítica destructiva y suplantarla por otra más objetiva y receptiva.
Los innovadores operan sobre premisas concretas:
• Nada se puede decir sin antes haberlo ensayado
• Los obstáculos están para ser obviados
• Los fracasos son una oportunidad para aprender
• Los demás pueden pensar lo que quieran, los hechos son los que valen
Situarse en una posición creativa exitosa requiere:
1. Desarrollar una actitud creativa. Significa tener confianza en uno mismo; es decir, pensar
que hay más de una solución, y que esta se puede encontrar.
2. Dar rienda suelta a la imaginación. Mirar el problema bajo distintos ángulos, explorando
las ambigüedades, sin amedrentarse por las equivocaciones, o el miedo al ridículo,
tratando de observar al principio todo el cuadro, y no detenerse en los detalles
3. Ser persistente. No desanimarse. No buscar una respuesta rápida. El ejemplo mas
aleccionador es el de Edison. Encontrar el filamento adecuado para la lámpara
incandescente le llevo a realizar mas de 6000 intentos. A el se debe la frase: Invención es
95% de transpiración y 5% de inspiración
4. Desarrollar y abrir la mente. Significa ser receptivo a las ideas o propuestas ajenas,
repensándolas si fuera necesario; no cegarse ni cerrarse en las propias ideas
85
86 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
86
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 87
La Invención
Cuando no hay una solución estándar de la cual partir, y se debe hallar una, se trata
de un problema de invención. La invención esta ligada a un nuevo descubrimiento científico o
logro tecnológico que hace posible concebir algo nuevo, y que se encuentre una solución a
problemas aun no resueltos, o que ni siquiera hayan sido explicitados como tales. Una
invención es luego toda solución diferente, cuya disponibilidad y uso es de utilidad en la
solución de algún problema. Inventar es resolver un problema de un modo distinto, utilizando
creatividad e inteligencia, y esto implica:
• cierto control del medio ambiente físico
• conocimiento de materiales, y de funcionamiento de otros dispositivos en los cuales
apoyarse, e ingenio para resolver las dificultades y contradicciones
• y muchas veces, gran habilidad manual
Son inventos el fusible (invento de Edison ), el teléfono, la válvula electrónica, el
receptor superheterodino, el radar, el tomógrafo, el microprocesador ( patentado por INTEL),
etc. Básicamente, las invenciones surgen:
1. Combinando conocimientos. Muchas invenciones resultan de combinar otras invenciones,
como ha sido el caso del tomógrafo computado, o bien reuniendo elementos conocidos.
Veamos un ejemplo: La alta variación de la tensión suministrada por una pila alcalina
puede ser solucionada mediante el uso de circuitos reguladores. Con estos es posible
asegurar una tensión de salida constante ( Vo ) pese a las variaciones de la batería. La
restricción es que para asegurar una alimentación adecuada debe ser
Vbateria > Vo (1)
Bajo esta condición se desaprovecha una porción importante de la energía de la
pila, figura 11; evitar esto es una buena oportunidad para la innovación.
Fig.11 Fig.12
Fig.13 Fig.14
Este esquema, si bien es innovador, resulta todavía ineficiente, dado que con el
empleo de un regulador lineal se pierde gran parte de la energía, figura 13. Es decir, el
87
88 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Mezclador
Fig.15 Demodulador
Filtro Filtro
∼
Amplificador
Oscilador Local
fo=fc+FI
88
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 89
Filtro
Pasabajos
Banda de
operacion
En tal caso, cualquiera sea el canal es siempre FI> fc, y además como el valor de
la frecuencia imagen esta dada por fc+2*FI, entonces esta se elimina disponiendo a la
entrada del receptor un filtro pasabajos fijo en vez de un filtro sintonizable. En un receptor
de onda media, por ejemplo, bastaría que la FI sea de 10.7MHz (definida en este valor
para usar filtros estándar); en receptores de onda corta (3 a 30 MHz ) la FI puede ubicarse
en valores mayores a los 100 MHz, tal como muestra la figura 16.
5. Aplicación de un nuevo principio a un viejo problema. La solución al rechazo de
frecuencia imagen consistente en trasladar la frecuencia intermedia a un valor por encima
de la banda en la que se opera encuentra sus limitaciones tecnológicas cuando se quiere
recepcionar frecuencias muy altas. Es decir, la solución anterior es aplicable en la banda
de HF, pero no lo es en la banda de VHF o superiores. Por caso, en un receptor de
radiodifusión de FM (88 a 108 MHz) ya no resultaría aplicable. Surge entonces una nueva
posibilidad: Recurrir a filtrado por transformada de Hilbert, figura 17. La transformación
de Hilbert mantiene la amplitud y produce un giro de 90 grados en la señal.
ej(wi-wo)t
Transformador
de A(t).ejπ /2=ej (wi-wo)tejπ /2
A(t).ej π / 2
Hilbert
ejwot ef
+
ejwit π/2 A(t)
Fig.17 A(t).e-j π / 2
ej [ (wi-wo)t-π /2 ]
89
90 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Fig.19 Fig.20
90
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 91
La Innovación
El termino innovación se vincula con el empleo de nuevas ideas y conocimientos
tecnológicos y de comercialización a productos existentes, con la finalidad de bajar costos y
mejorar o agregar atributos que antes eran desconocidos, al menos en el mercado en el que se
va a comercializar. El innovador interactúa con todo un contexto formado por competidores,
proveedores, clientes, y regulaciones para poner en práctica un invento, de un modo que puede
ser:
• incremental, de consecuencia de sucesivos refinamientos en el producto o el proceso
• radical, cuando se produce una discontinuidad; implica un cambio en la concepción o
en la tecnología. Marca el final del ciclo de vida de un producto y el comienzo de otro
que se apoya en nuevos conceptos de solución. La prestación parte de un piso, que
bordea el techo de la generación anterior, y evoluciona hasta alcanzar un techo
impuesto por limitaciones tecnológicas o físicas en las que se apoya, adoptando la
clásica forma de S
El producto innovador puede que no sea competitivo en un principio y que se
encuentre por debajo de la línea de prestación alcanzada por el producto antecesor, pero por su
potencialidad esto cambia en el futuro. Este es el gran desafío: Que con el paso del tiempo
logre alcanzar la competitividad suficiente y desplazar a la generación anterior. También puede
ocurrir que sea tan innovador que ni siquiera tenga mercado y haya que crearlo, o bien que el
mercado no este en capacidad de aprovechar todas sus posibilidades en su inicio.
Aunque nuestro interés esta en la innovación tecnológica, la innovación puede darse
en cualquiera de las etapas del ciclo de vida del producto: en su concepción, en el desarrollo de
la manufactura o en la comercialización.
Frente a la innovación las empresas se posicionan de dos modos:
• Proactivo: En este caso la empresa opera sobre una base planeada, con recursos asignados,
preparándose para el cambio o el logro de objetivos futuros. Tratan de ser los primeros en
lanzar nuevos productos en el mercado, cuidando de que sean difíciles de imitar o mejorar,
y finalmente si la competencia entra al mercado, se bloquea al competidor con una
segunda y mejor versión.
• Reactivo: Espera a que aparezca un nuevo producto en el mercado, imitándolo
rápidamente si fuera exitoso, o desarrollando un segundo producto mejor. Esta estrategia
se basa en que difícilmente los nuevos productos aprovechen plenamente toda su
capacidad, y respondan exactamente a las necesidades de los usuarios.
91
92 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Fig.21 Fig.22
Actualmente los tres conceptos, especialmente el tercero y el primero, han sido y son
explotados con éxito por Intel para su gama de microprocesadores.
El concepto evolutivo toma nuevas formas al agregar la posibilidad de actualizar el
software, o personalizarlo, incorporando el mismo en una flash ROM. Por este medio se
consigue que los dispositivos vean alargado su ciclo de vida.
La tercera opción, basada en aprovechar el conocimiento del mercado, aunque es una
ventaja importante para introducir nuevos proyectos, su mayor contra es la resistencia a entrar
en áreas o productos que están fuera de la especialización, o del núcleo de sus negocios.
92
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 93
93
94 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Las empresas dominantes por lo general actúan solo cuando las empresas menores los
obligan a ello, y en ese caso lo hacen rápido para no perder su posición en el mercado.
La firma que se desenvuelve bajo competencia, con una porción del mercado total
k.Q1, encuentra su gran oportunidad en la innovación debido a que al tener precios apenas por
encima de los costos, si el proceso innovador lleva a una reducción de costos, pasando de C1 a
C2, esto le permite, mientras tenga el monopolio del cambio tecnológico, maximizar su
beneficio, bien sea:
manteniendo el precio de venta P1 y su cuota de mercado k.Q1, con lo cual no
cambia la oferta pero incrementa su beneficio
ampliando su participación en el mercado, reduciendo el precio de venta, buscando
desplazar a sus competidores
Patentes
La patente es un contrato entre el estado y un individuo, mediante el cual el estado le
otorga el derecho de disponer en forma exclusiva y libremente de una determinada invención
por un tiempo definido ( 10 a 20 años ). Además de un reconocimiento a la creatividad de las
personas o empresas, el estado busca con ello generar incentivos para estimular la invención,
presuponiendo que a través de la invención se logra una mejor calidad de vida para las
personas. Como contrapartida, el propietario de la patente esta obligado a hacer publica toda la
información de su invención, lo cual enriquece el conocimiento técnico, y ayuda a la
creatividad y capacidad de innovación de otros. Es decir, para que sea acordada la patente, el
inventor esta obligado a realizar una solicitud en la cual debe hacer una descripción técnica
del invento. La solicitud es un documento público, debiendo tener suficiente detalle como para
que un especialista en el área pueda comprender su funcionamiento. La descripción debe ser
acompañada por esquemas, planos, o diagramas, que hagan posible reproducir el invento.
La solicitud de Patente de Invención se hace ante la Oficina de Patentes del país en
donde se solicita protección. Esto implica que la protección que se otorga sobre un invento es
territorial; es decir, una patente obtenida en un dado país, sólo da protección en ese país.
Aunque anualmente se acuerdan innumerables patentes, muchas quedaran solo como
archivos en alguna oficina de patentes. Muchos estiman en menos del 10% la cantidad de
patentes que tienen alguna posibilidad de desarrollo económico. En parte, porque muchas
empresas se rigen por el principio: “Debe protegerse todo lo que pueda ser protegido”. Es
decir, las patentes no son exclusivas de productos revolucionarios; en la mayoría de los casos
corresponden a procedimientos técnicos o son simples mejoras de un producto.
Los principios en que se basan los sistemas de patentamiento fueron establecidos en
la Convención de Paris en 1883. El denominado Convenio de París regula la protección de la
Propiedad Industrial. Independientemente, cada país emite leyes y regulaciones para la
protección de los derechos de la propiedad intelectual. Dentro de esta se incluyen, además de
las invenciones, las creaciones literarias o artísticas, los símbolos y nombres, las imágenes y
sonidos, y los diseños gráficos. Hay dos categorías:
Propiedad industrial, que incluye los inventos, marcas, y los diseños y modelos
industriales
Derechos de autoría, que incluye trabajos literarios o artísticos, películas, obras
musicales, diseños arquitecturales, etc.
Se considera invención a todo producto o proceso que implica una nueva forma de
hacer algo, o que representa una nueva solución técnica a un dado problema. Para que sea
acordada una patente se requiere que la invención:
sea pasible de uso practico, o sea que despierte un interés comercial
94
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 95
95
96 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Técnicas creativas
Para llevar a cabo el desarrollo de un proyecto hay disponibles una diversidad de
herramientas, la mayoría de las cuales solo indican que cuestiones deben ser consideradas, pero
no dicen nada de como hacerlo. El camino hacia la solución pasa primero por generar ideas, y
luego ver como hacer estas posibles, tratando de que las ideas y su implementación no se vean
solo limitadas al área de conocimiento que domina el grupo de desarrollo. Mayormente, la
creatividad se apoya mas en el pensamiento estructurado, que en otras vías no convencionales,
conocidas como formas de pensamiento lateral. El pensamiento estructurado reposa en el
razonamiento y la lógica como la vía hacia la creatividad, y lleva a soluciones basadas en
soluciones previamente desarrolladas para problemas similares.
La esencia del pensamiento lateral es la reestructuración de conceptos que ya existen
en la mente. El pensamiento lateral es algo así como un conjunto de técnicas por las cuales, a
partir de burlar y desorganizar dichas pautas, se trata de encontrar nuevos caminos de solución,
que sean a la vez originales y brillantes. De algún modo es pensar lo opuesto, salirse de los
esquemas convencionales, contraponer conceptos.
El pensamiento estructurado y el lateral son complementarios. Básicamente, el
pensamiento disciplinado es efectivo en la búsqueda de mejoras, aprovechando las soluciones
existentes, mientras que el pensamiento lateral lo es en la generación de nuevos conceptos e
ideas. Por ello, la mayoría de las técnicas creativas recurren a ambas formas de pensamiento.
Técnicas individuales
Por muchos años la creatividad se considero una tarea eminentemente individual,
propia de personas con mentes geniales. La realidad, sin embargo, muestra que la mayoría de
las invenciones e innovaciones surgen después de un largo esfuerzo de análisis y búsqueda. Es
decir, es importante la creatividad individual, propia de personas curiosas, con sólidos
conocimientos en el área, de mentes divergentes y cuestionadoras de las soluciones
convencionales, y muy observadoras de las tendencias, pero el éxito debe verse más como un
problema de dedicación y pequeños logros que de golpes de iluminación. Claro que este
esfuerzo de análisis, previo a toda nueva síntesis creadora, se vera reducido valiéndose de
apropiadas técnicas, algunas de las cuales se describen seguidamente.
1. Métodos analíticos. El análisis de diseño empleando modelos matemáticos conduce con
frecuencia al descubrimiento de mejores conceptos de diseño. Este análisis revelará
conocimientos fundamentales acerca de su comportamiento, y mostrara omisiones que
conducirán a nuevas ideas para lograr nuevas mejoras. La idea es vincular las características
del producto con los elementos que la determinan.; es decir, hallar relaciones causa-efecto. Una
herramienta para ello es el diagrama espina de pescado, figura 23. En esta, se reconocen y
diferencian las características principales de las secundarias y aún de otras más subalternas, y
esto conduce a una orientación de prioridades en la búsqueda de soluciones.
El análisis de las fallas y deficiencias de los productos, usando herramientas tales
como diseño de experimentos (DOE), análisis de modos de falla (FMEA), análisis de árbol
de fallas (FTA), y análisis de competitividad son también una fuente motivadora e inspiradora.
V a lo r
Secundarias 80%
Principales
A B C D
C a r a c t e r ís t ic a s
Fig.23 Fig.24
96
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 97
Para estos análisis son de ayuda los gráficos de Pareto. Con estos, se busca concentrar
la atención en los factores dominantes del problema, ateniéndose a la regla: “El 80 % depende
del 20 %”. Se trata de darle mayor importancia y priorizar la solución de aquellos aspectos que
son decisivos y no detenerse en otros que son secundarios o de fácil solución, figura 24.
También son útiles los diagramas de bloque, asociación de módulos y bloques
funcionales dispuestos de modo de dar solución al problema. De este modo, la solución de un
problema complejo queda reducida a la solución de pequeños problemas.
2. Monitoreo. La idea es ver y observar antecedentes, tratando de encontrar pistas en el pasado
que permitan entrever posibles soluciones, viendo las ideas que no pudiendo ser materializadas
en su momento, la tecnología hace que sea posible su actual implementación.
También los estudios y evaluaciones de los productos existente en el mercado, a
través de análisis de competitividad (benchmarking), pueden resultar una fuente importante y a
la vez motivadora e inspiradora. También lo sera el estudio de las patentes sobresalientes en el
tema, al igual que la revisión de las publicaciones técnicas y científicas.
El gran problema hoy en día es que son tantas las fuentes de información disponibles:
bibliotecas, organizaciones gubernamentales, universidades, empresas, laboratorios,
publicaciones periódicas, redes de información, etc., que el gran desafío es discriminar entre la
información verdaderamente útil de la totalmente desechable en el menor tiempo posible.
3. Analogía. Una interesante fuente de ideas de diseño se basa en el estudio del
comportamiento de los animales. Con frecuencia se encuentra que muchos descubrimientos
técnicos tienen su correlato natural en el comportamiento de los animales. Por ello, el
conocimiento de los medios naturales relacionados con el comportamiento de una función
puede ayudar a encontrar ideas de concepto para el diseño de nuevos productos.
La necesidad de aprender y comprender las soluciones que brinda la naturaleza ha
conducido a nuevas áreas de estudio como la biotecnología, donde se aplica el conocimiento de
sistemas vivientes a la solución de muchos problemas de ingeniería.
4. Análisis morfológico. La mayoría de los productos son diseñados en forma modular. Cada
uno de estos módulos admite múltiples formas de solución. Por combinación de estos módulos
es posible obtener múltiples posibilidades de implementación. Cada una de ellas es una opción
que debe ser evaluada. Para ello, el análisis morfológico recurre a los cinco pasos siguientes:
1. formular explícitamente el problema
2. identificar para los parámetros a satisfacer distintas formas de solución
3. listar todas las posibles combinaciones
4. examinar la factibilidad de todas las alternativas
5. seleccionar la mejor alternativa
97
98 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Técnicas grupales
La explosión del conocimiento y la tecnología actual hacen muy difícil que una
persona pueda conocer y manejar todos los datos vinculados con un problema. Por ello, los
métodos grupales tienen más chances de éxito para definir posibles caminos de solución, pues:
• La participación de mas gente aporta una mayor capacidad de conocimiento, dado que
posibilita la presencia de expertos en cada área
• Se tiene la posibilidad de interactuar, y de aprender unos de otros
• Aumentan las chances de que de existir una solución óptima, esta sea encontrada
• Una solución por consenso tiene mas chances de éxito, al sentirse todos involucrados
Seguidamente se describirán algunas de las técnicas grupales más usuales.
1. Torbellino de ideas. Entre la gran variedad de técnicas grupales, la más difundida es la
denominada brainstorming, torbellino de ideas o lluvia de ideas. Es quizás el método de grupo
más famoso y conocido para estimular ideas. En este proceso se trata de sugerir tantas
soluciones como sea posible, sin consideración inmediata de su valor o de si estas satisfacen
todos los requerimientos del problema.
En una sesión de torbellino de ideas, el líder, que dirige el grupo, demanda soluciones
a un problema determinado, ajustando el desarrollo de la sesión a las siguientes reglas:
1. Provocar un clima de libre asociación de ideas
2. Promover variaciones sobre una misma idea, de modo que las ideas que genere un
participante puedan ser tomadas por otros, cambiando aspectos de la misma
3. Respetar ideas repetidas; la última versión puede generar nuevas asociaciones
4. Evitar gestos de aprobación o desaprobación. La critica no esta permitida. Ninguna
idea debe ser rechazada.
5. Limitar la duración de la sesión ( 20 a 30 minutos máximo )
El método puede también desarrollarse en forma individual, con la ventaja de que no
hay que preocuparse por la opinión que otros puedan tener sobre las ideas que surjan en la
mente. La desventaja en este caso es que la falta de sinergia de otros participantes le resta
efectividad.
98
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 99
2. Proceso Ringii. El método Ringii, desarrollado en Japón, es un proceso grupal pero con
mínima interacción cara-a-cara. En este método, el proyectista emite una idea que se somete a
otros en un papel. Estos pueden modificar o cambiar la idea. Con todas las propuestas el
proyectista vuelve a reformular la idea, que puede o no volver a someter a juicio por parte de
otros. El método puede o no tener carácter anónimo. Finalmente llegara a una línea de solución
sobre la cual el proyectista podrá comenzar a trabajar.
3. Técnica de Delfos. Muy similar a la anterior es la técnica de Delfos. A un grupo de
entendidos, no vinculados entre si, se les plantea el problema por nota. En una hoja, con
carácter anónimo, los especialistas deben detallar una propuesta de solución. Con esto se
genera una cierta cantidad de ideas, y analizando las mismas, buscando grados de coincidencia,
se seleccionan las fundamentales. Las ideas seleccionadas se hacen recircular en el grupo para
que los entendidos trabajen sobre ellas, y de ese modo, a través de varios pasos de depuración,
se vaya conformando una confluencia hacia lo que parece ser la solución más prometedora
99
100 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
agregarse otros ligados al tipo de producto. La tabla conforma una matriz que tiene en ambos
ejes el conjunto de parámetros. En el eje vertical se seleccionan los parámetros a mejorar, y los
parámetros que se deterioran a consecuencia de dicha mejora en el eje horizontal. Luego, por
intersección de ambos parámetros resultara cual de los principios debiera ser aplicado para
resolver el conflicto.
Otro de los métodos propuestos para la solución de conflictos es el ARIZ, un
Algoritmo para la Solución de Problemas por Invención, basado en un conjunto de reglas
vinculadas a la evolución del producto y de los procesos, las vías de innovación, y a la
eliminación de las contradicciones.
Los mentores de la metodología TRIZ arguyen que la misma:
Es una herramienta útil en el diseño conceptual
Permite orientar y concentrar los esfuerzos de innovación en solo algunas vías
Permite identificar que problemas deben ser resueltos para mejorar el producto
actual
Sirve para reconocer y solucionar contradicciones, en vez de aceptarlas
Permite determinar las posibles formas en que evolucionara un producto
Permite reconocer entre varias alternativas cual innovación redundara en un
mejor producto, de menor costo y alcanzable en el menor tiempo
Prospección tecnológica
Con la prospección se busca explorar las posibilidades futuras, basándose en indicios
del presente. Se trata de identificar la aparición de nuevas tecnologías y de cambios en el
comportamiento de la sociedad y de la economía, para definir la mejor forma de posicionarse
ante estos nuevos escenarios.
Resulta difícil predecir. La prospección es una tarea compleja y propensa a error. Son
muchos los pronósticos y evaluaciones realizadas por personas y por empresas que estando
bien compenetradas en el tema han errado totalmente sus pronósticos. Las siguientes citas son
solo un ejemplo:
“El fonógrafo ...... no tiene valor comercial alguno”, le decía Thomas Edison, el
inventor, a su asistente, 1880.
“Es un sueño sin sentido imaginar que....los automóviles reemplazaran a los trenes
en el transporte de pasajeros”, American Road Congress, 1913.
“No hay ninguna posibilidad de que el hombre pueda obtener energía del átomo”,
Robert Millikan (premio Nobel de Física ), 1920.
“No existe razón alguna para que las personas tengan una computadora en su
casa”, Ken Olsen , presidente de Digital Equipmet Corporation, 1977
“Pienso que hay un mercado mundial solo para cinco computadoras”, Thomas
J.Watson, presidente de IBM, 1943
Pero, así como hubo grandes fallas de pronóstico, también hubo grandes aciertos,
siendo sin duda el más resonante el formulado por Moore, quien, en el inicio de la tecnología
integrada, estableció que los circuitos integrados tendrían un número de transistores por unidad
de superficie que se duplicaría cada año y medio. Su validez actual permite predecir que para
el 2005 habrá procesadores con tecnología de 0.01 micras frente a las 0.18 actuales del
Pentium 4 y del Athlon.
El verdadero problema es como entrever el futuro, dejando de lado las limitaciones
tecnológicas del momento. Para ayudar en esto se han desarrollado variadas técnicas, algunas
de las cuales se expondrán seguidamente.
100
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 101
Técnica Delfos
Consiste en solicitar la opinión de expertos sobre la posibilidad de lograr un desarrollo
nuevo, o de que un producto pueda alcanzar cierto valor en alguno de sus parámetros, y del
tiempo que se estima en que eso puede ser logrado.
Definición de escenarios
La idea básica de la prospección es definir futuros escenarios. Un escenario es un
estado hipotético, definido por la aparición de un conjunto de eventos, que de algún modo
interesan para la toma de decisiones. La cuestión es saber cuan probable puede ser dicho
escenario, basándose en la ocurrencia de otros eventos. En la prospección tecnológica se
considera como evento a cualquier suceso que determina que el desarrollo de un producto o
material pueda o no ser logrado en algún momento futuro. Ocurre que estos eventos no son
totalmente independientes unos de otros: habiendo ocurrido un evento este puede favorecer la
ocurrencia de otros. Esta interrelación define una matriz de impacto, con la cual se trata de
determinar un posible escenario. Analizando varios escenarios, se puede encontrar la robustez
de una estrategia para afrontar posibles condiciones favorables o desfavorables.
Técnicas de Regresión
Este método aprovecha los datos históricos para hacer una proyección futura. El
método sirve para medir cambios increméntales. Se basa en la información disponible del
pasado (estudio de lo sucedido en los últimos años), y por extrapolación se analiza la
posibilidad de que en un futuro se alcance una dada prestación. Es común su uso para la
evaluación del nivel de complejidad de los semiconductores. Como ya fue mencionado,
Gordon Moore predijo en 1965 que la cantidad de componentes por integrado se doblaría cada
dieciocho meses. Con muy leve apartamiento, esta predicción se vio corroborada en la
práctica, y derivo en lo que se conoce como ley de Moore.
Fig. 25
101
102 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Técnicas de Correlación
Muchas áreas siguen a otras áreas. Por tanto, viendo que pasa en un área, se puede
deducir lo que ocurrirá en otra después de algún tiempo. El ejemplo clásico es el área militar,
muchos de cuyos desarrollos son luego volcados a aplicaciones civiles. Ejemplos notables son
las aplicaciones satelitales, Internet, GPS, etc.
También es posible hacer estimaciones basándose en los avances de laboratorio en
cierta área y analizar luego conque retardo dichos logros posteriormente son volcados en
nuevos productos. La aparición de nuevas tecnologías hace posible que en otras áreas se
traspasen fronteras que hasta ese momento parecían infranqueables.
Curvas de crecimiento
Es importante poder predecir los momentos en que ocurrirán los distintos cambios en
el crecimiento, a fin de determinar por cuanto tiempo mas se es competitivo, y de ese modo
poder planear anticipadamente la conversión a un nuevo escenario. En esta tarea ayuda el
poder establecer un modelo de crecimiento que mejor se ajusta al comportamiento conocido.
Cualquiera sea el producto o sistema siempre habrá un valor mínimo de arranque, al
cual sigue una etapa de crecimiento lento. Superadas las primeras dificultades, comienza una
etapa de rápido crecimiento, para nuevamente entrar en un periodo de escaso progreso cuando
la prestación se acerca a su máximo posible, normalmente establecido por alguna limitación
física o tecnológica. Este tipo de comportamiento conforma típicamente una curva denominada
en “S”, tal como muestra la figura 26 para el caso de lámparas incandescentes. La mejora se da
en todos los órdenes de prestación. Es así que mientras las primeras lámparas incandescentes
duraban tan solo 150 horas, diez años mas tarde, debido a las mejoras introducidas por Edison
su duración se extendió a las 1200 horas, con muy pocos progresos posteriores: Actualmente,
la duración media se sitúa en las 1500 horas.
Fig.26
Los modelos en “S” requieren que sea establecido el límite máximo que puede ser
alcanzado por una dada tecnología. Analicemos un caso: Uno de los factores que más limita la
velocidad de procesamiento de los sistemas digitales es el sistema de interconexión entre los
distintos dispositivos que integran el sistema. El tiempo de propagación de la señal entre dos
dispositivos dependerá de la longitud del camino, y de la velocidad de propagación. La
velocidad de propagación esta dada por
c
v =
ε
p
r
(13)
donde c, la velocidad de la luz en el vacío, es una constante universal, y εr es la constante
dieléctrica del medio.
Seleccionado un material, el tiempo de propagación dependerá solo de la longitud del
camino. Si la cantidad de dispositivos por unidad de superficie se cuadruplicara, entonces la
longitud del camino medio se reduciría a la mitad, figura 27. En otras palabras, si δ es la
densidad de dispositivos por unidad de superficie, entonces la longitud del camino medio
variara con δ . Por lo tanto, una medida de la perfomance tecnológica estaría dada por
102
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 103
δ
PT = (14)
εr
Lo/2
Lo
Fig.27 Fig.28
Fig.29
El modelo de Pearl es uno de los modelos matemáticos más usuales para el análisis de
la evolución. Este modelo originalmente fue propuesto para evaluar el crecimiento de una
población. Responde a la expresión
103
104 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección
Prestación = L (15)
1 + a * e − b .t
donde L es el limite teórico y a, y b constantes del modelo.
La ventaja del modelo de Pearl es que la forma y la ubicación de la curva pueden
controlarse en forma independiente. Para aplicar el modelo, primero se linealiza la curva
aplicando logaritmos en la expresión (15 ), y se ajustan luego los parámetros a los datos
disponibles
El modelo propuesto por Gompertz, es más apropiado cuando hay un fuerte
crecimiento,
− ae − bt (16)
Prestación = L * e
Este modelo da lugar a una curva asimétrica, y al igual que en el modelo de Pearl,
para determinar los parámetros del modelo, primeramente se debe linealizar y hacer luego una
regresión lineal basándose en los datos disponibles.
Hay muchas otras leyes que pueden ser aplicadas para ajustarse a curvas con forma
de S, además de las leyes de Pearl y Gompertz ya analizadas, como ser
y = e a −(b / t ) (17)
(
y = 1 − ae − bt )
3
(18)
La estimación de los parámetros puede hacerse de un modo directo. Para el caso de la
expresión (17) se toman logaritmos en ambos miembros, y luego se determina el mejor ajuste
por el método de los cuadrados mínimos en base a los datos disponibles. De este modo se
determinan las constantes a y b. Esto no es posible para la ecuación (18), donde se debe
recurrir a un método de cálculo con técnicas de regresión no lineal. La figura 30 muestra en
forma comparada las curvas de estos modelos.
Fig.30
En todos los casos primero se debe determinar los límites tecnológicos o físicos, y
luego en función de los datos conocidos, mediante técnicas de regresión, se determinaran los
parámetros del modelo. Luego se podrá extrapolar los resultados para un tiempo futuro dado.
104
Fiabilidad
Una persona puede fallar muchas veces,
pero solo reconocerá sus fallas
si encuentra alguien a quien culpar
JOHN BURROUGHS
fa lla p a ra m e tric a
N s (t)
m in im o va lo r a c e p ta b le p a ra X
∆ N f (t)
N f (t)
t t t+ ∆t
Fig.1 Fig.2
Hallado un comportamiento, este es valido para un tipo de carga; si esta se varía, los
resultados serán diferentes. Carga es todo lo que afecte la fiabilidad: temperatura, tensión, etc.
Debido al hecho de que los resultados no son de aplicación para un elemento
individual, puede pensarse que la fiabilidad es una herramienta teórica de poca utilidad
práctica. Pero el solo hecho de que suministre una expectativa, un comportamiento medio,
tiene de por si, como se vera, un gran valor práctico.
Supongamos ahora que se trate de un solo dispositivo y que este sea reparable. Esto
supone que producida la falla será reparado y repuesto en servicio. Si cada vez que es repuesto
en funcionamiento se determina el tiempo que tarda en volver a caer en falla, entonces al cabo
de No fallas tendremos No valores de tiempo para la falla, que ordenamos de menor a mayor,
t1 < t 2 < t 3 < ........ < t j < ........ < t No (3)
106
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 107
Para un tiempo tj < to < tj+1, se define la fiabilidad observada R(to) por, figura3,
N −j
R(t o ) = o (4)
No
y tratando estadísticamente los valores observados se puede hacer una estimación de la
fiabilidad, y determinar un intervalo de confianza, prefijado el nivel de confianza.
10 R(t)
. 0.7
.
.
. No
3
2
Fig.3 1
tO t tO t
Población
Fig.4
Tasa de fallas
Propongámonos hallar la cantidad de elementos fallados en un intervalo posterior a t,
t+∆t a partir de la curva de mortalidad. Es obvio que la cantidad de elementos que fallen en el
lapso ∆t va a ser proporcional a ∆t, y a la cantidad de sobrevivientes hasta el instante t.
Obviamente, solo podrán fallar durante ∆t los que estén en funcionamiento en el instante t. Al
coeficiente de proporcionalidad se le denomina tasa de fallas, y se indica por λ,
∆ N f ( t ) = λ . N s ( t ). ∆ t (5)
de donde,
1 ∆N (t )
λ (t ) = .
f
(6)
N s (t ) ∆t
En base a la definición de la función de fallas F(t), expresión (1), la cantidad de
fallados en ∆t será,
∆ F (t )
∆N ( t ) = ∆ F ( t ). N = .∆ t . N = f ( t ). N .∆ t (7)
∆t
f o o o
107
108 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
la cual expresa la tasa de fallas como la probabilidad de que el elemento falle en el intervalo ∆t
subsiguiente al instante t, suponiéndolo en funcionamiento en el instante t.
Debido a que la tasa de fallas medida en 1/hora es una unidad muy grande, en la
norma militar HDBK-217 se comenzó expresándola en por ciento por mil horas, ( 10-5 1/h), y
mas recientemente en fallas por millón de horas, ( 10-6 1/h), salvo en el ambiente profesional
para el que se introdujo como unidad específica el FIT ( failure in time ), unidad de fallas en el
tiempo, que mide la cantidad de fallas cada 109 horas, o sea
1 FIT = 10 −9
[1 / hora ]
carga
Fallas
aleatorias
ta t t
Fig.5 Fig.6
La exigencia de tasa de fallas depende del mercado al que esta orientado el producto.
El mercado de entretenimiento es muy masivo, manejándose anualmente para la mayoría de
los componentes volúmenes de varios miles de millones de unidades. El segmento profesional
es menos masivo, en varios órdenes de magnitud, y el militar, en el que se engloban los
equipos de uso táctico, es un mercado aun más restringido. Aparte, por tratarse de un mercado
sensible, los componentes se someten al final del proceso de fabricación a una etapa de
depuración, en la cual se aplican cargas para segregar los elementos débiles. Los elementos
exentos de debilidades que sobreviven pasan a sufrir fallas aleatorias, con λ constante.
Los componentes electrónicos se diferencian de otros componentes (por ejemplo de
los mecánicos) por el hecho de que el instante a partir del cual se manifiesta el envejecimiento
está muy lejano en el tiempo, volviéndose los equipos obsoletos más tempranamente.
108
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 109
Observando los valores calculados, se aprecia por un lado que los valores de tasa de
fallas requeridos en cada aplicación son muy diferentes, y por otro, que los equipos de alta
complejidad requieren valores de tasa de fallas extremadamente bajos. El primer problema que
esto acarrea es como asegurar estos valores de λ, siendo que en estos casos las fallas pasan a
ser eventos muy esporádicos, muy raros, lo cual hace muy difícil constatar un número de fallas
relevantes, que sea estadísticamente significativo.
TABLA I
Numero de Numero de Horas de servicio Tasa de fallas
Equipo elementos fallas al año al año
No Nf Ha λ [FIT]
Radiorreceptor 2 2 1000 106
Comunicaciones 20 0,5 4000 6250
Computadora 2000 0,1 8760 5,70
n=4 n=4
n=6 n=6
n=8 n=8
2S λ min 2S λ max
u=2.S. λ 2S λ max u=2.S. λ
Fig.7 Fig.8
109
110 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
∫ f (u ).du
2 S λ min
= 1−α (13)
λ =
χ 2
(1 − α ,n) 1
. (15)
2. N .t
donde:
N, es la cantidad de elementos que se someten a ensayo
t es el tiempo de duración del ensayo
χ 2 (1 − α , n ) es el valor de la distribución Ki al cuadrado, correspondiente a un nivel de
confianza 1-α, y n grados libertad, fijados por (14).
El volumen del ensayo, cantidad de componentes a ensayar por el tiempo de duración
del ensayo, será función del máximo valor que se quiera garantizar para la tasa de fallas, y del
nivel de confianza ( 1-α ), el cual es fijado normalmente en el 60% para estos ensayos. Si el
nivel de confianza fuera mayor, digamos del 95% en vez del 60%, el volumen de ensayo
debería más que triplicarse para garantizar igual valor para la tasa de fallas, figura 9.
20
19
18
17
16
15
14
Chi al cuadrado/2
13
12 Nive l de confia nza 95%
11
10 90%
9
8
60%
7
6
5 50%
4
Fig.9 3
2
1
0
0 1 2 3 4 5 6 7 8 9 10
numero de fallas (r)
110
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 111
111
112 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Ley de Arrhenius
La ley de Arrhenius mide la velocidad de los procesos físico-químicos, vale decir, la
velocidad v de cambio de una característica por unidad de tiempo. La ley expresa que
Ea
−
v = V o .e k .T (18)
-5
donde Ea se conoce como energía de activación, y es medida en eV; k=8,63x10 eV/K , es la
constante de Boltzmann; T es la temperatura en Kelvinos ( K ), y Vo es la máxima velocidad del
proceso.
Aceptemos que un elemento entra en falla cuando el valor de su característica X sufre
un corrimiento que supera un cierto valor. Supongamos entonces que el valor máximo admitido
en el corrimiento de un componente para considerarlo en estado de falla sea
∆ X = ∆ X lim (19)
La velocidad de cambio esta definida por la expresión (18), por lo que a la
temperatura T este valor se alcanzara en el tiempo ∆t,
∆ X lim
E
− a
= V o .e k .T (20)
∆t
A otra temperatura T1 esta condición límite se alcanzara en un tiempo ∆t1, siendo
Ea
∆ X lim −
= V o .e k . T1 (21)
∆ t1
Relacionando ambas expresiones surge
Ea ⎛ 1 1 ⎞
∆t ⎜ − ⎟
k ⎜ T T1 ⎟⎠
(22)
AF = = e ⎝
∆ t1
La relación ∆ t / ∆ t 1 es el factor de aceleración que, como se observa, varia
exponencialmente con la temperatura. Linealizando en 1/T, resulta
λ1 Ea ⎛ 1 1 ⎞ (23)
ln( AF ) = ln( ) = .⎜⎜ − ⎟⎟
λ k ⎝T T1 ⎠
En la figura 10 se grafica el factor de aceleración, AF, en función de T, referido a la
temperatura normal de 50ºC. Se muestra también en línea punteada la aproximación empírica
conocida como la regla de los 10 grados. Esta regla dice que la vida de un componente o
material se reduce a la mitad por cada 10ºC de aumento en la temperatura.
Fig.10
Conocida la energía de activación, bastaría un solo ensayo para hallar el tiempo para
la falla operando a una temperatura acelerada T; caso contrario, se deberán hacer dos ensayos,
a dos temperaturas distintas.
112
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 113
Modelo de Eyring
A diferencia de los modelos anteriores, que tienen fundamento empírico, el modelo de
Eyring ha sido derivado de consideraciones teóricas de mecánica cuántica. En este modelo, la
velocidad de proceso v en su expresión más simple esta dada por
v = A.T α .e − B / T e CS (26)
la cual puede resolverse dado que se conocen las condiciones iniciales, pues es siempre R(0)=1,
de modo que
R (t ) t
dR ( t )
∫1
R (t )
= ∫−
0
λ ( t ). dt (29)
∫
− λ ( t ). dt
(31)
R (t ) = e 0
expresada en función de λ(t). También, en base a (2) y (31) resulta
t
∫
− λ ( t ). dt
F (t ) = 1 − e 0 (32)
113
114 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
d (t . R ( t ) ) = R ( t ). dt + t .dR = R ( t ). dt − t . f ( t ). dt (40)
y como
∞
∫ d (t . R ( t ) ) = t . R ( t )
∞
0
= lim [t . R ( t ) ] − 0 .( R ( 0 ) = 0
(41)
0 t→ ∞
114
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 115
σ1
f(t) β<1
f(t) f(t) f(t) s=0.4
λ1 β=1
σ2 > σ1 s=1
λ2 β>1
t t t t
λ (t) s=0.4
λ(t) λ(t) λ(t)
β<1
σ1 s=1
λ1 σ2 > σ1 β=1
λ2 β>1
t t t
Fig.11 t
115
116 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
La ventaja que tiene la función de Weibull es que la misma es muy flexible y puede
adaptarse e interpretar desde fallas del tipo prematuro, como fallas por envejecimiento, y
contiene además como caso particular a la distribución exponencial, de tasa constante. Su
mayor desventaja reside mayormente en la falta de métodos y herramientas para su tratamiento.
El modelo lognormal posiblemente sea la función de fallas más común. Este modelo
resulta de suponer que las fallas se distribuyen normalmente no en relación al tiempo, sino
respecto al logaritmo del tiempo. Es decir, así como el modelo normal resulta de la suma
múltiples variables aleatorias,
x = x1 + x 2 + .......... + x n (51)
la distribución lognormal se considera que resulta por el efecto multiplicativo de muchas
variables aleatorias,
y = y 1 * y 2 * ........ * y n (52)
de modo que, haciendo x=log(y) resulta para x una distribución normal y para y una lognormal.
La distribución lognormal supone que la fatiga es el causal de falla, y que al principio
los materiales sufren un proceso rápido de reacomodamiento, que luego se vuelve muy lento.
Papel probabilístico
Un modo practico y rápido de hallar si un modelo de fallas se ajusta a los resultados
experimentales es utilizando papel probabilístico. La idea del papel probabilístico es realizar
una deformación ( transformación ) de las escalas de modo que la representación de la
distribución en dicho papel se corresponda a una recta. Como esta transformación es propia de
cada tipo de distribución, cada papel se conoce por el nombre de la distribución que linealiza.
Estos papeles permiten obtener una estimación de los parámetros de la distribución, y
con ello la extrapolación de los resultados más allá de los datos experimentales. Si bien el
papel probabilístico normal es de uso frecuente, no es ese el caso de los papeles de las otras
distribuciones. Actualmente, todos los paquetes de software dedicados al tratamiento
estadístico, como el Minitab, incluyen para las funciones de distribución usuales la graficación
en los papeles probabilísticos correspondientes.
Por caso, para una distribución de Weibull, como es,
β
⎛ t ⎞
− ⎜⎜ ⎟⎟
⎝η ⎠
(53)
F (t ) = 1 − e
la cual puede ponerse en la forma
⎛ 1 ⎞
ln ⎜⎜ ⎟⎟ = β . ln( t ) − β . ln( η ) (54)
⎝ ln (1 − F ( t ) ) ⎠
116
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 117
Disponibilidad
Si un equipo que es reparable falla, cabe esperar que en algún momento posterior se
encuentre nuevamente en funcionamiento. La disponibilidad, A(t), mide precisamente la
probabilidad de encontrar el equipo funcionando en un instante cualquiera t. Si el instante t esta
suficientemente alejado del instante en que entro en reparación o se hizo la reposición de
funcionamiento, la disponibilidad resulta independiente de t, y define lo que se conoce como
disponibilidad a largo plazo o disponibilidad final del equipo. La disponibilidad final es un
factor importante en equipos de uso continuo, pues mide su máxima posibilidad de utilización.
n ∑ t fi
T ∑ t fi
1
TMEF
FU =
f
= 1
= n = (59)
+ T n n n n
+ TMR
∑ ∑ ∑ ∑
T TMEF
f r
t ri + t fi t fi + t ri
1 1 1 1
n
que se ve es función de la relación entre el tiempo medio entre fallas, TMEF, y el tiempo
medio de reparación, TMR. Esta relación define precisamente la disponibilidad de largo plazo.
Hallar la probabilidad de hallar en funcionamiento un equipo en un instante t
suficientemente alejado de t=0, es equivalente a la probabilidad de que un punto elegido al
azar dentro de un segmento de longitud total T = Tr + Tf, este ubicado en el subsegmento Tf. Es
decir, la disponibilidad a largo termino D estará dada por
TMEF
D = A (∞ ) = (60)
TMEF + TMR
La disponibilidad pasa a ser un factor prioritario en aplicaciones de servicio continuo,
como pueden ser estaciones de radiodifusión, líneas de fabricación continua, servicios públicos
de telecomunicaciones, etc., dado que los tiempos perdidos son irrecuperables.
Ahora bien, se pueden obtener valores altos de disponibilidad con valores de tiempos
medios entre fallas tanto bajos como altos, dependiendo del tiempo medio de reparación, por lo
que usualmente por si sola la disponibilidad no resulta un factor suficiente de evaluación;
siempre importara además conocer el TMEF.
Para analizar la disponibilidad en el corto plazo, bastaría considerar un conjunto de
realizaciones, es decir, el historial para varios equipos de la secuencia funcionamiento-caída
partiendo del estado de funcionamiento, si este fuera el estado inicial, o del estado de caída, si
fuera este el estado inicial a partir del cual interesa conocer la disponibilidad.
117
118 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
118
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 119
• Por afectación del servicio, bien sea por los daños que pudieran causarse o por el
lucro cesante, como puede ser el caso de un equipo que atiende una línea de
producción. Es importante en algunos procesos industriales que requieren tiempos de
estabilización muy grandes, pudiendo en algunos casos llegar hasta 7 o más días, por
lo que su interrupción provoca grandes perdidas
La determinación puede ser más o menos compleja dependiendo del criterio. Si se
trata de posicionarse en relación a la competencia, debiera determinarse la fiabilidad de los
equipos competidores, recurriendo para ello a formas indirectas de estimación, o bien por
indagación directa, si el mercado se concentra en muy pocos compradores.
Si el caso fuera evaluar en función del tiempo de garantía TG, en tal caso, a partir de la
probabilidad de que el equipo deba ser atendido dentro del tiempo de garantía, dada por (1-
R(TG)), se deberá calcular el costo de garantía en base al costo medio de reparación,
C G = Costo medio reparacion * (1 − R (T G ) ) (61)
y como el costo de fabricación, CF, es a su vez función de R(TG), resulta como costo total
C total = C F (R ( T G ) ) + C G (R ( T G ) ) (62)
Es claro que con el aumento de R(TG) aumentara el costo de fabricación y disminuirá
el costo de garantía, y recíprocamente, por lo cual cabe esperar que exista una condición
optima de diseño para R(TG) que minimice el costo total. Esta condición puede ser establecida
en función de TG/TMEF. Si por ejemplo la distribución de fallas respondiera a una ley
exponencial, sería
TG
−
R ( T G ) = e TMEF (63)
de modo que el costo total resulta función de TG/TMEF.
En las expresiones anteriores se supuso un equipo que esta sujeto a funcionamiento
continuo, y en tal caso el tiempo de garantía y el tiempo calendario serán coincidentes. Como
usualmente la garantía se basa en el tiempo calendario, para equipos de uso discontinuado
deberá tenerse en cuenta:
• La tasa de fallas en funcionamiento, λo
• La tasa de fallas en estado de reposo, λs
• La probabilidad de falla con cada ciclo de solicitación, p , por ejemplo debidos a
ciclos de conexión-desconexión
Si el ciclo de trabajo es c, y el número de conexiones-desconexiones diarias fuese d,
entonces al cabo de HG horas de garantía, se tendrán
H
(64)
n= G
.d
24
solicitaciones, dando una tasa de fallas equivalente
λ = c.λ o + (1 − c).λ s + np (65)
de la cual se deduce la probabilidad de falla al cabo del tiempo HG de garantía,
F ( H G ) = 1 − e − λH G (66)
Cuando existan requerimientos de fiabilidad, las condiciones bajo las cuales se hace la
comprobación deben estar claramente especificadas. Es importante también considerar las
consecuencias que resultan de una fiabilidad inferior del equipo desde los puntos de vista del
servicio, la seguridad y el económico; y esto debiera balancearse con los costos de los ensayos,
el tiempo requerido para el ensayo, y la posibilidad de asegurar la fiabilidad por otros medios
que no sea a partir de ensayos, usando técnicas predictivas. Otro punto importante es como
asegurar que las muestras sobre las que se van a realizar los ensayos sean representativas.
119
120 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Predicción de la fiabilidad
Para predecir la fiabilidad de un sistema es necesario conocer la tasa de falla de los
equipos, y como estos se combinan. A nivel de equipos se necesita conocer la tasa de falla de
los componentes. Y a nivel de componentes serán datos suministrados por el fabricante de
componentes, o información que debe ser relevada experimentalmente, o que es obtenible de
datos disponibles de usos similares. Obviamente, si no se cuenta con esa información, tan solo
es posible hacer una aproximación genérica, pero igualmente útil como referencia, porque sirve
para mostrar los puntos débiles del sistema
El diseño difícilmente pueda llevarse de un modo directo en función de metas de
fiabilidad. Normalmente se hará el diseño de cada elemento con una carga cercana a la
nominal, y luego se estimara la fiabilidad del equipo o sistema en base a esas cargas. La
fiabilidad será función de la manera en que la falla de cada componente incide en el
funcionamiento del equipo del cual forma parte. Como la falla de cada elemento depende solo
de la carga a la que está sometido, las fallas de los distintos elementos deben considerarse
como eventos independientes, si solo se consideran las fallas primarias.
Para efectuar la predicción hay diversos métodos; la aplicación de un método u otro
dependerá del tipo de falla, la ley de distribución de las fallas, la forma en que la parte se
integra y afecta al sistema, la finalidad del análisis y la simplicidad del método. Básicamente se
usara:
• Modelo físico de fallas : Para el diseño de pruebas experimentales
• Método de redes: para estimar la fiabilidad de equipos, sin elementos redundantes
• Simulación de Monte Carlo: cuando los elementos tienen dos modos de falla, por
apertura y corto, y ambos tienen consecuencias distintas. También se usa cuando las
fallas siguen leyes complejas, o los elementos tienen una asociación compleja
• Árbol de fallas: cuando importa conocer solo ciertas fallas, atendiendo sus
consecuencias; específicamente cuando se deben realizar estimaciones de seguridad
• Cadenas de Markov: cuando se trata de sistemas redundantes
• Método de las cargas ( HDBK217): Cuando se quieren hacer comparaciones
σ C
fallas
Fig.13
C R X
120
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 121
− λ 1 .t − λ 2 .t − λ n .t
− ∑ λ i .t
−λ .t
R (t ) = e .e ......... e =e = e equ 1
(70)
que determina una distribución de fallas para el equipo también de tipo exponencial, con una
tasa de fallas dada por,
n
λ equ = ∑λ1
i (71)
y un tiempo medio entre fallas
1
TMEF = (72)
λ equ
Conclusión inmediata de (70) es que todo aumento en la cantidad de elementos del
sistema reduce la fiabilidad. En este sentido, el empleo de un mayor nivel de integración
favorece siempre la fiabilidad; por el contrario, con el agregado de más elementos se empeora.
Este seria el caso por ejemplo de poner dos resistencias en paralelo en vez de una, suponiendo
en ambos casos el mismo nivel de carga, es decir, igual temperatura de trabajo.
R 1( t)
R 2( t)
λ1 λ2
R1 (t) R2(t)
R n( t)
Fig.14 Fig.15
Cuando en un sistema formado por n elementos se requiere que fallen todos para que
se produzca la falla del sistema, se habla de una red paralelo: De otro modo, basta que uno
funcione para que el sistema funcione, figura 15. Una red paralela conforma un sistema
redundante. En este caso, dado que para que se produzca la falla es necesario que fallen todos,
la probabilidad de falla del conjunto estará dada por
F ( t ) = F 1 ( t ). F 2 ( t )......... . F n ( t ) (73)
o sea
R ( t ) = 1 − F ( t ) = (1 − R 1 ( t ) )( . 1 − R 2 ( t ) )........ (1 − R n ( t ) ) (74)
Se debe destacar que la forma física en que están asociados los componentes no
determina su forma de asociación en la red de fiabilidad. Vale decir, dos componentes pueden
121
122 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
estar eléctricamente en serie, pero formar bloques paralelos de fiabilidad. Pongamos por caso
el circuito de la figura 16a, con dos diodos en serie, D1 y D2. Considerando una curva
característica idealizada, figura 16b, es claro que si la falla fuese por cortocircuito, la falla de
uno solo de ellos no implicara la falla del circuito, solo implicara un aumento en la carga del
restante cuando este sujeto a tensión inversa; el resultado es distinto si la falla es por apertura.
a) D1 D2
i
Fig.16
b) e
Las fallas de los componentes no se dan siempre del mismo modo; para cada
componente una proporción de sus fallas será por cortocircuito, y el resto por apertura.
Obviamente, la probabilidad de falla por corto y apertura se vinculan con sus tasas de fallas,
P fcc λ .∆ t λ (75)
= cc = cc
P fap λ ap .∆ t λ ap
debiendo ser
P fcc + P fap = 1 (76)
La proporción con que se producen ambos tipos de falla es propia del componente y
del mecanismo de falla. Al darse los dos modos de falla, las redes pueden resultar bastante
complejas, y en tal caso para su solución deberá recurrirse a técnicas especiales de reducción o
emplear otros métodos de análisis, como ser simulación de Monte Carlo.
X3
t ν=FXi(t)
a) b)
Fig.18
Fig.17
Supongamos un sistema formado por los componentes [X1, X2, X3], figura 18, y
que los tiempos para la falla de una realización simulada sean [ 7347, 3726, 707]. Para hallar
el tiempo para la falla se exploran los tiempos de menor a mayor, buscando el menor valor de
tiempo para el cual el sistema entra en falla En esta realización, la primera falla se produce en
el elemento X3 a las 707 horas, pero como este elemento esta en paralelo con el X2, su falla no
provoca la falla del sistema. Ahora, al producirse la siguiente falla a las 3726 horas y estando
fallado el componente X3, el análisis del sistema muestra que el mismo entra en falla.
122
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 123
Repitiendo esto para otras realizaciones, resultan los tiempos para la falla respectivos.
Con estos valores se puede determinar la función de densidad de fallas, u obtener la función de
distribución de fallas a la que responde el sistema, o su complemento, la fiabilidad. También
resulta el tiempo medio para la falla del sistema, como promedio de los valores de falla
determinados para las sucesivas realizaciones.
Una de las mayores ventajas de la simulación de Monte Carlo es que permite tratar en
forma simple redes de fiabilidad muy complejas, especialmente si las fallas pueden ocurrir
tanto por cortocircuito como por apertura, como seria el caso del arreglo de resistencias de la
figura 19. Este análisis supone siempre que es conocida la curva de distribución de fallas de
cada componente para cada modo de falla. En este caso, para cada elemento se deberá hallar el
modo y el tiempo para la falla en cada modo. Para ello se generan dos números aleatorios, y
luego, en base a las curvas de distribución de cada elemento, se obtienen los tiempos de falla
por cortocircuito y apertura. De hecho, solo el que más tempranamente ocurra puede darse.
R1 R4
R1 R2 R3 R4 R5
R1=R2=R3=R4=R5=1M Ω
A B
R3 cc ap cc ap cc
R2 R5 1M Ω ≤ R AB ≤ 1,8 M Ω
2642 3383 4609 102 4107
Fig.19
Otra forma seria hacer una primera simulación para determinar cual de los dos tipos
de falla se va a dar, dado que cada uno de los modos tiene una probabilidad de ocurrencia, y
luego trabajar con la curva de distribución correspondiente según el tipo de falle que resulte. La
probabilidad conque se da cada evento (falla por apertura o por cortocircuito) están
relacionadas con las tasas de fallas. Supongamos que en el 70% de los casos la falla sea por
apertura, y en el 30% por cortocircuito. En este caso, si el primer número aleatorio generado
esta entre 0 y 0.7 la falla será por apertura; caso contrario, será por cortocircuito. Supongamos
que para una realización se haya obtenido el modo de falla y el tiempo para la falla de cada
uno de los componentes, y supongamos que los valores obtenidos por simulación para una
realización sean los indicados en la tabla de la figura 19. Por análisis, se ve que ocurrida la falla
más temprana de R4 por apertura a las 102 horas la red sigue cumpliendo con la especificación.
Ahora, estando el resistor R4 abierto, al producirse la falla siguiente por cortocircuito de R1
a las 2642 horas, tampoco la red de resistencias entra en falla. Esta se produce recién cuando
falla por apertura el elemento R2, a las 3383 horas. Si esto se repite para otras realizaciones, se
puede hallar el TMEF como promedio del conjunto de esos tiempos de falla.
123
124 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Para el caso planteado, la red serie empeora la fiabilidad pero es una redundancia bajo
la óptica de la seguridad, y al revés sucede con la red paralelo, por lo cual pareciera imposible
satisfacer ambos requerimientos. Sin embargo, esto es posible. Supongamos que se dispone de
una sola unidad, y que su fiabilidad para el tiempo que insume una misión, Ru(Tmision), sea de
0.999. Como la seguridad se relaciona con la posibilidad de falla, la seguridad coincidirá con la
fiabilidad. Supongamos ahora que se disponen 3 unidades en redundancia paralelo, figura 21.
Equipo en falla Estado de
falla
R=.999 R=.999 R=.999 E
E1
R=.999 R=.999 R=.999
E1.3
R=.999 R=.999 R=.999
E1.3.1 E1.3.2
Fig.21 Fig.22
124
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 125
i j
Fig.23
λ ji
125
126 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
126
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 127
Veamos la solución por Matlab, partiendo del estado en el cual los dos diodos están
funcionando, y también si se parte con uno de ellos en estado de falla. El sistema de
ecuaciones esta representado por el listado 1, y el solucionador del sistema por el listado 2,
donde se ha supuesto el estado 2 como condición inicial.
LISTADO 1
function y=markov(t,p)
la1=.001;la2=.003;
y=[-p(1)*la1; p(1)*la1-p(2)*la2;
p(1)*la1-p(3)*la2; p(4)*la2+p(3)*la2];
LISTADO 2
t=1:1000;
po=[0 1 0 0];
[t,p]=ode45(@markov2,t,po);
r=[p(:,1)+p(:,2)];
t1=t*.001;
plot(t1,r1)
Fig. 25
La figura 25 muestra la fiabilidad para las dos condiciones iniciales. Se observa que la
fiabilidad decae notablemente cuando el sistema parte de los estados 2 o 3.
E2 funciona E1 funciona 2
B
E1 fallado
estado e 2 λ λ
E2 fallado λ
estado e3
E1 fallado
3
E2 fallado
estado e 4
Fig.26 Fig.27
127
128 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Por consecuencia, la fiabilidad estará dada por la suma de las probabilidades de que al cabo del
tiempo t no ocurra ninguna falla, Po(t), o solo una, P1(t), vale decir
R ( t ) = Po ( t ) + P1 ( t ) =
(λ .t )0 .e − λ . t +
(λ .t )1 .e − λ . t
0! 1!
= e − λ . t 1 + λ .t .e − λ . t = (1 + λ .t )e − λ . t (87)
y dado que el tiempo medio entre fallas esta dada por
∞ ∞ ∞ ∞
1
∫ R ( t ). dt = ∫ e dt + ∫ λ .t .e .dt = ∫ λ .t .e
− λ .t − λ .t − λ .t (88)
TMEF = + .dt
0 0 0
λ 0
y como además
d ( x .e x ) = e x dx + xe x dx (89)
resulta
1 1 2 (90)
TMEF + = =
λ λ λ
lo cual implica duplicar el tiempo medio entre fallas que se tendría si se usara solo un equipo.
128
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 129
129
130 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
130
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 131
caída del sistema, sino la pérdida de lo más valioso, que es la información almacenada.
Para resolver esto se han concebido los sistemas RAID (redundant array inexpensive
disk), un arreglo o conjunto redundante de “discos baratos”.
• Recurrir a la mantenibilidad preventiva, para eliminar las fallas por envejecimiento
• Realizar ensayos o procesos de depuración, para eliminar las fallas infantiles cuando el
diseño este basado en nuevas tecnologías, o componentes nuevos, o que resulten de
producciones discontinuas o por lotes, que haga presumir la existencia de componentes
débiles
• Realizar un proceso de asentamiento para el caso en el que haya elementos con tasa de
fallas decreciente con el tiempo
Análisis de fiabilidad
La fiabilidad final de un equipo dependerá de los componentes que lo integran, de su
diseño mecánico y eléctrico, de los procesos de fabricación, los métodos de prueba realizados,
la calidad de la instalación y la fiabilidad del software. Es decir, los análisis de fiabilidad
comprenden dos etapas:
• análisis del diseño
• análisis de los resultados de los ensayos
El análisis del diseño, a veces denominado fase A o α es principalmente un análisis
del diseño tal como es requerido por la definición de producto. Se consideran además en estos
análisis la capacidad que dispone el fabricante para asegurar que los requisitos impuestos
puedan ser cumplidos, lo que incluye un análisis de los procesos de fabricación. Los análisis
que contemplan las condiciones de uso, denominada fase B o β, tienden a evaluar el producto
bajo condiciones reales de explotación. En la fase A se contemplan los siguientes aspectos:
Fiabilidad de componentes. Se hace un estudio de los procedimientos con los cuales el
fabricante aprueba sus fuentes de componentes, de las especificaciones de fiabilidad que
formula, las comprobaciones de recepción, y las pruebas y métodos que utiliza para la
selección de sus componentes. Se juzga además el sistema que el proveedor de componentes
practica, y las acciones de seguimiento de las fallas de los componentes y de las acciones
correctivas consiguientes. En muchos sectores industriales solo pueden ser usados
componentes que han sido previamente aprobados. Adicionalmente, en los equipos
profesionales se hacen pruebas de durabilidad a largo plazo ( 2 a 5 años ) con la finalidad de
asegurar la estabilidad del componente en condiciones normales de funcionamiento.
Diseño mecánico y eléctrico. Se examina la elección de materiales, los acabados superficiales,
identificación y rotulado para la trazabilidad, requisitos sobre componentes y montaje, tipo de
construcción mecánica, requisitos sobre procesos, la forma en que se llevan a cabo las
modificaciones y reparaciones, la incombustibilidad de los materiales usados, la tolerancia
frente a descargas electrostáticas, compatibilidad electromagnética, normas ambientales y de
seguridad.
Fabricación. Se lleva a cabo un examen detallado de los procesos de fabricación y de los
controles, selección de materiales, su administración y almacenamiento. La finalidad de estos
análisis es verificar que los procesos de fabricación son adecuados y concordantes con las
exigencias de fiabilidad requeridas.
Calidad de la instalación. Se examinan los métodos y procedimientos recomendados para la
instalación, y las fases del programa de puesta en marcha.
Fiabilidad del software. Este análisis tiene por finalidad juzgar la capacidad y eficiencia de las
normas y rutinas seguidas durante el desarrollo y la fabricación de todas las partes del producto
131
132 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Validación
Completado el diseño e implementado un prototipo, se debe comprobar que la meta
de fiabilidad ha sido lograda, dado que los cálculos predictivos se basan en tres supuestos:
• Componentes de buen origen
• Valores de carga correctamente estimados
• Producto definido en conformidad con su uso
que difícilmente pueda asegurarse que sean ciertos sin una verificación experimental.
El primer supuesto podrá asegurarse para la mayoría de los componentes, con
adecuada selección de proveedores; la excepción, son los componentes dedicados, y las
soldaduras. Las soldaduras son inevitables, y constituyen el componente de mayor población, y
además su fiabilidad depende del proceso. El segundo factor esta dependiendo de la validez de
los modelos usados en el diseño, y de la realización física del equipo.
Saber si las metas han sido logradas dependerá del análisis de los datos disponibles.
Estos datos pueden resultar de estimaciones basadas en el conocimiento del proceso físico que
provoca la falla, y de datos disponibles de fallas de los elementos que componen el producto,
recabados en las fases inicial e intermedia del desarrollo o de los ensayos de fiabilidad sobre
partes, o sobre el prototipo, realizados en la etapa final del desarrollo. También pueden basarse
en pruebas de campo, o en datos recogidos en el uso efectivo del equipo. Con cuantos más
datos se cuente, mayor será el nivel de confianza que podrá asegurarse para los resultados.
Uno de los puntos más importantes en estos ensayos es asegurar que las muestras sean
representativas.
Los ensayos no deben verse simplemente como un proceso de aceptación o rechazo.
Las causas y consecuencias de las fallas observadas durante los ensayos deben ser analizadas
en detalle, junto con la posibilidad de realizar tareas curativas.
Si bien normalmente se usan ensayos truncados o progresivos, para los cuales se
definen de antemano las condiciones de terminación, también es posible ensayar un número
dado de unidades sin prefijar de antemano requisito alguno de terminación. La fiabilidad
puede ser evaluada en cualquier momento basándose en el tiempo acumulado de ensayo y el
número de fallas. Cuando un equipo tenga varios modos de funcionamiento, deberá validarse
cada modo. En particular, la fiabilidad se establecerá para cada modo. Por caso, para un centro
musical pueden darse los siguientes modos: banda de radio de AM, banda de radio de FM,
casetera, y reproductor de CD.
132
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 133
Ensayos de fiabilidad
Supongamos que disponemos de n elementos que entran a funcionar en el instante t=0,
y que al cabo de los tiempos t1,t2, ...,ti,....tn estos componentes entran en falla, figura 30, donde
t 1 < t 2 < t 3 < ..... < t i < t i +1 < ...... < t n (92)
entonces, la fiabilidad en el momento ti estará dada por
n−i
R (t i ) = (93)
n
y la función de distribución de fallas será
i
F (t i ) = (94)
n
En el supuesto de que la tasa de fallas es constante, las horas acumuladas pueden
obtenerse del ensayo de muy pocas unidades, debido a que es posible efectuar la reparación de
aquellas unidades que entran en falla. Esto es usual a nivel prototipo donde se dispone de muy
pocas unidades para ensayo, por lo cual este procedimiento solo alargara el tiempo de
evaluación. El proceso es el mismo que si se dispusiera de muchas unidades para ensayo, solo
que hay que esperar más tiempo, figura 31. Además, si la tasa de fallas es constante, los
equipos pueden ser incorporados al ensayo en cualquier momento; solo importa el tiempo
acumulado de horas de funcionamiento.
t2
tn ti tj
tk
n t3
ti
t1 n
t t
Fig.30 Fig.31
La expresión (93) es una estimación tal vez pesimista, dado que supone que al cabo
del tiempo tn no sobrevive ningún elemento, lo cual sin duda no podría asegurarse si se
aumentase la cantidad de elementos bajo prueba. Es decir, es una mala estimación suponer que
F(tn)=1, por lo que una mejor estimación de las fallas resulta de suponer que hay un equipo
mas que al momento tn todavía no entro en falla, por lo cual
i
F (t i ) = (95)
n +1
n +1− i
R (t i ) = (96)
n +1
Del mismo modo se pueden estimar
∆F ∆ R R (t i+1 ) − R (t i ) 1
f (t ) =
∆t
= −
∆t t i+1 − t i
=
( t i + 1 − t i )( n + 1 )
para t i < t < t i +1 (97)
f (t ) 1
λ (t ) =
R (t )
=
( t i + 1 − t i )( n + 1 − i )
para t i < t < t i +1 (98)
y el tiempo medio entre fallas se obtiene a partir de la media de los tiempos para la falla,
n
ti
m o = TMEF = ∑ 1 n (99)
Estas son estimaciones puntuales. Para una mejor estimación se recurre a estimaciones
de intervalo. En este caso, en vez de un valor se determina un intervalo dentro del cual esta el
parámetro buscado. Este intervalo será función de los datos relevados y del nivel de confianza.
En particular, si se tratara del TMEF, esto implica que se desea saber con una probabilidad
dada ( 1-α), que se denomina nivel de confianza, los limites dentro de los cuales esta el TMEF.
133
134 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Como este valor medio resulta de la suma de n variables aleatorias, tendrá también carácter
aleatorio y responderá a la distribución t de Student. Como las n variables están vinculadas por
(99), el número de grados de libertad, o variables independientes, será igual a n-1. Es decir,
s
TMEF ± tα / 2 ,n −1 .
n (100)
donde
n
( t i − TMEF )2 n
t i2 − n .TMEF 2
(101)
s 2
= ∑
1 n − 1
= ∑
1 n − 1
El tiempo para la falla es un valor preciso solo si los elementos sujetos a prueba son
monitoreados en forma continua. Usualmente, para reducir el esfuerzo, la verificación es
periódica. El tiempo de monitoreo es entonces un parámetro importante que debe ser
establecido al comienzo del ensayo, debiendo ser tan corto como sea posible para no
influenciar en los resultados. Para el caso de tasa de fallas constante, debiera ser del orden del
20% del tiempo medio entre fallas. El tiempo de falla de los componentes que fallaron a
posteriori del control anterior se asigna suponiendo que la falla ocurrió un instante previo al de
monitoreo.
El otro aspecto que debe ser considerado es que en esta evaluación solo se consideran
las fallas relevantes. Son no relevantes las fallas secundarias, las fallas debidas al mal uso de
los componentes ( fuera de sus limites de carga), por ejemplo debidas a sobrecargas no
intencionales provocadas durante el ensayo. Las fallas que pudieran ocurrir debido a causas
que han sido remediadas, también deben ser excluidas, todo lo cual implica hacer un análisis de
los causales de fallas.
Así como ciertas fallas son excluidas, otros tipos de fallas son decisivas para el
rechazo, independientemente de la meta. Esto ocurre cuando las fallas afectan la seguridad.
Como tiempo acumulado de ensayo se excluyen los tiempos de asentamiento, si los
hubiera, y los destinados a la decantación de las fallas infantiles, los cuales pueden integrar la
fase final del proceso de fabricación. Los equipos sometidos a ensayos de fiabilidad se
suponen muestras representativas, y que por tanto no pueden estar sujetas ni antes ni durante el
ensayo a ninguna acción de acondicionamiento, salvo las reparaciones normales previstas para
el equipo y necesarias para poder continuar el ensayo.
Como resultado de las pruebas experimentales se trata de ver si la ley de fallas puede
ser descripta por una ley analítica, como puede ser la exponencial, u otra distribución.
Siempre, salvo que se justifique apropiadamente lo contrario, se parte del supuesto de que la
distribución de fallas del equipo es de tipo exponencial (ver página 159).
Para saber si los datos experimentales se ajustan a una distribución dada se recurre a la
prueba de Kolmogorov-Smirnov. Con esta prueba se mide la concordancia entre una
distribución acumulativa observada de valores y una función de distribución continua. La
ventaja de este método de prueba es que resulta más eficaz que el estimador χ2 cuando se
dispone de pocas muestras. Para esta prueba se puede usar la función de Matlab
kstest(x,fd,alfa), la cual permite probar que los valores experimentales, vector x, se ajustan a
los valores teóricos de la función de distribución, vector fd, con un riesgo predefinido alfa.
134
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 135
tomado una decisión con menor tiempo de ensayo, y además, para igual tiempo calendario, con
un menor volumen de ensayo.
Si el ensayo es realizado sobre la base de alcanzar un número de fallas dado, es
necesario un monitoreo continuo o a intervalos pequeños hasta que se produzcan las r fallas. La
ventaja es que los equipos en falla pueden ser reparados y repuestos en funcionamiento, lo cual
permite aumentar el volumen de ensayo para un tiempo dado.
En muchos casos es posible abreviar el ensayo recurriendo a una compresión de
tiempo. Por caso, la vida útil de un automóvil es cercana a los 10 años, pero en ese lapso el
tiempo de uso de los distintos dispositivos electrónicos que lo integran en promedio será
cercano a las 2000 o 3000 horas. Puede entonces aplicarse una aceleración en el sentido del
tiempo calendario. En general esto será aplicable a equipos sujetos a ciclos operativos. Cuando
se hace una compresión de tiempo, habrá que considerar la cantidad de estos ciclos operativos,
y si los mismos dan lugar a problemas de fatiga. Los ensayos acelerados, por incremento de la
carga, raramente son aplicados en los ensayos de fiabilidad destinados a validar.
En general el método desarrollado anteriormente es poco eficiente para ser aplicado en
las pruebas de validación de fiabilidad, debido a que lleva a ensayos más largos de lo
necesario. Esta condición ocurre cuando las muestras bajo ensayo están muy apartadas de la
meta, sea porque están mucho peor, o mucho mejor, que el valor establecido. Para estos casos
es mas apropiado el método de ensayo secuencial o progresivo. La única desventaja del método
secuencial es la necesidad de monitorear en forma continua o a intervalos pequeños.
La característica del ensayo progresivo es que el número de fallas para llegar a una
conclusión no esta predeterminado de antemano, sino que depende de los resultados obtenidos
en los momentos de monitoreo. En este tipo de ensayo en cada instante de monitoreo existen
tres posibles decisiones:
1. Aceptar la hipótesis de que TMEF es superior a un valor dado
2. Rechazar la hipótesis de que TMEF es superior a un valor dado
3. Continuar con el ensayo hasta cumplir la exigencia de rechazo o aceptación
Cuando se da alguna de las dos primeras condiciones el ensayo se termina; en el caso
de la tercera se debe proseguir hasta llegar a alguna de las dos primeras.
La idea es comparar las fallas que resultan del ensayo con el número de fallas r que
debieran resultar si el tiempo medio entre fallas tuviera el valor prefijado m. Estos análisis
parten del supuesto de que la tasa de fallas del equipo es constante, por lo cual la ley de fallas
es de tipo exponencial1, salvo que un análisis previo justifique el uso de otra distribución.
Bajo el supuesto de una distribución exponencial, las fallas se darán con una cierta
tasa λ=1/m, donde m es el tiempo medio entre fallas. En tal caso, la probabilidad de que al
cabo del tiempo H ocurran r fallas estará dada por
e −H /m ⎛ H ⎞
r
P (r / m ) = .⎜ ⎟ (102)
r! ⎝ m ⎠
Obviamente, contando con un solo prototipo, de producirse una falla debiera
reponerse en funcionamiento el equipo para proseguir con el ensayo.
Indiquemos por P1(r/m1) a la probabilidad de que al cabo del tiempo H se produzcan
exactamente r fallas si el tiempo medio entre fallas es m1, y que sea P2(r/m2) la probabilidad de
que se produzcan r fallas si el tiempo medio entre fallas fuera m2. El problema puede ahora ser
planteado de la siguiente forma: Si al cabo de H horas de ensayo se observan r fallas, se trata
de ver cual de las dos alternativas para m es mas plausible. Esta decisión debiera tomar en
cuenta que de ser cierta la hipótesis de que m≥m1, entonces, para aceptar tal hipótesis, la
probabilidad de ese evento debería ser alta
P aceptacion ( Si m ≥ m 1 ) = 1 − α (103)
1
véase pagina 159
135
136 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
y si fuera menor o igual a un valor m2 la probabilidad de aceptar la hipótesis debiera ser baja,
P aceptacion ( Si m ≤ m 2 ) = β (104)
De otra manera: siendo verdadera la hipótesis de que m≥m1, la probabilidad de que se
rechace debe ser baja
Prechazo ( Si m ≥ m 1 ) = P 2 = α (105)
y debe ser alta la probabilidad de rechazar si esta no fuera verdadera,
Prechazo ( Si m ≤ m 2 ) = 1 − β (106)
La figura 32, basada en (102), muestra como varia la probabilidad de que ocurran
exactamente r fallas para distintos tiempos medios entres fallas ( m ), relativos al tiempo de
prueba (H)
Fig.32
Supongamos un valor particular de r, tal como r=10. Analizando la relación P1/P2 para
los dos valores de m, m1 y m2, pueden darse tres situaciones, figura 33; buscamos vincular la
decisión de aceptar la hipótesis de que m es igual o superior a m1 con dicha relación, P1/P2 .
a) b) c) d)
Fig.33
La observación de la figura 33a nos muestra que P1 es bastante mayor a P2, por lo
cual podemos suponer que es más probable que el tiempo medio entre fallas sea m1, y no m2.
Esto implica aceptar la hipótesis de que m≥m1. Lo contrario se da en el caso de la figura 33b;
mientras que en las figuras 33c y 33d no es posible tomar ninguna decisión. En ambos casos es
necesario proseguir el ensayo, hasta caer en una de las situaciones anteriores.
Veamos esto más en detalle. Supongamos por ejemplo que al cabo del tiempo Ho se
han producido 10 fallas, resultando para los valores supuestos de m1 y m2 las probabilidades
indicadas en la figura 34a. Vemos que en este caso las probabilidades P1 y P2 son muy
similares, no permitiendo sacar ninguna conclusión. Al proseguir el ensayo durante H1 horas
adicionales se pueden presentar tres escenarios:
136
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 137
Aceptar
a) Rechazar b)
Proseguir
c) d)
Fig.34
137
138 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
β
B = (112)
1 − α
Para clarificar ideas, supongamos que se busca determinar el tiempo mínimo en que
podría ser alcanzada la decisión de aceptar y que se fija como factor de discriminación del
ensayo
m
D = 1
= 5
m 2
(113)
y que α=0.1 y β=0.1, de modo que B = 0.111. Es obvio que el menor tiempo de aceptación
resultara cuando se cumpla la condición ( 110 ) sin haber ocurrido falla alguna. Ahora bien,
para r=0, P2 y Pa pueden expresarse en función de m/H, expresión (102), en la forma
r
e − H / m1 ⎛ H ⎞
P a = B . P1 ( r = 0 / m 1 ) = B . .⎜⎜ ⎟⎟ = B .e − H / m1
(114)
r! ⎝ m1. ⎠
r
⎛ D .H ⎞ e − D . H / m1 (115)
P2 ( r = 0 / m 2 ) = P2 ( r = 0 /( m 2 = m 1 / D )) = .⎜⎜ ⎟⎟ = e − D . H / m1
⎝ m 1 ⎠ r!
Luego, en base a la condición límite impuesta por la expresión (110) resulta el valor
de (m/H) que cumple con la condición para la aceptación de la hipótesis para mínimo tiempo
de ensayo,
1
H = . ln( 1 / B ) * m 1 = 0 . 549 * m 1 (116)
4
Del mismo modo se puede obtener el menor tiempo en el que se puede aceptar que el
tiempo medio entre fallas real es m≥m1 habiendo ocurrido una falla, figura 35,
1
H = . ln( D / B ) * m 1 = 0 . 9519 * m 1 (117)
D −1
Para que haya posibilidad de rechazo necesariamente debe haber ocurrido alguna falla
de modo prematuro. Esto puede verse por el hecho de que para r=0 es siempre P1>P2, figura
36, lo cual vuelve imposible aplicar el criterio de rechazo para r=0. Por el contrario, para
aceptar la hipótesis, impuestos m1 y m2, solo se debe hallar el valor de H que satisface la
relación P1/P2 que se corresponde a los niveles de confianza establecidos, figura 36.
P1
P2
m2/H m1/H
Fig.35 Fig.36
Establecer la condición para el rechazo de que m≥m1, sería lo mismo que establecer la
condición de aceptación de que m≤m2. En este caso se aplica el factor de escala sobre P2, de
modo que
x . P2 = 1 − β (118)
resultando un factor de escala
1− β (119)
x =
P2
Luego, se acepta la hipótesis de que m ≤ m2 si se verifica que
x . P1 ≤ α . (120)
o sea
138
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 139
P1 α
≤
P2 1 − β (121)
o también
P2 1 − β
≥ = A (122)
P1 α
Teniendo en cuenta (112) y (122) , la condición para continuar puede expresarse como
P2
B < = D r .e − H ( D − 1 ) / m 1 < A (123)
P1
que puede también ponerse en la forma
ln( B ) < r . ln( D ) − H ( D − 1 ) / m 1 < ln( A ) (124)
y operado queda
ln( B )
+ ( D − 1 ).
H
< r <
ln( A )
+ ( D − 1 ).
H (125)
ln( D ) m1 ln( D ) m1
numero de
r fallas Finalizacion por tiempo
s
la
ensayo truncado
al
rf
po
n
ensayo progresivo
io
ac
liz
na
Fi
ensayo progresivo
ensayo truncado Finalizacion con cero fallas
139
140 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
y sus desventajas:
• El número de fallas y el costo del ensayo varían de un modo amplio; esto implica que
no puede establecerse de antemano un plan que contemple la asignación de recursos y
tiempo de ensayo de un modo definido
• El máximo número de fallas y el tiempo de ensayo pudiera resultar mayor al que
requiere un ensayo truncado
Por otro lado, los ensayos truncados tienen como ventajas:
• El tiempo de ensayo es fijo, lo cual permite una mejor asignación de los recursos
• El número de fallas queda prefijado al comienzo del ensayo, y en tal caso es posible
determinar el número de equipos requeridos desde el inicio, pudiendo proseguir con el
ensayo hasta alcanzar la meta sin necesidad de reparar los equipos que entran en falla
• El tiempo de ensayo es mas corto que el que pudiera resultar en un ensayo progresivo
si se esta muy cercano a la meta
y como desventajas:
• En promedio, el tiempo de ensayo es mayor al que resulta con un ensayo progresivo
• Equipos muy buenos o muy malos requieren excesivo tiempo de ensayo, si se lo
compara con el requerido por un ensayo progresivo
La norma IEC 605-7 y diversas normas militares contienen gran variedad de planes de
ensayos progresivos, desarrollados para distintos valores de α y β, y del factor de
discriminación del ensayo
m1 TMEF aceptable
D = = (129)
m 2 TMEF no aceptable
y en las mismas se incluyen las curvas de operación, los criterios de decisión, y la probable
duración del ensayo. Las figuras 38 y 39 muestran las curvas correspondientes al plan 4:1, con
factor de discriminación D=1.5 y las figuras 40 y 41, corresponden al denominado plan 4:4,
con un factor de discriminación D=5.
Fig.38 Fig.39
Se observa que a medida que D es mas bajo, lo cual implica mejor discriminación
entre lo aceptable y lo no aceptable, el tiempo de ensayo se ve notablemente aumentado. Por
ejemplo, para D=5 el valor esperado del tiempo de ensayo, cuando se esta en la proximidad de
la meta, es de E(t)=0.7*m1, mientras que para D=1.5 resulta E(t)=20*m1. Esto muestra que
solo se justificará realizar un esfuerzo de ensayo casi 30 veces superior en casos muy
especiales. Por otro lado, si se fijara el mismo valor del TMEF no aceptable, el primero
resultaría más ventajoso.
140
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 141
Fig.40 Fig.41
141
142 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
142
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 143
Los datos obtenidos de los sucesivos ensayos se vuelcan en las curvas de crecimiento.
Las curvas de crecimiento sirven para medir no solo el progreso en el decaimiento de la tasa de
fallas; sino que también sirven para medir la efectividad de las pruebas, y predecir un tiempo
probable en que podrán ser alcanzadas las metas impuestas; y ciertamente saber si en un dado
tiempo se puede lograr el objetivo.
Usualmente, estos ensayos se comienzan en una fase temprana del desarrollo, figura
43, y se continúan aun después del lanzamiento de la producción. En sus comienzos las
evaluaciones se harán sobre los componentes seleccionados, y los procesos de manufactura
implícitos en esa selección.
Curva de crecimiento
de la fiabilidad Meta de fiabilidad
Fiabilidad
Ensayo de circuitos
postlanzamiento
preproduccion
Evaluacion de
Evaluacion de
preprototipos
Mejoramiento
componentes
b
Evaluacion
Evaluacion
Evaluacion
Ensayo de
prototipo
service
campo
Lanzamiento ta t
producción
tiempo
Fig.43 Fig.44
143
144 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
de modo que
I max ∆T ω C tg δ
=
Ir ∆Tr ω r Cr tg δ r (141)
es una característica propia de un tipo de componente, figura 45.
Fig.45
T ºC
144
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 145
Fiabilidad de software
La fiabilidad de software se diferencia de la de hardware en que en software las fallas
son siempre consecuencia de errores, y por tanto un programa en su ejecución funcionara o
fallara siempre; en este sentido, no tendría carácter aleatorio. Deviene así solo cuando el
camino en el que esta el error es recorrido en forma aleatoria durante la ejecución del
programa, y esto ocurrirá para cierta combinación de entradas y estados anteriores.
Bajo el supuesto anterior, se define la fiabilidad de software como la probabilidad de
que un programa opere sin fallas durante un tiempo en un entorno dado. El entorno se relaciona
con el perfil operativo. Este resulta definido por la característica de distribución de las entradas,
o de los estados del sistema, figura 46.
Especificación
Documentación
Definición estructura y metricas
Probabilidad
de ocurrencia Definición algoritmos
Codificación
Depuración
Integración
Validación
Estados
Fig.46 Fig.47
145
146 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Los tres primeros puntos son los más importantes. El primero porque es el que
condiciona el desarrollo del software; el segundo implica definir el estado del cual debe partir
el sistema en su arranque o en cada reinicialización, pero igual criterio debe ser aplicado para
cada módulo. El tercero implica que deben estar definidas las acciones para todos los estados
del sistema, considerando todas aquellas acciones que sean susceptibles de ocurrir.
La programación para los productos electrónicos es normalmente realizada en C o en
lenguaje ensamblador, y esto la diferencia de las programaciones dedicadas a ejecutarse en una
PC, donde lo usual es codificar en C++ , Java u otros lenguajes, pero nunca en lenguaje de
maquina o ensamblador. La otra diferencia es que en la programación de microcontroladores,
la programación es más detallada y menos genérica, es decir, esta muy relacionada con el hard
con el cual debe vincularse. Además, importa la velocidad, dado que la operación es de tiempo
real. Otra diferencia importante, es que mientras que para los programas que corren en PC se
aceptan y se considera normal que existan errores, esto, para el software de los productos
electrónicos es en la mayoría de los casos totalmente inaceptable, en especial cuando median
razones de seguridad, como podría ser el caso de controladores dedicados al automóvil.
Métricas de complejidad
El objetivo de la depuración es eliminar errores a fin de mejorar la fiabilidad, o lo que
es igual, aumentar el tiempo medio para la falla, figura 48. Es obvio que la posibilidad de
cometer errores será dependiente de la complejidad del software, de su tamaño y de la
estructuración de la solución. Si bien los programas cortos pueden estar libres de errores, en los
programas muy largos estos serán inevitables y seguramente la cantidad de errores ET inicial
será proporcional a la longitud del programa, medida por líneas de código (LOC), figura 49.
TMPF ET
diferentes
estrcuturas
t
Eliminación de errores LOC (longitud)
Fig.48 Fig.49
146
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 147
t
(144)
∫
1
f r ( r ). dr = 1
de la cual resulta,
1 (145)
c =
ln( t )
Otra condición resulta de aceptar que el máximo rango ( rmax = t ) aparece un número
de veces dado; aceptando que aparezca solo una vez, de (143) resulta
c .n (146)
1=
t
y combinando las dos últimas expresiones surge que
(147)
n = t . ln( t )
que tiene similitud con la expresión sugerida por Halstead, si se considera separadamente la
cantidad de operadores n1 y de operandos n2 usados en el desarrollo del programa,
n = n 1 . log 2 ( n 1 ) + n 2 . log 2 ( n 2 ) (148)
El valor de LOC dependerá de la estructura, los algoritmos, y el lenguaje. Un lenguaje
de mayor nivel permite además de reducir un orden de veces la longitud, obtener una mejor
estructuración del programa (mas fácil de entender y seguir), y aumentar la fiabilidad.
Estructuración y modularización
Un programa se vuelve más fiable en la media en que es estructurado y modular.
Una solución modular busca que un problema complejo y de difícil tratamiento como conjunto
sea resuelto mediante la solución de pequeños problemas, más fácilmente tratables. Un
módulo, por definición, es un trozo de programa que tiene una única entrada y una sola salida.
Cuando el programa esta compuesto por una secuencia de instrucciones que se
ejecutan una a continuación de otra, de haber un error, siempre fallara en su ejecución. Esto
puede no ocurrir si el programa tiene al menos una bifurcación, y solo una de sus ramas
contiene el error. En tal caso, la falla dependerá de la probabilidad de pasar por esa rama.
McCabe definió una medida de complejidad, denominada complejidad ciclomática,
y la vinculo con la fiabilidad del programa. McCabe supone que un programa es más
susceptible al error en los puntos de decisión (una rama de cualquier tipo) que en el medio de
una codificación lineal. Es decir, cuantos más lazos haya, mayor será el nivel de complejidad,
más difícil será su desarrollo, insumirá más tiempo la depuración, y será también menos fiable
y más difícil de mantener.
Por ello, el primer paso será dividir el programa en módulos independientes, buscando
que estos no superen un nivel de complejidad. La independencia se obtiene haciendo que cada
módulo tenga una sola entrada y una única salida, aunque internamente puede tener estructuras
complejas, no secuénciales. La solución es estructurada si el programa, y cada módulo, es
combinación de alguna de las estructuras de lazo definidas en la figura 50. Son módulos
estructurados el A, C,D,F y G; también lo son el B, el E y el H.
lin e a s d e l flu jo g r a m a
D C G
A B E H
e s tru c tu ra d o n o e s tru c tu ra d o
a) b)
Fig.50 Fig.51
147
148 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Disponiendo cada módulo de modo que todos los lazos queden en el mismo
semiplano, definido este por una línea que marca la secuencia de tareas a ejecutar, la condición
estructurada implica que no haya entrecruzamiento de los distintos lazos. Será así si los lazos
están anidados, figura 51a, situación que no se da en la figura 51b.
La complejidad de McCabe resulta de contar la cantidad de regiones formadas por el
conjunto de lazos, sumando a las regiones internas, la externa; es decir, para el caso de la
figura 51a el índice de complejidad valdría 6. Como criterio de diseño, se recomienda no
superar un valor de 10; si se superara, se debería subdividir el módulo en módulos mas simples.
λ(t)
Poca documentación
Mal estructurado
i (ti,pi)
Poca modularidad operacion mantenimiento j
depuración
depuración operacion
t
Fig.52 Fig.53
148
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 149
Modelo de Shooman
Shooman propone para la fiabilidad un modelo exponencial, con una tasa de fallas
proporcional a la tasa residual de errores,
(150)
ε r (τ ) = ε T − ε c (τ )
siendo εT la tasa de errores totales, y ε c(τ) la tasa de corrección, o sea la cantidad de errores
corregidos al cabo del tiempo τ, Ec(τ),
E c (τ )
ε c (τ ) = (151)
IT
de modo que
R (t ) = e − λt = e − kε r (τ ).t = e − k .(ε T −ε c (τ ).t (152)
El modelo implica:
Aceptar que el programa quedara siempre con errores residuales ( λ≠0 )
La fiabilidad puede mejorarse con mayor tiempo de depuración
ET y k son constantes invariables del modelo, obtenidos de datos experimentales
Supongamos que en n ejecuciones del programa, hubo r fallos y (n-r) ejecuciones
exitosas. Si Ti es el tiempo de una ejecución exitosa, y tj el de una ejecución fallida, las horas
totales de funcionamiento serán
n−r r
H = ∑T +∑ t
i =1
i
j =1
j (153)
Asumiendo un modelo exponencial, el tiempo medio entre fallas estará dado por,
1 H
TMEF = = (154)
λi
i
r
Este modelo supone que al final de un tiempo de corrección τ se alcanza un
1
TMEF =
⎡ E ⎤
k ⎢. T − ε c (τ ) ⎥ (155)
⎣ IT ⎦
Contando con dos determinaciones, se pueden calcular los valores de k y ET, que son
los parámetros invariables del modelo, en base a
H1 1 1
= =
r1 λ1 ⎡E ⎤
k ⎢ T − ε c (τ 1 ) ⎥
(156)
⎣ IT ⎦
H 2 1 1
= =
r2 λ2 ⎡E ⎤ (157)
k ⎢ T − ε c (τ 2 ) ⎥
⎣ IT ⎦
149
150 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Ec1
Ec(τ)
Em +1
Er(τ)
Em
τ1 τ2 τ3
τ
Fig.54 Fig.55
150
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 151
El método consiste en suponer que al cabo de cada corrección se esta en la meta mas
un error. Si en la expresión (160) se toman logaritmos, se obtiene
ln (E r (τ ) ) = ln( E T ) − b .τ (162)
Luego, si al cabo del tiempo τ1 se han detectado y corregido Ec(τ1) errores, y se
supone que en ese momento se esta con una cantidad de errores residuales igual a la meta, Em,
mas uno, o sea
(163)
E r (τ 1 ) = E m + 1
y como además debe ser
(164)
E T = E c (τ 1 ) + E r (τ 1 ) = E c (τ 1 ) + E m + 1
por lo que (162) queda en la forma
(165)
ln (E r (τ 1 ) ) = ln (E m + 1 ) = ln( E c (τ 1 ) + E m + 1 ) − b .τ 1
Esto implica que si antes de que transcurra un tiempo τ2-τ1, contando a partir de τ2,
se detecta un error, figura 55, entonces no es valida la hipótesis, y es necesario volver a
reformularla haciendo el mismo planteo. Por el contrario, si transcurrido ese lapso no se detecta
ningún error se puede tomar como valida la hipótesis, y por tanto aceptar que el programa tiene
la cantidad de errores residuales establecidas en la meta.
El modelo será valido en tanto sus dos parámetros, a y b, tengan poca fluctuación, lo
cual no ocurrirá si se generan mas errores que los que se corrigen. Puede ocurrir también que
no se halle ningún nuevo error por más que se aumente el tiempo de ejecución, en cuyo caso
se deberá:
• buscar otros caminos de flujo, caminos que no han sido recorridos antes
• dar por terminada la depuración si superado un cierto tiempo no se hallan nuevos
errores
Si bien el modelo no permite asegurar con certitud que el programa este exento de
errores, si se formula la hipótesis de que el programa tiene al momento τ1 dos errores, el
tiempo necesario para detectar uno de ellos será
⎛ 1 ⎞
ln ⎜ ⎟
τ − τ = ⎝ 2 ⎠ .τ
2 1
⎛
ln ⎜⎜
2 ⎞
⎟⎟
1
(169)
⎝ E c (τ 1 ) + 2 ⎠
de modo que si transcurrido ese tiempo no se halla ningún error, entonces se puede concluir
que el programa o bien esta libre de errores, o a lo sumo tiene uno.
151
152 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad
Fijar X
M1
Poner B en 0
Ejecutar A Incrementar B
M2 B=X?
No
Si M1
X=0 X=1 X=2 X=3
a) b) c) d) e)
Fig.56 Fig.57
En ciertos casos resulta conveniente agregar sentencias para el control a lo largo del
programa, por ejemplo produciendo mensajes que permitan visualizar valores de interés o
estados de registros, los cuales se sabe deben responder a cierto patrón. Como método general
es poco eficaz, dado que solo permite saber en que parte del programa se observo por primera
vez el error, pero no donde este se genero, lo cual obliga a hacer un rastreo hacia atrás para ver
donde difiere lo esperado de lo ejecutado.
Los métodos más eficientes se basan en el análisis de los síntomas. Esto llevará a
formular hipótesis de posibles causas, las cuales por medio de pruebas sucesivas se irán
descartando hasta descubrir el error.
152
Mantenibilidad
La persona inteligente resuelve los problemas
La sabia los evita
EINSTEIN
En la especificación para el diseño del equipo debe estar definido si este debe ser
diseñado como reparable o desechable. El equipo se dice diseñado para la reparación si se
desarrollan acciones desde su definición de modo que en caso de falla pueda volverse
operativo en el menor tiempo y al menor costo. Los equipos son definidos como desechables
cuando su reparación resulta antieconómica, o su costo de reposición es bajo o del orden del
costo de reparación, o bien cuando es muy baja la probabilidad de éxito en la reparación.
La función de mantenibilidad en el diseño se ocupa de definir todos los aspectos
relacionados con la mantenibilidad de los equipos. Como la falla de los distintos elementos
tiene carácter aleatorio, los tiempos insumidos en la reparación tendrán el mismo carácter, y
deberán ser evaluados en forma probabilística. Es por ello que la mantenibilidad se define
como la probabilidad de que un equipo que entro en falla pueda ser reparado en un tiempo
dado, contando con recursos y procedimientos definidos. Esto último se relaciona con:
1. capacitación del personal
2. disponibilidad de repuestos
3. instrumental y bancos de prueba
4. documentación (manual de servicio).
La mantenibilidad de un equipo es una característica que queda definida en el diseño,
y depende de factores tales como la tasa de falla de los elementos, tipos de falla a los que están
sujetos, la serviciabilidad, accesibilidad, diagnosticabilidad y soportabilidad y de ayudas para
el mantenimiento. Estas ayudas pueden ir desde algo tan complejo como la incorporación de
sistemas de autodiagnóstico e inclusive capacidad de autoreparación, hasta algo tan simple
como ceñirse al estudio de facilidades o formas de montaje que permitan una rápida detección
y remoción de las partes en falla, especialmente de aquellas con alta frecuencia de falla.
Para evaluar la mantenibilidad usualmente se considera la condición más favorable, lo
que supone que se cuenta con todos los medios y capacitación suficiente, y por lo tanto solo
entran en consideración los aspectos propios del equipo, englobados en lo que se conoce como
su serviciabilidad. Con esta expresión se intenta medir la facilidad con que el equipo ha sido
pensado para su reparación.
El concepto probabilístico que existe en la definición anterior implica que los
resultados son solo aplicables a una población de equipos. Podrán aplicarse a un solo equipo
considerando para este todo el conjunto de fallas a las que puede estar sujeto en su vida útil.
La caracterización estadística permite definir un valor del tiempo esperado ( medio ) de
reparación, y del tiempo medio entre intervenciones.
Se debe diferenciar entre mantenibilidad y mantenimiento. La mantenibilidad es una
característica del equipo, mientras que el mantenimiento es una actividad desarrollada para
reponer en servicio un equipo, lo cual depende del sistema o estructura de mantenimiento.
El estudio de la mantenibilidad sirve para definir acciones que permitan aumentar la
fiabilidad y la disponibilidad, determinando las acciones de mantenimiento y procedimientos
en la etapa de diseño, facilidades para la serviciabilidad, las prevenciones para que la
reparación no lleve a fallas secundarias, y la definición de acciones preventivas que eviten la
entrada en falla. Es importante además prever la forma de no degradar la seguridad del equipo,
ni durante las tareas de mantenimiento, ni a posteriori. Esto indica que la seguridad,
característica que se mide la probabilidad de provocar daños a terceros o al propio equipo, debe
154
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
ser analizada no solo durante la operación normal del equipo, sino también en condición de
estado de falla o del proceso de mantenimiento.
Las acciones de mantenimiento pueden clasificarse en :
• Mantenimiento proactivo:
o Preventivo (recurrentes y programadas) :
Por inspección
Por recambio
Por recalibración y conservación
o Predictivo
Por verificación (recurrentes, programables )
Por alarma (recurrentes, no programables )
o Pasivo ( no recurrentes)
Mantenimiento reactivo (Forzosas, no programadas) :
Mantenimiento correctivo (recurrente)
o Mantenimiento curativo ( no recurrente )
Es de hacer notar que la mantenibilidad, como disciplina técnica, fue introducida
recién en 1954 por las fuerzas armadas de USA.
Mantenimiento proactivo
El mantenimiento proactivo se asienta en acciones de prevención o monitoreo,
realizadas con el fin de anticiparse a la aparición de las fallas. Estas acciones de mantenimiento
buscan minimizar costos y grado de afectación al servicio. Será en función de esto que podrá
decidirse su práctica. Si se hace práctica preventiva con recambio, ello disminuirá la tasa de
fallas de los componentes afectados según el riesgo admitido, es decir, según se decida el
momento del cambio. En caso contrario, estos componentes afectaran en mayor medida el
tiempo correctivo, y se tendrá sin duda un mayor tiempo de baja del equipo y mayor afectación
del servicio.
Las ventajas de un mantenimiento proactivo son:
• Mejorar la fiabilidad y/o disponibilidad. En otras palabras, la justificación del
mantenimiento proactivo es mantener la fiabilidad en todo momento por encima de un
cierto valor, o asegurar un valor predeterminado de disponibilidad.
• Evitar los perjuicios de una falla súbita a través del cambio periódico de partes
sometidas a desgastes de cualquier tipo, para evitar que el tiempo operativo no se vea
afectado. Basta para ello, realizar las tareas de mantenimiento preventivo en los
tiempos ociosos del equipo
• Eliminar o reducir el costo de inmovilización de repuestos, dado que estos pueden
adquirirse al momento de intervención, descontando las demoras previsibles para su
obtención.
Las acciones de mantenimiento proactivo pueden también clasificarse en:
• Activas
• Pasivas
Si bien ambas pueden ser definidas durante el desarrollo, las pasivas por lo general
serán recomendaciones a tener en cuenta para la instalación u operación, según el ambiente en
que deba operar el equipo o sistema. Normalmente, este será el caso cuando el equipo va a
funcionar en entornos muy distintos, algunos de ellos muy agresivos. Es decir, estas acciones
solo se ejecutaran cuando se verifiquen tales condiciones, lo cual evita que su costo sea
trasladado a todos los equipos, aun para aquellos que funcionan en ambientes muy benignos y
controlados.
154
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 155
Mantenimiento preventivo
Las tareas de mantenimiento preventivo activo son tareas que se realizan
periódicamente sobre los sistemas tendientes a prolongar el tiempo libre de falla. Estas
acciones están influenciadas por la etapa de diseño. En este mantenimiento existen varias
acciones principales, a saber:
- Reemplazo de elementos que presentan síntomas de desgaste, o aquellos cuya
probabilidad de fallas F(t) aumenta luego de transcurrido cierto tiempo. El
mantenimiento preventivo activo por reemplazo se aplica generalmente a las
actividades vinculadas con elementos mecánicos sujetos a desgaste o fatiga,
fundamentalmente si los elementos tienen partes móviles, o sufren ciclos térmicos.
- Conservación. Incluye todas las tareas de mantenimiento programadas para
conservar al sistema o producto en una determinada condición, tales como
lubricación o engrase de partes móviles, limpieza de filtros antipolvo, limpieza de
cabezales magnéticos, reformateado de discos rígidos, para evitar que un gran
desalineamiento acumulado impida la lectura de alguna posición, etc.
- Reajuste o recalibración para mantener el equipo dentro de su especificación,
previniendo fallas paramétricas
El mantenimiento preventivo por reemplazo se justifica cuando la función de densidad
de fallas f(t) asociada a una parte o elemento del equipo es de tipo normal y de muy poca
dispersión; en tal caso, adoptando un riesgo α, en función del mismo resultara un tiempo para
el reemplazo de dicho elemento, Tr, figura 1. Por este medio, el recambio previene o se
anticipa a la aparición de la falla.
f(t) λ( t )
α
Fig.1
t t
Tr
El tiempo para el reemplazo se estima admitiendo un riesgo de que la acción deba ser
correctiva, por presentarse la falla anticipadamente al momento previsto para hacer el
reemplazo. Este tiempo se definirá según el riesgo admitido, función de los perjuicios que
surjan de presentarse la falla imprevistamente, o bien prefijando otro criterio.
Un reemplazo anticipado lleva implícito que se desperdicia capacidad de uso de
aquellos componentes que entrarían tardíamente en falla, más allá del tiempo de recambio. Si
la dispersión es grande, entonces es mas conveniente monitorear periódicamente algún
parámetro X que sirva de indicio, figura 2, aplicándose en tal caso una acción de
mantenimiento predictivo.
comportamiento de un dado equipo
f(t)
X
valor limite
T monitoreo
155
156
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
t t t
Fig.3 Fig.4
Si por otra parte el componente tuviera una tasa de fallas decreciente con el tiempo,
figura 4, el mantenimiento preventivo seria contraproducente: en vez de aumentar, la fiabilidad
disminuiría. En otras palabras, tratándose de un equipo o de un sistema no redundante, para
que el mantenimiento preventivo tenga sentido debe darse una tasa de fallas creciente con el
tiempo.
Es decir, de las tres posibilidades: tasa de fallas decreciente, tasa de fallas constante y
tasa de fallas creciente, tratándose de equipos, solo en este ultimo caso tiene sentido el
mantenimiento preventivo.
Esto establece una diferencia entre los equipos electrónicos, cuyos componentes
básicamente responden a fallas de tipo aleatorio, con respecto a los mecánicos, en los cuales
domina la falla por desgaste. En los equipos electrónicos el mantenimiento preventivo
normalmente no solo no aporta ventaja alguna, sino que llevaría a desperdiciar gran parte de la
vida útil de los componentes, agregando el costo de la acción preventiva, y además se correría
el riesgo de empeorar la fiabilidad debido a sobrecargas accidentales como consecuencia de la
intervención, figura 5. Este desmejoramiento de la fiabilidad ocurrirá siempre que exista la
probabilidad de que la acción de mantenimiento preventivo sea imperfecta, ocasionando daño
en algún elemento del equipo, figura 6. Esto se traduciría en un salto, discontinuidad, en la
función de fiabilidad al momento de la intervención. Es decir, se supone que al momento de la
intervención el equipo esta en funcionamiento y que podría continuar en ese estado de no
intervenirse, mientras que con la intervención existe la posibilidad de provocar su falla.
R(t)
R(t)
Desmejoramiento
de la fiabilidad
Desmejoramiento
de la fiabilidad
t
t
intervenciones intervenciones
Fig.5 Fig.6
La duración de las acciones del mantenimiento preventivo, por ser tareas concretas
conocidas, tienen un carácter determinístico, sujetas a mínima fluctuación. Dado que pueden
desarrollarse distintas acciones en distintos momentos, pero con frecuencia conocida, es
posible hablar también de un valor medio, aunque en este caso no se da el carácter
probabilístico, ya que se evalúan acciones programadas con mínima fluctuación de los
tiempos.
156
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 157
Fig.7 Fig.8
La acción de mantenimiento preventivo determina una nueva función de densidad de
fallas, dado que los componentes solo son susceptibles de fallo dentro del intervalo [0, TM] que
sigue a un reemplazo, figura 9a. Entonces, definiendo una función f1(t), figura 9b, con
existencia solo en el intervalo en que son usados los componentes,
f 1 (t ) = f (t ) 0 ≤ t ≤ TM
(1)
f 1 (t ) = 0 t > TM
en base a la misma se puede obtener la nueva función de densidad de fallas, fp(t), para
cualquier instante t>TM. Igualmente, la función de fiabilidad obtenida en base a f(t) solo es
aplicable en el intervalo de validez de la función de densidad, Ro(t), figura 10b.
Aceptando que solo se consideran fallas las de tipo catastrófico, lo que excluye los
cambios preventivos de elementos, el análisis de fiabilidad puede realizarse de dos modos:
• a partir de cada intervención (sea esta preventiva o correctiva), para la que se
supone t=0 y restringiendo dicho cálculo hasta el instante de la primer
intervención preventiva, o sea para tiempos t que verifican 0 ≤ t ≤TM.
• a partir de cualquier intervención, o desde la primer puesta en marcha, sin
restricción alguna de tiempo, o sea para todo t>0
a) Fig.9 b)
a) b)
Fig.10
157
158
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
y, dentro de cualquier intervalo (kTM, (k +1) TM), calculado a partir de una intervención, la
función de densidad de fallas será una replica de la densidad de fallas entre 0 y TM
El segundo caso supone que la intervención preventiva es transparente al usuario, o
cuando menos sin consecuencias catastróficas. Se trata, bajo este supuesto, de calcular la
fiabilidad para cualquier instante t a partir de la primera puesta en marcha o desde cualquier
intervención.
Si R(TM) es la probabilidad de que no falle durante un intervalo cualquiera (0,TM ),
evaluado a partir de una intervención, entonces la probabilidad de que siga en funcionamiento
en un instante t cualquiera posterior,
t = k.T + t para 0 < t ≤ T (3)
M m m M
estará dada por la probabilidad de que haya funcionado desde el instante t=0 hasta el instante
t= kTM, y que no se produzca un fallo catastrofico en el intervalo k.TM < t ≤ k.TM + t m. Dado
que la fiabilidad para el intervalo (0,TM ) es R(TM), entonces, la probabilidad de que no haya
fallado en ninguno de los k intervalos previos estará dada por, figura 11,
R ( k .T M ) = [R ( T M ) ]
k
(4)
A su vez es
tm
R (t m ) = 1 − F (t m ) = 1 − ∫
0
f 1 ( t ). dt (5)
de modo que
R ( t ) = R ( kT + t m ) = R ( k .T M ). R ( t m ) = [R ( T M ) ] . R o ( t − kT
k
M M ) (6)
y la función de densidad fp(t) dentro del intervalo (kTM, (k+1) TM), estará dada por
= − [R ( T M ) ] . [R ( T M ) ]k . f 1 ( t
dF ( t ) dR ( t ) dR ( t )
(t ) = = − = − k .T M )
k
f p (7)
dt dt dt
R(t)
1
R(T ) R2(TM )
M R3(TM)
0 T 2T 3T t
M M M
Fig.11 Fig.12
Como R(TM) es menor a 1, Rk(TM) será decreciente con k y por tanto la función de
densidad tendrá una envuelta exponencial, figura 12. Esto justifica que a pesar de que la tasa
de fallas de los elementos sea creciente con el tiempo, si media este tipo de mantenimiento, se
pueda aplicar el modelo exponencial.
La tasa de fallas dentro de cada intervalo necesariamente debe repetirse, originando
una función periódica, figura 13, de modo que si la variación de λ(t) con el tiempo no es
grande, se puede asimilar a una tasa de fallas constante. Visto de otra manera: sobre No
158
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 159
Fig.13 Fig.14
La frecuencia conque se deben practicar las intervenciones preventivas se determina
en función de metas de:
• máximo riesgo de falla (ó meta de fiabilidad )
• metas de tiempo medio entre fallas
• tiempo medio entre mantenimientos
• disponibilidad
• mínimo costo de mantenimiento
El primer caso es el más simple de analizar. Si f(t) es la función de densidad de fallas,
el tiempo para la intervención se definirá para la condición de riesgo impuesta,
TM
∫
0
f ( t ). dt = α = 1 − R ( T M ) (10)
tal como indica la figura 15, y según ello variará la fiabilidad R(TM) , como se indica en la
figura 16, y mejora a medida que se reduce TM. Normalmente, el riesgo esta acotado cuando los
requerimientos de seguridad son mandatarios.
f(t)
t/TMEFc
Fig.15 Fig.16
159
160
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
R(t)
T t
Fig.17 Fig.18
Pero, la mejora del tiempo medio entre fallas catastróficas es a costa de una
disminución del tiempo entre intervenciones preventivas, TM, de modo que si estas no fueran
transparentes al uso, su aplicación sería indeseable. Importa por tanto, no solo que las fallas
catastróficas sean mínimas, sino que además la frecuencia de intervención preventiva sea
compatible con el uso, asegurando mínima interrupción del servicio. Esto es especialmente
importante cuando las fallas se extienden sobre un amplio rango de tiempos, como es el caso
indicado en la figura 15.
Si se evalúa la disponibilidad en función de la relación entre TM y el tiempo medio
entre fallas sin mantenibilidad preventiva, TMEFc, se encuentra que hay un valor de TM
óptimo, que maximiza la disponibilidad. Este valor, como se aprecia en la figura 17, depende
de la relación entre los tiempos medios involucrados en ambas reparaciones, tc/tp; si ambos
fueran iguales, la mejor disponibilidad se obtiene en ausencia de mantenimiento preventivo,
dado que, en tal caso, la mantenibilidad preventiva no aporta ventaja alguna desde el punto de
vista de la disponibilidad.
El tiempo entre intervenciones preventivas también puede ser determinado buscando
mínimo costo de mantenimiento durante el tiempo de vida útil del equipo.
R p (t ) = [R (T ) ] .(1 − p ) k .R (t − kT )
k
para kT < t < ( k + 1).T (12)
En este caso aparece un compromiso entre la mejora que se produce con cada
intervención al reemplazar componentes sujetos a desgaste, y la degradación que resulta de una
intervención imperfecta. Esto nos lleva a suponer que existirá un intervalo para la intervención
óptima, que dependerá de p y de la ley de variación de la tasa de fallas con el tiempo. La
expresión (12 ) indica, justamente, que después de cada intervención se pasa a tener menos
fiabilidad que la se tendría si no se hubiera intervenido; solo se mejora la fiabilidad en el largo
plazo, dado que a partir de T se tiene una menor pendiente para R(t), figura 18. Con bajos
valores de T podría incluso resultar siempre un empeoramiento de la fiabilidad.
160
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 161
α1 α2
t=H
Emin Emax E
H t
Fig.19 Fig.20
del forzador
de carga temperatura
filtro sucio
valor limite de alarma
∆p filtro limpio
Qm Q2 Q1 caudal Tp t
Fig.21 Fig.22
1
Véase pagina 224
161
162
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
Mantenimiento predictivo
El mantenimiento preventivo con reemplazo periódico de partes solo puede basarse en
el tiempo calendario cuando se trata de equipos sujetos a uso continuo, o a un uso regular de
por ejemplo X horas por día, y los equipos están además siempre sometidos a la misma carga.
También, cuando el envejecimiento ocurra por el simple transcurso del tiempo (caso de
engrases, lubricaciones, etc). Si este no es el caso, es conveniente monitorear alguna variable
ligada al uso ( por ejemplo los Km en un automóvil ), o de una forma menos precisa, basarse
en consideraciones de media, en función del modo típico de uso. Pero aun en estos casos, el
desgaste puede ser muy diferente según sea la exigencia de carga del elemento, carga que a su
vez puede tener carácter aleatorio. La alternativa en este caso es recurrir a una inspección para
el control de estado, en base a la cual predecir el momento de la inspección siguiente, o la
futura acción de recambio del elemento.
Este tipo de situación se da también cuando el tiempo para la falla tiene una
dispersión muy grande, figura 23, y es además posible monitorear alguna característica
relacionada con la falla, de modo que la acción de mantenimiento sea consecuencia de una
verificación basada en el estado del propio elemento, y no algo que surge solo como
consecuencia del transcurso del tiempo.
Cuando el costo de control es bajo frente al costo del recambio, una opción es hacer
monitoreos periódicos, con tiempo entre controles basados en el desgaste previo. Otra opción
es agregar sensores para monitorear un parámetro del sistema altamente correlacionado con la
aparición de la falla, basándose en lo que se denomina análisis de firma. Estos sistemas se
fundamentan en el hecho de que en su funcionamiento normal los equipos tienen un diagrama
particular de ruido, de vibración, de temperatura, de presión, de irradiación, etc., el cual se
altera con el desgaste. Las dos variables mas usadas para este fin se basan en el análisis del
comportamiento térmico o en el vibratorio; el primer caso básicamente orientado a
componentes eléctricos y el segundo a componentes mecánicos.
x1(t) x2(t)
f(t)
nivel de falla
x(t) f(t)
f(t)
T
nivel de alarma
t
TM tr1 tf1 tr2 tf2 t
Fig.23 Fig.24
El aprovechamiento del análisis térmico para detectar signos de inminente falla se
debe a que la mayoría de los componentes tienden a recalentarse a medida que sus propiedades
se deterioran.
Con mantenimiento preventivo los elementos deberían ser cambiados al cabo del
tiempo TM, figura 24, mientras que el predictivo permite extender el uso hasta un instante de
recambio tr definido por un nivel de alerta, cercano al limite de la capacidad de uso del
elemento, y podrá ser algo tan simple como la señalización del contenido de tinta de un
cartucho de impresora, o la indicación de estado bajo de una batería, etc. Cuando no sea
posible el monitoreo automático permanente, el instante del recambio resultara del análisis de
tendencias, en base a registros históricos. A pesar de que el momento de intervención no puede
ser programado, es igualmente importante debido a :
• Razones de seguridad ( la falla puede acarrear graves consecuencias )
• Exigencias de una mayor disponibilidad
• Razones económicas, para un mejor aprovechamiento de los elementos, o
por el beneficio que aporta una mayor disponibilidad
162
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 163
Mantenimiento pasivo
El mantenimiento preventivo pasivo incluye todas las acciones destinadas a proteger
al equipo de su entorno. Es pasivo porque no se interviene sobre el equipo. La finalidad es
reducir o evitar sobrecargas mediante la incorporación de protectores frente a transitorios de la
alimentación primaria ( red eléctrica ) o para evitar cortocircuitos o sobrecargas. Lo primero
haciendo un filtrando en las líneas de entrada al equipo para evitar los efectos de ruidos o
sobretensiones de tensión, figura 25, bajo el supuesto de que el propio equipo nos las incluya.
Equipo
ruido e interferencias externas
µP
Circuito bajo
Fig.25 Unidad
proteccion
independiente
linea
ruido e interferencias externas
Fig.26
Fig.27
Los transitorios de la fuente de alimentación son especialmente críticos en muchos
casos, y para ellos caben varias acciones:
• acondicionadores de línea, para aislar de un modo activo al equipo de su
fuente, figura 26
• disposición de supresores, destinados a absorber sobrepicos, figura 27
• empleo de fuentes ininterrumpidas (UPS) con las cuales se aísla totalmente
al equipo de la línea, y se asegura su alimentación aun frente a una caída
transitoria de la tensión de línea
Algunos sistemas disponen de protecciones de forma que una sobrecarga
momentánea no produce la interrupción definitiva del servicio, solo temporaria. Para estas
condiciones hay distintos tipos de tratamientos:
• el equipo se protege mientras dura la sobrecarga, restituyéndose la operación
tan pronto desaparece esta
• el equipo realiza un número de intentos de reconexión automática en forma
periódica, y solo superado cierto numero pasa a condición de falla
definitiva.
Otra acción de mantenimiento preventivo pasivo especialmente importante se da para
evitar las consecuencias que resultan del ciclado de encendido-apagado de equipos que
manejan mucha disipación y están sujetos a fatiga térmica. El ciclado térmico que resulta de
encender y apagar un equipo es en muchos casos el que determina el número de ciclos de fatiga
térmica que sufre el equipo. Las tres maneras de solucionar esto son:
• mantener el equipo siempre encendido, o reducir al máximo las conexiones y
desconexiones
• mantener el equipo en una condición intermedia que asegure un menor salto
de temperatura, manteniéndolo en un estado de preparado o listo para operar
• demorar la activación para producir el calentamiento de un modo suave
163
164
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
Mantenimiento curativo
Sobre la primera serie de equipos que es lanzada al mercado es necesario hacer un
seguimiento especial de las primeras fallas que se presentan. Esto implica que, frente a la
primera falla de cada componente se debe desencadenar una acción de análisis previo a
cualquier acción correctiva, cuyo propósito es determinar si corresponde una acción de
mantenimiento normal, requiriéndose tan solo una acción correctiva, o si es necesario
introducir acciones curativas. Serán necesarias acciones de tipo curativo cuando:
• las fallas escapan a las predicciones basadas en el modelo ( se concentran en
uno o pocos elementos, y ocurren en una cantidad superior a la esperada )
• la falla tiene suficiente relevancia para ser critica, afectando la seguridad
• las fallas son consecuencia de error humano, pero susceptibles de ser
evitadas por rediseño
• la falla es causada por otros equipos, o condiciones de entorno que escapan
a las especificadas o previstas en el diseño
Las acciones curativas buscan generar cambios en el diseño para evitar la repetición
de fallas que responden a las características anteriores.
Cuando existan discrepancias entre las condiciones de campo y los resultados
obtenidos en pruebas de laboratorio, será necesario realizar análisis con la finalidad de
explicar tales resultados contradictorios, buscando saber si se trata de:
• inadecuada definición del producto
• debilidad o defectos en los componentes
• errores de diseño
• problemas de manufactura
y por otro lado, determinar la relevancia de la falla, de modo que, según sea su gravedad se
proceda a:
• retirar el producto del mercado,
• hacer un llamado para un pronto cambio,
• producir una instrucción de cambio con la primer entrada en servicio del
producto, sea por este u otro causal
Si la causa es debilidad de los componentes causada por una partida con alto índice
de defectos, la acción curativa quedara restringida a todos los equipos que fueron montados
con esos componentes, para lo cual sirve la trazabilidad.
Mantenimiento correctivo
Se distinguen dos tipos de mantenimiento correctivo:
• Mantenimiento primario. Se trata en el menor tiempo posible de remover una unidad
o modulo que contiene el elemento fallado y reemplazarla por otra, sin detenerse a
aislar el elemento especifico en falla, valiéndose para ello de indicadores de
diagnostico apropiados
• Mantenimiento secundario. Este mantenimiento sigue al mantenimiento primario. Se
realiza sobre los módulos que han sido removidos en el mantenimiento primario,
apoyándose en instrumental y un banco de prueba, y se ejecutan en un lugar alejado
del punto en que ocurrió la falla.
Estos conceptos de reparación se aplican sobre todo cuando se requiere alta
disponibilidad, y se fundamentan en que:
• es mas fácil reconocer un modulo en falla que el elemento que la provoca
164
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 165
Función de mantenibilidad
El tiempo de reparación dependerá del elemento bajo falla, y de factores tales como la
accesibilidad, facilidades para el diagnostico, habilidad de los reparadores, etc. Como las fallas
son aleatorias, y es diferente el tiempo de reparación involucrado en cada componente, los
tiempos necesarios para volver el equipo operativo serán también aleatorios. Supongamos un
conjunto No de equipos con fallas diversas, y que la cantidad de equipos reparados al cabo del
tiempo t sea Nr(t), entonces, la mantenibilidad al tiempo t estará dada por
N (t )
M (t ) = r
(15)
N o
∆ N r ( t ) = µ .( t ). ( N o − N r ( t ) ).∆ t (16)
o también
∆ N r (t ) (N − N (t ) )
= µ ( t ). o r
.∆ t (17)
N o N o
siendo µ(t) la tasa de mantenibilidad. Operando sobre la expresión (17) se obtiene
dM ( t )
= µ ( t ). dt
1 − M (t ) (18)
e integrando, bajo la condición de que en t=0 no hay ningún equipo reparado, y por tanto
M(0)=0, se obtiene
M (t ) t
dM ( t )
∫0 1 − M ( t ) = ∫0 µ ( t ). dt (19)
de modo que
t
∫
− µ ( t ). dt
M (t ) = 1 − e 0 (20)
con una función de densidad dada por
= µ ( t ). [1 − M ( t ) ]
dM ( t )
m (t ) = (21)
d (t )
siendo el tiempo medio de reparación
165
166
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
∞
TMR = E [ t ] = ∫ m ( t ). t .dt
0
(22)
Fig.28
t t t
Los modelos de mantenibilidad más usados son el normal, el exponencial y el log-
normal, figura 28, dependiendo de que:
1. Los tiempos están determinados por acciones comunes, como ser desarmado y
rearmado, con una leve fluctuación que depende del tipo de elemento ( ley normal )
2. La mayoría de las reparaciones demandan poco tiempo por disponer de un sistema de
diagnostico ( modelo exponencial )
3. Existan muchas tareas de mantenimiento que requieren mas tiempo que la media; es
decir, la mediana es mayor que la media ( modelo lognormal)
Disponibilidad
La disponibilidad ha sido definida por la probabilidad de que un equipo se encuentre
operando, o en capacidad de operar, en un instante de tiempo t cualquiera partiendo de una
condición inicial prefijada, que puede ser de funcionamiento, o desde un estado de falla.
Mientras que la fiabilidad se preocupa por un funcionamiento continuo sin falla, y es
aplicable a equipos reparables y no reparables, la disponibilidad es una característica propia de
los equipos reparables. Para un equipo no reparable, la probabilidad de que en un instante t este
operativo dependerá únicamente de que no entre en falle; o sea que, en este caso, coincidirá la
disponibilidad con la fiabilidad.
166
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 167
fiabilidad esta dada por la probabilidad de que estando en el estado 1 se mantenga en ese
estado. Mientras que la disponibilidad esta dada por la probabilidad de que si en t=0 se
encuentra en el estado 1 se mantenga en ese estado, o bien de que si en algún momento entre 0
y t paso al estado 2, en el instante t se encuentre nuevamente en el estado 1; o bien de que si en
t=0 esta en el estado 2, en t este en el estado 1. Si las transiciones son a tasa constante, la
fiabilidad resultara del análisis del sistema de la figura 30, el cual lleva a
R (t ) = e − λt (23)
Para hallar la disponibilidad A(t) se necesita resolver el sistema de ecuaciones
diferenciales (ver página 125),
dP 1 ( t )
= − λ .P 1 + µ .P2 (24)
dt
dP (t )
2
= λ .P 1 − µ .P 2
dt (25)
sujeto a una condición inicial dada, por ejemplo que para t=0 el sistema se encuentra
funcionando, estado 1. En este sistema, la disponibilidad A(t) esta dada por la probabilidad de
que en t el sistema este en el estado 1, o sea por P1(t), vale decir
A ( t ) = P1 ( t ) (26)
Pero además, como debe ser
P (t ) + P (t ) = 1 (27)
1 2
queda finalmente
= − λ . A ( t ) + µ .[1 − A ( t ) ] = − ( λ + µ ). A ( t ) + µ
dA ( t ) (28)
dt
De esta expresión podemos hallar por un lado la disponibilidad de largo plazo,
sabiendo que en tal caso debe ser
dA ( t )
= 0
dt t→ ∞
(29)
de modo que reemplazando resulta
µ TMEF
D = A (∞ ) = =
λ + µ TMEF + TMR (30)
Fig.31
167
168
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
1 1 operativo
1 en reserva
1 1 operativo
1 en reserva λ λ
λ λ
µ µ
1 operativo 1 operativo estado 1 estado 3
1 en reparacion 2 1 en reparacion
2 estado 2
λ λ µ
µ 3 2 en reparacion 3 2 en reparacion
F iab ilid ad
µ/λ
µ/λ=
Fig.35 Fig.36
168
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 169
Fig.37 Fig.38
Fig.39 Fig.40
169
170
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
∑ n .λ .T
Numero total de fallas = (35)
i i
∑ n i . λ i .t i
(36)
Mc = TMR = n
∑ n i .λ i
n n n
o también
nc tc np tp
TMR = M =
n
∑ nc
+
n
∑ n
= p c .M c + p p .M p
(43)
p
170
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 171
donde TMEM (ó MTBM, mean time between maintenance ) es el tiempo medio entre acciones
de mantenimiento,
1 1
TMEM = = (46)
λ eq λc + λ p
siendo λc la tasa de fallas catastróficas, y
λ =
1 (47)
p
M p
171
172
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
Capacitación y experiencia
Se debe diferenciar entre capacitación, relacionado con un entrenamiento formal para
la realización de una tarea, y nivel de experiencia vinculado con la habilidad desarrollada en el
ejercicio de la misma. Ambos factores inciden en el tiempo de ejecución de las tareas.
Las tareas de capacitación son necesarias cuando el equipo a reparar presenta cierta
complejidad. Incluyen la realización de cursos formales y de entrenamiento para la realización
de las tareas de mantenimiento. La capacitación tiene por fin :
• Entender el funcionamiento del equipo
• Entender y manejar la documentación de mantenimiento
• Conocer cuales son las fallas mas frecuentes y aprender a resolverlas
• Saber llevar a cabo las acciones de mantenimiento preventivo
• Aprender a diagnosticar y reparar las fallas en general
y deberá apoyarse en un manual de capacitación para el mantenimiento. Este puede ser un
documento en papel, en formato electrónico, ser un casete de video, o estar ubicado en un sitio
de la web, e incluso puede estar contenido dentro del propio equipo.
El objetivo es alcanzar una efectividad inicial mínima, de modo de :
1) Minimizar la cantidad de personal necesario
2) Minimizar la cantidad de horas de mantenimiento empleadas
172
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 173
173
174
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
Serviciabilidad
La serviciabilidad evalúa la facilidad con que un equipo permite la reparación,
conciliando la ubicación de los componentes más propensos a falla para facilitar su
localización, el acceso, su remoción y recambio, con otros aspectos tales como su tamaño,
peso y forma, compatibilidad térmica, compatibilidad electromagnética, facilidad para el
ajuste, y razones ergonométricas. La serviciabilidad se ve ayudada con:
• Facilidad de acceso. Por ejemplo en el caso de la figura 41 resulta difícil acceder para
comprobar o reemplazar el componente B, que esta encajonado entre los elementos A y C.
También, una realización como la indicada en la figura 42a dificultaría la remoción y
reposición de los componentes
174
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 175
A C
B placa
a) b)
Fig.41 Fig.42
175
176
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad
Diagnosticabilidad
La diagnosticabilidad mide el conjunto de medios dispuestos en el equipo destinados
al pronto reconocimiento de los elementos en falla, de modo de aislarlos y corregirlos en el
menor tiempo posible. Cuando se la considera en el diseño, se habla de un diseño orientado a
la diagnosticabilidad.
Supongamos un equipo compuesto por N componentes dentro de los cuales se debe
aislar un componente en falla, y supongamos que todos tengan igual probabilidad de falla. Si
el método de prueba se basara en una comprobación secuencial, y cada comprobación
insumiera un tiempo To, el tiempo necesario en media estaría dado por
N
Tc 1 = .T o (51)
2
Si se instrumenta un método mediante el cual cada prueba permite aislar la falla a la
mitad de los componentes, entonces la cantidad de pruebas n quedaría reducida a
2n = N (52)
por lo que
log( N )
Tc 2 = .T o (53)
log( 2 )
resultando así una eficiencia en el método dada por
Tc log( 2) N
1
= .
TcN ) 2 2 (54)
log(
Cuando la falla se circunscribe a un componente que puede tener múltiples modos de
operación, el proceso no es tan directo. Cuando los estados que puede tomar son pocos, puede
ser de ayuda la incorporación de indicadores luminosos. Pero cuando son muchos, una de las
mejores aproximaciones a este requerimiento es el BIST (Built-in self-test), también
denominado BIT (built-in test). El BIST incorpora capacidad de verificación en el mismo
equipo, actualmente favorecido dada la mayor incorporación de software dentro de los equipos,
y la proliferación de dispositivos analógicos con interfaces de comunicación por buses, por
ejemplo el I2C, o por empleo de dispositivos boundary-scan. Estos sistemas son además
necesarios debido a que los defectos cada vez están mas ocultos (son más difíciles de detectar).
Algunos sistemas incluyen varios niveles de diagnosticabilidad, cada uno más complejo y
potente que el precedente.
Estimación de la mantenibilidad
Como un paso mas del diseño habrá que estimar la mantenibilidad, para comprobar
que se han alcanzado las metas propuestas, las que luego deberán verificarse sobre prototipos.
Para hacer la estimación del tiempo medio de reparación es útil confeccionar una planilla
como la indicada en la tabla I. Los tiempos de cada una de las tareas podrán basarse en
experiencias previas, u obtenerse de tablas de tiempos. En particular la MIL-HDBK-472
(Military Handbook: Maintainability Prediction ) provee una base de tiempos de reparación
estándar. El tiempo medio de reparación resultara de la aplicación de la expresión (34). Si el
TMR excediera el valor permitido, habrá que replantear la solución.
TABLA I
Modulo Tipo de Cantidad Tasa Tiempo medio ( hrs) λx
Elemento de de λxn TMRi TMR
en falla elementos falla Diagnos- Acceso Locali- reemplazo Ajuste Armado Verificación
tico zación
xn
n FIT
1 capacitor 15 40000 .0006 .01 .1 .03 .15 0 .08 .03 .4 .00024
Transistor 3 ... .... .... ... ....
.... .............. ...... ....
Σ λxnÆ Σ1 Σ λxTMRxnÆ Σ2
Tiempo medio de reparación (TMR) = Σ2/Σ1
176
Calidad
El problema de hacer correctamente las cosas de entrada
es que de ese modo nadie apreciaría cuan dificultoso fue
de "FORTUNES”
Todos los equipos o productos son diseñados para satisfacer una necesidad. En su
acepción más amplia, la calidad de un producto es la medida en que ese objetivo es logrado.
Esta evaluación engloba todas las características vinculadas con la aptitud para satisfacer dicha
necesidad, estén estas explicitadas o sean condiciones implícitas de uso. Las características se
consideran implícitas cuando, a pesar de no estar contempladas en la especificación,
igualmente deben cumplirse. Por ejemplo, puede no haber especificación alguna referida a
ralladuras o golpes, y ello no implica que las mismas sean aceptables.
El satisfacer las condiciones de uso esta vinculado a que el producto:
• sea bien definido
• este bien diseñado
• sea fabricando conforme
• tenga soporte para su uso
Las condiciones que debe cumplir el producto para satisfacer la necesidad se plasman
en un documento de definición de producto. El producto esta bien definido cuando la
especificación se corresponde con la satisfacción de la necesidad. Según Juran ( Juran y la
Calidad por el Diseño ) “el diseño de un producto es el proceso de definir las características
del producto para satisfacer las necesidades de los clientes”. Bajo este enfoque, es en la etapa
de definición de producto donde realmente se realiza el diseño, pues es donde se definen los
atributos y cualidades que va a tener el producto, y que el desarrollo simplemente debe atenerse
a cumplir. El PDD ( Product Definition Document ) es por ello el documento primario y mas
trascendente. Es claro que en la definición de producto pueden estar incluidas cosas
irrelevantes, y en cambio no estén contempladas otras características que determinan su aptitud
para satisfacer la necesidad, figura 1.
necesidad
desarrollo
manufactura Definicion
de
producto
Fig.1
Que un factor sea irrelevante o no dependerá del tipo de producto, pero considerarlo
así es siempre una prerrogativa del cliente. Por ejemplo, el color del gabinete puede ser
irrelevante en algunas aplicaciones, mientras que en otras será un factor tan decisivo que su
especificación se establece dando las coordenadas, con su tolerancia, en el diagrama cromático
del IEC. Las características y atributos que explícitamente no integran la especificación, ni son
características implícitas del producto, podrán ser considerados grados de libertad solo cuando
las mismas sean indiferentes bajo la perspectiva del cliente.
Si bien el PDD establece que características debe cumplir el producto, es en el
desarrollo donde estas se fijan, pudiendo o no ser concordantes con las establecidas en el PDD.
178 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
178
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 179
SQC
tiempo
M a rk etin g D ise ñ o M an u fa ctu ra
SPC SQC
Convencionalmente, más que la calidad, se evalúa la falta de calidad, medida por las
no conformidades. Esta evaluación se hace midiendo la cantidad de equipos no conformes en
proporción a los equipos evaluados. Esta medición, sin embargo, no es totalmente objetiva:
Sirve para indicar que proporción de equipos están defectuosos por no conformidad, pero no es
un buen indicador de la calidad del proceso, y sin duda del diseño. Puede ocurrir que con igual
porciento de equipos defectuosos la cantidad de defectos por equipo sea distinta, y claramente
en ambos la calidad es diferente. Esto lleva a considerar los dos siguientes índices de calidad:
• índice o tasa de defectos
• proporción de defectuosos o defectuosidad
donde, Cantidad total de defectos
tasa de defectos = (1)
Cantidad de equipos
defectuosidad = Cantidad de equipos defectuosos (2)
Cantidad de equipos
siendo común expresar dichos valores como porcentajes. La tasa de defectos es una medida de
la media de defectos o deméritos por unidad y suele indicarse por U,
n
∑ D i (3)
U = 1
n
donde Di es la cantidad de deméritos de la unidad i, y n es la cantidad de unidades evaluadas.
Por lo general es usada para evaluar la calidad de equipos complejos.
179
180 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Por otro lado, mientras algunos defectos suelen detectarse fácilmente, por simple
inspección visual o previo al momento del proceso, otros están mas ocultos y solo se
manifestarían en alguna etapa mas avanzada del proceso. Por lo general los defectos de tipo
mecánico caen en el primer grupo, y los eléctricos en el segundo. Esto lleva a clasificar los
defectos propios de los componentes electrónicos en:
• Mecánicos: vinculados a partes mecánicas. Normalmente son de fácil detección por
simple inspección, admitiéndose una tasa de defectos mayor, del orden de hasta 2,5 % o 5%.
• Eléctricos: vinculados a alguna característica eléctrica del producto. Son de difícil
detección temprana en el proceso, por lo cual se requiere baja tasa de defectos, al menos un
orden de veces menor a los de tipo mecánico, por ejemplo 0,25 % o aun menor. Actualmente
valores de 100 ppm o menos son comunes para muchos componentes electrónicos.
Calidad de proceso
Todo proceso esta sujeto a la influencia de múltiples factores aleatorios cuyos efectos
combinados producen un resultado también aleatorio, el cual queda caracterizado por la
función de distribución de la característica de interés. Estos factores pueden desdoblarse en:
• causas comunes, también denominadas aleatorias
• causas especiales o asignables, también denominados factores sistemáticos
Las causas comunes son debidas a múltiples factores: operarios, maquinas, materiales,
etc. Cada factor de por si tiene poca influencia, pero, cuando todos confluyen, sus efectos se
suman y dan lugar a una variación significativa. Estas variaciones pueden predecirse porque
tienen un nivel de variabilidad que permanece relativamente constante en el tiempo. Cuando
solo se manifiesta este tipo de causas se habla de un proceso bajo control. Las causas comunes
pueden considerarse inherentes al proceso, dado que al no ser fácilmente eliminables, son las
que determinaran su capacidad. Es decir, son causas comunes las que resultan una vez que
todas las causas especiales de variación fueron eliminadas. La variabilidad debida a causas
comunes, por ser consecuencia de muchos factores, dan lugar a una distribución de tipo
normal. Esta es condición necesaria para reconocer la existencia de solo causas comunes, pero
no suficiente, pues también la presencia de causas especiales puede llevar a una distribución
normal.
Las causas especiales, debidas a un operario, una maquina, o un proceso particular, se
manifiestan por cierto lapso de tiempo; su característica distintiva es que no es una causa
común a todas las unidades. Provienen además de un número limitado de causas, que producen
efectos importantes. Las causas sistemáticas pueden subdividirse entre:
• influencias sistemáticas predecibles
• factores de perturbación
Con esta subdivisión se busca que el control de variabilidad de proceso discrimine la
influencia debida a efectos perturbadores imprevisibles. No son predecibles cuando no son
regulares; es decir, cuando las causas aparecen y desaparecen en forma intermitente. En este
caso se dice que el proceso esta fuera de control. En cambio, las influencias sistemáticas
predecibles pueden surgir por análisis técnico del proceso, presencia de regularidades, de
observaciones empíricas, o bien observando los comportamientos a largo plazo.
Un proceso sujeto a factores aleatorios se dice estable cuando la media y la varianza
se mantienen constantes a lo largo del tiempo, o sea si
µ (t ) = µ o (4)
σ (t ) = σ o (5)
Esto corresponde al denominado modelo de proceso “A”, figura 3. Cuando permanece
constante la varianza del proceso, y la media tiene una variación aleatoria alrededor de una
180
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 181
media de largo plazo, siguiendo una distribución normal, esto define el modelo de proceso
“B”. Si la media estuviera sujeta a variaciones regulares, vale decir, con un comportamiento
que es predecible, esto corresponde al modelo de proceso “C”, figura 3.
Fig. 3
Se dice que un proceso esta bajo control cuando mantiene su distribución con el
tiempo, o esta cambia de un modo conocido o entre límites conocidos. El que un proceso este
bajo control no lo hace apto. Un proceso se dice apto cuando tiene capacidad para satisfacer los
requerimientos de calidad y esto implica que sus características se mantienen dentro de límites
prefijados, figura 4.
R e s u lta d o
P ro ce s o
Si Si S i (*) S i (*) S i (*) No No
c o n tro la d o
C a p a c id a d Si Si Si No No ? No
d e p ro c e s o
(*) S up on e c au s as s is tem a tic a s pred ec ible s
Fig. 4
La evaluación de capacidad busca determinar si un proceso es apto. Es obvio que solo
para un proceso bajo control tiene sentido el análisis de capacidad.
El que un proceso este bajo control solo requiere que se mantenga la varianza, pero
que tenga capacidad requiere además que los valores de sus características se mantengan
dentro de límites impuestos por la especificación.
Capacidad de Proceso
Usualmente la especificación impone un valor nominal para las distintas
características. Aunque el valor que resulta del proceso no coincida con el valor nominal
deseado para la característica, igualmente resulta admisible a condición de que el apartamiento
no supere ciertos límites, dentro de los cuales se considera que no hay degradación
significativa en el cumplimiento de la necesidad. Conocer este apartamiento es necesario para
el diseño del producto y para la determinación de métodos productivos aptos.
No deben confundirse los límites establecidos por la especificación con los límites
establecidos para el control de proceso. Obviamente, los límites del proceso deben caer
siempre dentro de los límites de la especificación. Determinar que esto sea así, es medir la
aptitud del proceso para satisfacer la especificación. Es decir, medir la capacidad de proceso es
evaluar si las etapas de diseño del producto y de procesos están en aptitud de cumplir la
especificación. Que un sistema sea estable no significa que sea apto, pero para que sea apto
necesariamente debe ser estable, y cumplir además con las exigencias del diseño.
181
182 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
X − E min (10)
C =
3σ
pl
y σ es una característica del proceso que debe ser determinada en base a los valores
observados, después de haber eliminado las causas especiales.
Este índice evalúa el proceso en relación al requerimiento especifico del producto,
considerando el limite mas comprometido de la especificación, figura 5, y supone un proceso
bajo control. La condición limite de Cpk=1, si bien corresponde a un proceso bajo control, se
debe considerar marginal, mientras que Cpk<1 resulta inaceptable, figura 6.
p(X)
p(X)
X Emax - X X Lmc - X X
X
Emax-Emin Emax-Emin
3σ 3σ
Fig.5 Fig.6
Considerando un proceso con comportamiento normal podemos suponer como muy
raro, prácticamente imposible, la aparición de un evento de valor X-En=4σ, (donde En es el
valor nominal especificado para la característica analizada), por lo que si el rango de la
especificación en relación a la dispersión (medida por σ) satisface ∆E=8σ, en tal caso el valor
de Cpk seria
∆E 8σ
Cpk = = = 1 . 33 (11)
6σ 6σ
Este valor suele tomarse como el limite de la condición marginal; es decir, Cpk > 1.33
es la condición a cumplir.
Es una tarea del proceso de optimización conseguir que las medias que resultan por
diseño y proceso coincidan con el valor nominal requerido, o sea
X = En (12)
lo cual implicaría nula variabilidad de la media. Esta condición es de difícil cumplimiento, por
182
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 183
lo cual, para tener en cuenta sus efectos se impone una exigencia mayor para la dispersión del
proceso, estrechándolo en un σ adicional por lado, lo cual implicara considerar 5σ a cada lado
para evaluar la capacidad de proceso, o lo que es igual, lograr una dispersión que satisfaga
∆E = 10. σ (13)
Otra forma de evaluar la aptitud de proceso, siempre bajo el supuesto de que las
variaciones siguen una distribución normal, es calculando el mínimo valor de la variable
normalizada z, definida como
⎛ E − X X − E ⎞
Z = min ⎜
⎜
max
, min ⎟
⎟
(14)
σ σ
min
⎝ ⎠
el cual difiere del valor dado por la expresión (7 ) solo en un factor de escala. Conociendo z,
se puede determinar la probabilidad de defectuosos.
La mayor dificultad se da en el arranque de los procesos por no contar con suficiente
población como para establecer una buena caracterización estadística, y porque además son
frecuentes las causas especiales que dan lugar a que el proceso sea inestable. En tal caso, en
vez del Cpk se trabaja con el Ppk. La diferencia entre ambos es que en este ultimo el desvío
estándar se iguala al desvío estándar muestral, considerando la media muestral que resulta de
los k subgrupos con n-1 elementos cada uno,
σ t = st =
1
k .n − 1
∑∑
k
i =1 j =1
n
(x ij − x )2 (15)
y por tanto, a diferencia de σ, en el que solo se contempla la variabilidad de proceso por causas
comunes, σt contempla la variabilidad total; es decir, siempre será
σt ≥σ (16)
Es decir, mientras σ mide la variación inherente al proceso una vez estabilizado, σt
mide la variación total del proceso. La perfomance del proceso en una fase preliminar de
manufactura se evalúa en base al índice Ppk
P = min( P , P ) (17)
pk pu pl
E − X
P pu =
max
(18)
3 .σ t
E min − X (19)
P pl =
3 .σ t
P pk min( P pu , P pl ) (20)
sirve como un indicador del desempeño efectivo de proceso, y por ello algunas regulaciones
técnicas establecen que cuando esa relación es mayor a 3 es necesaria una acción correctiva.
Para determinar los índices de capacidad de proceso Cp y Cpk se puede usar la función
de Matlab capable(data,espec), la cual además permite obtener la probabilidad de que del
proceso resulten muestras que estén fuera de los limites de la especificación. Esta función
supone que los valores medidos en data responden a una distribución normal, con valor medio
y varianza constantes, y son además estadísticamente independientes. El argumento espec es un
vector que determina los limites inferior y superior de la especificación. Además con la
función capaplot(data,espec) se ajusta los datos a una distribución normal, y se calcula la
probabilidad de que una nueva observación caiga dentro de los limites especificados en espec,
graficando la distribución y los limites de la especificación.
183
184 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Fig. 7
defectuosos o
o mp
mp tie
tie
defectuosos
Limite inferior de Limite superior de Limite inferior de Limite superior de
la especificacion la especificacion la especificacion la especificacion
Fig. 8
Existen dos métodos para evaluar la calidad de manufactura. Uno, conocido como
evaluación por atributos, solo busca saber si se esta o no dentro de la especificación. El otro,
conocido como evaluación por variables, busca conocer cuan cerca se esta del valor ideal; o
sea, determinar en que medida se aparta el producto de su especificación nominal.
La evaluación por atributos tiene la ventaja de ser rápida y simple, pero provee poca
información para el control y la mejora. Se utiliza en procesos no críticos, y se conocen como
controles del tipo pasa–no-pasa.
Los valores medidos en una evaluación por variables son tratados estadísticamente y
permiten saber si el proceso esta bajo control. Fundamentalmente se apunta a determinar si la
media y la varianza se mantienen constantes. Por proporcionar más información, la evaluación
por variables se utiliza siempre para componentes críticos, y para ajustar la primera serie de
producción. Esta es una etapa muy importante e imprescindible a los efectos de la validación
del diseño y su adecuación al proceso de producción. Cuando se hace esta caracterización se
deben descartar las causas especiales o asignables.
184
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 185
w
6σ w
distribuccion
limite de intervencion inferior normal
Fig. 9
1 2 3 4 5 6 7 6 8 9 10 11 12 13 14 15 16 1|7 18 19 20 21 22 23 24 25
t subgrupo
En el control por variables se evalúan dos parámetros: uno vinculado a la media y otro
a la varianza de la característica que se este controlando. En un control por atributos se evalúa
un único parámetro, la cantidad de defectos o defectuosos. Usualmente, en cada muestreo se
toman unidades consecutivas para evitar que entre ellas se manifieste alguna causa especial. La
representación de estos parámetros en función de los subgrupos, normalmente limitada a 25,
conforma la grafica de control, figura 9
Los limites son establecidos bajo el supuesto de que es valida la distribución normal;
es decir, supone que la diferencia entre el valor obtenido en cada muestreo con respecto al
valor nominal propio del proceso es una variable aleatoria que sigue una ley normal, y además
se acepta que la probabilidad de que resulten valores apartados en mas de 3 sigma es
despreciable, debido a que son evaluadas muy pocas muestras en cada muestreo.
Sea W un parámetro usado como medida de calidad, que resulta de combinar las
observaciones X realizadas en cada muestreo. En un control por variables, W estará relacionado
con la media o con la variabilidad de la característica X, o será un conteo de defectos, en un
control por atributos. Como W resulta de combinar los valores observados, dado el carácter
aleatorio de estos, W será por tanto una variable aleatoria. Suponiendo conocido el valor medio
de esta variable aleatoria, w , y su desvió estándar σ w , entonces, en el supuesto de que W
responde a una distribución normal, sus valores quedarán restringidos conforme al criterio de
los 3 sigma, y por lo tanto los limites de intervención estarán dados por
Limites de intervención de W = w ± 3 .σ w (21)
En un control por variables, σ w estará vinculado con el desvió estándar σ que resulta
del proceso para la variable X, (22)
σ w = A. σ
dependiendo A de la cantidad de muestras extraídas por cada subgrupo.
Si bien el criterio de las 3 sigmas se ha estandarizado, y se le considera un límite
natural, los límites de control pueden ser establecidos tomando un criterio distinto, por ejemplo
considerando un nivel de confianza del 99%, lo cual es usual en las primeras corridas de
producción. En tal caso los límites serán más estrechos.
185
186 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Fig.10 Fig.11
Optimización de procesos
Cuando un proceso se pone en marcha es necesario realizar sobre el mismo varios
análisis de capacidad, tendientes a su optimización, figura 12. Esta optimización se subdivide
en dos fases:
• Análisis de proceso previo al comienzo de la producción seriada
• Análisis de proceso en producción seriada
Arranque produccion seriada
tiempo
Analisis de proceso
Minimo 100 elementos. Para usar Todos los efectos deben haberse
Minimo 50 elementos
grafica de control se requieren al manifestado; ocurre despues de
menos 20 muestreos varios dias o semanas de produccion
186
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 187
6σ En
Fig.13
6σ
∆E ∆E
187
188 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Esto implica que mas que la capacidad de proceso, lo que se determina es el intervalo
de confianza dentro del cual se encuentra Cp , suponiendo especificado un nivel de confianza.
Si σ es la varianza de la distribución y n es el número de observaciones, entonces como el
valor de la varianza muestral s2 sigue una distribución χ2 con n-1 grados de libertad, es decir,
1/ 2
s ⎛ χ 2 ⎞ (26)
= ⎜⎜ ⎟⎟
σ ⎝ n −1 ⎠
de modo que considerando un nivel de confianza para la estimación (1-α), resultara para s/σ
un intervalo de confianza, figura 14.
Por caso, si se cuenta con n=50 observaciones, de la distribución χ2 con n-1 grados
de libertad y un nivel de confianza del 99%, el extremo inferior del intervalo de confianza
estará dado por
1 / 2
s ⎛ χ 2
(1 − α / 2 , n − 1 ) ⎞
= ⎜⎜ 1
⎟⎟ = 0.7457 (27)
σ 1 ⎝ n − 1 ⎠
y el extremo superior
1/ 2
s ⎛ χ 2
(1 − α / 2 , n − 1 ) ⎞
2 = ⎜⎜ 2
⎟⎟ = 1.2635 (28)
σ ⎝ n −1 ⎠
de modo que
~ ~ (29)
0 . 7457 * C p < C p < 1 . 2635 * C p
Esto indica que la evaluación de capacidad esta sujeta a cierta incerteza, y además
como en la evaluación de Cpk interviene la media muestral, la incerteza resultara aun mayor.
p(s/σ)
intervalo de
confianza
Fig.14 α/2 α/2
s/σ
Las evaluaciones de capacidad de proceso presuponen aptitud en los equipos usados
para la medición, es decir, que se cuenta con capacidad de medición. Esto supone que existen
adecuados procedimientos para la validación y el seguimiento del instrumental usado en las
observaciones, a fin de asegurar que su precisión, linealidad, estabilidad y repetibilidad se
mantienen dentro del error admitido. En otras palabras, la variabilidad observada resulta de
combinar dos efectos de variabilidad: los propios del proceso y los debidos al sistema de
medición, y ambos pueden estar sujetos tanto a causas comunes como especiales de variación.
La exigencia de capacidad de medición, en general se basa en la regla del 10%: los
errores de medición deben ser menores que el 10% de la tolerancia a medir. Es decir, la
capacidad del sistema de medición, Cmed, debiera verificar
∆E
C med = = 10 (30)
6 *σ m
188
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 189
L(x) Japon
Tolerancia especificada
USA
$ Valor deseado
Emin Xo Emax
Fig.15 Fig.16
189
190 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
p(X) p(X)
Fig.17 ∆E ∆E X
X
Podría pensarse que en la última posición, dejando de lado los costos visibles y los
desechos, bajo la óptica de la calidad se estaría en el mejor nivel posible, dado que se esta
cumpliendo estrictamente con la especificación, dado que asegura que todos los productos
cumplen la especificación. Bajo esta óptica el Cpk no seria un buen indicador. Esta ha sido la
postura tradicional de la industria occidental, en contraposición a la postura adoptada por la
industria japonesa. En esta postura, si bien la mayoría de los productos están mas cerca de la
meta, tiene la penalización de que algunos pocos pueden quedar fuera de especificación. Pero,
con otra mira, en la postura tradicional, habrá mas cantidad de productos alejados del
comportamiento ideal, y además, debido a los cambios que sobrevienen con el correr del
tiempo, seguramente ambas distribuciones iniciales tenderán a desparramarse, figura 18,
originando en el segundo caso mayores reclamos de falla.
p(X) p(X)
t=T
t=0
Fig.18
X X
∆E ∆E
t=0
Fig.19 to t Em ax-Em in X
Por el contrario, la postura japonesa supone que existe un valor ideal para la
especificación y que se debe trabajar en forma continua en el mejoramiento del producto,
actuando sobre el diseño, los componentes y procesos buscando acercarse a ese ideal, figura
20. Esto es visto como una postura filosófica, denominándose kaizen a este proceso de
mejora continua, el cual, por lo general acarrea:
• Un brusco incremento de defectos en el corto plazo debidos al cambio
• Una fuerte caída de defectos a largo plazo debidos a la mejora
σs p(X)
En
Fig.20 ∆E X
190
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 191
$ $
P (x)
En x
P o s tu ra tra d ic io n a l
∆Ε
x N u e v o c o n c e p to
∆Ε L (x)
$ $
Fig.21
x
En
La industria japonesa mantiene una postura opuesta: considera que el costo existe en
la medida en que haya apartamientos respecto a la condición ideal, solo que estos costos
pueden estar ocultos. Razonando así es que Taguchi propuso evaluar estos costos a través de
una función de perdidas, proponiendo que el costo dependiera del corrimiento respecto a la
condición ideal o meta del producto, m, condición para la cual el costo obviamente será nulo,
figura 22. Es decir, en esta postura, la función de densidad de probabilidad ideal debería ser
una delta de Dirac, figura 23, ubicada en el valor nominal de la especificación.
L (∆ X ) P (X )
δ(X )
∆Χ
∆Χ
∆ E
Fig.22 ∆ E Fig.23
191
192 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
∆2 (42)
y para k características
Ai
L = ∑ ∆ 2i
.ν i
2
(43)
Esta función es útil no solo para evaluar mejoras de proceso, sino también para
evaluar la necesidad de introducir cambios en el diseño.
Si bien por este medio es posible poner en evidencia costos visibles, la expresión
también es un buen medio para evaluar costos ocultos. Estos resultan de pérdidas en venta o de
mercado, tan pronto este percibe una opción para el producto con menor corrimiento respecto
al valor ideal.
192
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 193
por lo cual considerando una población n de equipos, para los mismos tendremos un valor
medio de pérdidas
1 n
L = E [L i ] = k .
n
2
∑ (xi − m )
2 (45)
= k .E [( X − m ) ]
1
con lo cual las pérdidas medias quedan expresadas en función de la varianza y del corrimiento
del valor medio. Para un lote de n unidades, se tendrá
[
L = k. s 2 + (x − m )2 ] (48)
En esta expresión se reconocen dos factores de pérdidas: la dispersión y el corrimiento
de la meta, y dado que ambos tienen el mismo peso, actuando solo sobre uno de ellos, el otro
queda como un limite para las pérdidas.
En ciertos casos puede que lo deseable para la meta sea un valor nulo. Este seria el
caso por ejemplo de la resistencia de contacto en un conector, en tal caso la función de pérdidas
tomaría la forma
[
L = k. s 2 − x
2
()]
(49)
o que la mejor condición del parámetro es el valor más alto posible. Este seria el caso, por
ejemplo, de la resistencia de aislamiento entre pines de un conector. Conviene en tal caso
trabajar con la característica inversa, para el ejemplo, con la conductancia en vez de la
resistencia.
Quizás la mayor debilidad de la función de pérdidas es que evalúa en forma conjunta
la dispersión y el corrimiento, cuando su reducción exige esfuerzos diferentes. Trabajar sobre
la dispersión requiere actuar sobre muchos factores, mientras que el corrimiento exige operar
con uno o un número muy reducido. Para el proceso de mejora, Taguchi propuso una
metodología, conocida como diseño robusto, que trata en forma independiente la variabilidad
y el corrimiento de la meta. Su idea es maximizar lo que el denomina relación señal a ruido,
entendiendo como señal al valor medio que resulta del proceso y como ruido la variabilidad.
193
194 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Diseño robusto
El diseño robusto busca reducir las pérdidas debidas a los apartamientos de la meta o
valor ideal de la característica. Básicamente podemos pensar que se dan tres tipos de factores
que contribuyen al apartamiento, denominados factores de ruido, a saber:
• Factores externos, que son factores ajenos al producto, tales como la temperatura, la
humedad, el polvo, vibración, errores humanos, etc
• Imperfecciones de manufactura, que provocan variaciones en los parámetros de unidad a
unidad, los cuales son inevitables en cualquier proceso de fabricación. Por ejemplo el valor
nominal de un resistor es de 10 kΩ, pero la medición de uno particular arroja 9.97kΩ
• Degradación de características con el uso, que hacen que si bien inicialmente el producto
esta en la meta con el tiempo se vaya apartando
El diseño robusto busca controlar estos factores de ruido, buscando determinar los
valores de diseño de tal modo de minimizar la sensibilidad a los mismos. Es en la etapa de
diseño donde deben ser considerados estos factores, tratando de establecer diagramas
circuitales y procesos de modo tal que sea posible minimizar los apartamientos respecto a la
meta y hacer que esto sea posible operando con altos valores de tolerancia para las variables
del proceso. En la concepción de Taguchi el proceso productivo puede verse como un bloque
que produce una respuesta (y ) cuando se encuentra sujeto a distintas señales ( s ) y factores de
ruido ( x ), figura 24.
Factores
x de ruido
s y
f(x,z,s)
Excitación respuesta para el
del usuario usuario
factores
Fig.24 de control z SR Factor de
escala
194
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 195
∆R R
σ = = t. n (52)
5 5
de modo que resistores de igual tolerancia ( t ) verifican el supuesto.
Supongamos ahora que como resultado del proceso se obtenga un valor medio dado
para y, y que m sea la meta a cumplir, siendo el factor de escala, en tal caso,
m
SR = (53)
y
que si suponemos es aplicado sobre la media se satisface la meta. En tal supuesto, se afectara
el desvío estándar, llevándolo a
m m
σ n = SR .σ = .σ = .s (54)
y y
Luego, dejando de lado el factor k, la función de pérdidas queda expresada por
⎡ ⎛ m ⎞
2 ⎤ 2
s
L = ⎢ ( 0 ) 2 + ⎜⎜ . s ⎟⎟ ⎥ = m 2
. (55)
⎢
⎣ ⎝ y ⎠ ⎥
⎦ (y ) 2
(56)
N s2
que mide la relación entre el valor medio de la señal, ( y ) 2 , y el ruido, s2, o variabilidad en las
características del producto.
2
es,
E max = m + ∆ E (59)
y en tal caso,
E max − X m + ∆E − X (60)
C = =
3 .σ x 3 .σ x
pk
que puede también ser normalizada con respecto al valor k.∆E2, sin pérdida de generalidad
alguna. Las figuras 25 y 26 muestran los valores del desvío estándar y del apartamiento de la
meta para distintos valores de Cpk y L. Puede observarse que mientras que la función de
pérdidas L da una buena indicación del apartamiento de la meta, o de la condición ideal, Cpk
no es un buen indicador en tal sentido.
195
196 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Fig.25 Fig. 26
En otras palabras, procesos con muy baja variabilidad, pero con gran apartamiento de
la meta, si se evalúan con la función de pérdidas deberían ser descartados, mientras que con el
Cpk pueden ser considerados como muy buenos. Es decir, si la variabilidad es una función de
densidad delta de Dirac, limite de la función gaussiana para σ→0, ubicada muy próxima al
valor extremo tolerado por la especificación, daría para Cpk un valor infinito, que es la mejor
figura de merito posible; mientras que evaluado el proceso en base a la función de pérdidas se
obtendría un valor muy alto, indicativo de un mal producto. En realidad, esto podría ser visto
así: Un producto con una característica como la indicada en la figura 27 sería indicativa de un
excelente proceso, y tendría un índice Cpk muy alto, teóricamente infinito; pero evaluada en
base a la función de pérdidas tendría un valor similar al de un producto que esta en el limite del
rechazo: bastaría con solo tomar un valor de ∆ suficientemente chico. Es decir, Cpk es un buen
indicador de proceso pero no de producto.
Es decir, se ve que el Cpk se puede aumentar tanto como se quiera actuando solo sobre
la variabilidad, mientras que en la función de pérdidas es necesario actuar sobre ambos
factores, la media y la variabilidad. Por otro lado, el valor de Cpk depende de la variabilidad
del proceso y del rango de la especificación, no así la función de pérdidas.
196
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 197
9σ (63)
C = = 1 .5
6σ
pk
p(X) p(X)
9 σ En 9 σ En
1.5 σ 1.5 σ 1.5 σ 1.5 σ
6 σ 6 σ
Fig.28 ∆E ∆E
Si bien la adopción de la meta de las seis sigmas implica reducir la variabilidad total
que pueden tener las características de un producto, y se acota la variación de la media, se
diferencia de la metodología de Taguchi en que en esta, mediante la función de pérdidas,
ambas resultan combinadas en un solo factor. Es decir, el método seis sigma sigue orientado a
capacidad de procesos, y puede verse simplemente como una propuesta que busca satisfacer
una mayor exigencia en la capacidad de proceso.
Cuando una empresa adopta esta iniciativa, lo que en realidad esta indicando no es
solo que su meta principal es dar plena satisfacción a sus clientes, sino que busca además
disminuir pérdidas innecesarias. Pero, un límite de 12 sigmas implica mayores esfuerzos en el
diseño y la manufactura, e instrumental de control acorde a la mayor resolución con que debe
medirse, mayores cuidados en la evaluación, y un gran esfuerzo dedicado a la mejora continua
para alcanzar las metas propuestas.
La meta de las seis sigmas presupone que la variabilidad del producto es susceptible
de mejoramiento mediante el cambio de algunos de los elementos o de los procesos. La
iniciativa no consiste simplemente en introducir una nueva meta, propone además una
metodología de trabajo para alcanzarla, basada en los cinco pasos siguientes:
1. Definir. Como primer paso se debe definir cuales son las características importantes
para el cliente, y los factores de los que dependen
2. Medir. Se deben instrumentar las mediciones y recolectar los datos
3. Analizar. Se busca convertir los datos en información, con la finalidad de obtener un
mayor conocimiento del producto y de los procesos: saber cuales son los factores de
mayor peso que son causa de problemas o defectos
4. Mejorar. Se desarrolla una solución al problema, introduciendo los cambios en el
producto o los procesos. Se evalúan luego los resultados de los cambios, y de juzgarse
necesario se proponen nuevos cambios
5. Controlar. Cuando el proceso esta conforme con el nivel deseado de un modo
predecible, el mismo es puesto bajo control y monitoreado para asegurar que no se
produzcan cambios inesperados.
Los cinco pasos seis sigma, comúnmente conocidos como DMAIC ( Define,
Measure, Analyze, Improve, Control ), parten del supuesto de que la mejora en la variabilidad
conlleva siempre, además de una mayor satisfacción del cliente, una mejora para la empresa.
Es decir, el objetivo es obtener el máximo mejoramiento con la mínima inversión, buscando
que los ahorros logrados mediante las mejoras superen el costo derivado de introducir dichas
mejoras. La idea es reevaluar el valor agregado de algunos elementos, mejorándolos,
cambiándolos o simplemente eliminándolos.
197
198 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Verificación de la calidad
El control de calidad es la actividad técnica y administrativa mediante la cual se miden
las características de calidad de un producto, comparándolas contra su especificación o los
requisitos establecidos, y su finalidad es tomar acciones apropiadas cuando exista una
discrepancia entre el funcionamiento efectivo y el esperado. En electrónica, dada la gran
cantidad de características de los componentes usados, la inspección deberá limitarse a
comprobar solo las especificaciones que sean relevantes para la aplicación, apuntando a:
• la corrección ( en control estadístico de procesos ) cuando las inspecciones se hacen
en línea con los procesos, ejecutándose en tiempo real,
• la aceptación o el rechazo ( en control estadístico de calidad ), cuando las
inspecciones se realizan sobre partidas o lotes, a la entrada o salida de procesos
El control de calidad busca primariamente detectar desvíos respecto a las metas, y
minimizar o eliminar toda posibilidad de despachar productos que no están conformes para el
uso. Para tal fin se realizan monitoreos ( control estadístico de proceso ) e inspecciones (control
del 100% o control estadístico de calidad ). Trabajar con métodos estadísticos para el control
implica aceptar un índice de defectuosidad no nulo. La única manera de obtener un 100% de
calidad es a través de inspecciones 100%, partiendo del supuesto de que sea posible una
inspección perfecta. Algunas empresas que realizan inspecciones del 100%, como un modo de
prevenir posibles errores, someten adicionalmente los productos a una inspección de muestreo,
como un control del método de control. La inspección 100% implica un aumento de costo muy
grande, pues, en vez de dividir el costo de la inspección de algunas muestras por el total del
lote, cada pieza carga con el total del costo de inspección, pudiendo en tal caso el costo de
inspección superar al costo de fabricación.
Si la inspección es manual, la inspección del 100% no es garantía del 100% de
calidad, y lo peor es que el error podría llevar a rechazar elementos buenos. Solo una
inspección automática puede garantizar un 100% de calidad, y su mayor beneficio resulta
cuando esta integrada al proceso productivo.
La inspección no debe verse exclusivamente como una tarea dedicada tan solo a
segregar las partes malas que resultan de un proceso. Las inspecciones pueden realizarse con
objetivos más amplios, a saber:
• asegurar que los requerimientos propios y del usuario están conformes
• asegurar que los productos o materiales no conformes que sean identificados en tal
estado:
o no puedan ser usados,
o solo puedan ser usados si media acuerdo con el cliente, recategorizandolos y
suministrándolos como elementos subestándar
o puedan usarse mediando una concesión del cliente
o sean retrabajados o reparados antes de ser liberados para el uso
o se puedan recuperar aquellas partes que permitan el reuso, dado su valor, si
se puede asegurar que su estado inicial se mantiene ( por ejemplo, un
dispositivo montado sobre un zócalo )
o sean retirados de uso si hubieran sido indebidamente despachados, como
medida de contención
• identificar y documentar las disconformidades, determinando la causa raíz que
permita definir las acciones correctivas/preventivas adecuadas
• servir de herramienta para la mejora continua de la calidad de proceso
El proceso productivo opera sobre los insumos de entrada siguiendo procedimientos
establecidos para obtener un producto de salida que responda al diseño, figura 29. Una vez
validados los dispositivos y procedimientos que definen la operación, se supone que estos
198
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 199
permanecerán estables, y por tanto en principio solo habrá causas comunes de variabilidad; la
salida de proceso resulta en tal caso mayormente dependiente de los insumos de entrada.
Admitiendo para los componentes de entrada cierto nivel de defectuosidad, esto tiene
consecuencias diversas:
• Obliga a llevar el diseño en base a metas de calidad
• Requiere que en el diseño se haga la selección de componentes y demás insumos
considerando el nivel de defectos con que es suministrado cada componente
• Obliga a que en alguna etapa ( en la entrada, durante el proceso, al final, o como
servicio de postventa) se deban eliminar los componentes defectuosos
• Acarrea la inmovilización temporaria de elementos buenos causada por los defectuosos
Insumos Producto
Proceso
Fig.29 Fig.30
199
200 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
aceptad
muestras Inspeccion
rechazados
Inspeccion
Fig.31
La inspección fuera de línea esta separada del proceso productivo, con un retardo
entre el proceso y el momento de la inspección. La mayoría de las inspecciones manuales
entran en esta categoría. Este tipo de inspección esta motivada porque:
• la capacidad del proceso esta bien dentro de la tolerancia de diseño
• hay un gran volumen de producción en un tiempo muy corto
• el proceso es estable y con bajo riesgo de sufrir causa asignables
• es alto el costo de inspección frente a la pérdida ocasionada por las partes defectuosas
La alternativa es una inspección en línea, la cual se hace a medida que las partes están
siendo fabricadas, y es por ello la que aporta mayor ventaja: permite variar el proceso y
corregir de inmediato los problemas de calidad.
Usualmente, en la inspección en línea /en proceso el proceso y la inspección son
simultaneas. Esto implica comprometer en la calidad al mismo operario. Cuando no son
posibles las inspecciones en línea /en proceso, o cuando no es posible el 100% de inspección,
la alternativa es la inspección en línea /post-proceso. En ese caso, la inspección se realiza en
forma inmediata al proceso. La desventaja es que la acción correctiva tiene un retardo: influirá
recién en los siguientes elementos que entran en proceso.
En la inspección en línea /post-proceso caben dos posiciones extremas:
• inspección distribuida, con varios puntos de inspección a lo largo de la línea
• inspección final, en la cual se controla solo el producto final
La primera opción permite identificar los problemas más tempranamente, e introducir
las acciones correctivas como respuesta. La manufactura electrónica requiere contar con un
sistema distribuido, pues aun siendo muy bajo el porcentaje de defectuosidad, como se trabaja
200
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 201
con una cantidad muy grande de componentes, potencialmente se tiene una alta cantidad de
defectos en cada proceso. En una plaqueta que lleva montados por ejemplo 100 elementos
puede haber varios miles de puntos de soldadura, por lo que aun siendo baja la defectuosidad
por soldadura, puede arrojar una elevada defectuosidad para la plaqueta.
Los procedimientos y el diagrama de flujo de proceso identificaran la inspección
requerida de materiales y elementos en cada paso del proceso. Los detalles del proceso y de
los procedimientos específicos usados en la manufactura deben ser guardados en la historia del
producto, a los efectos de poder identificar posibles problemas de campo con las condiciones
del proceso. Para el caso de productos OEM (original manufacture equipment ), el tiempo de
mantenimiento de estos registros, es normalmente acordado con los clientes.
Los productos ya manufacturados, aun estando el proceso bajo control, pueden tener
no conformidades, por lo cual es importante que solo puedan despacharse para su uso o
instalación aquellos productos que han completado la etapa de inspección, y resultan
conformes con lo establecido en el plan de calidad. Esta es la función de la inspección final,
en la cual se involucra la inspección y prueba del producto antes de su despacho al cliente. Esta
alternativa se apoya detrás del concepto de que es mas económico y efectivo realizar todas las
inspecciones en un solo lugar, en vez de tenerlas distribuidas sobre toda la planta, y además,
puede pensarse que ofrece una mayor protección al cliente por ser previa a la entrega del
producto.
Fig.32 Fig.33
La curva real, denominada curva de operación, se establece fijando los riesgos de
rechazar el lote, considerando que el nivel de defectos es superior a AQL cuando en realidad es
menor, o de aceptar el lote pensando que su nivel de defectos es menor a LTPD cuando en
realidad es mas alto. Estos riesgos han sido establecidos en las normas como un 5% ( α= 5% )
y 10% (β = 10 %), denominados riesgos de vendedor y comprador, respectivamente, figura 34.
Sea h(i,N,n,D) la probabilidad de hallar i defectuosos en un lote de N elementos que
contiene D=d.N defectuosos, y del cual se extraen y evalúan n muestras elegidas en forma
201
202 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
n=32
c=2
n=125
n=77 c=8
c=4
AQLa =AQL c
LTPDa = LTPD b
Fig.34 Fig.35
Fijado el valor de AQL, el plan debiera proveer el mismo nivel de discriminación, y
ser independiente de la cantidad de elementos que formen el lote, de modo que los resultados
puedan compararse entre si. Esto no ocurre si los planes se basaran en la inspección de un
porcentaje de la población. Por ejemplo, trabajando con dos proveedores, donde el principal
suministra el 80% y la segunda fuente el 20% restante, si se hiciese un control basándose en los
porcentajes de sus entregas, por ejemplo extrayendo un 10%, ambos controles tendrían curvas
de operación distintas, figura 35. El resultado es que el proveedor minoritario aparecería
favorecido, debido a que para igual nivel de defectos reales tendría menos rechazos,
induciendo a pensar equivocadamente que suministra con un mejor nivel de calidad.
202
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 203
Fig.36 Fig.37
Visto de otro modo, la curva de operación es poco sensible a N, tal como muestra la
figura 36, pero muy sensible a n y c, como muestra la figura 37.
Lo planes de muestreo se han normalizado, tomando como referencia la norma militar
STD-MIL-105E, como es el caso de las normas ANSI/ASQC Z1.4 y la ISO/DIS-2859.
Los distintos planes de muestreo difieren en la discriminación, relación LTPD/AQL,
y quedan totalmente caracterizados por su curva de operación; conociendo esta se puede
obtener la probabilidad de aceptación para cualquier nivel de defectuosos. Los planes son
diseñados para mantener la misma curva de operación, o bien proveer una dada discriminación.
Las inspecciones se dividen en dos grupos:
• Inspecciones especiales, que se aplican cuando no es posible el uso de las generales,
bien sea por escasez de recursos o de tiempo, y que por tal razón solo son de
aplicación excepcional, dado que proveen baja discriminación
• Inspecciones generales, que son de aplicación habitual, y en las cuales a su vez se
diferencian tres tipos de muestreo: riguroso, normal, y reducido.
A su vez, los indicios de calidad determinaran cual de los tres tipos de muestreo
siguientes conviene aplicar:
• Muestreo simple: la decisión se basa en los resultados de una única extracción
muestral,
• Muestreo doble: para llegar a la decisión puede ser necesario hacer hasta dos
extracciones de muestrales,
• Muestreo múltiple: a la decisión se puede llegar después de haber realizado varias
extracciones muestrales, tantas como nueve.
Decidir el plan mas adecuado resultara de consideraciones de riesgo y esfuerzo.
Cuando se tiene gran confianza en el proceso o el proveedor, en función de ensayos anteriores,
se recurre a ensayos reducidos. Lo contrario si hubiera desconfianza o falta de antecedentes. Lo
mismo es valido respecto a la selección entre ensayos de muestra única, doble, o múltiple.
Los planes de doble o de muestreo múltiple se emplean cuando existe gran confianza
de que el producto supera las especificaciones o una gran desconfianza de que las cumpla; su
utilidad se debe a que si el número de defectos se halla muy alejado de la especificación el
ensayo se abrevia; pero, la penalización es que si la calidad se acerca a la meta se hace mas
largo y por ende mas costoso que el plan de muestra única. Este resultado muestra la ventaja
de estar bastante por encima de la meta, dado que de ello resulta un menor esfuerzo de
verificación. El problema que se plantea entonces es como definir el nivel de defectuosos
admitido en el proceso de modo que el resultado de la primera muestra sea definitorio. Visto de
otra forma: conviene realizar esfuerzos en la mejora de proceso ( es un esfuerzo único ), en vez
de invertir permanentemente en esfuerzos de verificación.
203
204 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Concepto
Desarrollo de Diseño Prevención
Producto
Planificacion de la Aseguramiento
Fig. 38 producción de la calidad
Producción Corrección
204
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 205
Parte
Producto
Empresa
entrada salida
Transformacion ISO/TR 16949 Sectorial
Fig. 39 Fig.40
205
206 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Costos de Calidad
La falta de calidad se traduce en costos visibles y costos invisibles. Los costos visibles
se pueden clasificar en:
• Costos por fallas:
o Internos: originados en el proceso, que toman en cuenta los costos debidos a
desechos, retrabajos, controles adicionales, etc
o Externos: que ocurren después del proceso productivo, y en los cuales deben
considerarse los costos de garantía, servicio de atención al cliente, devoluciones,
contenciones, etc. Estos tienen mayor peso que los costos internos.
• Costos de prevención, que son inherentes a la estructura de calidad requerida para
reducir los costos anteriores, planeamiento de la calidad y desarrollo de proveedores
• Costos de evaluación, que son los que resultan de aquellas actividades destinadas a
evaluar componentes, proveedores, costos de homologación, validación, etc
$
definición Nivel en el cual
se detecta el beneficio
especificación defecto
desarrollo costo
Costos de
manufactura corrección
campo $
desarrollo de producto
arranque de
produccion
Fig41
Los costos invisibles resultan de la perdida de mercado, falta de aceptación y
desprestigio; estos son costos muy difíciles de evaluar.
La práctica de métodos preventivos para el aseguramiento de la calidad si bien se
traduce en mayores costos iniciales, estos se ven compensados por los beneficios posteriores,
figura 41, debido a elusión o reducción de costos que de otro modo aparecerían, a saber:
• costos de diseño, al eliminar costos de defectos debidos a errores del diseño
• costos de corridas de preproducción por estar mas cerca de la meta
• costos de interrupciones de proceso para la introducción de correcciones
• costos de imagen, al mejorar la percepción de calidad en relación a la competencia
Costo por defecto
100
Herramientas
de calidad FMEA SPC Causa Raiz
Desarrollo y Manufactura
planeamiento 10
Fig.42
Desarrollo Serie piloto Cliente
Un punto importante a tener en cuenta es que un error de diseño afecta a todas las
unidades, mientras que un problema de manufactura solo a unas pocas unidades. Este esquema,
viéndolo de otro modo, es planteado como la regla decimal, la cual sintéticamente expresa que
cambiar unas pocas líneas en la fase de diseño tiene un costo que se mide en monedas, pero se
206
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 207
incrementa notablemente si el mismo debe hacerse en la fase de producción, y peor aun si debe
hacerse cuando el producto esta en manos del usuario, figura 42.
Por mucho tiempo la calidad estuvo asociada al control, con un enfoque reactivo,
orientada básicamente a determinar los puntos de control y los limites de aceptabilidad del
proceso de manufactura. Actualmente se hace una evaluación global del costo de la calidad,
buscando determinar el sistema que lo minimice. Consideremos, por ejemplo, la conveniencia
de implementar un control de recepción. Este análisis debiera considerar:
1. Costos por inmovilización de materiales.
2. Diferencias de costo debidas a reparación en el campo y en la fábrica, cuando el
defecto no pueda ser detectado en fábrica; o costo inherente al nivel en que se detecta
la falla.
% Defectos
80
20% 100%
Defectos dominantes Grupos
Fig. 43
Fig.44
207
208 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad
Fig.45 Fig.46
Con los datos obtenidos de los ensayos, por regresión, se busca hallar la vinculación
de los diversos factores. Pero, a veces no es posible relacionar algunos efectos con una causa
específica; en tal caso se debe ver si estos tienen alguna vinculación con otra variable (no
necesariamente de causa-efecto), figura 45 y figura 46. Trabajando, con técnicas de diseño de
experimentos, DOE, es que se alcanzan diseños más robustos.
Recién cuando se conocen las relaciones causa-efecto y las covariaciones, se puede
decir que hay dominio tecnológico, dado que entonces se sabe que factores del proceso se
deben mantener bajo control, y cuales monitorear.
C a u s a s P rim a ria s
Fig.47 D e fe c to
208
Manufacturabilidad
En teoría, no hay diferencia entre la teoría y la práctica.
Pero en la práctica, si la hay
YOGI BERRA
$ /u n id a d
$ /u n id a d
Fig.1
tiempo tiempo tiempo
Entretenimiento Profesional Militar
tiempo
ciclo de vida
1960 1970 1980 1990 2000
Fig.2 Fig.3
210 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Sistemas de manufactura
El diseño deberá considerar el tipo de manufactura, diferenciando a cual de los tres
tipos básicos corresponde el producto que se va a desarrollar:
• producto único, el proyecto termina con la construcción
• por lotes, ( normalmente se produce a pedido, comercial o ventas empuja a
producción )
• producción continua, se usa JIT (just-in-time) (normalmente se produce conforme a un
plan; producción empuja a ventas)
ya que esto influirá entre otras cosas en :
• la selección de componentes
• el tratamiento de las tolerancias
• la adaptación de los procesos
Si se tratara de una producción continua, basada en el JIT ( JAT, Justo a tiempo ), es
necesario cumplir la denominada regla de los cinco ceros:
• cero defectos de los procesos ejecutados
• cero averías para procesos a ejecutar
• cero inventario, produciendo solo lo que se necesita
• cero demoras, a través de manufactura flexible y una rápida capacidad de respuesta
• cero burocracia por eliminación de funciones innecesarias
y su cumplimiento estará influenciado por el diseño de producto.
Cuando la producción es por lotes o continua, la misma se basa en un plan maestro,
denominado a veces MPS ( Master Production Schedule), el cual se apoya en un plan de
requerimiento de materiales, el MRP ( Material Requirement Plan ). En el MRP se combinan
inventarios, el listado de materiales emitido por ingeniería, conocido como BOM ( Bill of
Materials ) y el plan de producción. Es decir, el MRP identifica el tipo de componente y la
cantidad necesaria para la manufactura de un producto, el proveedor, los costos, existencias de
inventario y fechas en las que se deben realizar los pedidos de compra para satisfacer el
requerimiento de producción. Su meta es evitar demoras y bajar costos de fabricación. Esto
210
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 211
requiere que los sectores de Ingeniería, Compras, y Manufactura operen con una base de datos
unificada, parte integrante de un sistema de fabricación ayudado por computadora ( CIM),
figura 4. Para ello es importante la integración del sistema de CAD para hacer posible que la
etapa de diseño genere todos los archivos que requieren los distintos sectores: Ingeniería,
Compras, Manufactura y Servicio Postventa.
211
212 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Proceso 1 Proceso N
Materiales y componentes
Si Si Si
P1 C1 P2 C2 P3 C3
Determinacion del atributo para el diseño Producto
No No No terminado
Retrabajos
Proceso de diseño
Fig.5 Fig.6
212
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 213
213
214 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
E C
Fig.7 Fig.8
214
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 215
serigrafia
A
odo
an
o
od
cat
Fig.9 Fig.10
Fig.11 Fig.12
215
216 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
pasantes, y ello acarrea, además de un menor costo, mas espacio libre para otros componentes.
Por otro lado, si bien es posible contar con dispositivos SMD para elementos que por su
volumen en la tecnología convencional parecieran poco aptos para la nueva tecnología, su uso
se ve limitado debido a que su altura queda restringida por la longitud de los terminales de los
componentes de inserción, que no pueden sobresalir del filo de la plaqueta más de 2 mm.
Cuando se mezclan tecnologías se debe adecuar el proceso de soldadura a los tipos de
componentes. Esto muestra la ventaja de operar con un solo tipo de tecnología, y usar una sola
cara para el montaje de componentes, figura 12 y figura 13.
d i r e c c io n d e l a p l a c a
Fig.13 Fig.14
Cuando se colocan componentes en ambas caras, el proceso debe ser repetido sobre la
otra cara. Si los componentes SMT se colocan solo sobre la cara superior, se debe hacer una
soldadura por refusión, primero para los SMT, y luego soldadura por ola para los insertables.
El proceso de soldadura debe asegurar:
• Bajo castigo por choque térmico
• Buena conexión eléctrica
• Estar libre de defectos, sin residuos de soldadura ni cortocircuitos
No existe un método único de soldadura que sea óptimo para todos los encapsulados.
La soldadura por ola es adecuada cuando se tienen agujeros metalizados y componentes de
montaje superficial mezclados con componentes de inserción. Pero, la soldadura por ola no es
adecuada para la soldadura de integrados de montaje superficial, especialmente cuando se tiene
muy alta densidad de componentes de montaje superficial. En tales casos debe usarse soldadura
por refusión.
Para minimizar la cantidad de defectos de soldadura el diseño de los impresos debe
respetar distintas reglas, muchas de ellas dependientes del proceso de manufactura. Una de
estas reglas establece por ejemplo la orientación que deben tener los componentes según la
dirección del movimiento en el proceso de soldadura, figura 14. La regla exige que el mayor
eje de los componentes sea perpendicular a la dirección del movimiento, a fin de lograr que se
produzca la fusión simultánea en ambos contactos de la pastilla, y evitar que esta tienda a
levantar su otro extremo, impidiendo su soldadura, efecto conocido como defecto lápida.
216
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 217
Conceptualmente, el ajuste por software es siempre un ajuste por pasos, que se podrá
asimilar a un ajuste continuo solo si la magnitud de los pasos es muy baja. Su mayor ventaja es
que elimina la variabilidad debida al factor humano, y no esta sujeto a ninguno de los
problemas propios de los elementos de ajuste mecánicos: volumen, estabilidad, etc., y hace
posible además el ajuste a equipo cerrado. Para ello, se agregan puntos de acceso directo,
disponiendo pequeños agujeros en el chasis que permitan acceder a las líneas del bus de control
ubicadas en la placa de circuito impreso, o bien mediante acceso externo a través de un
conector. Su mayor desventaja es que limita la posibilidad de recalibración en campo.
Contrariamente a lo que podría pensarse, el ajuste manual no necesariamente lleva al
mejor cumplimiento de la especificación. Lograrlo, dependerá de que se reduzcan los errores
debidos:
• al elemento de ajuste
• al circuito y método de ajuste
• a limitaciones en el tiempo dedicado al ajuste
• precisión y exactitud de los instrumentos usados en la calibración
C C
R R1
e1
∆E
∆E x1 R2
R v
e2
Q x2
0 180 θ 0 180 θ
217
218 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Empastado
Colocacion Soldadura Verificacion
y Refusion
manual por ola funcional
Colocacion
Fig.19
218
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 219
Los circuitos impresos actuales y las tecnologías de encapsulado hacen que los
métodos tradicionales de prueba directa, basados en la cama de agujas, sean imposibles de
aplicar en plaquetas complejas. El mayor problema de los ICT es que exigen tener acceso a
todos los nodos. Esto, por variadas razones (tamaño de la placa, tipo de encapsulado de los
dispositivos, etc.), no siempre puede ser posible, lo cual reduce su efectividad. Por ello, y para
eliminar fallas definidas, se han desarrollado otras estrategias de testeo buscando además estar
mas en línea con el proceso, proveyendo un mejor control de los mismos y reduciendo los
retrabajos. Como complemento del ICT se recurre a la inspección óptica automática (AOI), o a
la inspección automática por rayos X (AXI), figura 20a, como ayuda en la captura de defectos.
El problema que presenta la testeabilidad AOI y la AXI es que, recurriendo a distintas fuentes
de aprovisionamiento, puede no mantenerse la geometría de los elementos.
a) Empastado Verificacion
AOI/AXI Colocacion Soldadura
y Refusion del circuito
manual por ola
Colocacion
Empastado
b) y Refusion AOI/AXI Colocacion Soldadura Verificacion Verificacion
manual por ola del circuito funcional
Colocacion
Fig.20
Fig.21
Cuando se requiere alta observabilidad con baja exigencia de accesibilidad se debe
recurrir a dispositivos integrados con boundary scan, lo cual debe ser considerado desde la
primera etapa del diseño. Con la exploración periférica (boundary scan) los dispositivos BScan
posibilitan la verificación externa de todo el dispositivo, reemplazando las agujas del ICT por
celdas BScan. Para ello los dispositivos Bscan agregan circuitos de testeo dentro del propio
componente, y lo que es mas importante, permiten el control de todos los dispositivos BScan a
través de un bus común de interfase especifico de 4 líneas, figura 21. La operación del testeo se
hace conforme a un protocolo de acceso establecido por el estándar IEEE 1149.1. Este define
unas pocas instrucciones públicas, con funcionalidad predefinida, y las demás son
instrucciones dedicadas (se denominan privadas) que permiten que el boundary scan haga el
testeo y la depuración especifica de cada dispositivo. La norma también define un lenguaje
descriptor, el BSDL, el cual, basándose en la descripción de los dispositivos BScan que sean
usados, facilita la implementación de la interfase de testeo del dispositivo con la placa.
219
220 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
220
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 221
Asignación de tolerancias
Todo equipo debe satisfacer un conjunto de especificaciones. Habiendo seleccionado
los circuitos, para los mismos se podrán establecer un conjunto de relaciones que vinculan las
características que debe cumplir con los valores de los distintos componentes
C i = f i ( x 1 , x 2 ......... x n ) (3)
Los cambios en los valores de los elementos se traducirán en una variación en el valor
de la característica
n
∂f i (4)
∆C i = ∑
i =1 ∂xi
.∆ x i
donde
Ci: es una característica que resulta impuesta por el circuito.
∆Ci: variación de la característica debida a la tolerancia de los componentes.
∆xi: indica la variación de un determinado componente, variación que esta relacionada
con su tolerancia ( apartamiento a su valor nominal ).
La derivada parcial ∂ f i ∂ x i es la sensibilidad de la especificación al componente Xi
y es dependiente del diseño, o sea, esta determinada por el circuito y el valor de los elementos
del circuito. Una definición de sensibilidad más apropiada, a los efectos de su tratamiento,
resulta de considerar los cambios relativos de la característica frente a un cambio relativo de
una variable, la cual será considerada más adelante1.
Vemos luego que la variabilidad de una característica es función de:
• el circuito, a través de la relación Ci=f(x1,…, xn)
• los grados de libertad disponibles para la determinación de los diversos elementos
• las variaciones ∆xi a las que están sujetos los componentes
El circuito seleccionado determinara la relación funcional que vincula la característica
con los valores de los elementos. Los grados de libertad surgen de la cantidad de ecuaciones o
inecuaciones independientes que deben ser satisfechos y el número de variables o elementos
independientes que pueden ser establecidos. Esto implica que muchos de estos elementos, si
hay grados de libertad, pueden ser elegidos de modo de minimizar algunos coeficientes de
sensibilidad. Esto hará más conveniente aquellas soluciones que provean un número mayor de
grados de libertad, por que esto permite:
1. si no hay una dependencia directa y simple entre una característica y un componente,
aprovechar los grados de libertad como para que resulte finalmente así
2. lograr mayor ortogonalidad entre las características, cuando estas dependen de
componentes comunes
y el proceso se llevara a cabo:
• Seleccionando primero los elementos mas caros y mas sensibles a la tolerancia
• Imponiendo coeficientes de sensibilidad bajos ( en base a los grados de libertad ) para
los componentes para los cuales es mas difícil de controlar o de mantener baja su
estabilidad, o bien porque son mas caros
La variabilidad de las características del circuito dependerá de la elección de
tolerancia de los componentes, el aprovechamiento de los grados de libertad en el diseño, de
que se incluyan componentes específicos de calibración, y del método de calibración.
Pero siempre, cualquiera sea el caso, la característica estará sujeta a una variación de
unidad a unidad de tipo aleatorio, con una función de distribución que tendera a la normal,
figura 24, suponiendo aplicables las condiciones del teorema del limite central. Esta dispersión
1
Ver pagina 229
221
222 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
se altera a lo largo del ciclo de vida del producto; para su análisis conviene descomponer la
tolerancia en varios factores:
∆X i = ∆X armado + ∆X var . op + ∆X tol . inicial + ∆X tiempo (5)
Esto muestra que, aun suponiendo que el producto entre en especificación en el
control final ( a la salida de fabrica, t=0 ), su condición puede ser marginal, por el poco margen
de variación que tolera por degradación, figura 25, y por cambios operativos.
p(X)
Dispersión debida a
tolerancia inicial
X
p(X)
p(C)
Dispersión despues
de proceso
Fig.24 Fig.25
222
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 223
En la soldadura manual, usada para aquellos componentes que no pueden ser soldados
en forma automática, se debiera evitar:
• posibilidad de soldadura fría, lo cual puede ocurrir cuando no esta bien balanceada la
potencia del soldador con las partes a soldar; en soldaduras recurrentes esto puede ocurrir
por insuficiente tiempo de recuperación de temperatura del soldador
• el choque térmico, el cual provoca cambios irreversibles de las características
• la corriente de fuga del soldador, que puede degradar severamente algunos componentes
Idealmente la temperatura de la punta debe estar 50ºC por encima de la temperatura de
fusión de la aleación, antes y durante la operación de soldadura, figura 26, para lograr una
soldadura instantánea, con bajo tiempo de soldadura, de 2 a 2.5 s; la situación indicada en la
figura 27 seria indeseable. Los fabricantes de componentes usualmente especifican la
temperatura máxima de soldadura, Tmax, en relación al tiempo de soldadura, tmax, figura 28.
Si bien existen varios métodos de soldadura automática, ninguno es óptimo para todos
los encapsulados. La soldadura por ola es adecuada cuando la placa tiene agujeros metalizados
y componentes de montaje superficial mezclados con componentes de inserción. Pero, en
general no es adecuada para la soldadura de integrados de montaje superficial, o para placas
con alta densidad de componentes de montaje superficial. Lo adecuado, en tal caso es usar
soldadura por refusión. Con soldadura automática, hay dos aspectos que deben cuidarse
especialmente:
• El ángulo determinado por el eje longitudinal del componente con respecto a la dirección
de transporte de la placa de circuito impreso. Esto evita defectos de soldadura o de rotura
(crack) por choque térmico. Si el encapsulado tiene patitas sobre los cuatro lados debe
montarse a 45º respecto a la dirección de transporte de la placa, y el eje longitudinal de
los dispositivos con encapsulados del tipo SO debiera quedar paralelo al flujo de la
soldadura.
• El perfil de variación de la temperatura con el tiempo, con etapas de precalentamiento
previo a la soldadura para reducir el choque térmico y el alabeo de la placa. Cada
componente tiene un perfil específico para cada tipo de soldadura, figura 29.
Fig.29
223
224 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Variaciones operativas
La variación ∆Xvar.op toma en cuenta las variables operativas tales como temperatura,
presión, humedad, tensión, etc., que resulten influyentes. La influencia de estas variables
operativas se mide a través de coeficientes específicos. Actualmente, la tensión no es un factor
a considerar en la mayoría de los casos, dada la facilidad y el bajo costo con que se
implementan reguladores de tensión, por lo cual mayormente los factores a considerar serán la
temperatura y la humedad.
Las variaciones operativas pueden ser tratadas por:
1. selección de componentes de baja sensibilidad frente al conjunto de variables operativas.
Esta es en la mayoría de los casos una solución cara.
2. reducción de la sensibilidad, imponiendo valores adecuados para otros componentes del
circuito, cuando existan grados de libertad que así lo permitan
3. aislamiento o estabilización frente a la variable operativa: tensión, humedad, temperatura,
vibración (generación de carga estática por roce entre partes), golpeteo (fuente de
microfonismo en receptores), etc. Si el elemento es función de la temperatura, entonces se
fuerza a que el sistema opere a una temperatura constante, por ejemplo poniéndolo dentro
de una cámara térmica. Si la característica del elemento es función de la humedad entonces
se debe implementar una buen aislamiento respecto al ambiente, usando módulos estancos
o por sellado o aplicación de un barniz aislante. De la misma forma se usaran reguladores,
para aislar de las variaciones de las fuentes de alimentación, especialmente las tensiones de
polarización de dispositivos activos. Si existe posibilidad de que el roce por movimiento de
cables de lugar a ruidos, debido a la generación de carga estática, se deberán trabar los
cables.
4. compensación de la variación, lo cual puede realizarse:
a. por hardware
i. compensación automática
1. seleccionando los otros componentes que participan en la
característica de modo que tengan comportamiento contrapuesto
2. agregando otros componentes o dispositivos con características
contrapuestas
ii. compensación manual, haciendo un ajuste o compensación previa al uso.
Esto es frecuente en instrumentación y podrá hacerse cuando se disponga de
elementos de referencia que sean muy estables, contra los cuales se hace el
ajuste.
b. por software, lo cual requiere contar con un sensor que responda a la variable de
incidencia y permita corregir la característica de interés
La incorporación de software en el control de muchos dispositivos analógicos permite
de un modo sencillo nuevas vías de compensación.
Xlimite Xlimite
tfalla t tfalla t
Fig.30
a) b)
224
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 225
X m in a d m is ib le Variacion
admisible en X
t t
in s ta n te d e fa lla
tiempo de
asentamiento
Fig.31 Fig.32
por lo cual el corrimiento entre los instantes t1 y t2 será el mismo mientras se mantenga la
relación t2/t1. Es decir, se tiene igual cambio en la característica entre la hora 0.1 y la hora 1,
que entre la hora 10000 y la hora100000.
Entre los componentes que tienen una ley de variación con el tiempo de tipo
logarítmica se cuentan mayormente algunos semiconductores, cristales piezoeléctricos, y
cerámicas magnéticas y dieléctricas. En este caso conviene hacer un envejecimiento prematuro,
un proceso de pre-asentamiento previo al uso.
X
X
Tolerancia
inicial X1
p(x)
T=0
a
T=H
X
H t F (Xi,H) 1 F(Xi)
Fig.33 Fig.34
Si la dispersión de los componentes alrededor del comportamiento medio es grande,
es necesario recurrir a un tratamiento probabilístico. Supongamos que se evalúa el corrimiento
a lo largo del tiempo de la característica X de un componente, y ello lleva a una curva como la
a de la figura 33. Si se repite la evaluación sobre otros componentes resultaran distintas curvas,
una por realización, figura 33. Con el conjunto de todas ellas se puede determinar el
comportamiento estadístico al cabo de H horas; es decir, hallar la función de distribución de la
característica X al cabo de H horas de uso, figura 34. Con esta curva, es posible hacer una
predicción de fiabilidad basándose en el método de simulación de Monte Carlo.
225
226 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
limite para
R(H) la falla
t
Emin Emax Ci t1 t2
Fig.35 Fig.36
2
ver pagina 162
226
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 227
∆X tolerancia inicial
= ∆X total
− ∆X( deg radacion
+ ∆X proceso
+ ∆X operativa
) (9)
≡ +
p(X)
X X X 1 2 3 4 5 6
X
lotes
Fig.38 Fig.39
227
228 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Xo X Xo(1-t) Xo Xo(1+t)
Fig.40 Fig.41
El método del peor caso tiene la ventaja de la simplicidad, y asegura además que todas
las realizaciones van a cumplir con la especificación, pero lleva a un gran desaprovechamiento
de los elementos. Esto no tiene importancia en casos bien definidos:
• se trata de pocas realizaciones, donde un tratamiento mas elaborado no redundaría en
beneficio alguno
• el circuito esta compuesto por pocos elementos
• el costo de los elementos no es muy sensible a la tolerancia de los mismos
• el circuito de por si es muy robusto frente a la variabilidad de los elementos
• las exigencias se restringen a pocos elementos, los que además son económicos
• las tolerancias exigidas a los elementos para que el circuito entre en especificación
son muy amplias
Alguna de las situaciones anteriores se da normalmente en las soluciones digitales, y
también en las soluciones analógicas que recurren a la realimentación como medio para
trasladar la alta exigencia de tolerancia solo a los elementos del lazo de realimentación.
La fuerza del método reside en el concepto de intercambiabilidad total, que asegura
siempre el funcionamiento con los recambios de mantenimiento, y simplifica notablemente la
manufactura, por no requerir ni acciones de control, para segregar los elementos que estén
fuera de especificación por diseño, ni acciones de ajuste para entrarlo en especificación.
El proceso de solución para una intercambiabilidad total comienza por asignar la
tolerancia a los componentes más caros y de mayor sensibilidad en el costo respecto a la
tolerancia. Luego, quedara impuesta la tolerancia de los otros elementos de modo de satisfacer
la especificación. El método en si, aunque no directo, requiere tan solo buscar la mejor
distribución de tolerancias para los diversos componentes y determinar el costo asociado a esa
solución, pero siempre satisfaciendo la especificación en el 100% de las realizaciones.
La asignación de la tolerancia de cada componente debiera hacerse buscando el
mínimo costo total, vale decir, el mínimo de
Costo = Costo ( X 1 , t X 1 ) + Costo ( X 2 , t X 2 ) + ...... + Costo ( X n , t Xn ) (10)
sujeto a las restricciones
E n = f 1 ( X 1 , X 2 ,...., X n ) (11)
t E = f 2 ( t X 1 , t X 2 ,........, t Xn ) (12)
228
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 229
Este método supone considerar para cada componente tan solo dos valores posibles:
Xn(1-t) y Xn(1+t), y que existe un espectro de tolerancias discreto dentro del cual se debe optar.
Pero aun así la solución no es tan directa como a simple vista parece. Solo lo será cuando se
trate de componentes de igual tipo y con igual sensibilidad sobre la especificación, o cuando el
número de componentes del circuito sea reducido, o bien, si el número de componentes
susceptibles de tomar distintos valores de tolerancia, que determinan el costo de la solución y
tienen una mayor sensibilidad costo/tolerancia, se limitan a unos pocos. De todos modos,
siempre el espectro de soluciones se ve reducido a los valores discretos de tolerancia que puede
tener cada componente, y a la sensibilidad costo/tolerancia.
En general se trata de que la tolerancia de los componentes menos críticos ( por su
disponibilidad, costo y sensibilidad costo/tolerancia) sean la variable de ajuste. Pero esta
condición no lleva sin embargo a una solución directa, salvo casos simples.
Para hacer la asignación de tolerancias conviene previamente determinar la
sensibilidad del circuito a los distintos parámetros. Para simplificar el análisis, supongamos que
la especificación E es función de solo tres parámetros del circuito: X1, X2, X3, o sea
E = f ( X 1, X 2, X 3) (13)
La sensibilidad del circuito a un componente mide la variabilidad relativa en la
especificación provocada por una variación relativa en el valor del componente. Este valor es
útil para asignar la tolerancia de cada componente. Para hallar la sensibilidad al componente i
se varía su valor desde Xio a un nuevo valor Xin, tal que
X = X + d . X = X .(1 + d ) (14)
in io io io
229
230 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
X n1 1+ d 1 1 X 1o X 1o
X n2 = 1 1+ d 1 .X 2o = Q. X 2o (22)
X n3 1 1 1+ d X 3o X 3o
de modo que por aplicación del método del peor caso se obtiene
∆Rt 2 . n . R n .t R 4
Cp = = = . n (28)
6 .σ 6 . n . R n .t R 3
4
que determina una capacidad de proceso superior a la capacidad de sus componentes. Además,
se ve que la capacidad de proceso mejora con el aumento de la cantidad de componentes. Estos
resultados son de validez general, y resultan al considerar como limites para la especificación
los que resultan de combinar los valores extremos de los componentes, lo cual siempre será un
evento raro, y consecuentemente redundara en un estrechamiento de la dispersión de la
especificación.
230
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 231
p(C)
Si
rechazos rechazos
Proceso ¿Cumple?
FTQ
No
∆E/σc C
Fig.42 Fig.43
El método del peor caso supone para los componentes el valor extremo que
corresponde a su tolerancia, cuando en realidad muy pocos estarán en esas condiciones, y a la
vez, la probabilidad que se de la peor de las combinaciones será aun mas reducida. Frente a
este planteo caben las dos opciones siguientes:
• Hallar una solución que sea optima bajo el criterio económico, sin importar el
rendimiento de la implementación ( el primer índice de calidad, el FTQ )
• Satisfacer el criterio económico, sujeto a la restricción de una dada capacidad de
proceso
Supongamos conocido el valor del desvío estándar para cada uno de los parámetros
que participan en la característica de interés, por lo que
C = f ( x 1 , x 2 ........ x n ) (29)
∂f
∆C = ∑ .∆ x i (30)
∂xi
2
⎛ ∂f ⎞
σ 2
C = ( )
∑ ⎜⎜ ∂ x ⎟⎟ . σ x i
2 (31)
⎝ i ⎠
En virtud del teorema del límite central, la distribución resultante será de tipo
gaussiano. Por tanto, conocida la varianza de cada parámetro se puede calcular la varianza de
la característica, y en función de ∆ E / σ C se puede calcular el rendimiento de fabricación FTQ,
figura 43, suponiendo centrada la característica, por la relación entre las plaquetas que no
requieren retrabajo, finalizado el proceso de armado, respecto al total de plaquetas armadas.
En vez de buscar el menor costo de fabricación, sin otra restricción, el método puede
ser aplicado de modo que además la solución satisfaga un requerimiento de capacidad de
proceso. En este caso, determinado el costo resultante para una asignación de tolerancias, se
debe repetir el cálculo con otras asignaciones que cumplan con la capacidad de proceso
requerida, buscando la solución de costo mínimo. Estas opciones deben intentarse variando la
tolerancia de aquellos componentes con alta variación de costo con el cambio de tolerancia.
El tratamiento se puede simplificar teniendo en cuenta que de la expresión ( 16 ) se
deduce
∆X i
∑
∆E = E o . S E Xi .
X io
(32)
de la cual resulta
231
232 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
2
σ Xi
σ ∆2E = E o2 . ∑ S E2
X io2
Xi .
(33)
∆E = α .σ ∆E = E o . (∑ S 2 2 2 1/ 2
E Xi .α .t i ) (35)
de lo cual se deduce la tolerancia resultante de la especificación
∆E
Eo
= (∑ S 2
E Xi ..t i )
2 1/ 2
(36)
232
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 233
F(C)
1 C o s to
to ta l
η = FTQ
O p tim o
Emin Emax C T o le r a n c ia d e l
c o m p o n e n te i
Fig.44 Fig.45
El método de simulación de Monte Carlo es útil también cuando se debe hallar una
solución que debe además cumplir con una dada capacidad de proceso. Simplemente, se
verifica la capacidad de proceso por la relación entre el rango admitido para la especificación y
el desvío estándar de la característica obtenido con los valores de la simulación. La solución
óptima será en este caso aquella que al menor costo satisface la exigencia de capacidad de
proceso.
233
234 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
Esta expresión muestra que para obtener una compensación exacta debería ser
∂f ∂f
∆X 1 + ∆X 2 = 0 (53)
∂X 1 ∂X 2
∆ xm
x -k -1 1 k subgrupo
Xo X1
xj X1
+ ∆Xj x- k x -1 Xo x1 xk
+ ∆ Xm
Fig.46 Fig.47
234
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 235
∆x1m p(x)
-k -1 1 k subgrupo
X1
x1- k x1-1 X1 o x11 x1 k X
∆x2m a)
-k -1 1 k subgrupo p(C)
X2
x2- k x2-1 X2 o x21 x2 k C
b)
Fig.48 Fig.49
235
236 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
ó
X1
C = (68)
X 2
como seria el caso de una constante de tiempo, de la frecuencia de oscilación de un circuito
resonante, de la ganancia de un circuito realimentado, etc., si la clasificación se hiciera de
modo que todos los grupos tuvieran igual rango, en tal caso no se mantendrían los limites de
variación de los distintos subgrupos; es decir, para que los rangos que resultan para la
característica en los distintos subgrupos sean iguales es necesario que el valor máximo de cada
subgrupo este relacionado con el menor valor de ese subgrupo por igual razón; obviamente,
además, el máximo de un subgrupo debe ser igual al mínimo del siguiente. Esto si bien
mantiene el rango de variabilidad de la característica de los distintos subgrupos, acarrea un
rango de variación para los subgrupos distinto, y por consecuencia, si las distribuciones son
simétricas, quedaran elementos sobrantes, sin posibilidad de combinarse.
Las ventajas del método de selección por grupos se ven limitadas cuando los
componentes responden a distribuciones normales, con alta capacidad de proceso. En estas
condiciones, la población que toma los valores extremos es muy baja, resultando más ventajoso
el método de intercambiabilidad parcial, figura 50, porque se evita el costo de preclasificación.
Solo si la característica depende de un número reducido de elementos, y se usan componentes
con baja capacidad de proceso, conviene el método de selección por grupos, figura 51.
τ
R, C
∆x
p( ) p( τ ) seleccion
por grupos
Fig.51
intercambiabilidad
parcial
R, C τ
p( τ ) Rango especificacion
para igual tolerancia
centros
τ
τ
Fig.52 Fig.53
236
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 237
Fig.54
El valor del componente ajustable Xa dependerá del valor que tomen los demás
componentes Xp, cuya incidencia en la característica es conocida, por estar prearmados al
momento de realizar el ajuste. Si al inicio del ajuste se impone para Xa su valor nominal Xao,
como
C = f ( Xp ,......, Xp ,.... Xp , Xa ) (69)
1 j n
de modo que para compensar el corrimiento ∆C debido a los componentes Xp bastaría con fijar
para Xa un nuevo valor dado por,
237
238 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
⎡ n
∂f ⎤ ∂f
Xa = Xa o + ∆ Xa = Xa o + ⎢∆ C − ∑ ∂ X pj
∆X pj ⎥
∂ Xa
(71)
⎣⎢ 1 ⎦⎥
La expresión (69) permite, por cálculo, o simulación de Monte Carlo, obtener los
valores extremos de Xa, Xamax y Xamin, necesarios para cumplir exactamente con la
especificación nominal, Co, habiendo seleccionado los componentes Xp, con su tolerancia. Si
se recurre a la simulación, es posible además conocer la distribución de valores de Xa para
satisfacer la especificación, figura 55a, y en particular que proporción de implementaciones
requerirán valores comprendidos entre dos valores cualesquiera Xa1 y Xa2.
p(Xa) dispersión del componente de
p(Xa) ajuste de valor nominal Xajo
y en el peor caso, si Xac cae en el limite de la tolerancia, cercano a Xa1, y el valor Xar esta en
el limite opuesto, esto daría el máximo apartamiento,
∂f
∆C = . 2 . t a . Xajo (74)
∂ Xa
con la cual se calcula la tolerancia ta del elemento de ajuste en base al desajuste ∆C tolerado.
Cuando se tienen muchos pasos, puede suponerse que los valores Xac se distribuyen
en forma uniforme dentro del rango de cada paso, y si además los componentes de ajuste son
de alta capacidad de proceso, entonces la característica responderá a una distribución uniforme,
figura 56, y consecuentemente significará una baja capacidad de proceso.
Ahora bien, como (Xac-Xajo) es conocido al momento del ajuste, bastaría agregar un
componente xa de valor
x a = Xa c − Xa jo (75)
para compensar dicho corrimiento, disponiéndolo en una posición, bien sea en serie o paralelo,
según corresponda al signo. Al disponer de dos componentes para el ajuste se reduce el rango
de dispersión y se mejora la capacidad de proceso, figura56.
Es posible también recurrir a otra variante del método, en la cual todos los
238
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 239
componentes, incluido el de ajuste sean de igual tolerancia, bajando al mismo tiempo la gama
de valores requeridos para el ajuste, recurriendo a un ajuste en varias etapas. Para n etapas, se
agregaran n componentes adicionales, de un valor
x a = x 1 + x 2 + x 3 + x 4 + .... + x n (76)
donde el valor del componente xj se selecciona en función de los componentes previamente
colocados x1, x2, ..., xj-1, en las j-1 etapas de ajuste previas. En este caso, solo quedara como
valor aleatorio el colocado en la última etapa, que causara una variabilidad muy reducida de
Xa, figura 57, y por tanto de la especificación.
p( ) distribuccion
p( )
con ajuste por distribuccion
pasos sin ajustar
y su valor se determina de modo que (77) verifique con el menor error posible la
especificación. Con 2n elementos de ajuste se pueden obtener
p = 2 n +1 (78)
pasos de control, lo que permite estrechar el rango inicial en igual medida, figura 58. Los
componentes xi y x-j deben ser elegidos apropiadamente conforme a cada circuito, figura 59.
Luego, basándose en el valor de la característica al momento del ajuste se determina que
componentes deben ser eliminados, figura 60.
8
Eo 6 680K
4 360k
R1 2
180k
- x1 xn
+ R1
Er R2
Tensionantesdeajustar
x -1 x-n
18 18.2 18.4 18.6 18.8 19 19.2
Fig.59 Fig.60
El método tiene dos desventajas:
• en cada realización se usan todos los componentes
• da origen a una distribución uniforme, de baja capacidad de proceso
239
240 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad
240
Documentación
Un boceto vale más que mil palabras
Transferencia de Tecnología
La conclusión natural del proyecto de ingeniería es la transferencia de tecnología,
entendiendo como tal al conjunto de actos, documentos y otros elementos (maquetas,
prototipos, etc..), por los que un componente, equipo, o sistema, puede ser "conocido",
utilizado, reparado, fabricado por otra/s persona/s o entidad/es distintas a las que originalmente
poseían estas capacidades técnicas.
La transferencia de tecnología tiene como razón ser un vehículo de formalización de
las relaciones entre el proveedor ( poseedor ) de tecnología y su cliente; y además, permite
poner límites a dichas relaciones, tanto temporalmente como cuantitativamente
En toda transferencia de tecnología están presentes los siguientes componentes:
DOCUMENTOS:
• Técnicos
• Contractuales ( contratos, compromisos )
ELEMENTOS:
• Prototipos
• Maquetas
ACTOS:
• Jurídico-contractuales
• Técnicos (p ejemplo de seguimiento)
El documento técnico
La misión del documento técnico tiene como objetivo servir de transmisor de
información técnica, figura 1. Durante la realización del documento es “clave” tener siempre
presente a QUIEN va dirigido.
Documento
Poseedor Técnico Receptor
de de
Fig.1 información información
• Descripciones:
– Técnica: del “Problema” y de la “Solución”
– Organizativa: Descomposición. Asignación
– Económica: Valoración de elementos
• Elementos contractuales: Plazos, prestaciones, elementos entregables, protocolos,
etc.
• Conclusiones: (Revisión/resumen de los aspectos más notables)
• Anexos: Técnicos. Justificativos. Descriptivos. Documentales
242
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 243
El cuaderno de diseño
Ha sido práctica común por muchos años volcar los resultados de avance del
proyecto en un cuaderno diario de trabajo, denominado cuaderno de ingeniería o cuaderno de
diseño. Este cuaderno, en el cual se asientan todos los trabajos desarrollados, sirve para
generar la documentación técnica del proyecto, y es tal su importancia, que el mismo ha sido
usado para dirimir casos de litigiosidad, sirviendo como prueba legal en conflictos sobre
derechos de patentes.
En el cuaderno se vuelcan las ideas que surgen, los esquemas sobre los que se
trabaja, los circuitos propuestos, los supuestos en que se basan los cálculos, la forma en que se
realizan las pruebas, los resultados de estas, y las conclusiones que se derivan de ellas. El
cuaderno representa el historial completo, y su consulta posterior permite saber porque se han
tomado ciertas decisiones, o cuales son los valores de ciertas características, etc.
En el cuaderno se deben anotar los trabajos desarrollados con los resultados
hallados, tanto los positivos como los negativos. Los resultados que no salen como se predice
en la teoría o no están de acuerdo con algún experimento previo, pueden ser la luz hacia un
nuevo hallazgo. Cuando algo no resulta como se espera, hay una tendencia a excluirlo de la
documentación del trabajo realizado, sin dedicar el menor esfuerzo al análisis de las causas que
motivaron el fracaso del mismo. Pero, por malo que sea el resultado, por el solo hecho de que
haya sido considerado como una idea a probar, merece que sea registrado con todo detalle; al
menos de este modo se sabrá un modo de no lograr el objetivo para el que fue propuesto. En
ciertos casos, en una etapa posterior del proyecto, aparecen dudas sobre aspectos que en su
momento se piensa que no fueron considerados y que parecieran explicar discrepancias. La
respuesta a estas dudas surge de la consulta de los registros que detallan la forma en que se
realizo la prueba, y los supuestos que dieron base a la idea. Obviamente, para que esto sea
efectivo no basta con realizar unas pocas notas. Cuando se procede así, el resultado es que la
consulta arroja mas dudas que luces, resultando ininteligible o bien requiere un gran esfuerzo
para entender anotaciones y resultados, y en casos extremos obliga a rehacer todo el trabajo. Se
ha dicho que un buen cuaderno de trabajo permite reconstruir el proyecto muchos años después
de haberse completado. Esa es la cualidad deseada.
El cuaderno no solo debe registrar los resultados de los trabajos efectuados, debiera
incluir también las ideas que surgen a lo largo del desarrollo y que no son estudiadas en ese
momento. Un buen cuaderno de diseño debiera seguir las siguientes reglas:
• Usar hojas numeradas
• Mantener un índice en las primeras hojas, como referencia de los trabajos
• Realizar las anotaciones en el momento en que se ejecuta el trabajo, en orden
cronológico
• Anotar los resultados favorables y desfavorables, incluyendo las cosas que parecieran
no tener una explicación.
• Si se comete un error, debe cruzarse con una línea, no tacharse o borrarse
• No deben arrancarse hojas
• No deben dejarse hojas en blanco
• Todos los datos deben mantenerse en su forma original: gráficos, fotos, esquemas. Si
hubiera necesidad de replantear algún tratamiento se incluirá respetando el orden
cronológico.
• Los gráficos dibujados a mano alzada, sirven solo para marcar tendencias
• Se debe hacer referencia a los libros, manuales, revistas, notas de aplicación, hojas de
datos, patentes y cualquier otra información que sea usada
• Las anotaciones deben hacerse con tinta, y ser legibles. No se debe escatimar espacio
a las anotaciones. Se debe buscar la mayor claridad posible
• Firmar y fechar cada entrada el mismo día en que se realiza
243
244 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
Por años a los ingenieros de desarrollo llevar el cuaderno de trabajo les insumía un
tiempo importante, especialmente cuando se debían volcar muchos datos, procesarlos y luego
construir gráficas para interpretarlos. Actualmente, hay disponibles paquetes específicos
dedicados a la administración de proyectos, con los cuales se lleva un registro de archivos
electrónicos, combinando los diversos paquetes de CAD, siendo el cuaderno solo un asiento de
las ideas que se manejan, los conceptos principales, y los bosquejos o esquemas básicos. El uso
de asientos electrónicos facilita el intercambio de información entre todos los integrantes de un
equipo de desarrollo de modo rápido y seguro. Es tal la potencialidad actual que muchos
proyectos son llevados a cabo por un equipo de trabajo cuyos integrantes se encuentran
físicamente dispersos en distintos países, actuando peso a ello como si todos trabajaran en un
mismo recinto.
Con CAD incrustados dentro de un sistema de administración de proyectos, es
posible llevar a su estado final la documentación final del proyecto. Es decir, el esquemático
del circuito podrá existir en el cuaderno de ingeniería en la forma de boceto, mientras se esta
elaborando, pero luego debe ser llevado a formato electrónico con un CAD apropiado ( Protel
(Altium) , Orcad (Cadence), Mentor, Cadstar, etc), con lo cual se facilitan las simulaciones,
verificaciones y posteriores correcciones, garantizando su consistencia. Esta documentación
integrara la Documentación Técnica del proyecto ( el como ), mientras que el cuaderno de
ingeniería servirá de apoyo para elaborar la memoria final del proyecto ( el porque ), y será
además un registro que marcara la evolución del proyecto.
Ayudamemorías
Cuando se trabaja en un área específica de diseño con frecuencia se debe enfrentar un
mismo tipo de problemas, como es el caso de equipos para la industria automotriz, equipos
para electromedicina, equipos de comunicaciones, etc, y en tales casos suele ser de ayuda
contar con una ayudamemoria.
Una ayudamemoría es un listado de puntos que deben ser considerados cuando se
esta trabajando sobre un problema particular. Cuando para estos puntos se ha establecido y
consolidado una solución, la misma pasa a integrar una regla de diseño, o un listado de
verificaciones.
La ayudamemoría, es además, una ayuda importante para la tarea de planeamiento, y
es usada en forma rutinaria en muchas áreas. De no existir, puede ser de gran utilidad armar
una, la cual se ira engrosando con el tiempo. Esto ocurrirá, cuando en el desarrollo de un
proyecto se encuentra algún problema imprevisto, lo cual es una buena oportunidad para pensar
si el mismo debe ser incluido en la ayudamemoría.
La oferta de proyecto
La Oferta de Proyecto puede surgir como respuesta a una petición, o bien ser una
propuesta no solicitada. Cualquiera sea el caso debe siempre:
• Ser un documento para convencer (ganar un proyecto).
• Describir los "retos" (problemas) a afrontar (resolver).
• Proponer objetivos, soluciones y metodología, y
• tener un tamaño en relación con la complejidad (y presupuesto)
La Oferta de Proyecto debe separar el contenido conceptual:
• Objetivos del proyecto ¿Para qué? ¿Por qué?
• Descripción y especificaciones ¿Qué es lo que se hace?
244
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 245
245
246 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
246
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 247
Fig.2
247
248 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
248
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 249
puedan diferir solo en el número de versión. Es decir, si el cambio es solo por ejemplo el valor
de un resistor, esto solo afectara la versión del esquemático.
También es posible que se rehaga el circuito impreso sin cambio en el esquemático, si
solo se afecta una característica propia de este ( por caso, la holgura al cobre de la mascara
antisoldante, el desplazamiento de un componente, o el retoque de una pista de impreso por
razones de interferencia, etc ).
Cuando es necesario introducir una modificación en un equipo que ya ha sido despachado
o que esta fuera del alcance del equipo de diseño, entonces debe emitirse una Orden de Cambio
de Ingeniería, una ECO (Engineering Change Order). La ECO es una instrucción de cambio,
en la cual se describe el equipo y la parte que debe ser modificada ( con referencia al número y
versión vigente ), el tipo de modificación, la razón del cambio ( que cosas mejora o remedia), y
su aplicabilidad ( si a todos, o solo a algunos ). La aplicabilidad determina a partir de cuando y
quienes están involucrados, es decir si es:
• Mandataria para la actual y futuras producciones
• Mandataria para todas las unidades en predespacho
• Mandataria para las unidades ya despachadas
• Opcional para las unidades ya despachadas , sujeto a la aparición de síntomas
• Mandataria solo para la actual producción
• No aplicable a producciones futuras, debido a que se va a realizar un cambio mayor
El número de ECOs no necesariamente reflejan la calidad del diseño, sino más bien la
capacidad de adaptación y mejora.
La documentación emitida en un desarrollo se diferencia en documentos controlados y no
controlados. Toda documentación que este sujeta a un circuito de distribución debe ser
controlada, y debiendo llevarse un registro de todos los documentos emitidos que han sido
distribuidos, lo cual integrara un archivo de Documentos Controlados, en el cual constara su
nivel de actualización y el circuito de distribución. Cada vez que se produce un cambio todos
los documentos controlados deben actualizarse.
Cualquier copia de un documento controlado pasa a ser un documento no controlado.
Obviamente, el uso de las mismas debiera evitarse.
249
250 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
250
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 251
En la mayoría de los casos la realización del manual es una de las últimas etapas del
proyecto, pero no necesariamente siempre es así. A veces es una de las primeras etapas,
pudiendo incluso ocurrir que el manual este concluido aun antes de empezar el desarrollo del
producto. En estos casos, prácticamente el manual es parte integrante de la definición del
producto.
En la planificación de un manual se reconocen las siguientes etapas :
– Recopilación de la información.
– Selección de datos y organización interna
– Redacción :(Bocetos. Revisiones)
– Edición
– Distribución
y por lo general será necesario prever subcontrataciones, con su cronología asociada a la
impresión, sesiones fotográficas, etc. Actualmente, la disponibilidad de paquetes de CAD, y
cámaras digitales hacen que sea posible el trabajo dentro de la propia empresa. En la redacción
del manual intervendrán:
– Ingenieros.
– Escritores especializados.
– Correctores idiomáticos
En los casos en que sea necesario la confección en idiomas múltiples ( por ejemplo
español y portugués para el MERCOSUR, o de múltiples idiomas, como es el caso de la
Comunidad Económica Europea ), deberá cuidarse que la traducción sea técnica y no
simplemente idiomática. El punto débil de muchas traducciones técnicas resulta por el uso de
expresiones, giros, o terminología que hacen que el documento se vuelva ininteligible.
Como conclusión final, debemos tener siempre presente que :
– El manual es parte integrante del equipo.
– Todos los productos que se usan o se reparan, requieren manual
– Los manuales se hacen para ser usados
Este último punto es sumamente importante. Frente a un nuevo equipo, la mayoría de
los usuarios tiene un apresuramiento desmedido para conectar y empezar a usar o a evaluar sin
antes leer el manual; no es necesario decir que esta es una posición equivocada y riesgosa. La
primer tarea debe ser siempre la lectura del manual, viendo antes que nada las condiciones
para desempaquetar, luego las recomendaciones de instalación y finalmente las referidas a la
puesta en marcha del equipo.
251
252 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
APERTURA
Concitar la atencion
Identiticar el problema
NUCLEO
Tratamiento del tema
1. punto 1
2.punto 2
........
.......
hasta 5 puntos
Fig.3
CIERRE
Resumen y conclusiones
El primer paso para armar una sesión basada en transparencias será definir la
estructura de la presentación basándose en un esquema como el que indica la figura 3; otro
posible delineamiento seria el siguiente:
Para cada punto habrá que seleccionar el texto, los esquemas o dibujos y los gráficos
que se consideran importantes, diseñando su distribución, tamaño de las letras, el armado de
los esquemas o dibujos y la composición de los gráficos. Usualmente conviene trazar un primer
boceto o plan de la presentación, delineando el trabajo que se quiere presentar, escribiendo los
textos, haciendo luego correcciones y modificaciones, y rescribiendo nuevamente si fuera
necesario. Como regla general, deberá:
252
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 253
253
254 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica
Las pautas siguientes son algunos consejos a tener en cuenta para una presentación
oral con transparencias :
254
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 255
255
Índice alfabético
ACWP 47 Búsqueda
Aislantes, ley de 113 secuencial 68
aleatoriedad de factores 16 uniforme 68
Altshuller 99
AMFE 24 CAD 12,97,211
Análisis Cadstar 97
competitividad 13 Calidad 177
diseño, fases A y B 130 aseguramiento de la 4,204
fiabilidad 130 casa de 13
fortalezas y debilidades 11 control estadístico 201
rentabilidad 55 costos 206
riesgo 57 de diseño 178
sensibilidad 58 de proceso 180
varianza 21 Despliegue de la función 13
odal de fallas y efectos 24 verificación de la 198
morfológico 99 Camino critico 34
ANOM 18 Caminos semicríticos 42
ANOVA 21 Canon 93
AOI 219 Capacidad de proceso 181,230,
AQL 12,201 233,236,
ARIZ 100 238,240
Arrhenius, ley de 112 Capacitación 172
Aseguramiento de la calidad 4 casa de calidad 13
AXI 219 causas
Ayudamemoria 244 asignables 180
Barker, J.A. 81 especiales 180
comunes 180,199
BCWP 47 ciclo de vida 51
BCWS 47 CIM 211
Bell 91 Cmk 187
Bellcore 128 Complejidad ciclomática 147
Benchmarking 98 Conceptualización 10
bloquizacion 16 concesión 198
BOM 210 contención 198
Boundary scan 219 Contradicciones, 99
Búsqueda Control del proyecto 46
de Fibonacci 70 Correlación 102
de intervalo 68 Costo
dicotómica 70 fijo 52
por gradiente 79 variable 52
por relación áurea 77 marginal 52
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético
258
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético
Ensayos Fiabilidad
exploratorios 19 expresión general 113
fraccionarios 20 extrapolada 106,115
progresivos 133 mejora de la 130
repetidos 16 metas 118
replicados 16 observada 106
truncados 109 predicción de la 120
Ergonómico, aspecto 9 Fink 86
Ericsson 93 FLEX 58
Escenarios definición de 101 Flujo de caja descontado 55
Especificación contenidos 8 FMEA 24,174,178
Estabilidad 224 FT 218
tratamiento para la 226 FTA 2,24
Estimación de tiempos 40 FTQ 213,220,231
Ética, códigos 30 función
Experiencia 172 de mantenibilidad 165
Experimentos factoriales completos 19 de mérito 61
Eyring, modelo de 113 de prestación 61
de restricción 61
Factibilidad objetivo 61
económica 48 objetivo aumentada 65
tecnológica 27
Fallas Gantt, diagrama de 43
aleatorias 108 Gompertz, modelo de 104
catastróficas 106 grados de libertad 59
infantiles 108 gráficas
inseguras 124 de caja 23
paramétricas 106,224 de Pareto 98,207
parciales 106 de Shewart 185
por degradación 108 Hadamard, 84
por solicitación 114 matriz de 18,20
primarias 105 HDBK-217 119,128
relevantes 106,133 HDBK-259 58
secundarias 105 HDBK-472 176
seguras 124 Hilbert 89
Fiabilidad Hot mockup 218
análisis de 130 IBM 50,93,101
crecimiento de la 142 ICT 218
de componentes 130,144 IEC 8,28,29,39
de software 130,145 IEC 140,177
ensayos de 133 Ingeniería de valor 15
estimada 106 Ingeniería concurrente 4
259
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético
260
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético
261
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético
Taguchi 65 UL 8
diseño ortogonal de 20 Validacion 131
Diseño robusto de 194 Valor actualizado neto 55
Función de perdidas de 189,195,240 valor agregado 10, 48
Tasa de detección 25 VAN 55
Tasa de fallas 107 Variaciones operativas 224
estimación 109 Varianza
requerimientos 108 dentro de grupo 21
Tasa interna de retorno 56 entre grupos 21
Técnica de evaluación y revisión de programas 33,36 VDA 4
Tecnología transferencia de 241 VDI 4
Teoría de la invención 99
THM 215 VE 2,178
Tiempo Viabilidad 11
de mantenimiento medio 170 Weibull 115
de reposición de servicio 172 Williams, J. 84
entre acciones de conservación 161 Xerox 93
entre acciones de mantenimiento 171 ZQC 214
262