Está en la página 1de 270

INTRODUCCION AL PROYECTO

DE INGENIERIA

Enrique Villamil García, Ingeniero


Universidad Nacional de Buenos Aires
Instituto Tecnológico de Buenos Aires

Miguel J. García Hernández, Ph. D.


Universidad Politécnica de Cataluña

1.Proceso de diseño

2. Planificación y Programación

3. Optimización

4.Innovación y Prospección

5.Fiabilidad

6.Mantenibilidad

7.Calidad

8.Manufacturabilidad

9.Documentación
II
1.Proceso de diseño 1

Metodología del desarrollo 3


Determinación de la necesidad 6
Definición de Producto (PDD) 7
Contenidos de una especificación 8
Conceptualización 10
Evaluación de viabilidad 11
Diseño preliminar 11
Diseño detallado 12
Despliegue de la función de calidad (QFD) 13
Ingeniería del valor 15
Diseño experimental 16
Diseño de experimentos (DOE) 17
Experimentos factoriales completos 19
Experimentación factorial fraccional 20
Análisis de Varianza (ANOVA) 21
Análisis modal de fallas y sus efectos (FMEA) 24
Ecodiseño 26
Factibilidad tecnológica 27
Internet como fuente de información 28
Responsabilidad legal 29
Ética profesional 30

2.Planificación y Programación 31

Planificación 32
Método del camino critico 33
Márgenes de las tareas 34
Técnica de evaluación, programación y revisión (PERT) 36
Estimación de tiempos y recursos 39
Estimación de la duración del proyecto 40
Simulación de Monte Carlo 41
Caminos semicríticos 42
Programación 43
Diagrama de Gantt 43
Asignación de recursos 45
Control del proyecto 46
Factibilidad económica 48
Costo objetivo 48
Mercado objetivo 50
Ciclo de vida 51
Precio de venta 52
Análisis de rentabilidad 55
Análisis de riesgo y sensibilidad 127
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

3.Optimización 59

Métodos de optimización 62
Métodos tabulares 63
Método del Calculo diferencial 64
Método de los Multiplicadores de Lagrange 65
Métodos de búsqueda de intervalo 68
Búsqueda uniforme 68
Búsqueda secuencial 68
Búsqueda dicotómica 70
Búsqueda de Fibonacci 70
Búsqueda por relación áurea 77
Método del gradiente 78
Método de Programación lineal 80
Aplicación de las herramientas de optimización de MATLAB 80

4.Innovación y Prospección 81

Algunas historias creativas 84


La actitud creativa 85
La invención 87
La innovación 91
Diseño por evolución 92
La investigación y el desarrollo dentro de las empresas 93
Patentes 94
Técnicas creativas 96
Técnicas individuales 96
Técnicas grupales 98
Teoría de la invención aplicada a la solución de problemas (TRIZ) 99
Prospección Tecnológica 100
Técnica Delfos 101
Definición de escenarios 101
Técnicas de Regresión 101
Técnicas de Correlación 102
Curvas de crecimiento 102
Modelos teóricos de prospección 103

IV
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

5.Fiabilidad 105

Fiabilidad observada, estimada, extrapolada y prevista 106


Tasa de fallas 107
Fallas infantiles, accidentales y por envejecimiento 108
Requerimientos de tasa de fallas 108
Estimación de la tasa de fallas 109
Ensayos acelerados 111
Ley de Arrhenius 112
Ley de los aislantes 113
Modelo de Eyring 113
Expresión general de la fiabilidad 113
Fallas por solicitación 114
Tiempo medio entre fallas 114
Modelos de fallas: Fiabilidad extrapolada 115
Papel probabilístico. 116
Disponibilidad 117
Metas de fiabilidad aplicadas al diseño 118
Predicción de la fiabilidad 120
Modelo físico de fallas 120
Método de las redes 121
Simulación de Monte Carlo 122
Método del árbol de fallas 123
Método de las Cadenas de Markov 125
Sistema con carga compartida 126
Sistemas con reserva 127
Sistema de reserva con falla por conmutación 128
Sistemas con reserva y mantenibilidad 128
Método de las cargas 129
Técnicas para la mejora de la fiabilidad 130
Análisis de fiabilidad 131
Validación 132
Ensayos de fiabilidad 133
Ensayos de aceptación. Ensayos progresivos 134
Depuración del diseño y crecimiento de la fiabilidad 142
Modelos de crecimiento de la fiabilidad 142
Fiabilidad de componentes: Datos de los fabricantes 144
Fiabilidad de software 145
Métricas de complejidad 146
Estructuración y modularización de programas 147
Modelos de fiabilidad 148
Modelo de Shooman 149
Método de las cero fallas 150
Métodos de prueba 152

V
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

6.Mantenibilidad 153

Mantenimiento Proactivo 154


Mantenimiento preventivo 155
Mantenimiento preventivo con recambio 157
Mantenimiento preventivo imperfecto con recambio 160
Tiempo entre calibraciones 161
Tiempo entre acciones de conservación 161
Mantenimiento predictivo 162
Mantenimiento pasivo 163
Mantenimiento curativo 164
Mantenimiento Correctivo 164
Función de Mantenibilidad 165
Disponibilidad 166
Disponibilidad y fiabilidad de un equipo reparable 166
Disponibilidad y fiabilidad con reserva y mantenibilidad 168
Análisis de un sistema general 169
Tiempos de mantenimiento medio 170
Disponibilidad intrínsica, efectiva y operativa 171
Tiempo para reposición de servicio 172
Capacitación y experiencia 172
Diseño para la mantenibilidad 173
Serviciabilidad 174
Diagnosticabilidad 176
Estimación de la mantenibilidad 176

7.Calidad 177

Clasificación de los defectos 179


Calidad de proceso 180
Capacidad de Proceso 181
Control Estadístico de Proceso (SPC) 184
Grafica de control de calidad 185
Optimización de procesos 187
Función de pérdidas de Taguchi 189
Optimización del diseño 192
Diseño robusto 194
Capacidad de proceso vs. función de pérdidas 195
La iniciativa seis sigma 196
Verificación de la calidad 198
Control estadistico de calidad (SQC) 201
La función calidad en el diseño: Familia ISO 9000 204
Costos de Calidad 206
Mejoramiento de la calidad: Grafica de Pareto 207
Mejoramiento de la calidad: Diagrama de covariación 208
Mejoramiento de la calidad: Diagramas causa-efecto 208

VI
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

8.Manufacturabilidad 209

Sistemas de manufactura 210


Diseño orientado a la manufacturabilidad 211
Diseño para el ensamblado 213
Diseños para la soldadura 215
Diseño para la calibración 216
Diseño para la verificación 218
Diseño de tolerancias (DOT) 220
Asignación de tolerancias 221
Variabilidad debida al proceso 222
Variaciones operativas 224
Estabilidad. Fallas paramétricas 224
Técnicas para mejoramiento de la estabilidad 226
Tolerancia inicial: métodos de diseño 227
Método del peor caso: Intercambiabilidad Total 228
Método probabilístico : Intercambiabilidad Parcial 231
Método de selección por grupos 233
Método de ajuste por pasos 237
Método de ajuste continuo 240

9.Documentación 241

Transferencia de tecnología 241


El documento técnico 241
El cuaderno de Ingeniería 243
Ayudamemorias 244
La oferta de proyecto 244
Gestión de la documentación del proyecto 246
Orden de Cambio de Ingeniería 248
Documentación de equipo final 249
Presentación con transparencias 251

Índice alfabético 257

VII
Proceso de diseño
Los científicos exploran lo que es.
Los ingenieros crean lo que nunca ha sido
T. von Karman

El diseño de ingeniería se vincula con la concepción de sistemas, equipos, componentes


o procesos con el fin de satisfacer una necesidad, y concluye con la documentación que define la
forma de dar solución a dicha necesidad. Harrisberger lo define como “un acto creativo dedicado
a seleccionar, combinar, convertir restringir, modificar, manipular y conformar ideas, resultados
científicos y leyes físicas en productos o procesos útiles”. Un concepto relacionado, pero distinto,
es el de proyecto de ingeniería. En las normas ISO el proyecto de ingeniería es definido como :
“Un proceso único consistente en un conjunto de actividades coordinadas y controladas, con
fechas establecidas de inicio y finalización, desarrolladas con el fin de alcanzar un objetivo para
conformar requerimientos específicos, incluyendo restricciones de tiempo, costo y recursos”.
Claramente surge que para la ISO un proyecto de ingeniería requiere que las tareas
involucradas y su desarrollo reúnan las siguientes condiciones:
• Ser únicas: para que exista un proyecto tiene que existir incerteza en alguna tarea. Esto
implica que, por no haberla realizado antes, no se conocen todas las dificultades que
puede presentar su ejecución. Lo de único no implica que nadie las haya ejecutado antes,
sólo indica que los proyectistas o en la empresa no se cuenta con experiencia anterior.
• Ser complejas: si son triviales no hay incertezas, y al no plantear ninguna dificultad no se
puede hablar de proyecto. Es decir, si la solución es directa y obvia, u obtenible por
cálculo directo, no hay un real problema de ingeniería.
• Responder a una organización temporaria, con duración preestablecida en un plan, y
cuya ejecución, coordinada por un líder del proyecto, esta sujeta a un control de progreso
• Tener objetivos vinculados a satisfacer las necesidades del cliente,
o Algunos de estos objetivos podrán ser definidos en la ejecución, y alcanzados
luego progresivamente durante la realización
o Tener como resultado la creación de un prototipo o varias unidades del producto
o Generar la documentación que permita entender el funcionamiento del producto
objeto del proyecto y asegure su reproducción.
• Satisfacer requerimientos específicos:
o De tiempo: Todos los productos tienen un ciclo de vida, y esto acota el tiempo
de desarrollo. Si los objetivos se vuelven inalcanzables, en términos de tiempo
compatibles con el ciclo de vida del producto, el proyecto pierde sentido.
o De presupuesto, al cual deberá ajustarse el costo de desarrollo
o De beneficio, lo cual es imprescindible para que la empresa sea sustentable en
el tiempo, disponga de los recursos necesarios para la permanente mejora y
pueda contribuir en el futuro a dar una mayor satisfacción a sus clientes
o De recursos, buscando soluciones que:
2 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

• sean manufacturables, es decir, que estén basadas en procesos y


tecnologías cuyo dominio se posee o se puede acceder
• aprovechen los conocimientos científicos y los avances tecnológicos
• sean óptimas en cuanto al aprovechamiento y uso de recursos
En general el proceso de diseño tendrá muchas entradas y a lo sumo dos salidas: La
documentación y un prototipo. Son entradas del diseño las exigencias y regulaciones aplicables al
producto, las cuales deben estar documentadas desde su inicio. Requerimientos inconsistentes,
ambiguos, o incompletos deben ser resueltos con los responsables de tales requerimientos antes del
inicio del proyecto. Asimismo, deben ser parte de las entradas del diseño los objetivos de
fiabilidad, durabilidad y mantenibilidad planteados para el producto, y los criterios de aceptación.
La documentación es la salida del diseño más importante. Debe definir la configuración
del equipo y los elementos necesarios para su fabricación, estableciendo cuales características son
cruciales para el buen funcionamiento del producto, en cuanto a su operación, almacenamiento,
manipuleo, mantenimiento y atender además la disposición final. Debe estar expresada en
términos que permitan la verificación y validación contra los requerimientos de entrada.
La salida debe resultar de un proceso de optimización del diseño, buscando simplificar,
mejorar, innovar, y reducir desperdicios, valiéndose de herramientas específicas tales como,
• La función de despliegue de la calidad (QFD), como base para fijar criterios y metas
para el producto y el propio desarrollo
• Análisis de los modos de falla ( FMEAs ) de los elementos seleccionados, buscando
hallar sus causas y efectos, con el fin de definir y eliminar posibles modos de falla
críticos
• Análisis del árbol de fallas (FTA), método usado para identificar los elementos
causantes de posibles fallas criticas
• Diseño de experimentos,(DOE), como medio de lograr un mayor conocimiento y
optimizar el diseño y los procesos de manufactura
• Análisis de ingeniería del valor (VE), para evitar que las soluciones incluyan
elementos innecesarios
• Análisis de tolerancias (DOT), para obtener altos rendimientos de producción
• Análisis de costo/desempeño/riesgo
entradas del salidas del
Conocimientos diseño diseño
si Definición
Entradas Requerimientos Salidas Diseño de Verificación Validación
Diseño Validación Necesidad de
producto producto de diseño del
diseño
No

Proceso de diseño
Fig. 1 Fig.2
Al final de cada paso del diseño se debe comprobar que los objetivos parciales
comprometidos en esa etapa han sido logrados, figura 1. Una vez completado el diseño, se realiza
una verificación del diseño en su totalidad para comprobar que satisface los requerimientos
establecidos en las entradas. Esta etapa puede incluir actividades tales como:
• Realización de cálculos alternativos
• Comparaciones entre el nuevo diseño y diseños anteriores
• Realización de pruebas y demostraciones
• Revisiones a la documentación previo a su distribución
Pasada la verificación, sigue el proceso de validación del diseño, cuya finalidad es
comprobar que el producto satisface la necesidad para la que es propuesto, figura 2.

2
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 3

La validación se efectúa sobre el producto final y bajo condiciones definidas de


operación, o sea, sobre un equipo que es realizado con el mismo herramental y procesos con que
será luego fabricado, y como paso previo a la entrada en producción. Si surgen incumplimientos,
estos deberán documentarse y definirse las acciones correctivas y preventivas para su cura.
Para dar por concluido el proyecto no es suficiente haber verificado y validado la unidad
sujeto del proyecto sobre uno o varios prototipos; también debe verificarse y validarse la
documentación del diseño, analizando su complitud.
Para la solución de los problemas de ingeniería se han desarrollado a través del tiempo
diferentes aproximaciones. Muchas de ellas son solo pequeñas variaciones alrededor de una forma
de pensar, o paradigma. Un paradigma es una manera de resolver los problemas. La forma en que
se conciben las soluciones no sólo cambia porque se deben tomar en cuenta nuevos avances
científicos y tecnológicos, sino también porque el comportamiento de la sociedad es distinto y
demanda soluciones no sólo mejores sino también diferentes. Esto deriva en cambios
paradigmáticos, que el proyectista debe enfrentar en la elaboración de la solución. Algunos de los
cambios que los nuevos diseños deben enfrentar han sido muy bien puntualizados por la revista
Electronic Design, una década atrás, en un nota editorial:
• Diseño con partes de alta complejidad. Los proyectitas no pueden desarrollar más sus
productos sobre la base de algunas muestras, y apoyándose básicamente en notas de
aplicación, debido a las pequeñas sutilezas que presentan los dispositivos VLSI. Esto
vuelve cada vez más necesario el soporte por parte de los fabricantes de componentes,
convirtiéndose esto en una razón de peso para la adopción de un componente sobre otro
• Diseño para la manufacturabilidad. Se trata de lograr que el lanzamiento al mercado sea
lo más temprano posible, obligando a que los tiempos entre la iniciación del diseño y el
inicio de la manufactura sean cada vez más breves, buscando reducir las interacciones entre
la etapa de diseño y la de manufactura.
• Tiempo para la comercialización. Con mercados cada vez más competitivos, y más
innovación, los ciclos de vida de los productos son cada vez más cortos. Esto también
obliga a que los tiempos de diseño deban ser cada vez menores.
• Calidad. La búsqueda de la satisfacción del cliente debe ser la consideración primaria del
diseño
• Limitación a pocos proveedores. Por mucho tiempo prevaleció el concepto de que era
necesario disponer de una segunda fuente para la provisión de partes y componentes.
Cuando se opera con componentes innovadores, esto ya no es posible: es más importante
estrechar la relación cliente-proveedor, y trabajar con políticas colaborativas entre ambos.

Metodología de desarrollo
Desde siempre se ha reconocido la necesidad de seguir una metodología para lograr una
exitosa ejecución del desarrollo, y a ese fin se han propuesto diversos modelos. Son muchas las
organizaciones, asociaciones empresariales, y grandes corporaciones que han propuesto y aplican
estos modelos para el desarrollo de sus productos

Reconocimiento de Definición de Diseño Desarrollo de Validación Desarrollo de Preserie de Validación de


una necesidad Producto conceptual prototipo del diseño manufactura Producción manufactura

2 a 5 años
Fig. 3

Los primeros modelos de desarrollo diferenciaban claramente dos etapas: Una abocada a
la ingeniería del producto y otra al desarrollo de la manufactura, tratándose ambas etapas con
bastante independencia entre si, figura 3.
3
4 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Estos modelos, como el propuesto por el Consejo de Ingenieros Alemanes (VDI),


responden a un esquema natural: entender el problema, definir una solución conceptual, subdividir
el problema en pequeños subproblemas, dar las soluciones de detalle y finalmente integrar el
conjunto. Su mayor desventaja es que por principio son reactivos: En cada etapa se verifica el
producto y se analiza su conformidad en función de la tarea a desarrollar. Esto lleva a una
detección tardía de deficiencias, a efectuar rediseños, y a un mayor esfuerzo global y demoras.

Análisis de caso: Una variante del método, aplicada por Siemens en el desarrollo de equipos electromédicos,
o
es el esquema de la figura 4 (Revista Siemens XLIII (1975) N 5).
En este esquema de diseño el proceso de desarrollo se efectúa en dos fases. Al final del desarrollo
preliminar se obtiene un prototipo de laboratorio (1) con el que se hacen luego los ensayos médicos (3) a fin de
determinar las especificaciones del producto (13) a las cuales deberá ajustarse el desarrollo del producto (2).
La comprobación del prototipo (4) se efectúa al final del desarrollo del producto. Se verifica la seguridad
después de ser sometido a carga, haciendo una comprobación de la carga de los distintos elementos, y un
análisis de aspectos relacionados con la manufactura (procesos y controles), y el mantenimiento.
Después de superar las pruebas realizadas sobre el prototipo se terminan los planos de construcción
y la documentación de fabricación. La fabricación comienza con la preparación de los trabajos (10). Al mismo
tiempo se obtienen los certificados de prueba legalmente exigidos, y se definen los procesos y planes de
pruebas, elaborándose los verificadores automáticos correspondientes (6). Antes de iniciar la fabricación (11)
se lleva a cabo una comprobación de los componentes (7), y durante la fabricación se hacen pruebas de
subconjuntos (8). Concluida la fabricación tiene lugar la verificación final (9). En esta fase tiene lugar también la
elaboración del manual técnico del usuario (14), el manual de servicio técnico (15), la documentación técnica
de venta (16) y la documentación para la instalación (17).

1 2
Desarrollo

Verificacion 3 4 5 6 7 8 9

Fabricacion 10 11

Ventas 12 13 14 15 16 17

tiempo

Fig. 4 inicio del desarrollo Entrega a fabricacion Equipo suministrable

Los modelos proactivos, como el propuesto por la Asociación Alemana de la Industria


Automotriz ( VDA ), se basan en los nuevos conceptos de ingeniería concurrente o ingeniería
simultanea. Estos modelos dan participación a todos los sectores involucrados desde las fases
más tempranas del ciclo de desarrollo, evitando posteriores cambios debidos a desadaptación u
omisiones. Esto se refuerza con oportunas etapas de revisión del diseño, con participación de
todos los sectores, cuya finalidad es ver que las metas del cliente, requerimientos del usuario final
y necesidades de las futuras etapas del ciclo de vida del producto (compras, manufactura,
despacho, instalación, reparación, etc.), están siendo contempladas en el diseño. Es función de la
revisión del diseño:
• Analizar la descripción del producto conforme al documento de diseño
• Rever el documento del diseño bajo la óptica de cada especialista
• Evaluar si la experiencia de la empresa ha sido volcada al diseño, siguiendo un listado de
verificaciones especialmente preparado
• Verificar que se hayan propuesto las mejores soluciones para satisfacer las metas
• Verificar que se cumplen los supuestos económicos y las fechas comprometidas
Conceptualmente, el modelo de la VDA gira alrededor del aseguramiento de la calidad,
figura 5, y con especial énfasis en la manufactura, buscando mejorar la curva de aprendizaje, de
modo que desde su lanzamiento el producto satisfaga todas las expectativas del cliente. En los
productos de producción seriada, la optimización y puesta a punto de los procesos de fabricación
es una de las tareas más importantes dentro del desarrollo del producto.

4
Etapa de aprovisionamiento Produccion
Definicion y actividades de diseño Etapa desarrollo y planeamiento producion
y produccion piloto seriada
Grupo de trabajo
Coordinacion de Desarrollo
Coordinacion de Produccion
DR: Revisiones del diseño 31

18
1 5 32
14 19 23 27 40
9 37
DR DR DR DR
2 6 12 15 24 28 33 41 44
A C 20 D
B 10 E 38 F G H
3 7 13 16 34
21 25 29 42 45
11 39
4 8 17 26 30 35 43
22

36

Revision diseño Revision diseño Revision diseño


FMEA de diseño FMEA de proceso Control
investigacion capacidad de proceso estadistico
Estudio de manufacturabilidad de proceso
QDF
Diseño de experimentos de Producto
Diseño de experimentos de Proceso
Analisis arbol de fallas
Ingenieria concurrente

A. Objetivos B. Metas del sistema C. Propuesta especificación D. Especificación consolidada E. Liberación para aprovisionamiento de maquinas de
producción F. Liberación producción piloto G. Liberación para el comienzo de la producción seriada H. Liberación para el lanzamiento de producción
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño

1.Requerimientos del cliente 2.Legislaciones 3.Idea de Producto 4.Análisis de mercado y competencia 5.Meta de calidad 6.Estudios de ingeniería de producto 7.Escala de
producción. Precio de venta y Costeo 8.Planeamiento de tiempos 9.Plan de Aseguramiento de la calidad 10. Diseño 11.Diseño de estilo 12.Tentativa de especificación
13.Planeamiento de tiempos 14. Anticipo del plan de equipamiento para fabricación y control 16.Memoria Técnica del Producto 17.Planos 18.Desarrollo prototipo 19.Plan de
aseguramiento de la calidad 20.Selección de Proveedores 21.Aceptación prototipo 22.Listado de partes. Arranque fabricación de partes a medida 22. Consolidación Especificación
23.Evaluación de la capacidad de proveedores 24.Plan de controles y del equipamiento de control 25.Plan del equipamiento de producción 26.Delineamiento de la línea serie
27.Análisis de la capacidad de maquinas y procesos 28.Selección final de proveedores 29.Resultados prototipo desarrollado 30.Prueba de la línea 31.Capacitación del personal
32.Delineamiento planes de muestreo componentes 33. Delineamiento planes de muestreo de producción 34.Aceptación equipos de control 35.Aceptación equipos producción
36.Aceptación de partes producción piloto 37. Consolidación documentación 38.Prueba de producción serie 39.Primer muestreo de partes de proveedores 40.Liberación partes
provisión interna 41.Serie Piloto 42.Estimación metas calidad 43.Manufactura, aprovisionamiento y control componentes seriados 44.Producción seriada 45.Registro de datos de
producción en gran escala

Fig . 5

5
5
6 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Determinación de la necesidad
El proceso de diseño parte del reconocimiento de una necesidad insatisfecha, mal
satisfecha, o susceptible de mejorar en algún sentido. Las necesidades resultan o surgen por
motivaciones muy variadas:
• Investigaciones de mercado, que muestran que los productos actuales han quedado
obsoletos, o fuera de competencia
• Aparición de nuevas legislaciones, normativas o demandas. Por ejemplo, Brasil emitió
en el 2001 una normativa que obligo a partir del 2003 a que todos los televisores
comercializados en dicho país tengan incorporado el V-chip ( violence-chip). El V-chip
permite bloquear electrónicamente aquellos programas cuyos contenidos los adultos
consideren inapropiados para los menores, por tener escenas de violencia, sexo o lenguaje
obsceno. Para hacer esto posible, cada emisora además debe emitir una calificación del
contenido en forma codificada durante el intervalo de borrado vertical.
• Complementos de productos, por análisis de un mercado ya existente, desarrollado con
anterioridad, y sobre el que se ven posibilidades de un mayor desarrollo futuro. Por
ejemplo, las posibilidades de integración que surgen para el desarrollo de redes
personales (PAN, personal area network ) debidas al empleo del protocolo Bluetooth
para la interconexión mediante medio inalámbrico de computadoras, teléfonos,
impresoras, y periféricos de baja potencia, como las PDA ( Personal Digital Assistant ).
• Nuevas posibilidades que surgen durante la ejecución de otro proyecto
• Pedidos formales, donde el cliente formula directamente el requerimiento
• Pedidos informales, en donde un potencial cliente sugiere que una determinada
propuesta, en un área de interés particular, tendría gran aceptación o grandes
posibilidades futuras. Por ejemplo las necesidades que surgen a consecuencia del cambio
en el valor de la tensión de batería de los automóviles, debido a que esta previsto en un
futuro próximo pasar de los +12V actuales a +42V.
• Nichos de mercado insatisfechos de productos existentes. Por ejemplo algunos
fabricantes de monitores de PC han pensado que el formato del monitor estándar es poco
adecuado para el diseño de documentos, entreviendo en ello una necesidad no atendida.
Para este tipo de aplicación el monitor debería contener una pagina de documento
completa por pantalla, y tener además la posibilidad de rotar 180º para tomar el formato
tradicional. Otra solución innovadora, dentro de este segmento de mercado ha sido el
desarrollo del monitor doble; con este es posible trabajar simultáneamente con dos
documentos a pantalla plena, en forma independiente, y desde una sola PC.
En resumen, el proceso de diseño puede ser iniciado basándose en una idea para una
solución a una necesidad existente, y aún no atendida, o en ideas pensadas para solucionar
necesidades futuras. En muchos casos, la necesidad la “descubre” el departamento de marketing de
la propia organización, o es el resultado de prospecciones realizadas por empresas especializadas.
El departamento de marketing debe colaborar estrechamente con el sector de desarrollo con el fin
de reconocer tendencias y discontinuidades tecnológicas que se constituyan en nuevas
oportunidades; es además el encargado de evaluar el valor que el cliente asigna a las nuevas
características que ingeniería le puede conferir al producto, como consecuencia de los avances en
la tecnología, y que sirven de base para determinar los cambios que deben introducirse.
Debe tenerse presente que un mismo producto puede ser definido de muchos modos, y
cada uno de ellos responde a una estrategia que cada empresa se impone para posicionarse mejor
en el mercado. Consideremos por ejemplo el caso de una impresora por chorro de tinta. Cuando se
apunta al mercado masivo, muy sensible al precio de adquisición, el producto puede ser definido
de modo que tenga bajo precio de venta inicial, compensando esto con un mayor costo del
cartucho. En este caso el cartucho debe ser concebido de modo que no permita la recarga, es decir
pensado para usar y desechar: El negocio no es la venta de impresoras, sino de los cartuchos.

6
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 7

Definición de Producto (PDD)


Los proyectos arrancan y terminan siempre con documentos. El primero de estos
documentos, y además elemento clave de cualquier proyecto, es el que define los requerimientos
del producto. El último es la memoria del proyecto, documentación probatoria que sirve para
validar los cálculos y decisiones asumidas en el desarrollo del producto.
Para no arribar a la solución perfecta para el problema equivocado, el primer paso de
cualquier proyecto debe ser entonces asegurarse de que el problema quede bien definido en un
documento. La documentación para el desarrollo del proyecto podrá ser algo tan simple como una
hoja en la cual se describen las características esenciales que requiere el producto, o ser algo tan
complejo como todo un libro o varios tomos, en los que se declara exactamente las condiciones a
cumplir, incluyendo los métodos de verificación. Esto significa definir a nivel de detalle
características a cumplir, interfaces, detalles del hardware y del software, y los métodos de
verificación, figura 6.
Requerimientos del producto
Documentacion para el desarrollo

Requerimientos funcionales

Definicion de Producto
Especifica y describe los modulos, placas Especifica el software de cada modulo y su
o subsistemas, que funcion cumplen y como interrelacion, incluyendo diagramas de
se interrelacionan (protocolos y conectores). flujo o de estado.

Especificaciones de puesta en marcha, operacion y


mantenimiento

Especificacion de ingenieria
Metodos de ensayos sobre modulos y sistema

Fig.6 Informes de ensayo

Validacion

Los requerimientos sirven para la definición de producto, describiendo brevemente lo que


el producto es; responden básicamente a la cuestión: ¿para que sirve? Los requerimientos
funcionales definen lo que el producto debe hacer, y las especificaciones de ingeniería describen
como se debe lograr satisfacer esos requerimientos; es decir condicionan el ¿como hacerlo? Las
especificaciones de hardware y de software describen el detalle de como debe ser diseñado el
hard y el soft, incluidas las especificaciones referidas a la instalación, operación y mantenimiento.
Finalmente las especificaciones de ensayo describen como ha de ser probado el sistema para
verificar que opera correctamente, los informes a emitir y certificaciones a obtener.
Cuando se trata de productos orientados a clientes específicos resulta difícil cambiar una
especificación, como es el caso de los OEM (original equipment manufacturer ). En estos casos,
las características del producto son establecidas en un documento que es definido conjuntamente
con el cliente, conformando lo que se denomina el Documento de Definición de Producto o PDD
(Product Definition Document ). Este documento llega a tener un gran nivel de detalle, tanto del
hard como del soft. Por ejemplo, la entrada de un microcontrolador, que sensa el accionamiento
de una microllave de fin de carrera, puede estar definida con el siguiente detalle:
Pin Descripción Detalles
....
2/12 . .....................
3/12 Multiplexada internamente, 1.8k de resistencia de pull-up,
Entrada, llave de traba protección frente a conexión errónea
Nivel ALTO 0.8Ub a Ub, nivel BAJO 0V a 0.2Ub
Activa: Entrada a masa
...............
4/12 .........................
..
Cuando se trata de productos nuevos, o productos para el mercado abierto, las
especificaciones a cumplir normalmente marcan el encuadre: Solo son exigencias de tipo general,
con los lineamientos generales que debe satisfacer el producto, básicamente aquellos que el
cliente puede apreciar y valorar. En tal caso, muchas de las características del producto son

7
8 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

definidas durante el desarrollo. Para el desarrollo se parte de un Documento de Requerimiento de


Mercado o MRD (Market Requirement Document ), en el cual se incluyen aspectos referidos a:
• interoperabilidad
• prestación
• robustez frente a interferencias
• fiabilidad
• escalabilidad
• capacidad de diagnostico y mantenimiento
• facilidad de implementación
• facilidades para la instalación y puesta en marcha
y en todos los casos, además, deberán incluirse los requerimiento o regulaciones propias del
mercado y del país al que esta orientado el producto.

Contenidos de una especificación


Establecer las especificaciones de diseño es una de las actividades más complicadas,
difíciles e importantes, pues ellas determinan la capacidad final del producto y su costo. Deben
fijarse en las etapas más tempranas del proceso de diseño, basándose en la definición de producto
(PDD), o el MRD, y deben ser lo más específicas posibles. Son imprescindibles para el manejo y
control del diseño, y las mismas deben contemplar gran diversidad de aspectos, tales como:
• Condiciones ambientales: temperatura, presión, humedad, presencia de polvo o agresivos
químicos, resistencia a insectos, ruidos, vibración, y tipo de trato previsto por el usuario.
Estas características deben ser vistas como la carga posible a la que puede estar sometido el
producto dentro de su ciclo de vida. Es decir, las exigencias pueden darse sólo en
manufactura, en transporte, en exhibiciones, en almacenamiento, o en el uso.
• Características operativas y funcionales, en las cuales se define el fin para el cual va a servir
el producto, con detalle de los modos de operación del producto básico, y las previsiones para
futuras opciones. Se especifican asimismo los factores que sirven para valorar la prestación
del producto.
• Interfase con el operador, donde se describe la interacción del operador con el producto
• Características estandarizadas, en las cuales se contempla la compatibilidad con otros
equipos del mercado, y las normas nacionales e internacionales que debe satisfacer
• Requerimientos de compatibilidad electromagnética ( EMI/EMC, Electromagnetic
interference/Electromagnetic compatibility ), conforme a regulaciones de la FCC o de la CE.
• Aprobaciones de seguridad por parte de laboratorios externos para certificar que se satisfacen
los requerimientos de alguna norma específica, como ser las normas emitidas por el UL
(Underwriter Laboratories) , o el Comité Electrotécnico Internacional (IEC )
• Tiempo operativo o ciclo de trabajo: tiempo en el que se supone que el equipo va a estar en
servicio, estimado en horas diarias.
• Mantenimiento: concepción del equipo en cuanto a su mantenimiento: ¿será reparable o
descartable? Si fuera reparable, ¿qué consideraciones deberán tenerse en cuenta en el diseño?
¿Que repuestos deben asegurarse y por cuanto tiempo?
• Meta de Costo, sea dentro del ciclo de vida o sólo de manufactura, o bajo el período de
garantía
• Competencia, debe definirse un posicionado en tal sentido, de modo tener en claro las
diferencias desde el comienzo del diseño

8
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 9

• Despacho al mercado: tipo de embalaje, empaquetadura, etc. de modo tal que de existir
mecanismos o partes que puedan verse dañados en el transporte, las mismas se encuentren
protegidas o bloqueadas
• Cantidad: volumen de fabricación esperado, lo cual hará convenientes ciertas técnicas de
diseño sobre otras, y será además útil para definir procesos y herramental especial para la
fabricación.
• Instalaciones especiales para su manufactura, en función de las cuales se determinará la
conveniencia de subcontratar partes o todo a terceros, haciendo que el proyecto sea menos
capital intensivo y reduciendo los costos fijos
• Tamaño y forma, básicamente buscando que no haya restricciones condicionantes
• Peso y modo de fijación
• Apariencia y terminación: estética del producto.
• Tiempo de vida: estimación del tiempo en el que va a permanecer en el mercado.
• Normas o regulaciones que debe satisfacer. Los productos, en relación a las normas, pueden
clasificarse en :
• productos regulados, como ser equipos electromédicos, con implicancias ambientales, o
con posibilidad de afectar a terceros. En general estos productos están sujetos al
cumplimiento de leyes y regulaciones gubernamentales
• productos no regulados: es la condición de la mayoría de los productos dedicados al área
de entretenimiento
• Aspectos ergonómicos, vinculados con su interacción con las personas, disposición y tipos de
controles y visualizaciones; cuplas y esfuerzos mecánicos mínimos y máximos de
accionamiento, etc.
• Caracterización del cliente o usuario: preferencias, prejuicios, etc.
• Calidad y fiabilidad que debe alcanzarse para asegurar su inserción en el mercado.
• Condiciones de almacenamiento, para evitar efectos de desgaste o corrosión prematura.
• Metas de tiempo, sea para el desarrollo de algunas de sus partes o fases, o para el total del
proyecto, debido a que su lanzamiento puede estar ligado a un evento especial.
• Exigencias de ensayo: deben ser conocidas las características que deberán evaluarse sobre el
producto terminado a la salida de fábrica, cuales hacerse sobre el total de las unidades y cuales
solo sobre algunas muestras.
• Seguridad: relacionado con la probabilidad de que por falla el equipo pueda causar daños que
sean fuente de futuro litigios.
• Restricciones internas, que puedan existir dentro de la empresa y prohíban el uso de ciertos
materiales, o el uso de ciertos procesos de manufactura, o métodos de control, etc.
• Restricciones de mercado, que tomen en cuenta restricciones o particularidades de uso.
• Existencia de patentes que limiten de algún modo las soluciones, u obliguen a obtener y
pagar licencias.
• Implicaciones políticas y sociales que pudieran afectarlo.
• Aspectos legales, los cuales deben ser considerados especialmente tomando en cuenta que
pueden existir leyes publicas que crean obligaciones del fabricante frente al usuario, o que se
requieren aprobaciones por entes específicos previo a la comercialización .
• Instalación: accesorios necesarios y exigencias para que la instalación sea compatible con los
demás equipos con los cuales debe interactuar.
• Documentación: manuales a generar: de usuario, de instalación, de mantenimiento.
• Disposición del equipo: recomendaciones acerca de qué hacer cuando se produce la baja.

9
10 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Dado que las especificaciones sirven de guía para el equipo de proyectistas, es por ello
esencial que los participantes del proceso de diseño posean un completo entendimiento de las
mismas, y para que este sea común es fundamental una coordinación entre los distintos sectores.
Para ello, se establecen grupos interdisciplinarios para discutir cómo se deben interpretar las
especificaciones en las distintas áreas y cómo deben ser aplicadas. A pesar de que las
especificaciones se establecen con carácter permanente e inviolable, deberían ser continuamente
revisadas y revalidadas durante el proceso de diseño, para asegurar que siguen reflejando las metas
y objetivos del proyecto.

Conceptualización
Para definir la solución hay dos caminos opuestos: el ascendente y el descendente. En el
primer caso, se parte de componentes existentes, alrededor de los cuales se va construyendo la
solución. En el segundo se hace un desglose en sub-problemas y así sucesivamente hasta llegar a
componentes definidos a la medida de la necesidad, los cuales, de no existir, será necesario
desarrollarlos, figura 7.

Fig. 7 Fig. 8
Rara vez se usa en exclusividad uno de estos métodos, sino mas bien una combinación de
ambos. La técnica ascendente busca usar elementos estándar, y la descendente requiere definir
elementos dedicados, de una capacidad dimensionada a la medida de su carga. Tiene además la
ventaja de que, siendo elementos dedicados, restringe el acceso de competidores a esos elementos.
La desventaja es que el esfuerzo de diseño es mayor, y sólo redituable con suficiente volumen de
mercado.
En cualquier caso no debe perderse la perspectiva del problema: La necesidad estará
asociada a un sistema o equipo, y la tarea de proyecto es definir los componentes de la solución,
pero teniendo claro a que nivel de descenso debe llegarse para obtener las mayores ventajas
competitivas y de beneficio, diferenciando aquellas partes que integran el núcleo del producto.
La complejidad del proyecto, y por ende el esfuerzo de diseño, depende del escalón al que
se descienda: cuanto más bajo, mayor es el número de partes a definir y la complejidad
tecnológica, figura 7, y menor el valor agregado, figura 8. Algo que no debe perderse de vista:
Siempre los mayores beneficios están por el lado de los sistemas. El problema de la ingeniería de
desarrollo es como ubicarse en ambas pirámides. Con componentes cuyo valor se ubica por
debajo de las milésimas de dólar la unidad, ¿cuantos miles son necesarios para que su diseño
específico tenga sentido económico? La excepción son los componentes que forman el núcleo del
sistema o equipo.
Definido el sistema, el paso siguiente será determinar que cosas se van a resolver por hard
y que cosas por soft, y la manera más simple de decidirlo es, a partir de los requerimientos,
generar especificaciones consistentes para el desarrollo de ambos. Bajo este esquema, el software
y el hardware quedan definidos en una etapa temprana, haciendo que su desarrollo sea en gran
medida independiente, y por tanto pueda hacerse en forma paralela, figura 8. Esto, que supone que
el diseño del software se reduce a escribir código alrededor de un hardware definido, es posible en
pequeños proyectos; en los grandes hay una interacción continua.

10
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 11

Definir tempranamente que cosas se implementaran en hard y que cosas en soft no es una
decisión fácil y de respuesta única. La tendencia es volcar la mayor funcionalidad posible en el
soft. Las limitaciones para esto son la capacidad de memoria, la velocidad de procesamiento
requerida, y los retardos de tiempo admisibles para la atención de interrupciones. Pero, a medida
que se pone mas funcionalidad en el soft se incrementan la complejidad, el tiempo para codificar,
la cantidad de errores, y el tiempo necesario para depurar. En resumen, el problema puede ser
planteado de este modo:
• La solución por hard implica siempre agregar algún integrado adicional, y esto
agrega un costo extra por cada unidad producida, que puede ser importante en
productos de bajo costo. Esto hace que aquellas funciones que no pueden cumplirse
por soft, por falta de memoria o velocidad, deben ser descartadas
• La solución por soft es un costo no recurrente, en la medida en que este exenta de
errores y se implemente mediante mascara

Evaluación de viabilidad
La evaluación de viabilidad se realiza usualmente como parte de la tarea de
conceptualización en pequeños proyectos, pero es la acción principal en proyectos importantes,
llevando en muchos casos varios años de estudios. El propósito de la evaluación de viabilidad es
asegurar que el proyecto sea exitoso, sobre la base de que su realización será factible tanto técnica
como económicamente. La manera en que se hagan estas evaluaciones dependerá del tamaño y la
complejidad del proyecto. El período de evaluación es el momento para definir conceptos que el
diseño seguirá para asegurar que el producto final cumpla el objetivo propuesto, basándose en los
recursos disponibles. Primero se hace un análisis técnico, buscando determinar la disponibilidad de
los componentes que integran el núcleo del proyecto, y luego el esfuerzo se concentra en la
estimación de los costos, ya que éstos son, en general, los principales factores limitantes.
En el diseño de productos es necesario valorar los beneficios de cada alternativa. La tarea
de predecir cuantitativamente el comportamiento de cada alternativa con respecto a cada uno de
los criterios que se hayan fijado para el proyecto no es tarea sencilla. La mayoría de estas
predicciones han de hacerse cuando el proyecto aún está en su etapa conceptual, debido a que la
experimentación raramente es económica. Precisamente bajo estas condiciones es cuando no se
puede predecir con exactitud el desempeño futuro ni los costos relacionados con cada alternativa,
ya que es difícil poner en forma cuantitativa, en términos monetarios, todos los factores que
inciden sobre el resultado, siendo aceptables aproximaciones del 20% al 30%, y aun mayores.
Integrando los estudios de viabilidad están los análisis de fortalezas y debilidades, con
los cuales se busca determinar las oportunidades y las amenazas a las que esta sujeto el proyecto.
Estos análisis tratan de mostrar que acciones serán necesarias para llevar el proyecto hacia aquel
horizonte donde se es fuerte, donde están las mayores oportunidades de éxito. Es decir, el análisis
de fortaleza busca definir las áreas o puntos en los que se apoya el proyecto y donde la empresa es
fuerte, y las amenazas a las que esta sujeto por parte de los competidores y de los clientes.

Diseño preliminar
Durante el diseño preliminar se define la configuración total del sistema, el diagrama de
bloques, y se hace la selección de los componentes que integran el núcleo del proyecto, teniendo
en cuenta disponibilidad, costo, limitaciones y facilidades de manufactura, metas de fiabilidad,
etc. y se desarrollan los diferentes planos, esquemas y/o documentos generales que asistirán a los
proyectistas en la etapa del diseño detallado. Los requerimientos que se establezcan en esta fase
del proceso serán la base de las especificaciones finales, aunque es importante tener en cuenta los
siguientes conceptos:

11
12 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

1. Es imposible especificar correctamente al comienzo de un desarrollo todos los requerimientos


del sistema, por lo que será necesario un refinamiento iterativo a medida que se avance en el
proceso de desarrollo.
2. Se deben aceptar las frecuentes y sucesivas realimentaciones como una manera de ir refinando
el diseño.
3. Es usual en la etapa del diseño preliminar apoyarse en paquetes de simulación específicos con
la finalidad de validar conceptos de solución. Estos paquetes de CAD se basan en modelos
que, aunque muy potentes, requieren normalmente una posterior comprobación experimental,
que, de ser negativa, obligara al replanteo de la solución.
El diseño preliminar es, usualmente, llevado a cabo por un pequeño núcleo de profesionales
que representan las distintas disciplinas involucradas en el proyecto, los cuales una vez finalizada
la etapa preliminar continuarán trabajando en la fase siguiente (diseño detallado).

Diseño detallado
El propósito de esta etapa del proyecto es:
• seleccionar los circuitos,
• establecer modelos para el cálculo de los elementos, a fin de determinar la carga a la que
se ven sometidos,
• seleccionar los componentes estándar en función de la carga a la que están sometidos,
indicando fabricante y número de parte correspondiente
• establecer las especificaciones que deben ser satisfechas por los componente a medida,
• realizar análisis de valor de cada elemento,
• documentar los problemas detectados en las etapas de verificación, y las acciones de
corrección correspondientes
• documentar los resultados de los ensayos de validación efectuados sobre prototipos
• generar la documentación y las especificaciones que describan completamente el diseño,
etc.
En otras palabras, en esta etapa, diferentes grupos de profesionales y departamentos de la
organización de diferentes disciplinas trabajan activamente en procesos de síntesis y análisis de las
soluciones, realizando evaluaciones de componentes para validar los requerimientos establecidos
previamente, especificando aquellos que hasta el momento habían permanecido indefinidos y
estimando los efectos de los distintos componentes en el sistema. Las especificaciones son, en
general, planos con detalles de terminación, con medidas y datos de los ensayos a los que esta
sujeta cada parte, y donde por lo general el número de plano se convierte en el número de parte.
Para los componentes y demás elementos dedicados del sistema se realizan los planos de
detalle, que especifican las dimensiones necesarias, los materiales de construcción, técnicas de
maquinado o ensamble, requerimientos para su ensayo, etc. Los planos de detalle deben incluir
toda la información necesaria para producir y verificar el componente; además deben mostrarse las
vistas de las piezas que serán necesarias para la manufactura.
La selección de los componentes estándar que giran alrededor de los componentes
principales que integran el núcleo del proyecto deberá hacerse teniendo en cuenta:
• Costo ( considerando el volumen )
• Calidad y fiabilidad ( niveles de AQL y tasa de fallas )
• Características funcionales especificas (tolerancia, comportamiento térmico, etc )
• Disponibilidad en el mercado ( tiempo de entrega )
• Exigencias de manufactura ( tipo de montaje y soldadura )
• Racionalización ( gama preferida de valores )
• etc

12
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 13

Un punto débil de muchos diseños es la falta de un análisis de valor que justifique la


necesidad de cada elemento y las razones de su elección, o haber descuidando las condiciones de
validez de las características suministradas en las hojas de datos, o bien que se aproveche una
funcionalidad de los dispositivos basada en características no documentadas. Otro punto a cuidar
se da cuando se emplean dispositivos de un modo no convencional, en aplicaciones para las
cuales no fue pensado. En tal caso, las hojas de datos seguramente no suministraran toda la
información necesaria para el diseño, por lo que el parámetro que se quiere aprovechar puede
estar totalmente descontrolado. Dos situaciones pueden darse, que el diseño se apoye en:
• características documentadas, pero con información insuficiente;
• comportamientos no documentados en las hojas de datos.
Solo en el primer caso se tiene la certeza de que se mantendrán esas características, y por
tanto podrá ser usado sin restricción alguna, salvo las que resulten de los propios valores limites.
El otro punto que no debe descuidarse en el análisis detallado de los circuitos es el
correspondiente a las condiciones de sobrecarga, y los transitorios de conexión y desconexión. Es
decir, el análisis de los circuitos no debe limitarse solo al análisis bajo condición normal y en
régimen. Deberán considerarse también las condiciones anormales que pueden darse en el proceso
de conexión o de desconexión del equipo, o las que resultan por condiciones anormales de carga.
Este tipo de situaciones se da siempre en todos los circuitos que incluyen elementos reactivos. Para
evitar estas sobrecargas, puede ser necesario agregar componentes o circuitería adicional que
límite la tensión, la corriente o la potencia disipada.

Despliegue de la función de calidad (QFD)


La meta final de cualquier diseño es la satisfacción del cliente. Por ello, una de las tareas
más importantes es conocer y considerar desde el comienzo del desarrollo quien va a ser el
usuario, cuales son sus expectativas y conque productos se debe competir, y relacionar esto con
las características para el diseño. A este fin se han propuesto diversas herramientas, siendo la casa
de calidad una de las más importantes surgidas en los últimos años. Con esta ayuda se busca:
• evaluar el producto bajo la percepción del usuario,
• realizar un análisis comparativo con respecto a la competencia bajo la óptica del usuario
• realizar análisis de competitividad basado en las características técnicas
• evaluar las dificultades para alcanzar las metas
• establecer el compromiso de los distintos sectores internos de la empresa en el logro de
las metas del producto
• establecer la interrelación entre las características
La casa de calidad, cuya denominación se debe a la forma que toma, figura 9, va mas allá
del usuario del producto: es una herramienta útil para la planificación, el desarrollo, la
comunicación y la coordinación requerida entre los distintos sectores de la empresa, entendiendo
que el principal objetivo de esta es dar satisfacción al cliente. Es decir, el QDF es una herramienta
para ajustar la empresa al cumplimiento de su principal objetivo: la satisfacción del cliente. En vez
de seguir siempre el mismo camino para dar solución a los problemas, se formula para cada caso
uno, el cual, se concibe según los nuevos requerimientos del cliente. Esto lleva a que por un lado
se omitan tareas que no son valoradas por el cliente, y por otro no se eluda la realización de
aquellas que hacen a la bondad del producto tal como el cliente lo aprecia.
Para ponderar según la visión del cliente las características del producto deben
considerarse, siguiendo el modelo propuesto por Kano, figura 10, tres tipos de atributos:
ƒ los explícitamente formulados
ƒ los implícitos, y normalmente esperados por el cliente, y considerados obvios.
ƒ Los impensados y desconocidos por el usuario, pero cuya disponibilidad le entusiasma

13
14 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Para Kano, incumplir requerimientos explicitados genera disconformidad, pero


incumplimientos de atributos implícitos causan siempre gran insatisfacción; por el contrario si el
usuario es sorprendido con atributos o características adicionales que le agregan valor, esto
provocara un fuerte entusiasmo con el producto, aun para un nivel de cumplimiento bajo.
El esquema de la casa de calidad se aplica en todas las etapas de proyecto, donde el
cliente debe verse en su acepción más amplia: Son clientes de una etapa todos los que usan la
salida de esa etapa. Es decir, se consideran usuarios a todas las etapas que siguen dentro del ciclo
de vida del producto, y esto incluye a muchos sectores internos de la propia empresa. Para cada
uno de estos clientes, dentro de cada fase, debe ejecutarse la correspondiente casa de calidad.

Matriz de
interrelacion

Especificaciones
Requerimientos para el diseño

Peso
relativo Analisis
E1 E2 E3 E4 E5 E6 posicion
competitiva

R1 P1

R2 P2

R3 P3

R4 P4

R5 P5 Fig.10
R6 P6

competidor COM O

Analisis tecnico propio


de QUE
competitividad

D is e ñ o d e D i s e ñ o d e
P r o d u c t o M a n u f a c t u r a M a n u f a c tu r a

Fig.9 Fig.11

Con la función de despliegue de calidad se pretende responder primero al QUE quiere el


cliente, y recién luego considerar al COMO darle satisfacción. Todo el ciclo del producto puede
verse como una sucesión de QUEs y COMOs, figura 11, debiendo verse a la QFD como la base
para definir las distintas acciones en el desarrollo del producto.
La casa de calidad puede verse simplemente como la reunión de distintas tablas, cada una
con un enfoque definido. La primera tabla comienza en la fase conceptual: traduce los
requerimientos del cliente en características internas de la empresa. Las características internas se
traducen luego en requerimientos que deben ser volcados en las tablas (casas de calidad) propias
de cada etapa. La idea es que cada componente de la empresa se vea a la vez como cliente y como
proveedor. Como cliente recibe entradas y como proveedor debe considerar los requerimientos de
su cliente, ejecutar un trabajo, y transferir como proveedor una salida a su cliente. Es decir, en esta
cadena no es solo el usuario final el cliente, sino que cada unidad de la empresa debe ser
considerada como tal, aunque todas actúen bajo la orientación del cliente final, que es el usuario
del producto. Conocidos los requerimientos planteados para cada etapa del diseño se puede
determinar en que medida cada sector puede darles cumplimiento. Con esto es posible generar una
segunda tabla en la cual se evalúa la posición propia frente a los competidores en relación a los
requerimientos que plantea el usuario, figura 12.

14
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 15

Caracteristicas y
especificaciones
Departamentos involucrados
tecnicas
Analisis de

Reclamos y garantias

y
competitividad Analisis de

Parametro critico
Desarrollo de ... competitividad

Parametro critico
¿COMO?

Reclamos y garantias
Competencia
Estilo Ensayos Manufactura
producto

Competencia
Prioridad
¿COMO?

Prioridad

del cliente
del cliente
Actual

Meta

Actual

Meta
¿QUE? 1 2 3 4
¿QUE?
1 2 3 4 5 5
requerimiento 1 requerimiento 1

requerimiento n requerimiento n

Fig.12 Fig.13
Analizando el posicionamiento actual de la empresa, se determinara la meta propuesta
para el proyecto, de lo cual resultara el futuro posicionamiento pretendido y la interrelación entre
las diversas características, figuras 9 y 13, mostrando a la vez los sectores internos que deben
cooperar y trabajar de un modo coordinado.

Ingeniería del valor (VE)


La ingeniería del valor busca identificar y eliminar los costos inútiles de un producto.
La idea es aumentar el valor de los productos, suministrándolos a pecios más bajos sin disminuir
su calidad o fiabilidad. Si bien le cabe a la ingeniería de producto la mayor responsabilidad, en
esta función deben participar todas las áreas.
Para llevar a cabo un análisis del valor es necesario considerar:
• análisis de las funciones
• alternativas de diseño
• análisis de costos
Lo primero tiende a asegurar que la función es necesaria, y este bien definida; se debe
analizar luego si el modo de darle solución es el mas adecuado. Para ello se deben generar
alternativas que permitan por eliminación, sustitución o simplificación reducir la cantidad de
partes y elementos inicialmente requeridos. Esto es especialmente importante cuando el diseño de
los distintos bloques circuitales corresponde a distintos responsables, y no esta bien establecida la
interfase entre ambos.
Obviamente el análisis del valor debe enfocarse primeramente al análisis de las etapas
con más influencia en los costos, reconociendo sus funciones básicas, aquellas sin las cuales el
producto carecería de valor, y considerando a las demás funciones como secundarias. Las
funciones secundarias apoyan a las funciones básicas, y son dependientes del tipo de solución
adoptado para la función básica. Se debe determinar si estas son esenciales, o pueden ser
eliminadas, o simplificadas. El costo del producto debería estar determinado por las funciones
básicas, y no por las secundarias.
El desglose entre básico y secundario debe trasladarse a nivel de circuito. Cada circuito
tiene una función específica, y ciertos componentes son esenciales para su funcionamiento,
mientras que otros son solo necesarios en casos especiales, y en otros simplemente para simplificar
el modelo de cálculo. Ciertas funciones pueden ser básicas cuando el equipo opera en
determinados entornos, pero totalmente prescindibles en los demás casos. Por consecuencia, de
este análisis surgirá si es necesario y conveniente incluir la función en todas las unidades, o tan
solo hacerla especifica para la operación en determinados entornos.
El análisis de costo debe ser completo, debiendo estar implicadas todas las etapas y
sectores. Es decir, deben ser contemplados y revisados los métodos de fabricación, los procesos,
los posibles proveedores, los acuerdos de compra, etc.

15
16 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Diseño experimental
El esquema del proceso del diseño representado en la figura 1 contempla tres pasos bien
definidos:
• Saber que es lo que se quiere ( que es parte de las entradas del diseño )
• Definir la forma de darle solución ( proceso de diseño propiamente dicho )
• Verificar que la solución propuesta satisface los requerimientos (validación )
y para este último paso se requiere siempre efectuar pruebas experimentales. Los ensayos no son
exclusivos de la etapa de validación, también son necesarios:
• Durante la concepción para verificar principios y hacer evaluaciones tempranas de
desempeño, o caracterizaciones de entorno o de carga,
• Durante el desarrollo del producto, para confirmar cálculos o estimaciones de carga
• Durante la etapa de crecimiento de la fiabilidad, para aportar información sobre las fallas
• Durante la producción, para la optimización de los procesos
• Después del lanzamiento del producto al mercado para hacer evaluaciones de campo con
el fin de confirmar los objetivos de mantenibilidad, fiabilidad y operatividad.
Ahora bien: ¿cual es la mejor manera de experimentar? Un modo seria construir el
sistema, ponerlo en marcha, y empezar a recolectar datos. Aunque es el modo más común, el
mismo presenta problemas a la hora de tratar los datos. El diseño de experimentos busca,
manipulando el sistema bajo estudio, obtener con menos datos, o sea menos volumen
experimental, no solo mas información, sino además de superior calidad (menor error). Esto
requiere formular un plan como paso previo a la ejecución del ensayo, donde conste:
ƒ Planteo del problema, definiendo los objetivos del ensayo
ƒ Análisis teórico, determinando las leyes y principios que rigen el proceso
ƒ Plan de medición, definiendo variables, métodos, y protocolos de medición
ƒ Análisis de errores , determinando las fuentes de error y formas de minimizarlas
ƒ Capacidad de los instrumentos, evaluando la adecuadicidad del instrumental
ƒ Datos a obtener y su forma de presentación ( tabular y grafica )
ƒ Tratamiento de datos, definiendo las herramientas apropiadas
ƒ Conclusiones que se esperan y en que análisis se fundamentaran
Uno de los pasos mas importantes será verificar que se esta midiendo la variable correcta
y en el punto adecuado, evitando fuentes de error debidas al método. Aquí debe mencionarse el
peligro de tomar ciegamente las indicaciones de los instrumentos sin consideración adicional a sus
valores. Las observaciones que sean totalmente inconsistentes, o se apartan de lo esperado deben
rechazarse, o confirmarse repitiendo el ensayo. Es decir, aunque en ciertos casos podrá ser
suficiente una sola experiencia, lo conveniente es siempre repetir el ensayo para saber si la
medición es consistente y tener una idea de la variabilidad por factores que están fuera de control.
Usualmente convendrá replicar el ensayo para no dejar afuera errores debidos a falta de
uniformidad del material bajo estudio y variabilidades de proceso, o bien cuando no sea posible
repetir la experiencia. Pero, esto trae aparejado otro problema: Que las diferencias observadas sean
consecuencia de otras diferencias entre las replicas, y no solo del factor observado.
Cuando existe la convicción de que una variable influye sobre la experiencia y puede ser
controlada, esta debe ser incluida como un factor más. Cuando su influencia es menor, o no puede
ser controlada, entonces lo conveniente es buscar la forma de que se manifieste de modo aleatorio.
Con la aleatoriedad se busca que la asignación de factores y niveles que no se pueden mantener
bajo control se distribuya aleatoriamente entre todas las observaciones, de modo que sus efectos
resulten compensados.
Cuando la aleatoriedad no es posible, se recurre a la bloquización. Con la bloquización se
busca realizar los experimentos formando bloques como un modo de eliminar fuentes indeseadas
de variación; es decir, evidenciando las diferencias entre las unidades bajo experimentación.

16
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 17

Diseño de experimentos (DOE)


El diseño de experimentos busca definir el mínimo número de ensayos y los niveles que
debe tomar cada una de las variables con la finalidad de determinar los factores que influyen
sobre uno o varios parámetros objetivos. Esto es muy importante cuando son varios los parámetros
a estimar, puesto que para cada nivel que asuma una variable, este debe combinarse con todos los
niveles de las demás, debido a que los efectos de un factor pueden ser distintos cuando se cambia
el valor de otros. Como difícilmente pueda, o tenga sentido, considerar todos los factores,
sabiendo que algunos tienen mínima influencia, las observaciones estarán influenciadas por las
variaciones de aquellas variables que no se mantienen bajo control, acarreando un error en la
estimación. Si las variables no controladas tienen un comportamiento aleatorio, el error se reduce
promediando las observaciones que resultan por repetición o replica del ensayo. Para reducir el
error experimental no necesariamente conviene que las replicas se hagan exactamente para iguales
condiciones de las variables bajo control, dado que, como se vera, es posible y conveniente lograr
un mayor conocimiento variando las condiciones de la experiencia.
Diseñar una experiencia exige que primeramente este bien definida la característica o
ideal de objetivo para el producto, para luego fijar el criterio de evaluación y principales factores,
y su carácter, que lo determinan. Es decir, básicamente, deberán seguirse los pasos siguientes:
1. Fijación de las características de interés ( parámetros objetivos )
2. Determinación de las variables de influencia, en base a
a. Diagrama causa-efecto ( o diagrama de Ishikawa )
b. Diagrama de árbol de fallas, entendido en sentido amplio
3. Selección y evaluación de las variables de influencia. Las variables con influencia se
clasifican y listan en grupos, diferenciándolas entre:
a. Independientes, variables controlables y con marcada influencia
b. Variables cuya influencia resulta difícil o es imposible precisar y controlar
4. Definición de las interacciones
5. Reducción del número de variables con influencia determinadas en el paso 2, buscando
simplificar el experimento.
6. Selección de los factores de experimentación y el peso de cada variable, determinando
que sea posible ajustarlos de un modo preciso
7. Fijación de los niveles de cada factor. El caso mas simple se da cuando cada factor
asume solo dos niveles. Estos niveles se fijan tomando en cuenta:
a. Intervalo de posible variación
b. Facilidad de implementación
c. Precisión con que pueden ser establecidos
0 A No xα1 xα2 y
1 x1
y
X1 y E0 E1 1 -1 -1 y1
0 B 2 1 -1 y2
x -1 1
X2 1 2 3 y3
4 1 1 y4

Fig.14 Fig.15 Fig.16

Supongamos que se desea establecer la vinculación de una característica, que se supone


es función de solo dos variables: x1 (factor A) y x2 (factor B), figura 14, cuyo comportamiento se
propone describir con un modelo lineal
y = a 0 + a 1 x1 + a 2 x 2 + a 4 x 1 x 2 (3)
Esta expresión considera, además de los efectos principales de cada factor (representados
por los coeficientes a1 y a2), los efectos debidos a la interacción de los mismos ( coeficiente a4 ).
Para determinar los 4 coeficientes del modelo es suficiente realizar 4 ensayos, observando la
salida correspondiente a dos niveles en cada variable, figura 15.

17
18 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Para facilitar el tratamiento analítico es común replantear el modelo, introduciendo un


corrimiento en el origen y un cambio de escala de cada variable. Cada variable independiente se
hace variar alrededor de su valor medio, asumiendo para el mismo el valor 0, y se impone el valor
1 para el nivel alto, y -1 para el nivel bajo. De este modo, x1 y x2 se transforman en las variables
xα1 y xα2, con lo cual la expresión (3) toma la forma
y = α 0 + α 1 . x α 1 + α 2 . x α 2 + α 12 . x α 1 . x α 2 (4)
siendo α0, α1, α2, y α12 los nuevos coeficientes a determinar. A los efectos del experimento, las
variables xα1 y xα2 pueden asumir solo dos valores (+1,o -1), figura 16, de modo que por
reemplazo directo en (4), resulta la vinculación entre los valores observados y los coeficientes
y 4 = α 0 + α 1 + α 2 + α 12 (5)
y 3 = α 0 − α 1 + α 2 − α 12 (6)
y 2 = α 0 + α 1 − α 2 − α 12 (7)
y1 = α 0 − α 1 − α 2 + α 12 (8)
de las cuales se deriva la forma matricial mas sintética y general, (9)
y = h .α
siendo h la matriz de Hadamard de orden 2n. La expresión (9) permite obtener los coeficientes α
h(2 n )
α = h −1 . y = .y (10)
2n
la cual, desarrollada para el presente caso, toma la forma
α0 1 1 1 1 y4 y4
α1
=
1 1 − 1 1 −1
.
y3
=
h ( 4) . y3 (11)
α2 4 1 1 − 1 −1 y2 4 y2
α 12 1 −1 −1 1 y1 y1

Como cada columna de la matriz esta asociado con un termino de la expresion (4), el
arreglo experimental de la figura 16 quedara definido por las columnas que corresponden a los
terminos principales, columnas que estan marcadas en sombreado en la expresion (11).
Los efectos de un factor también pueden verse como el promedio de los cambios que
resultan cada vez que se varía solamente dicho factor. En el presente caso, para el factor A debería
promediarse y2-y1 e y4-y3.. Las expresiones (5) a (8) permiten hallar el efecto de A, coeficiente
α1, en función de dichas diferencias, el cual queda así expresado en la forma
y − y1 y − y3 y + y y3 + y1
efecto de A = 2
+ 4
= 4 2
− (12)
2 2 2 2
y de igual modo se obtiene el valor de los otros efectos. Esto lleva al proceso de calculo conocido
como ANOM (Analysis of means), en el cual se promedian por un lado todas las observaciones
que corresponden a un nivel dado de un factor sin importar el nivel de los demás, y por otro se
hace el promedio de todas las observaciones en el otro nivel. La diferencia entre ambos determina
el efecto de ese factor.
El modelo propuesto, expresión (4), supone que el resultado de la observación queda
determinado solo por los factores que están bajo control, y que además no hay error de medición.
Bajo estos supuestos es innecesario realizar repeticiones: basta con una observación por factor y
nivel. Pero la realidad es que los errores y la influencia de factores fuera de control estarán siempre
presentes, de modo que es necesario considerar un modelo ampliado
y = α 0 + α 1 . x α 1 + α 2 . x α 2 + α 12 . x α 1 . x α 2 + ξ (13)
en el cual se agrega un termino de error, ξ. Determinar este nuevo parámetro exige contar con más
observaciones, las cuales pueden obtenerse repitiendo o replicando cada ensayo un número dado
de veces, En este caso, en la expresión (13), el vector y será el promedio del conjunto de las
observaciones repetidas, y el error podrá estimarse en función de la varianza de estas.

18
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 19

Experimentos factoriales completos


Se habla de un experimento factorial completo cuando para cada factor y nivel del
mismo se realiza la experiencia considerando todas las combinaciones de los distintos factores en
todos sus niveles. Si hubiera n factores, y cada factor tomara m valores distintos, entonces seria
necesario realizar mn ensayos distintos.

Familia de ensayos

exploratorios de caracterizacion de optimizacion


Fig.17

tiempo

Como la complejidad del ensayo aumenta con el número de factores y niveles,


usualmente el plan de experimentación sigue los pasos indicados en el esquema de la figura 17.
Primero se realizan ensayos exploratorios en los cuales se consideran todos los factores ( 4 a 10 ),
con la finalidad de determinar los efectos principales y conocer cuales son los factores
significativos de influencia. Se realizan luego ensayos de caracterización, en los cuales se
consideran todos los efectos de los factores mas significativos ( 2 a 5 ); para la finalidad de estos
ensayos, es suficiente considerar tan solo dos niveles. Teniendo una mejor caracterización se
realizan los ensayos de optimización, con un número de factores mas reducido ( 2 a 3 ), y con
mayor número de niveles.
De acuerdo con esto, se realizaran diseños experimentales factoriales completos cuando la
finalidad sea examinar los efectos de un pequeño número de factores, para caracterizar su
influencia, y que por tanto, las interacciones entre ellos no pueden ser excluidas. Para reducir la
magnitud del ensayo, estos se realizan con dos niveles por factor. Por ejemplo, el análisis sobre un
único parámetro objetivo de cuatro factores A, B, C y D, cada uno con dos niveles ( 0 y 1),
determinara un plan denominado 24, que requiere de 24 ensayos. En base al resultado de los
ensayos podrán estimarse:
• los efectos principales: de A,B,C y D;
• las interacciones entre dos factores: AB,AC,AD,BC,BD y CD;
• las interacciones entre tres factores: ABC,ABD,ACD, y BCD;
• la interacción de los cuatro factores: ABCD
Dado que la expresión (10) permite calcular los coeficientes de sensibilidad de cada una
de las variables en función de las observaciones, solo resta definir el valor que debe tener cada
variable ( -1 o 1 ), en cada uno de los 2n experimentos, lo cual lleva a un arreglo que se conoce
como matriz de experimentación. El arreglo para el diseño de los experimentos se puede obtener
de la propia matriz de Hadmard, en base a las columnas que están asociadas a los términos
principales, o bien con la función ff2n(n) de Matlab. Esta función integra el grupo de funciones
del Design of Experiments (DOE), contenidas en el Statistics Toolbox de Matlab.
Un punto que merece destacarse es que la matriz del diseño solo define el estado de cada
variable en cada uno de los experimentos, lo cual no tiene ninguna vinculación con el orden
conque efectivamente se realicen los mismos. En este sentido, para minimizar errores, conviene
que el orden, dado por el número de fila de la matriz, sea definido de modo aleatorio.
Cuando el experimento involucra múltiples niveles, el arreglo se puede obtener con la
función fullfact(niveles), también disponible en Matlab, en la cual el argumento niveles = [ n1 n2
n3 ..] es un vector que indica el número de niveles conque se experimentara con cada variable. Es
decir, fullfact(niveles) genera una matriz de experimentos que tiene n1 niveles en su primer
columna( variable x1 ), n2 en la segunda columna (variable x2 ), etc.

19
20 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Experimentación factorial fraccional


Cuando el experimento factorial incluye muchos factores lleva a un número de
experimentos muy alto, y puede que muchos de ellos no aporten información debido a que
corresponden a interacciones que de antemano se sabe son poca significativas. Despreciando
algunos efectos, suponiéndolos nulos, se reduce la cantidad de incógnitas, y por tanto de
experiencias. En tal caso se habla de una experimentación factorial fraccional.
Bajar el número de experiencias tiene sus consecuencias. Supongamos el caso de tres
factores A, B y C, cada uno con dos niveles. Una experiencia factorial completa seria de la forma
dada por la función de Matlab ff2n(3), la cual lleva a las observaciones yi, figura 18. Según lo
desarrollado anteriormente, los distintos efectos se calculan promediando los resultados de los
experimentos, con el signo que surge de la matriz de Hadamard. Para mejor claridad en el análisis,
en la tabla de la figura 19 solo se retiene el signo de los coeficientes de la matriz de Hadamard.
A B C NivelÆ 111 110 101 011 100 010 001 000
0 0 0 y1 Efecto↓ y8 y7 y6 y5 y4 y3 y2 y1
0 0 1 y2 A + + + - + - - -
0 1 0 y3
0 1 1 y4 B + + - + - + - -
ff2n(3) = 1 0 0 y5 +
C + - + - - + -
1 0 1 y6
1 1 0 y7 AB + + - - - - + +
1 1 1 y8 AC + - + - - + - +
BC + - - + + - - +
ABC + - - - + + + -

Fig.18 Fig.19
Supongamos ahora que no se realizan algunos experimentos, en particular los que
corresponde a las observaciones y8, y4, y3, e y2. En este caso, en base a los signos de los
coeficientes que restan en la tabla vemos que no es posible diferenciar algunos efectos, como ser
el A y el –BC, dado que para ambos resultan idénticas expresiones; igual sucede con B y –AC, y
con C y –AB, etc. Es decir, el cálculo lleva a una confusión de los factores.
Un caso especial de experimentación fraccional lo constituyen los ensayos ortogonales,
donde solo interesa estimar los efectos principales, en cuyo caso el modelo es del tipo
k
y =α0 + ∑α
1
i .xα i (14)

Para estos ensayos hay un arreglo del diseño que minimiza la covarianza de los
coeficientes αi. Si X es la matriz del diseño, el diseño se dice ortogonal cuando los elementos que
están fuera de la diagonal de la matriz (X’X ) son nulos, donde X’ es la matriz traspuesta de X;
esta propiedad la verifica la matriz de Hadamard.
Factor
1 1 1 1 1 1 1 1 L8 Experiencia A B C D E G H
1 -1 1 -1 1 -1 1 -1 1 1 1 1 1 1 1 1
1 1 -1 -1 1 1 -1 -1 2 -1 1 -1 1 -1 1 -1
1 -1 -1 1 1 -1 -1 1 3 1 -1 -1 1 1 -1 -1
X= 4 -1 -1 1 1 -1 -1 1
Fig.20 1 1 1 1 -1 -1 -1 -1
1 -1 1 -1 -1 1 -1 1 5 1 1 1 -1 -1 -1 -1
6 -1 1 -1 -1 1 -1 1
a) 1 1 -1 -1 -1 -1 1 1 b) 7 1 -1 -1 -1 -1 1 1
1 -1 -1 1 -1 1 1 -1 8 -1 -1 1 -1 1 1 -1

Por caso, para X = hadamard(8) resulta la matriz h(8) indicada en la figura 20a, con la
cual se puede hacer la estimación de la media general, o efecto medio, y de hasta otros 7 factores
principales. Esta función lleva al denominado plan de experiencias L8, indicado en la figura 20b.
Mención especial merecen los denominados diseños ortogonales de Taguchi. Taguchi
introdujo el diseño experimental como una importante herramienta para el diseño de productos,
diferenciando entre factores específicos que determinan las características del producto, de otros
factores, que considera perturbadores, de poca incidencia y de difícil o imposible control. Los
diseños ortogonales de Taguchi buscan encontrar con mínimo esfuerzo experimental la condición
óptima que minimice los factores de perturbación sobre el parámetro objetivo, y permita al mismo
tiempo optimizar los factores de control ensayando con dos o más niveles para cada factor.

20
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 21

Análisis de Varianza (ANOVA)


Cuando se efectúan cambios en un circuito esperando que en correspondencia varíe el
valor de alguna de sus característica, se dice que el circuito esta sujeto a un tratamiento. El
concepto de tratamiento es amplio: Un tratamiento puede ser el cambio de un dispositivo por otro
supuestamente mejor en algún sentido, el agregado de un disipador para reducir la temperatura, el
cambio de ubicación de algún componente o de asignación funcional de la patita de un dispositivo
con la finalidad de eliminar una interferencia, un cambio de valor, etc. Efectuado el cambio, para
saber si el mismo es efectivo, se hace una prueba experimental. El problema es que toda
comprobación experimental esta sujeta a errores y al efecto de factores que están fuera de control.
La minimizacion del error experimental es un aspecto clave en el diseño de pruebas. Este
error debiera estar conformado exclusivamente por aquellas causas que no son suceptibles de ser
separadas o atribuibles a causas discernibles. Se ha visto que una forma de reducir los errores es
realizar varias replicas de cada tratamiento, considerando la media de los valores observados
como una mejor estimación. Si no se encuentra diferencia entre los valores medios
correspondientes a los distintos tratamientos, cabe la posibilidad de que :
1. efectivamente no haya diferencia entre los tratamientos,
2. que el método y su instrumentación originen un alto error experimental que supera las
diferencias causadas por los tratamientos,
3. que las diferencias individuales entre replicas sean tan grandes que enmascaran las
diferencias entre los tratamientos.
Suponer que hay diferencias individuales es lo mismo que suponer que hay dos variables
de diferenciación: por un lado los tratamientos, donde cada tratamiento define un tipo de grupo, y
por otro diferencias individuales que a su vez se pueden agrupar en bloques, de modo que la única
diferencia dentro de cada bloque, además del error experimental, es el tratamiento.
Cuando no hay diferencias individuales se recurre a una prueba de hipótesis para la
comparación de medias, basada en la distribución t de Student. Pero cuando hay diferencias
individuales tales que determinan k bloques homogéneos, la aplicación de la prueba de Student
exigiría comparar todos los bloques, probándolos de a dos, y en todas las combinaciones, lo cual
hace que el método sea poco eficiente. Además, si se supone que en cada prueba la probabilidad
de aceptar la hipótesis siendo verdadera es (1-α), en n pruebas resultara una probabilidad (1-α)n,
con lo cual el riesgo de rechazar la hipótesis siendo que es verdadera se ve incrementada de α a
1-(1-α)n.
Para superar estas dificultades se ha ideado un procedimiento denominado ANOVA
(Analysis of variance ) que permite probar la igualdad de varias medias, basándose en un análisis
de variabilidad. El procedimiento consiste en desdoblar la varianza total en varias componentes de
varianza, y decidir sobre la hipótesis de que son iguales o no basándose en el valor de las mismas.
Veamos en que se fundamenta el método. Supongamos que se realizan los tratamientos
A, B, C, y D en un circuito, y para cada caso se implementan varias plaquetas sobre las cuales se
observa un parámetro de interés. Cada tratamiento es considerado un grupo, y es examinado en
forma independiente. Además, con los datos correspondientes a todas las observaciones se hace un
análisis del conjunto. Se obtienen así medias de grupo xg= x i y una media general xm= x . Con las
medias de grupo se determina la varianza muestral dentro de cada grupo, sdg2; con la media
general la varianza total muestral de las observaciones, s2total, y con ambas la varianza entre grupos
seg2 = var(xg-xm). La varianza total queda descompuesta así en dos términos: uno, que mide la
varianza dentro de grupos, más otro término que mide la varianza entre grupos,

varianza total = varianza dentro de los grupos + varianza entre grupos =


2
s total = s dg
2
+ s eg2 (15)

Como se puede apreciar en la figura 21b, si no hay diferencia entre los grupos los valores
medios muestrales serán muy similares, y por lo tanto la varianza entre grupos debería ser próxima
a cero. Esto indica que una manera de reconocer si dos grupos son significativamente diferentes

21
22 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

sería valerse de la relación entre ambas varianzas. En este principio se basa el procedimiento
ANOVA.
Tratamiento Tratamiento
sA sA
A A

s B s
B B B

C s C s
C C

D sD D
sD
sT sT
distribuccion del conjunto x
x
Fig.21 x
x ≅ x A ≅ x B≅ x ≅ xD
x x x x Seg C

a) A B C D
b)
Supóngase que se tienen distintos grupos, cada uno responde a un tratamiento distinto. Si
se realizan varias mediciones sobre distintas replicas del mismo tratamiento, las diferencias entre
los correspondientes valores medios serán consecuencia del tratamiento. La cuestión es saber cuan
diferentes deben ser los valores medios como para considerar que el tratamiento tuvo algún efecto,
y no es solo una consecuencia del error experimental. Claramente, observando la figura 21a, se ve
que si la varianza entre grupos s2eg es suficientemente grande con respecto a la varianza dentro de
los grupos s2dg (SA,SB, etc) puede rechazarse la hipótesis nula que supone que no hay diferencia
entre tratamientos. Más propiamente, es sabido que la relación entre dos varianzas muestrales, s12
y s22, obtenidas en dos muestreos de una misma población normal determina una variable
aleatoria que sigue la distribución F de Fisher,
s 12
F = (16)
s 22
2
A su vez, como la varianza muestral esta relacionada con la variable χν , donde ν son los
grados de libertad de la prueba, la expresión (16) puede también ponerse en la forma
s2 χ 12 ν 1 (17)
F = 12 = 2
s2 χ 2 ν 2

de modo que la distribución de la variable F(ν1,ν2), será función de los grados de libertad ν1 y ν2,
usados para definir ambas varianzas muestrales, figura 22. La figura 22 grafica la función de
densidad de la variable F para algunas combinaciones de grados de libertad ν1 y ν2.

f(F,v1,v2) f(5,8)

P(F≤3.6875) = 0.95

Fig.22 Fig.23
Ahora bien, siendo conocida la función de distribución de la variable F se puede calcular
el intervalo de confianza para F, o sea el intervalo dentro del cual debe estar la relación entre las
varianzas, para aceptar que ambas varianzas muestrales son estadísticamente iguales, figura 23, y
por lo tanto corresponden a la misma población, habiendo prefijado un nivel de confianza.
El cálculo se ve muy simplificado recurriendo a paquetes de tratamiento computacional.
Específicamente Matlab dispone para este análisis de la función p=anova1(datos, grupos), con la
cual se pueden comparar las medias de dos o más grupos de datos. El argumento de la función es

22
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 23

una matriz donde cada columna corresponde a un grupo distinto. La función determina cuando las
medias de las columnas son iguales. En su forma más simple, la función devuelve la probabilidad
p de que sea cierta la hipótesis nula de que las medias son iguales, y además genera la tabla
ANOVA, una forma convencional de resumir los cálculos. Provee también gráficos de caja para
cada grupo, para apreciar su dispersión, figura 24. Los diagramas de caja separan la distribución
de valores en cuartiles. Los cuartiles dividen la distribución en 4 partes iguales.
En definitiva, de la tabla ANOVA generada por Matlab se obtiene directamente la
probabilidad de que sea cierta la hipótesis nula. Este valor debe ser comparado con el nivel de
significancia que se haya predeterminado para la prueba. Es decir, solo si p ≥ (1-α) se deberá
aceptar la hipótesis nula de que las medias de grupo son iguales.
El desarrollo anterior supone que la diferencia entre las distintas muestras se debe
únicamente al tratamiento. Se trata por consecuencia de una prueba sobre una única variable, por
lo cual al método también se le conoce como ANOVA con clasificación en una sola dirección.
Esta dirección se supone que es la de los tratamientos, cada uno de los cuales forma un grupo
homogéneo. Cuando el agrupamiento se hace según dos variables el método es denominado
ANOVA con clasificación en dos direcciones, figura 25.
Bloques
1 2 3 ..j.. n Medias x 111
x 112
1

Tratamientos
2 x11.....................x1n x1. x 113
. celda 11 x 114
i ................................... x 115
. x 116
k xk1 ............. x kn xk.
x 117
x.n
x 118
Medias x.1 x..

Fig.24 Fig.25
De este modo es posible determinar simultáneamente si hay diferencia entre los
tratamientos y también si existe diferencia entre los bloques. Se tienen así dos hipótesis nulas: que
las medias de los tratamientos y las medias de los bloques son iguales.
Para el análisis ANOVA en dos direcciones Matlab dispone de la función anova2(). Para
aplicar la función, los datos de las observaciones deben agruparse en forma ordenada: Columnas
para bloques, y filas para tratamientos, o al revés. La función de Matlab
[P,tabla] = anova2(x,rep,display) (18)
realiza un ANOVA de dos direcciones, y hace posible comparar medias de dos o más columnas y
de dos o más filas de una muestra x. Los datos en una columna representan cambios en un factor.
Los datos en diferentes filas son cambios del otro factor. Si hubiera mas de una observación por
cada par línea-columna, entonces el argumento rep indica el número de observaciones por celda,
sean estas repeticiones o replicas. P es un vector del riesgo para la prueba de filas, columnas y
efectos de interacción, si estos fueran posibles, y tabla es una matriz de caracteres, con el
contenido de la tabla ANOVA.
Si solo interesa determinar si dos o más medias son o no iguales, los métodos
desarrollados son suficientes. En otros casos, importa además saber cuales de estas medias pueden
considerarse iguales. Una manera de resolver esto es probando todos los pares posibles de
combinaciones. Como esto implica muchas pruebas, se han ideado métodos de comparación
múltiple, uno de los cuales es el denominado de Bonferroni, para el cual Matlab dispone de la
función multcompare(). Esta función tiene la forma
[comparacion, medias, h]= multcompare(estad,alfa,display,’bonferroni’,estimacion)
y la misma realiza una comparación usando una estructura estad obtenida como salida, entre otras,
de una de las siguientes funciones de Matlab: anova1 o anova2.
23
24 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Análisis modal de fallas y sus efectos (FMEA)


Es claro que los productos y sistemas se diseñan para cumplir un fin, por lo que su falla
será siempre un efecto indeseado. Ahora bien, no todas las fallas tienen iguales efectos, y dado
que los recursos siempre son limitados, necesariamente deberán priorizarse los esfuerzos para
reducir o eliminar fundamentalmente la posibilidad de efectos catastróficos. Para ello se han
propuesto dos herramientas:
• El FMEA (failure mode and effects analysis), un método inductivo que parte de
acontecimientos elementales, falla de un dado elemento, y busca determinar las
consecuencias de tal evento
• El árbol de fallas (FTA, Fault Tree Analysis), que sigue una metodología deductiva:
parte de un acontecimiento que se juzga indeseado, y busca hallar los caminos
críticos que conducen a dicho evento1
El FMEA o AMFE (Análisis modal de fallas y efectos) es una herramienta preventiva
usada en el diseño de los productos y de los procesos de manufactura. Su finalidad es asegurar
desde el inicio del desarrollo que los objetivos de calidad, fiabilidad y seguridad sean consistentes
con los requerimientos del cliente. El termino cliente debe entenderse en su acepción mas amplia,
y no referida exclusivamente al usuario final del producto.
Los análisis de modos de falla y sus efectos ( AMFEs o FMEAs), aplicados inicialmente
en proyectos militares, son actualmente de aplicación generalizada en toda la industria. El FMEA
es una herramienta muy potente para el aseguramiento de la calidad, especialmente en los diseños
que rocen aspectos de seguridad, como es el caso de los equipamientos electrónicos destinados a
las industrias aeroespaciales, aeronáuticas, tecnología nuclear, fabricantes de automóviles y
camiones, etc.
Básicamente, con los FMEAs se busca:
• Incrementar la fiabilidad del producto
• Reducir los costos de garantía y de compromiso frente a los clientes
• Acortar los tiempos de desarrollo
• Lograr una menor susceptibilidad a fallas durante el arranque de la producción seriada
• Lograr una manufactura mas económica
• Mejorar el servicio postventa
En sus comienzos, el FMEA se planteaba como una herramienta propia de cada etapa: Se
concebía un FMEA para el diseño, y otro para los procesos. El FMEA de diseño supone que el
proceso de manufactura es correcto, y recíprocamente. El primero se limitaba a nivel de
componente, y el segundo al análisis de algunos pasos del proceso de manufactura. Lo lógico es
que el ingeniero de diseño interactúe permanentemente con el ingeniero de manufactura para
asegurarse que las especificaciones puedan ser alcanzadas por el proceso de manufactura. Si un
componente es muy sensible al proceso de manufactura, y este no se puede cambiar, lo razonable
es rediseñar, evitando el uso de ese componente.
Actualmente los FMEA se realizan considerando toda la estructura del sistema. Un
sistema consiste en elementos individuales (equipos o módulos), dispuestos de modo jerárquico,
cada uno con diferentes funciones o propósitos, que pueden ser diferenciadas en funciones internas
(propias del modulo), funciones salientes y funciones entrantes. La falla (F) de un elemento de la
estructura del sistema se debe a causas de falla (FC) de elementos subordinados (falla de las
funciones entrantes) o a falla propia, y tiene como consecuencia un efecto de falla (FE) de las
funciones salientes, o sea, un mal funcionamiento de elementos superiores de la jerarquía. Como
cada escalón de la jerarquía se apoya en el FMEA de los elementos subordinados, la exigencia de
los FMEA debe extenderse a todos los proveedores de partes o equipos que integran el sistema

1 ver pagina 123

24
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 25

Formular un FMEA orientado al diseño implica determinar cuales son los potenciales
modos de falla de cada elemento. Esto comprende analizar los modos de falla que históricamente
se han dado, los usos y abusos que pueda tener el producto, y tener en cuenta las prácticas de
diseño usados en elementos similares. En el paso siguiente se establecerán los potenciales efectos
de cada falla, asignándole un índice de severidad (S). En los primeros FMEAs las fallas se
distinguían según sus efectos, buscando eliminar todos los riesgos catastróficos y minimizando los
riesgos críticos. Para ponderar la gravedad de los efectos de cada modo de falla i se usa un factor
de peso Pi, para medir las consecuencias de ese modo de falla, figura 26.

Consecuencias Pi Probabilidad de ocurrencia tasa (O )


menores 1 Muy poco probable 1 ocurrencia en 107 horas
significativas 10 Poco probable 1 ocurrencia en 105 a 107 horas
criticas 1000 Probable 1 ocurrencia en 105 a 107 horas
catastróficas 100000 Altamente probable 1 ocurrencia en 104 horas o menos

Fig.26 Fig.27

Luego, para cada falla se estima su tasa de ocurrencia (O), lo cual permite calificar los
eventos como muy poco probables, poco probables, probables y altamente probables, figura 27.
La severidad y tasa de ocurrencia determinan el parámetro de criticidad Ci,
Ci = S*O (19)
y según sea su valor se definirán las acciones preventivas y correctivas apropiadas. Dado que las
consecuencias únicamente se manifiestan si la falla ocurre en manos del usuario, esto implica que,
si se realizan tareas de detección previas, el riesgo dependerá de la tasa de detección (D) asociada
al método de control. Combinando todos estos valores se define un número de prioridad del
riesgo (RPN, risk priority number ), donde
(20)
RPN = S * O * D
valor que sirve para determinar la necesidad de mejoras. Este proceso de optimización implicará:
• modificación del concepto de solución, con la finalidad de evitar la causa de falla o bien
reducir su severidad
• mejoramiento de la fiabilidad, con la finalidad de minimizar la ocurrencia de la falla
• mejorar el proceso de detección para evitar que la falla se traslade al usuario

Subsistema ..................................... Responsable ....................................... Departamentos involucrados .......................................

Fecha original ......................................... Fecha revision .........................................


Responsable

Acciones Acciones
RPN
de parte

RPN

asignado
Numero

Funcion Modo de
Tiempo

Mecanismo y Efecto de O S D correctivas O S D


correctivas
falla causa de falla la falla Controles recomendadas tomadas

Fig.28

Es decir, la finalidad última del FMEA es concluir con un plan de acción en el que
consten los nuevos objetivos, los rediseños que se deben encarar, los ensayos, las fechas y los
responsables. Concluidas las mejoras, se realiza un nuevo FMEA, y esto se repetirá hasta lograr
que el nuevo RPN este conforme con los objetivos. A este fin se usan formas convencionales, tal
como la indicada en la figura 28.
Finalmente, el producto de la tasa de ocurrencia y la tasa de detección determinaran la
proporción residual de partes cuya falla se admite pase al cliente
25
26 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Ecodiseño
La atención del problema ecológico en el diseño implica que en el mismo se considere
críticamente el uso de materiales que dan lugar a desechos tóxicos, y cuando esto sea inevitable,
que sea contemplada la forma en que deberán ser abandonados y tratados tales desechos para
evitar consecuencias ambientales indeseadas, y no afectar gravemente a las personas o al
ambiente. La consideración del problema ecológico como requerimiento fundamental del diseño
ha tomado un gran impulso en la última década, especialmente a partir de la declaración de
principios emanados de la Conferencia de la Tierra de Rio de Janeiro en 1992.
En electrónica, los desechos pueden aparecer en tres momentos:
• Durante el proceso de manufactura, donde los desechos son mayormente plaquetas
defectuosas y todos los materiales residuales de proceso
• Durante el mantenimiento, debido al reemplazo de elementos contaminantes
• En el momento de la disposición final del producto o equipo, al final de su vida útil.
En la fase de manufactura es donde se genera el mayor volumen de desechos, pero es
también la más fácilmente controlable. Algunos desechos electrónicos son reprocesados para
recuperar materia prima, como el cobre, y en especial el oro y la plata, dado que estos metales
preciosos están presentes en un alto porcentaje en muchos componentes. Esto posibilita que
empresas especializadas, especialmente habilitadas y reconocidas, se hagan cargo del
reprocesamiento de las plaquetas y otros desechos de manufactura sin agregar costo alguno.
En electrónica se usa intensamente una aleación de estaño-plomo como material de
soldadura, a pesar de que el plomo es altamente tóxico y posible causante de daños irreversibles a
las personas. Igualmente son dañinos el cadmio, cromo, cobre, berilio, arsénico, litio, mercurio,
antimonio, y bismuto, aun en contenidos mínimos. Por ejemplo, en agua es suficiente una
fracción de mg/l de cualquiera de ellos para producir afecciones graves. Algunos de estos
materiales están expresamente prohibidos, y para otros hay regulaciones para controlar el
abandono de aquellos desechos que los contengan.
Si bien el empleo de materiales tóxicos es en mayor o menor grado una fuente segura de
contaminación, otros materiales o condiciones de diseño son también peligrosos por ser causa de
daño potencial, como es el caso de materiales inflamables, materiales nutrientes de hongos, o
materiales plásticos que liberen, bajo la acción de la temperatura, gases tóxicos o altamente
corrosivos
El problema de la contaminación esta influido por las decisiones del diseño, y por ello
muchas empresas tienen políticas para que el desarrollo de sus productos sea ecológicamente
correcto. Pueden considerarse así aquellos productos en cuyo desarrollo se hayan seguido algunos
de los siguientes requisitos:
• Bajo consumo de energía
• Menor uso de materiales perjudiciales para el medio ambiente
• Menos gasto de materia prima
• Menores desechos, con posibilidad de reciclaje
• Menores tamaños de los encapsulados
Estos factores están intervinculados: Un mayor nivel de integración y un aumento de la
densidad implican menor consumo, menores encapsulados, y menor uso de materia prima. Para los
encapsulados actualmente se usan nuevos plásticos, denominados de tipo verde, debido a que no
usan componentes químicos que agravan el medio ambiente.
En el diseño, adicionalmente a los requerimientos medioambientales, se agregan otras
exigencias cuya finalidad es evitar toda posibilidad de afectar al operador o ser causa de un daño
mayor, como ser:
• Limitar la temperatura de cualquier parte expuesta a no más de 60ºC

26
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 27

• No incluir aberturas para la ventilación en la parte superior de los gabinetes


• No situar las aberturas para salida de aire caliente en los paneles frontales
• No dejar expuesto a un contacto accidental ningún terminal de interconexión que tenga
tensión respecto de masa.
Muchas de estas recomendaciones están incorporadas como reglas de diseño, y
especialmente en las grandes corporaciones, más que reglas son expresas imposiciones de diseño.
Una buena referencia de estas prohibiciones puede hallarse en diversas especificaciones militares.
Para el control de los procesos de manufactura, la ISO, el máximo organismo de
normalización internacional, emitió la serie de normas ISO 14000, que sirven de base para auditar
el impacto medioambiental. Pero, además de demostrar el compromiso con las políticas
medioambientales establecidas en las normas, la mayoría de las empresas desarrollan planes a
mediano y largo plazo con los cuales buscan cumplir diversas metas medioambientales propias. En
esa dirección, actualmente se busca eliminar el empleo de algunos metales pesados, como el
plomo, y desarrollar soluciones en las que las fuentes de alimentación de los equipos reduzcan el
consumo cuando los mismos están en la condición de espera, incorporando dispositivos
administradores de energía, denominados PMU ( Power managements units ), los cuales permiten
extender la vida útil de las baterías, y con ello ayudan a la reducción de la contaminación. La
eliminación del plomo en electrónica se funda en una directiva de la UE que establece la
prohibición de su uso a partir del 1 de enero de 2006.

Factibilidad Tecnológica
La idea de analizar una especificación es ver si ésta:
• No tiene falencias referidas al uso, es decir, que pueda haber características o
condiciones de uso del producto que no han sido consideradas en la especificación
• Es completa en sus datos, como para llevar a cabo el diseño y su verificación
• No tiene incongruencias; es decir, que en distintas partes de la especificación se pidan
cosas contradictorias
• Es cumplible
Lo que el proyectista puede interpretar como que es un grado de libertad y pensar por
ello que puede orientar el proyecto de un modo que resulte óptimo desde el punto de vista de la
fabricación del producto o de su desarrollo, puede no necesariamente coincidir con lo que es
mejor para el uso. Esto significa que cuando hay falencias en la especificación, se debe analizar si
esto afecta al usuario del producto, en cuyo caso es necesario que esa parte del requerimiento sea
especificada o acordada con el mismo, solicitando una ampliación en la especificación de aquellas
características que hacen al empleo del producto. La determinación de estas falencias no es en
muchos casos tarea sencilla. Por ejemplo en la especificación del usuario puede no haber ninguna
especificación referida a condiciones anormales de uso o de posibles abusos, pero ello no debería
inducir al proyectista a suponer que tales condiciones no van a existir.
Se ha dicho que el diseño parte de lo que los clientes requieren, o se establece en algún
sector de la empresa, y serán ellos lo que deberán definir las características que debe tener el
producto. El problema es que el punto de vista del cliente o del usuario queda expresado como un
requerimiento y no como lo que el proyectista necesita para establecer la solución. Eso significa
que seguramente los requerimientos van a tener que traducirse en una o un conjunto de
especificaciones técnicas, para lo cual ayuda la construcción de la casa de calidad. Hay usuarios
que sí tienen claro qué es lo que necesitan: Son grandes integradores, denominados fabricantes
OEM ( Original Equipment Manufacturer ), que producen sus equipos con partes y componentes
requeridas a proveedores, basándose en normas y especificaciones propias. Si bien toda empresa
puede basarse en normas propias, por lo general se usan normas de alcance nacional, regional, o
internacional, para atender las exigencias de algún tipo de servicio, o algún tipo de producto.

27
28 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Cuando las características no estén contempladas en norma alguna, se sobreentiende que


son de aplicación para cada sector normas específicas de facto, o las recomendaciones emitidas
por entes gubernamentales o por alguna asociación: de fabricantes, o entes profesionales. En un
nivel superior, son de aplicación normas emitidas por entes nacionales o supranacionales, como el
ISO, el IEC, el ITU, etc. Estos entes emiten recomendaciones, lo cual significa que los países no
están obligados a seguirlas. Excepción a ello son los entes de normalización para la comunidad
económica europea, tales como el CEC, CEN, CENELEC, ETSI, etc.
Por lo general las especificaciones o normas se arman tratando de que no haya
repeticiones, siguiendo una jerarquía e intervinculándolas entre si. Es decir, en vez de repetir
definiciones, procedimientos, y métodos de ensayo para cada producto, una norma de tipo general
cubrirá las exigencias comunes a todos, y en la especificación de cada producto se considera solo
lo que es específico del mismo, y para el resto se refiere a la normal general.
Finalmente, para determinar si una especificación es cumplible se requiere saber si:
• Es posible definir una solución
• Se cuenta con capacidad para el desarrollo (acceso al conocimiento, personal
calificado, y equipamiento para el desarrollo y la validación)
• Se conocen, o se puede acceder, a los protocolos y estándares de las interfases
con los que el producto se vincula
• Hay acceso a la tecnología necesaria (en componentes y procesos )
• Se cuenta con las instalaciones para la manufactura y el control
El análisis de factibilidad puede concluir con dudas sobre la posibilidad de que se pueda
tener éxito en la solución, lo cual puede estar limitado a cumplir con algún ítem de la
especificación o por otras restricciones, y solo si estas son satisfechas le dan sentido al proyecto.
En tal caso se podrá concluir con la recomendación de realizar desarrollos exploratorios, que
viabilizarían el proyecto solo si estos resultaran positivos.

Internet como fuente de información


Desde el punto del diseño, la red Internet sirve a variados propósitos:
ƒ conocer características y precios de productos competitivos ,
ƒ hacer análisis de tecnologías y tendencias tecnológicas
ƒ acceder a normas o estándares
ƒ acceder a proveedores de componentes
ƒ acceder a hojas de datos de componentes
ƒ realizar búsqueda especifica de componentes
ƒ acceder a foros de discusión específicos
ƒ intercambio rápido de información
ƒ acceso a información confidencial detallada de productos, que si bien es no oficial y su
uso no esta autorizado, es útil para conocer detalles de diseño usado por competidores
ƒ acceso a programas (software ) de uso libre
Esto convierte a la www en una importantísima herramienta de ayuda para el diseño.
Hallar la respuesta a muchos problemas en la mayoría de los casos se limita simplemente a
efectuar un click. Es sorprendente la cantidad de información disponible libremente vía la www.
Las dos posibles formas de acceso son :
ƒ realizando una búsqueda temática o por tipo de servicio, equipo o dispositivo, para lo
cual hay disponibles buscadores específicos
ƒ acceder a la pagina de algunos de los fabricantes conocidos
En el primer caso se entrara con una o conjunto de palabras claves, en el segundo con el
nombre de alguno de los fabricantes conocidos. Normalmente, la forma mas obvia es casi siempre
la adecuada.

28
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 29

Responsabilidad legal
El diseñador se debe cuidar de cometer errores que puedan volver inseguro el uso del
producto, en cualquiera de las fases de su ciclo de vida. Hay dos tipos:
• Errores por omisión, que involucra no haber previsto una situación crítica
• Errores por comisión, habiendo previsto el problema, se adopta una solución equivocada
Los errores de diseño se evitan, o cuando menos se reducen, formulando FMEAs,
diagramas de árbol de fallas y de causa-efecto2 desde las etapas mas temprana del proyecto.
De todas las posibles fuentes de error, especialmente se deben analizar las debidas al error
humano. Esto implica determinar si se pueden generar situaciones peligrosas en las fases de
instalación, operación o mantenimiento, como consecuencia de la interacción persona-equipo.
Básicamente los daños pueden resultar de:
• Accionamientos inseguros ( debidos básicamente a error humano )
• Condiciones inseguras (por fallas del equipo o defectos de concepción o diseño)
Supongamos que se debe definir como accionar las pinzas de un robot. Podría pensarse en
dos alternativas: Pinza normalmente cerrada, al activarse se abre y toma la pieza, o normalmente
abierta, que se cierra para tomar la pieza. En el primer caso, un corte de energía retiene la pieza,
mientras que en el segundo la suelta; no considerar las consecuencias seria un error por omisión.
Una situación similar se da para el acceso a la parte interna de un equipo dentro del cual
hay altas tensiones, o partes en movimiento. Según el peligro, las alternativas serán colocar
carteles de advertencia, dificultar el acceso, o disponer de seguros de puerta o de acceso tales que
si se destraba o abre una puerta o tapa que da acceso a partes peligrosas, automáticamente el
equipo se desenergiza. En ciertos casos, el acceso solo debería ser posible pasado un temporizado
que garantice que el peligro ha desaparecido: por descarga de capacitores, frenado de las partes
móviles, etc.
Análisis de caso: Un estudio jurídico de California presento una demanda contra las empresas Palm y 3Com,
grupo al cual pertenecía en aquel momento Palm, debido a que una característica destinada a sincronizar
datos entre los dispositivos de mano Palm y las PC podía causar daños en la PC, obligando al usuario a tener
que cambiar la placa madre de la PC. La demanda alegaba que dichas empresas no advirtieron a los usuarios
que la característica HotSync que tienen los dispositivos de Palm puede desactivar el puerto serie en algunas
marcas de PC.
Ciertos equipos requieren la realización de homologaciones por parte de entes externos,
gubernamentales o independientes, previo a la comercialización, tal el caso de equipos
electromédicos; en otros casos, puede ser requerida una autorización para su uso, como ser
equipos de radiocomunicaciones. Pero, aun no existiendo regulaciones gubernamentales, es
importante atender los requerimientos derivados de normas en el área específica que corresponda.
La consulta de normas especificas nacionales o internacionales como las ISO, las normas del IEC,
o de la UIT, o normas de seguridad aplicadas en otros países pueden servir como referencia, tales
como las normas DIN, las BS, las AFNOR, las AENOR, etc.
Especialmente deberán analizarse posibles problemas derivados de la falla o mal uso, y
documentarse la realización de ensayos propios y por parte de terceros que atiendan estos
aspectos. Esto si bien no exime de responsabilidad frente a daños a terceros, la existencia de
ensayos y controles de proceso puede ser un factor atenuante.
Si bien siempre la responsabilidad primaria es del fabricante, solidaria con ésta, esta la
del proyectista, sobre el cual recae la responsabilidad mayor de la aprobación de los planos. La
responsabilidad puede ir más allá de la existencia de daños derivados del uso; este seria el caso,
por ejemplo, cuando se falsea una especificación, o el resultado de una prueba.

2 ver paginas 123 y 208

29
30 INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño

Ética Profesional
Se define como ética profesional al conjunto de principios que regulan la conducta de
las personas en sus actividades profesionales, de modo que ésta se ajuste a lo que la sociedad
acepta como moralmente correcto. Es decir, cuando el ingeniero propone soluciones, en las
mismas siempre debe hacer prevalecer el interés general.
Casi todas las asociaciones profesionales, independientemente de las regulaciones propias
del ejercicio de la profesión, emiten códigos de ética. Los códigos de ética son recomendaciones
que los ingenieros debieran cumplir y respetar en el ejercicio de su profesión. Los códigos tratan
problemas comunes como competencia, confidencialidad, conflicto de intereses, etc. y estimulan
la conducta ética, sirviendo además de guía en cuanto a las obligaciones del ingeniero; además,
engrandecen la imagen pública de la profesión y promueven el profesionalismo.
Existen muchos códigos de ética dentro de la Ingeniería. En general, cada especialidad
adopta el suyo, pero algunas organizaciones engloban a varias disciplinas, como es el caso de la
NSPE (National Society of Professional Engineers) de los Estados Unidos. La NSPE establece las
normas de conducta para todos los ingenieros, y es tan importante que los principales elementos de
su código de ética se convirtieron en ley en muchos estados norteamericanos. A continuación se
destacan los artículos más importantes de dicho código:
I. Los ingenieros, en cumplimiento de sus deberes profesionales deberán:
• Preservar la seguridad, la salud y el bienestar del público.
• Prestar servicio sólo en las áreas de su competencia.
• Realizar declaraciones públicas en forma objetiva y veraz.
• Actuar de manera profesional con empleados y clientes.
II. Obligaciones profesionales
• Los ingenieros admitirán sus equivocaciones y errores, absteniéndose de
distorsionar o alterar los hechos para justificar sus decisiones.
• Los ingenieros deberán advertir a sus clientes o empleadores cuando crean que
un proyecto no será exitoso.
• Los ingenieros no participarán en huelgas, piquetes u otras acciones colectivas
coercitivas.
• Los ingenieros evitarán cualquier acto tendiente a promover sus propios
intereses a expensas de la dignidad e integridad de la profesión.
• Los ingenieros no firmarán, aprobarán o sellarán planos y/o especificaciones de
un diseño que sea perjudicial para la salud pública y el bienestar general. Si
clientes o empleadores insistieran con esa conducta no profesional, el ingeniero
deberá notificar a la autoridad que corresponda.
• Los ingenieros no utilizarán equipamientos, laboratorios u oficinas para llevar a
cabo prácticas privadas sin consentimiento.
• Los ingenieros, cuando empleen a otros ingenieros, ofrecerán salarios de acuerdo
con las calificaciones profesionales de los interesados.
Otro buen ejemplo lo constituye el código de ética propuesto por el IEEE, el cual se
puede bajar de Internet de la pagina de dicha entidad, o simplemente valiéndose de cualquier
buscador usando como clave de búsqueda “IEEE code of ethics”. Este código también se
encuentra en castellano en la página de la rama estudiantil IEEE de la PUCP, a la cual se puede
acceder entrando para la búsqueda con “codigo de etica del IEEE”.

30
Planificación y Programación
Cualquier cosa que pueda cambiarse será cambiada
hasta que no quede tiempo para cambiar nada
ARTHUR BLOCH ( “El libro completo de las Leyes de Murphy”)

Garantizar el éxito del desarrollo no depende solo de que el estudio de la factibilidad


técnica concluya positivamente, es decir, que se haya demostrado que la solución es
alcanzable y que se cuenta con los recursos necesarios y capacidad de desarrollo, o bien que se
tiene acceso a la misma. Un proyecto exitoso no se limita solamente a cumplir con los
requerimientos técnicos: El tiempo y el resultado económico son otras variables a considerar.
Muchos proyectos fracasan por inadecuada estimación del mercado o de los atributos que
debiera tener el producto antes de comenzar con su desarrollo, y en otros porque:
• No se cumplen los requisitos o criterios de selección
• No se cumplen los requerimientos de progreso en una etapa de revisión o control
• El prototipo desarrollado no satisface los requerimientos del mercado
• Se han gastado recursos que van mas allá del punto en el que se justifica
económicamente el desarrollo
Es por tanto importante demostrar que el proyecto es no solo técnicamente factible,
sino que además económicamente tiene sentido, y se cuenta con capacidad técnica y financiera
para afrontar su desarrollo, y que además la solución puede lograrse en un tiempo razonable.
Todo esto conforma el anteproyecto o estudio de prefactibilidad, figura 1.
esfuerzo ($)

Reconocimiento
Necesidad

Requerimientos

Definición de Producto
Especificaciones

Estudio de
Factibilidad Tecnologica tiempo
fase I b fase II fase III fase IV
conceptualizacion planificacion ejecucion documentacion
Factibilidad de Factibilidad Factibilidad
Tiempos Economica fiananciera

Fig.1 Fig.2

Para realizar el estudio de factibilidad es necesario contar con una estimación de los
recursos necesarios para la ejecución del proyecto. Para ello, primero habrá que definir como
se organizara el desarrollo, y formular luego planes para el diseño de cada etapa, estableciendo
metas para cada una que permitan luego un control eficaz de su progreso y efectividad.
El esfuerzo de planificación es una parte importante del esfuerzo total del proyecto,
figura 2, ampliamente justificado porque con el mismo no solo se demuestra que las metas
pueden ser cumplidas, sino que además permite lograrlo con un menor esfuerzo total. Es por
ello que las normas ISO exigen que los proyectos estén apoyados en un plan, definiendo al
plan de proyecto como “un documento en el cual se expresan las prácticas especificas, los
recursos y secuencia de actividades requeridas para cumplir con los objetivos del proyecto”.
32 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Planificación
Antes de ponerse a resolver los problemas planteados en el proyecto se necesario
delinear un plan. Recién después de trazado el plan, se elaborara un programa de trabajo. Con
la planificación se busca determinar qué tareas hay que hacer, qué recursos son necesarios para
ejecutarlas, y en que orden deben ejecutarse. En la elaboración del programa se parte de
recursos definidos con algún criterio, y se busca establecer un tiempo calendario, indicando el
momento en que se debe comenzar y se debería terminar cada tarea, asignándole los recursos y
definiendo los responsables de las mismas. Un programa es, entonces, solo una posible forma
de ejecución del plan.
Es decir, en la planificación no interviene el tiempo calendario, tan solo toma en
cuenta el tiempo de duración de las tareas, pero no está dicho en qué momento se van a
ejecutar, ni de que forma se va a trabajar; en el programa sí. De la planificación surgirá por
ejemplo que se requieren X horas para ejecutar una tarea. El programa toma en cuenta las
horas de trabajo diario, la existencia de feriados, días de descanso semanal, periodo de
vacaciones, etc. Esto implica que la duración establecida en la planificación debe ser
multiplicada por un factor que tome en cuenta el número de horas efectivas de trabajo anuales,
por lo cual la duración puesta en tiempo calendario se ve incrementada entre 4 y 5 veces.
Algunos piensan que la planificación es una pérdida de tiempo, considerándola una
actividad totalmente prescindible. Esto, que puede ser cierto cuando se trata de tareas simples,
deja de serlo cuando se trata de desarrollar productos en los que están implicadas múltiples
tareas y sectores. En el primer caso será suficiente trazar un plan de acción. En el segundo
caso son necesarias herramientas específicas para la coordinación, el control y la revisión. La
planificación obliga a fijar claramente los objetivos que se deben alcanzar, que existan recursos
para satisfacerlos, y que estén contemplados esfuerzos dedicados a la revisión, evaluación de
progreso, y el control.
La planificación determina el proceso para llevar a cabo el proyecto del modo más
eficiente y efectivo, para cumplimentar el propósito planteado. Busca definir el que, el donde,
el como, el porque y a que costo. Para ello es necesario:
1. Definir las metas generales
2. Trazar un plan de tareas
3. Desarrollar en detalle los alcances
4. Asignar objetivos para cada actividad
5. Relacionar las actividades mediante una red lógica
6. Establecer la duración y demoras de cada actividad
7. Verificar la consistencia de la red
8. Determinar la necesidad de recursos para cada actividad
La planificación se hace usualmente sobre la base de recursos infinitos, con la
finalidad de determinar el menor tiempo en que podría ejecutarse el desarrollo. Trabajar con
recursos infinitos significa que se puede poner tanta gente a trabajar en el proyecto como sea
necesario y posible, y que se cuenta además con todo el soporte que sea requerido. La variante
extrema a esta opción sería hacer el desarrollo aprovechando recursos libres. Ahora bien:
¿Quién decide como debe ejecutarse el proyecto? En función de los estudios de factibilidad y
planes estratégicos, la dirección de la empresa determinará la forma apropiada de ejecución, es
decir, el soporte que va a tener el proyecto, en base al cual se hará el programa de trabajo.
Entre las actividades necesarias deben incluirse los mecanismos de control y
monitoreo de perfomance. Esto implica incluir actividades tales como informes de progresos,
de aseguramiento de la calidad, de control de costos, etc.
Para poder establecer la carga de trabajo, el esfuerzo global debe partirse en esfuerzos
menores, y estos a su vez nuevamente deben descomponerse, de modo que se va conformando

32
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 33

una estructura de partición del trabajo, una WBS ( Work Breakdown Strcuture ), hasta un
nivel en que pueda determinarse la carga de trabajo y los recursos requeridos.
Las dos herramientas usuales para la planificación son el CPM (Critic Path Method),
método del camino crítico, y el PERT (Program evaluation and review technique ), o técnica
de evaluación y revisión de programas. El CPM, orientado a actividades, trabaja con tiempos
determinísticos, considera que la fluctuación en la duración de las tareas es despreciable. El
PERT esta orientado a eventos, y, por trabajar con tiempos aleatorios, es más apropiado para
la planificación de proyectos, en los que se supone que al menos alguna de las tareas no se
realizo nunca, ni es simple, ni su solucion es directa, y que además exige esfuerzos de
creatividad difíciles de cuantificar en tiempo. Esto lleva a suponer que su duración no puede
ser precisada exactamente, pero, como todo proyecto requiere que sea determinado su tiempo
de ejecución, es necesario contar con una herramienta que ayude para esa determinación.

Método del camino critico


Para mostrar la dependencia entre tareas se construye el denominado grafo o
diagrama de flechas, donde cada tarea se asocia a una flecha, y su sentido marca la progresión
de su ejecución; convencionalmente todas las flechas van desde la izquierda a la derecha. Su
ubicación en el grafo determina que tareas previas deben estar ejecutadas para poder comenzar
una dada tarea. La finalización de ciertas tareas marca a su vez un evento o hito importante en
el proyecto. Un hito significa alcanzar algún logro importante. Cada hito esta asociado a un
nodo, indicado por un círculo, y cada tarea a una flecha. La longitud de la flecha es arbitraria;
lo que importa es su sentido. Si alcanzado un hito, dos o mas tareas pueden ser ejecutadas
simultáneamente respecto a otra u otras, esto se representara por flechas en paralelo, figura 3.
Debajo de la flecha suele ponerse un nombre que describe la tarea, y encima de la misma su
duración.
17
tarea
Inicio tarea t2
Final
evento
23 10 15 72
1 2 3 4 5
tarea t1 tarea t3 tarea t5 tarea t6

66
Fig.3 Fig.4
tarea t4

El grado de desglose que se tiene que hacer en las tareas, debe ser lo suficientemente
amplio como para poder definir o estimar su duración, la cual, bajo el supuesto de recursos
infinitos, será el menor valor posible.
Supongamos por ejemplo que la primer tarea t1 requiere 23 h (horas) para ser
completada, la tarea t2 17 h, y así sucesivamente, figura 4. En función de esto se puede
computar el tiempo que debe transcurrir para lograr un evento dado a contar desde el arranque
del proyecto. La carga de trabajo dependerá de la cantidad de personas involucradas; vale
decir, es necesario diferenciar entre la duración de la tarea y la carga medida en horas-hombre.
Si en la tarea t1 intervienen dos personas, la carga será de 46 HH (horas-hombre). Alcanzado el
nodo 2 pueden ser ejecutadas tres tareas en forma simultánea, t2, t3 y t4. Podría ser, por
ejemplo, que la tarea t2 requiriese 1 persona ( 17 HH ), la t3 3 personas ( 30 HH), etc.
Como vemos, en este diagrama no hay ningún calendario. Recién después de tener las
directivas del directorio se realizará el programa de trabajo, con un calendario que estará
vinculado a los criterios definidos para la asignación de recursos.
El diagrama puede incluir tareas ficticias, indicadas en punteado, tareas de duración
nula, como es el caso de la tarea t5, indicada en la figura 5a. Su finalidad es respetar las reales

33
34 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

restricciones de precedencia. Si no se incluyeran, se alteraría el camino crítico o restringiría


innecesariamente la asignación de recursos. Por caso, si se hicieran coincidir los nodos 3 y 4,
como indica la figura 5b, se agrega como restricción de precedencia implícita para la tarea t6
las tareas t2 y t3, mientras que en el caso de la figura 5a, al haber incorporado la tarea ficticia
t5, para ejecutar la tarea t6 solo se necesita tener concluida la tarea t4.
38 38

tarea t2 tarea t2
10 30 10
60 25 30 25
1 2 tarea t3 3 5 6 1 2 60
3 5 6
tarea t1 tarea t7 tarea t8 tarea t1 tarea t3 tarea t7 tarea t8

16 0 16 50
tarea t5
tarea t4 50 tarea t4 tarea t6
Fig.5 4
a) tarea t6 b)

La tarea ficticia sirve también para diferenciar nodos a los efectos de simplificar su
tratamiento por computadora, cuando se quiere identificar a las tareas por los nodos que
vinculan, figura 6a, b. Esto ocurrirá cuando las distintas tareas partan y concurran a los
mismos nodos; es decir, el nodo 6 para el caso indicado en la figura 6c seria innecesario.

4 5 4 5 4 5 7
tarea A tarea 4-5 tarea 4-5 tarea 6-7

tarea 4-6 tarea 6-5 tarea 4-6


tarea 6-7
tarea B 6
6
Fig.6 a) b) c)

Para completar el proyecto es necesario realizar el total de las tareas, muchas de ellas
simultáneas. Por tanto, para hallar el tiempo de ejecución se debe hallar cual es el mayor de los
tiempos requeridos para ejecutar las tareas sucesivas de cada uno de los distintos caminos que
vinculan el inicio y final del proyecto. Ese es el denominado camino crítico. Si la ejecución
de alguna de las tareas de ese camino se prolonga, el proyecto se va a retrasar en igual medida.
Por ello, las tareas incluidas en el camino crítico son las tareas críticas del proyecto, es decir,
las que más deben controlarse.
El método CPM aunque no es la herramienta adecuada para la planificación de
proyectos, es útil para introducir el concepto de camino crítico y de holgura o margen de una
tarea. Si se observa la figura 5a se ve que el inicio de la tarea t2 se puede retrasar sin afectar
para nada la duración del proyecto. Se dice en tal caso que la tarea tiene una holgura. En otras
palabras, siempre, cualquiera sea la tarea, habrá un tiempo más tardío en que se debe empezar
a ejecutar para no prolongar la duración del proyecto. Es decir, en el caso de la figura 5a, la
tarea t2 debe comenzar a mas tardar a las 32 horas de iniciado el proyecto; de no ser así, su
retraso de ejecución se trasladara directamente a la duración del proyecto.

Márgenes de las tareas


Todas las tareas no incluidas en el camino crítico, ubicadas en ramas paralelas a las
tareas del mismo, cuentan con márgenes para su ejecución. Este es el caso de la tarea t2 de la
figura 5a, teniendo el momento de inicio mucho margen para fluctuar en el tiempo sin que ello
afecte la duración del proyecto.
Cualquiera sea la tarea vemos que aparece un tiempo mas temprano en que puede ser
ejecutada, el cual dependerá de la terminación de las tareas que le preceden. Hay también un
tiempo más tardío para comenzar su ejecución, el cual depende del tiempo en que deben ser
ejecutadas las tareas que le siguen para no afectar la duración del proyecto. Por caso, el
proyecto al que corresponde el grafo de la figura 5a tiene una duración mínima de 125 h, y al

34
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 35

evento 5 se debe llegar como muy tarde a las 125 h menos las 25 h que demanda la tarea t8.
Por tanto, el inicio más tardío de la tarea t6 será la hora 50 a contar del inicio del proyecto.

Duración de la tarea j Holgura libre Duración de la tarea j


Holgura total

t1 t t1 t4 t2 t
t3 t2
Inicio mas temprano Terminación mas tardía Inicio más temprano Comienzo más temprano Terminación
de las tareas siguientes más tardía

Fig.7 Fig.8
Supongamos una tarea j cualquiera que no pertenece al camino crítico, y que sea t1 el
momento más temprano en que la misma se puede comenzar, figura 7, y que sea t2 el
momento más tardío en que debe finalizar para no comprometer la duración del proyecto. Estos
instantes t1 y t2 se obtienen adelantando las tareas que preceden a la tarea j y postergando las
que le siguen tanto como sea posible. Si a la diferencia t2-t1 se le descuenta el tiempo de
duración de la tarea, se obtiene la máxima holgura, o margen total, que puede tener. Esto
define el instante t3 como el momento más tardío en que debe ser iniciada la ejecución de la
tarea j para no modificar la duración total del proyecto.
El margen total de una tarea j supedita la ejecución de las demás tareas para lograr
que el margen de esa tarea j sea máximo. Si solo se restringe el inicio de las tareas que
anteceden a la tarea j, se habla de un margen libre. Esto supone que todas las demás, incluidas
las tareas que siguen a la j, se inician también lo más temprano que se pueda. Suponiendo que
ese instante fuera el t4, figura 8, entonces el margen libre se obtiene descontando a (t4-t1) el
tiempo de duración de la tarea j.
Si las tareas que anteceden a la tarea j se iniciaran lo más tardíamente posible,
cuidando de no afectar la duración total del proyecto, esto nos lleva al instante t5, figura 9. En
el caso límite, teniendo en cuenta también que las tareas que siguen se inician lo más temprano
posible (tiempo t4), resulta un margen independiente de las demás tareas, el cual se obtiene
restando del valor (t4-t5) la duración de la tarea j.
Holgura
independiente Duración de la tarea j

Fig.9 t1 t5 t4 t2 t
Inicio mas Terminación Terminación mas tardía
temprano mas tardía de Comienzo mas temprano
las tareas de las tareas siguientes
precedentes

Determinar la fluctuación de cada tarea es importante a los efectos de la asignación de


recursos, dado que la nivelación de estos en el tiempo es siempre una condición deseable.
Los márgenes y el camino crítico pueden ser hallados cuando se tiene definida la red
PERT. Para ello se hallan los tiempos más tempranos en que se pueden comenzar las tareas
que siguen, partiendo desde el evento inicial. El resultado se pone encima de cada evento,
figura 10. Se calculan luego los tiempos más tardíos en los cuales debe comenzarse cada tarea
para completar el proyecto en tiempo, para lo cual se parte del evento final y se va hacia atrás.
El resultado se pone debajo de cada evento, figura 11.
Aquellos nodos en los cuales sean coincidentes los tiempos de inicio mas temprano y
tardío, implica que al menos una de las tareas que se desarrollan entre esos eventos no tiene
margen alguno, y por tanto esos nodos pertenecen al camino critico. De haber diferencia entre
los valores de estos tiempos, en base a la misma y a la duración de la tarea se puede determinar
el margen disponible para esa tarea.

35
36 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

38 38

tarea t2 tarea t2
0 10 10 70 100 125 0 10 10 70 100 125
60 30 25 60 30 25
1 2 3 5 6 1 2 tarea t3 3 5 6
tarea t1 tarea t3 tarea t7 tarea t8 tarea t1 tarea t7 tarea t8
0 10 70 125
0 0 100
16 tarea t5 16 tarea t5
26 26
tarea t4 50 tarea t4 50
4 tarea t6
4 tarea t6
Fig.11 50
Fig.10

Existen varios paquetes de software para el análisis CPM y PERT. Entre los más
difundidos deben mencionarse el Primavera Project Planner y el Microsoft Project. Este
último, si bien tiene una capacidad limitada, es normalmente suficiente, y es además uno de
los más económicos y simples de usar.

Técnica de evaluación, programación y revisión (PERT)


Presupuestar y fijar tiempos para el desarrollo resulta difícil porque, en general, se
trata de tareas de tipo intelectual, donde juegan aspectos creativos, con tareas que implican
generar proposiciones, hacer pruebas, refinar soluciones, desarrollar programas, etc. Pero la
dirección de la empresa necesita contar con elementos precisos para decidir si conviene o no
desarrollar el proyecto, y el tiempo y el costo son elementos importantes de decisión. Lo que se
sabe es que las tareas comenzaran en algún momento, y que, suponiendo el mejor de los
escenarios, no podrán concluirse antes de una determinada fecha, un tiempo optimista, y para el
peor escenario se concluirán en algún otro momento posterior, un tiempo pesimista. El tiempo
efectivo será un valor aleatorio entre ambos límites, presumiblemente cercano a un tiempo más
probable de duración, que habrá de estimarse.
Se ha encontrado que la función beta es un buen modelo de distribución para tratar
esta incerteza, por ser una función muy amoldable: variando sus parámetros la función asume
formas diversas. La función Beta normalizada se define para un rango de valores entre cero y
uno; vale decir, la función de densidad es cero para valores menores que cero y para valores
mayores que uno; entre cero y uno la función de densidad responde a una expresión del tipo
f ( x ) = k . x p .( 1 − x ) q (1)
donde el valor de la constante k debe ser tal que
1
(2)

0
f ( x ). dx = 1

La expresión (1) es utilizada en general en todos los textos dedicados a la


planificación. Esta expresión difiere de la forma en que los matemáticos definen la función
beta,
f ( x ) = k . x (α −1 ) .(1 − x ) (3)
β −1

Ambas formas son equivalentes si se toma


α = p +1
β = q +1 (4)

Esta equivalencia deberá tenerse en cuenta cuando se recurra a herramientas como


Matlab, o a la planilla de cálculo Excel. En ambos casos, la función de densidad Beta es
definida en base a la expresión (3). Los parámetros p y q de la función Beta están sujetos a la
condición de que α y β no sean negativos. Según sea su valor será la forma de la función, tal
como puede observarse en la Figura 12.

36
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 37

0 x 1

0 to t tp t

Fig.12 Fig.13

Al ser asimétrica, para su caracterización estadística habrá que considerar la moda


además del valor medio y la varianza, valores todos ligados a los dos parámetros de la función,
α
µ = (5)
α + β
α .β
σ 2
= (6)
(α + β ) 2 (α + β + 1 )

x moda =
(α − 1 )
(α − 1 ) + (β − 1 ) (7)

Definidos los tiempos optimista ( to) y pesimista (tp), queda definido el intervalo de
incerteza, relacionado con el intervalo de existencia de la variable beta normalizada x, figura
13, en la forma,
t − to
x = (8)
t p − to
t = t o + x .( t p − t o ) (9)
Determinar los parámetros α y β del modelo con los únicos datos disponibles (las tres
estimaciones, to, tm, tp ) no es posible, y aunque bastaría con otra suposición adicional,
convencionalmente se agregan dos supuestos más, el tiempo medio y la varianza del modelo,
que se ligan a las tres estimaciones anteriores. Como el tiempo medio es un valor comprendido
entre to y tp y cercano a tm, se lo establece suponiéndolo como una media ponderada de los tres
tiempos, siendo convencional asignar a tm un peso 4 veces mayor, es decir
t o + 4 .t m + t
t =
p
(10)
6
y además se considera como un hecho imposible que el rango supere en más de 6 veces el
desvío estándar, o sea, en el limite
⎛ t p − to ⎞
2
(11)
var( t ) = ⎜⎜ ⎟⎟
⎝ 6 ⎠
Como el modelo tiene dos parámetros solo podrán cumplirse dos de las tres
condiciones ( µ, σ, xmoda ). Si se supone que las expresiones (10) y (11) definen exactamente
los valores medios y la varianza, reemplazando estos valores (normalizados) en las
expresiones (5) y (6), se pueden obtener los valores de los parámetros para ese supuesto,
α = µ .[36 .( µ − µ 2 ) − 1] (12)
⎛ 1 ⎞
β = α . ⎜⎜ − 1 ⎟⎟ (13)
⎝ µ ⎠

y de ellos derivar los valores de p y q en base a las expresiones (4).

37
38 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Esta solución vuelve coherentes las expresiones (5) y (6) con las (10) y (11), pero tiene
como limitación que el valor de la moda difiere del valor del tiempo más probable supuesto.
Otra alternativa de solución seria respetar los valores estimados de la media y de la moda, y
vincularlos con los parámetros de la función Beta. En este caso la moda concordara con el
valor del tiempo mas probable supuesto, pero la varianza diferirá del valor estimado en base a
la expresión (11). El modo más simple de considerar esta alternativa consiste en adoptar
p+q = 4 (14)

aprovechando que bajo esta condición la expresión (10) lleva a un error nulo en el valor medio
cualquiera sea el valor de p, como se observa en la Figura 14, y la varianza se aproxima al
valor dado por la expresión (11), tal como muestra la figura 15.
20

10 p+ q= 5
error(%)

Fig.17
4
0
3
-10

-20
0 0.2 0.4 0.6 0.8 p/p+ q 1
Fig.14

0.04

teoric a
0.03 aprox im ac ion
va ria n z a

0.02

Fig.15 0.01
0 0.2 0.4 0.6 0.8 p /(p + q ) 1

Como además el tiempo mas probable tm marca el sesgo de la curva, y por lo tanto
la relación entre p y q, o lo que es igual entre α y β, por lo que si se tiene en cuenta que bajo la
condición
p+q=k (15)
fijando un valor para k, de acuerdo a la expresión (7), la moda ( xm ) variara con p en la forma
p
xm = (16)
k
o lo que es equivalente,
(17)
p = k .x m
Fijando entonces k=4, para estar dentro de la aproximación (10), y teniendo en
cuenta (15), resulta
tm − to
p = 4. (18)
t p − to
y por (14)
t p − tm
q = 4. (19)
t p − to
Dada la poca diferencia entre los distintos métodos de cálculo, y el carácter estimativo
implícito, la mayor simplicidad hace aconsejable emplear esta última aproximación.

38
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 39

Estimación de tiempos y recursos


Estimar los tiempos optimista, pesimista y más probable implica tener claramente
identificada cada tarea, y definido exactamente que es lo que debe hacerse en su ejecución.
Esta identificación no puede ser algo tan vago y etéreo como por ejemplo desarrollo de soft, o
desarrollo de circuitos impresos; deben existir elementos de base concretos que permitan
evaluar los tiempos en que pueden ser alcanzados los objetivos. Ayuda en ello contar con una
descripción de las operaciones que deben desarrollarse, los resultados que deben obtenerse, y
una medida estimada de la complejidad, como ser las líneas de código estimadas para un
programa, dispositivos y cantidad de pines a interconectar en un circuito impreso, etc. La
dificultad esta en que estas estimaciones no son sencillas en una etapa temprana del proyecto,
pudiendo aplicarse en tal caso como alternativa:
• Consulta de expertos
• Técnicas de modularización. Todas las tareas son siempre una combinación de
actividades varias; algunas tendrán poca incertidumbre y en otras habrá gran
incerteza. Se trata, diferenciándolas, de reducir lo mas que se pueda la incertidumbre
• Resultados históricos, recurriendo a una base datos o paralelismos con actividades
similares desarrolladas anteriormente
• Estimación paramétrica, en la cual se puede tratar de relacionar la duración con algún
parámetro ( por ejemplo, la duración en el desarrollo de un software con la cantidad
de líneas, y estas con la cantidad de operandos y operadores )
• Técnica de Delfos1
estimacion 1

estimacion 2

estimacion 3

estimacion 4

Fig.16
tp
to tmp tiempo

Basándose en diferentes estimaciones de duración de cada una de las tareas, con datos
obtenidos en forma independiente entre si, es posible hacer una mejor estimación de los
tiempos optimista, pesimista y más probable, tal como muestra la figura 16.
Para estimar los recursos será necesario tener una descripción de cada tarea y de como
se llevara a cabo su ejecución, a los efectos de poder determinar los recursos de ingeniería, de
técnicos, o del recurso humano que sea necesario, y a ello se deben agregar los demás recursos
requeridos para cumplimentar la tarea: componentes y materiales, espacio físico e
instalaciones, el instrumental, y todo soporte que se aprecie necesario. Es decir, además del
tiempo que se supone demandara el desarrollo, es necesario indicar la cantidad de personas
comprometidas en cada tarea. Estos valores se integran a una planilla, en un cuadro similar al
siguiente:

Tarea Precedente Descripción Duración Personas Componentes y Exigencias de Instrumental ...........


to tm tp materiales espacio

Esta planilla, útil para construir el PERT, también lo es para la asignación de recursos
(programación) y para realizar los estudios de costeo y de factibilidad económica.

1
ver pagina 100

39
40 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Estimación de la duración del proyecto


Contando con la duración de las tareas y los recursos humanos que demanda su
ejecución se debe establecer el tiempo de duración del proyecto en base a las tareas que
integran el camino crítico. La respuesta no es sin embargo única, dado el carácter probabilístico
que tiene la duración de las tareas, por lo que su determinación dependerá del nivel de riesgo
que se adopte para la estimación.
Supongamos determinado el diagrama PERT, y estimado los tiempos de cada tarea.
Partiendo del inicio habrá seguramente todo un conjunto de caminos, o sucesión de tareas a
ejecutar hasta la conclusión del proyecto. La ejecución de las tareas de cada uno de esos
caminos, cualquiera que se elija, demandara un tiempo que será igual a la suma de las
duraciones de todas las tareas que integran ese camino,
Tj = ∑t
camino
i
j
(20)

donde, cada una de las ti es una variable aleatoria. Ahora bien, es sabido que la distribución de
la suma de muchas variables aleatorias tiende a una distribución normal, si todas tienen similar
incidencia. Esto permite conocer el tiempo que lleva la ejecución de las tareas de un camino j
como suma de los valores medios de cada tarea más un tiempo que contemple la incerteza.
Este tiempo es función del desvío estándar de la duración de las tareas de ese camino j y de un
factor zα, fractil de 1-α, que depende del riesgo α que se acepte para la estimación, o sea
Tj = ∑ t i + z α .σ j = T j + z α .σ j (21)
tareas en j

donde, teniendo en cuenta (11),


1 ⎛⎜ ⎞
σ = ∑ σ 2
= . ∑ ( t pi − t oi ) 2 ⎟ (22)
6 ⎜ ⎟
j i
tareas en j
⎝ tareas en j

El riesgo α es la probabilidad de que no pueda concretarse el proyecto en el tiempo
estimado por (21). Este riesgo esta dado por el área bajo la curva de densidad, figura 17, desde
ese valor Tj a infinito.

f(t)
Esta área mide el
riesgo Tci⏐10%

Tjmedio = Tj Tj t Tcj⏐10%
Tci⏐50% Tcj⏐50%
Fig.17 Fig.18

Entonces, cuando se requiere saber cuál es el tiempo que puede llevar la concreción de
todas las tareas del camino j, esto admite muchas respuestas, dependiendo del riesgo α que se
quiera asumir. Por ende, un valor sin especificación de riesgo carece de sentido. Tampoco
tiene sentido operar con riesgos menores al 5%, dado que se parte de datos estimados.
Prefijado un riesgo, se puede determinar la duración para los distintos caminos, y
evidentemente la duración del proyecto quedara determinada por el camino de mayor duración,
el cual pasa a ser el camino crítico. Pero, si se adoptara otro riesgo puede resultar otro camino
crítico, tal como muestra la figura 18, en la cual se indican las funciones de densidad de dos
caminos, el i y el j. Para un riesgo del 50%, el camino crítico es el j. Si en cambio se plantea
un riesgo del 10%, el camino crítico sería el i. Esto muestra lo inconveniente de trabajar con
valores medios, que corresponden a un riesgo del 50%.

40
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 41

Simulación de Monte Carlo


La salida de cualquier proceso resulta de combinar una o varias entradas, figura 19.
Caracterizado el proceso, si las entradas son conocidas también lo será la salida. Si las
variables de entrada tienen carácter aleatorio, también tendrá ese carácter la salida, y en tal
caso solo cabe hacer una caracterización probabilística de la salida, si son conocidas las
distribuciones a las que responden las entradas. Si se trata de pocas entradas, y cada una solo
puede asumir unos pocos valores, se puede proceder por cálculo directo. Pero, cuando se tienen
muchas variables, que pueden tomar un rango amplio de valores, es conveniente recurrir a la
simulación de Monte Carlo.

x1 Áreas iguales
y fz(z)
y=f(x 1 ,x ,...,x n ) fx(x)
2
xn
dx x z
dz
Fig.19 Fig.20

La simulación de Monte Carlo busca dar solución a un problema mediante el


muestreo del proceso al azar. Con ello se quiere significar que se deben analizar las salidas
correspondientes a un número de entradas n, debiendo cada combinación considerarse una
cantidad de veces suficiente como para que todas tengan posibilidad de aparecer. Es decir, la
simulación busca generar muestras al azar de entradas cuyas distribuciones son conocidas, y
conocida la vinculación de la salida con las entradas, obtener distintas muestras de la salida.
Las posibles entradas aleatorias se obtienen generando números aleatorios que
responden a una distribución uniforme, los que luego se transforman a la distribución de
interés. La transformación se basa en que el área bajo la curva de la función de densidad
siempre debe valer 1, propiedad que debe conservarse en la transformación, figura 20, o sea,
f x ( x ). dx = f z ( z ). dz (23)
donde fx(x).dx es la probabilidad de que x se encuentre entre x y x+dx, y fz(z).dz es la
probabilidad de que z se encuentre entre z y z+dz. Supongamos por ejemplo que x responda a
una distribución normal N(0,1) y z a una distribución uniforme definida en el intervalo (0,1).
En tal caso, la propiedad anterior significa que, considerando un número suficiente de
experimentos, la cantidad de veces que aparecen valores de x comprendidos entre 1 y 1.5 será
la misma que la cantidad de veces que resulta un valor de z comprendido entre 0.8413 y
0.9332. Expresandolo de otro modo, x es la función inversa de la distribución gaussiana,
x = F −1
( v ) = Finv (ν ) (24)
De un modo mas general, si Φ(x) es una función de distribución cualquiera de la
variable x, entonces, asignando valores aleatorios, números que responden a una función de
distribución uniforme definida en el intervalo (0,1), a la función de distribución inversa,
x = Φinv(numero aleatorio) (25)
los valores de x así obtenidos tendrán la misma frecuencia que los que se obtendrían si se
realizara el proceso físico correspondiente.
El proceso de simulación se resume entonces a entrar en la función inversa de cada
una de las variables de entrada con un número aleatorio, y en base a la expresión (25) obtener
el valor que asume esa variable en esa realización. Conocidas todas las entradas, se puede
hallar el valor de la salida de esa realización. La simulación de Monte Carlo se limita a la
ejecución reiterada de este proceso. Luego, en base a los datos obtenidos, se puede hacer una
caracterización probabilística de la salida del proceso.

41
42 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Caminos semicríticos
Si las curvas de densidad de los distintos caminos se solapan, como en cada ejecución
del proyecto solo puede haber un único valor de tiempo de duración para cada camino, es claro
que cualquiera de los caminos cuyos tiempos de ejecución sean los mas altos y se solapen son
potencialmente posibles caminos críticos. A estos caminos se les denomina caminos
semicríticos. Los caminos a, b, c, y d de la figura 21 son todos caminos semicríticos, dado que
cualquiera de ellos puede resultar eventualmente crítico. Pero, una vez fijado un riesgo solo
uno de ellos es crítico. Por caso, con un riesgo del 50%, o sea, trabajando con los valores
medios, pasa a ser crítico el camino c de la figura 21.
c
f(t)
e b
d
a
Fig.21
Ta Tb Tc t
La determinación de los caminos semicríticos, caminos que tienen alguna
probabilidad de ser críticos, es de cálculo difícil por medio analítico pero muy simple en base
a simulación de Monte Carlo.
Supongamos conocidos los parámetros de la distribución beta, α y β, de la tarea j.
Entonces, un posible valor de duración de la tarea j estará dado por
t = to + [ Betainv(aleatorio, α , β)].(tp-to) (26)
donde Betainv() es la función beta inversa normalizada, o sea definida en el intervalo (0,1). Si
esto se repite para cada tarea, la suma de los tiempos correspondientes a las tareas de un
camino determina el tiempo de ejecución de ese camino. Si este cálculo se hace para todos los
caminos, el de mayor duración será el camino crítico de esa realización. Usualmente no será
necesario determinar la duración de todos los caminos, pues muchos de ellos podrán ser
descartados, porque por simple análisis se sabe que no podrían ser nunca críticos.
En un nuevo intento de realización del proyecto, como si fuera ejecutado por otro
equipo de trabajo, seguramente en condiciones de entorno distintas, resultaran sin duda otros
valores. Esto implica hacer otra simulación, repitiendo el proceso anterior. Si esto se repite un
número elevado de veces, se esta en condiciones de hacer el tratamiento estadístico que
permita responder a las preguntas:
1. ¿Cuál es la probabilidad de concretar el proyecto en un tiempo dado, independientemente
de cual resulte ser el camino crítico?
2. ¿En que tiempo puede concluirse el proyecto, bajo riesgo impuesto, independientemente
de cual resulte ser el camino critico?
3. ¿Bajo un riesgo dado, en que tiempo se puede concretar el proyecto para un dado camino
semicrítico?
4. ¿Que probabilidad tiene un camino de ser critico?
El valor de duración X que resulte debe verse solo como una referencia, debido a que
supone recursos infinitos y computa unidades de tiempo. Considerando condiciones normales
de trabajo, se podría hacer una estimación de la duración en semanas de trabajo en base a
X
s = (27)
40
valor que deberá aumentarse para considerar días festivos y días perdidos. También,
asumiendo 1800 horas de trabajo anuales, se puede tener una idea de la duración del proyecto
en días calendario, suponiendo una ejecución normal.

42
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 43

Programación
Se ha visto que el diagrama de flechas, a veces llamado grafo de redes, sirve para
indicar la secuencia lógica entre las tareas, y determinar la duración del proyecto sobre la base
de que se dispone de recursos infinitos, pero sin ajustarse a calendario alguno. Como resultado
de los estudios de factibilidad la dirección de la empresa decidirá los recursos efectivos que
van a ser volcados al proyecto y el momento en que el mismo comenzara. Es en función de
esas directivas que se debe replantear la duración, establecer la posible fecha de finalización y
determinar un presupuesto ajustado al nuevo replanteo. La asignación de recursos: cuantos y
quienes participaran, conque medios, y en que momento (fijación de un calendario), es la
tarea de la programación del proyecto.
Las directivas que establezca la dirección de la empresa para la ejecución del proyecto
podrán basarse en alguno de los criterios siguientes, o en su combinación:
• mínimo tiempo de ejecución ( bajo condición normal o acelerada)
• mínimo costo de desarrollo
• máximo aprovechamiento de los recursos existentes en la empresa
• asignación de recursos limitados en ciertas áreas
• cumplir con una fecha ligada a algún evento especial
• posibilidad de contrataciones externas en ciertas áreas
• conclusión de alguna etapa en una fecha prefijada

Diagrama de Gantt
La programación se vale del diagrama de barras o diagrama de Gantt. Este diagrama
tiene en su eje horizontal el tiempo calendario, destacando los días laborables, y cada tarea esta
representada por una barra horizontal. La barra queda definida por su fecha de inicio, las
precedencias que debe satisfacer, los días laborables y horas diarias de trabajo, y la duración
de cada tarea. El grafico marca también la vinculación de precedencia entre tareas, figura 22.

Tarea A

Tarea B

Fig.22 5/02 12/02 19/02 26/02 05/03 12/03 19/03

El primer problema que se presenta para construir este diagrama es como representar
la duración de una tarea que esta sujeta a incertidumbre. Obviamente, si se hiciera con los
valores medios, la duración del proyecto que resulta del diagrama de Gantt no seria congruente
con la duración que se determino previamente con el PERT, donde se contemplo una duración
con un nivel predeterminado de riesgo. El otro problema es que para hacer el control, a fin de
evaluar la marcha del proyecto, necesariamente se deben considerar las incertidumbres.
Analicemos esto con más detalle. Si quisiéramos determinar la duración de una única
tarea que esta sujeta a incertidumbre, adoptado un riesgo dado, su duración tendrá un valor,
t j = t j + γ j .σ j (28)
donde t j es el valor medio de duración de la tarea j, σj es el desvió estándar correspondiente a
esa tarea, el cual se ha visto esta dado por

43
44 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

t pj − t oj
σ j = (29)
6
y γj un factor que toma en cuenta el riesgo asumido, figura 23. Para un conjunto de tareas, por
ejemplo las tareas involucradas en el camino k, la estimación debiera considerar la
incertidumbre que resulta en la ejecución de cada una de las tareas que integran dicho camino.

f(t) riesgo

Fig.23
to tm tj tp t

Atendiendo a que la duración de las tareas involucradas en un dado camino es la suma


de los tiempos de las mismas, y asumiendo las condiciones de validez del teorema del límite
central, dicha duración responderá al modelo normal. En tal caso es posible, fijado un riesgo
α, determinar en función del mismo el valor zα con el cual estimar la duración de ese conjunto
de tareas,

tcamino k riesgo
= ∑ t j + zα . ∑σ 2
j = ∑ t j + z α .σ k (30)
tareas en k tareas en k tareas en k

Esta expresión, si bien valida para calcular la incertidumbre que resulta en la


ejecución de todas las tareas, no sirve a los efectos de calcular como la incertidumbre se reparte
entre las distintas tareas ni para el control de progreso. Es decir, la expresión (30) supone total
independencia entre las tareas, siendo que en realidad estas están ligadas por una condición de
precedencia. Para entender el problema, supóngase que se computa la duración de cada tarea
asumiendo un cierto riesgo, y se considera la misma como un evento aislado, y que lo mismo
se hace para el resto de las tareas. Si se sumaran estos tiempos para cada camino se obtendría
una duración que excede a la que se obtiene de considerar al conjunto de las tareas de ese
camino como un evento único. En tal caso, el diagrama de Gantt no seria coherente con lo
determinado en el PERT. Para que lo sea, debe verificarse que
m m m m m m
t = ∑ ti + zα . ∑σ 2
= ∑ ti + ∑ γ i .σ = ∑ ( t i + γ i .σ i ) = ∑ ti (31)
riesgo α i i
camino k 1 1 1 1 1 1

para lo cual bastaría con asumir un riesgo para cada tarea proporcional a la incerteza de la
misma en relación a la incerteza total,
σ
γ i = zα . i
(32)
m


1
σ i
2

Cualquiera de los dos modos de tratamiento tiene sus problemas. La programación


implica hacer una previsión anticipada de recursos y fija el momento en el que debe intervenir
cada sector o departamento. Una asignación de recursos basada en los valores medios puede
dar lugar a que, durante la ejecución del proyecto, esta programada la participación de un
sector sin que se hayan concluido las tareas precedentes a cargo de otros, y sin que ello
signifique retraso por estar dentro de una incerteza prevista.
Si bien la repartición de la incerteza vuelve coherente el grafo PERT y el diagrama de
GANTT, deja sin embargo la principal cuestión pendiente: el saber a cierta altura de ejecución
del proyecto si el mismo esta en tiempo, o se encuentra atrasado o va adelantado; y lo mas
importante, saber si se va a poder terminar el proyecto en fecha2.

2
ver Control de Proyecto, página 46

44
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 45

Asignación de recursos
Se ha visto que la asignación de recursos y el calendario al que deben ajustarse las
tareas deberá hacerse según los criterios que hayan sido fijados por la dirección de la empresa.
Si bien en la etapa de planificación se determina el tiempo que lleva la ejecución de cada tarea,
estableciendo un número de horas, no dice como estas se distribuyen; es decir, no toma en
cuenta cuantas horas por día, ni cuantos días a la semana se trabaja. Cuando la organización no
es por proyecto, sino que se usan recursos de distintos departamentos de la empresa, cada uno
de ellos trata de ir llenando los tiempo libres, manteniendo la carga de trabajo lo mas nivelada
posible. Para eso se aprovechan los márgenes que puedan tener las tareas. Si la empresa no
tiene recursos disponibles, deberá agregar recursos, incorporando gente, nuevos equipos, o
contratando externamente.
t1 t1
t2 t2
t3 t3

t4 t4
15
t2
15 20 b d
t1 t3
5 t1 t1
t4 t2 t2
t3 t3
a
t4 t4
Fig.24 c e

La figura 24a muestra tareas de un tramo del diagrama PERT. Se trata de establecer
la carga de ingeniería, suponiendo que la ejecución de cada tarea requiere un ingeniero.
Algunas posibles formas de asignación se indican en las figura 24b,c,d y e, pudiendo cada una
ser optima según sea el criterio que se considere: mínimo empleo de recursos por unidad de
tiempo, c; mejor nivelación en el uso de recursos, d y e; el caso d será mejor que el caso e, si t4
requiere una mayor inversión. Otro criterio seria adelantar las tareas con mayor incerteza.
A (2) A (2)
C (4) C (4)
E (1) E (1)
B (3) B (3)
D (6) D (6)
$ condicion acelerada
F (4) F (4)

Condicion normal recursos


recursos
requeridos
requeridos

to duración
t t
a) b)
Fig.25 Fig.26
Si se pretendiera ejecutar el proyecto en el menor tiempo se debería acelerar la
ejecución de cada una de las tareas, lo cual acarreara sin duda mayores costos. La relación
entre costo y duración toma típicamente la forma indicada en la figura 25. La curva muestra
que por más recursos que se dispongan no es posible acortar la duración más allá de un valor
dado. Si la meta es minimizar el costo, el tiempo óptimo sería to, figura 25. Como la relación
costo-duración es propia de cada tarea, cuando el proyecto deba acelerarse habrá que buscar
cual es la alternativa mas efectiva en costo. El perfil de recursos requeridos, indicados debajo
del diagrama de Gantt, será diferente con cada asignación. En el caso de la figura 26a se han
retrasado las tareas no críticas tanto como es posible. Esto acarrea una fuerte desnivelación en
los recursos requeridos. Manejando los márgenes disponibles en las tareas C y E es posible
lograr una mejor nivelación, figura 26b, sin por ello producir retrasos en el proyecto.

45
46 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Control del proyecto


Asignados los recursos y construido el diagrama de Gantt, se puede establecer el perfil
de carga diario, medido en horas-hombre. Con este perfil se puede obtener el trabajo planeado
total acumulado, suma de las horas-hombre que esta planeado ejecutar hasta un momento
determinado, figura 27, y contra la cuales se hará el control de progreso. Los controles deben
estar contemplados dentro de la planificación misma, y su número resultara por balance de los
costos del control frente a los costos derivados de los retrasos.
A (2)
1/2
E (4)
2. z α . σ A 2. zα.( (σ A ) 2 + (σ B ) 2 )
tareas

B (1) F (4) tA tB
C (1) 2. z α . ( σ 2 A + σ 2 B + σ 2 C ) 1/2
D (3)
tC
Carga de trabajo diario

(Horas-hombre) 12 Intervalo de confianza


Trabajo
6 planeado
3 TE1
Carga de trabajo

(Horas-hombre)
acumulado

t1 t2
5/02 12/02 19/02 26/02 05/03 12/03 tiempo calendario

Fig.27 Fig.28
Dado que las tareas tienen duración incierta, para decidir si se va adelantado o
atrasado es necesario saber cual es el intervalo de incerteza para los instantes de control, figura
28. Por ejemplo el trabajo planeado TE1 se debería completar entre los tiempos t1 y t2 para
estar dentro de lo planeado. Pero, el control no solo busca saber si lo ejecutado esta dentro de
lo planeado, pretende además:
• estimar, en base a lo ejecutado, si se va a cumplir con la fecha de finalización
• determinar una nueva fecha de terminación, bajo el riesgo asumido
• disparar acciones correctivas, para situarse dentro de lo planeado
El problema es que aun estando al momento del control dentro del intervalo de
incerteza previsto, esto no implica que se pueda concluir con la planificación prevista. Ahora
se tiene un nuevo escenario: la información a posteriori modifica la previsión inicial.

α/2=27%

α2 = 5%

T T
Fig.29 Fig.30
Supongamos que la planificación prevé terminar el proyecto en el momento T, bajo un
riesgo dado, figura 29, y que al momento de finalizar la tarea j se hace un control de la marcha
del proyecto. Supongamos que, con un riesgo del 5%, las tareas previas deberían quedar
concluidas a más tardar en el instante t1, y que efectivamente sea ese el tiempo de conclusión.
La cuestión que se plantea ahora es: ¿habiendo concluido las tareas previas en un instante t1,
que esta dentro de lo previsto, que chances hay de no concluir el proyecto dentro del tiempo T?

46
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 47

Ahora bien, dado que T y t1 están impuestos, el nuevo valor del riesgo esta dado por
α = 1- P(T-t1) (33)
donde P(t) es la función de distribución de las tareas pendientes de ejecución, figura 30.
Esto muestra una nueva posibilidad de enfoque, haciendo que la variabilidad
admisible para las tareas previas al momento de control se establezca en base a la incerteza de
las tareas que aun resta ejecutar de modo de asegurar que se este dentro de las metas del
proyecto. En cierto modo, esto es un planteo inverso al indicado en la figura 28.
En el control conviene trabajar con medidas relativas en vez de manejarse con valores
absolutos, por ser más indicativo y facilitar el control. Como la acción de control es una acción
programada, seguramente, al momento del control, algunas tareas tendrán un estado de avance
parcial. En tal caso, cada tarea debe ser medida en relación al tiempo total del proyecto, y su
nivel de avance o progreso estimado en función de lo ejecutado en relación al tiempo invertido,
y al nivel de conformidad en el cumplimiento de objetivos, figura 31.
Nivel de conformidad (%)
Tarea Horas Porciento Peso 20 40 60 80 100
100
Trabajo previsto 2
1 40 9.1
0 5 10 20 30 50 80 100 30
2 200 45.5
0 15 30 80 100
3 120 27.3 Trabajo 28
conseguido 0 40 80 100
4 80 18.2 40
Porciento del trabajo
Total 440 100 0 10 20 50 80 100 (%) 100

100 (%)
excedido de
presupuesto total

presupuesto
Porciento del

horasde trabajo
Presupuesto ejecutado
Presupuesto previsto 50

Pociento de
Trabajo planificado
Trabajo conseguido retraso

Fig.31 0
0 25 50 75 100 (%)
Porciento del tiempo de duracion instante
actual

Frente a la pregunta: ¿cuál es el estado del proyecto?, no hay una única respuesta. Se
debe diferenciar lo previsto (Budgeted cost of work scheduled, BCWS), de lo conseguido
(Budgeted cost of work performed, BCWP) y lo invertido (Actual cost of work performed,
ACWS). Es decir, para un conjunto de tareas que esta previsto ejecutarse en 100 h (BCWS =100
h) si transcurrido ese tiempo solo se han ejecutado 80 horas y conseguido realizar el trabajo
correspondiente a 60 horas del trabajo previsto, es BCWP=60 h y ACWS=80 h. Es decir, en
este caso habrá un retraso, debido a poca efectividad y a un bajo ritmo de trabajo.
Si se quiere conocer el estado de situación del proyecto en un instante dado se debería
comparar lo ejecutado contra lo planificado, considerando no solo el tiempo y el presupuesto,
sino además el nivel de cumplimiento de los objetivos. Es decir, es necesario distinguir entre
estado de situación del proyecto y una evaluación de desempeño, en la cual debe incluirse el
grado de cumplimiento de los objetivos técnicos.
Cuando no se esta dentro de lo planeado será necesario introducir correcciones. Como
es imposible satisfacer el plan tiempos y el plan costos simultáneamente, necesariamente uno
de ellos quedara subordinado, salvo que se alteren las metas del proyecto. Esto puede
significar un aumento de recursos, un estiramiento de los plazos, o un cambio en las
especificaciones como recurso extremo. Lo menos adecuado es tratar de hallar culpables y
darlo por terminado, o justificar su prosecución en razón de lo invertido.

47
48 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Factibilidad económica
El proyecto debe integrarse al plan de negocios de la empresa El plan debe incluir un
análisis del mercado al que se quiere llegar, un análisis de la competencia, evaluaciones
referidas a las expectativas del cliente, sobre posibilidades de crecimiento y mejoras, planes de
evolución del producto, objetivos de costo, políticas de comercialización y precios,
necesidades de desarrollo de recursos humanos, planes de investigación y de desarrollo, y una
evaluación de como el producto afectara el futuro de la empresa, etc. El plan de negocios
debe contemplar tanto el corto (1 a 2 años) como el largo plazo ( 3 años o mas ). Todo ello
será la base para decidir la conveniencia del proyecto.
En las empresas occidentales, tradicionalmente, los proyectos se analizaban
basándose exclusivamente en su tasa de retorno, y decidir entre varios era solo una cuestión de
saber cual era el más redituable. Esto implica que las decisiones de las empresas son tomadas
bajo la visión de los accionistas, que son considerados los verdaderos dueños de la empresa.
Por el contrario, en Japón, los accionistas son “socios silenciosos” de directivos y trabajadores.
Se considera que la empresa son directivos y trabajadores, y no solo edificios, instalaciones y
equipos. La decisión en este caso se basa en el valor agregado por el proyecto:
valor de los valor de productos y
valor agregado = productos –
servicios comprados
el cual es compartido por accionistas, directivos y trabajadores, y en reinversiones en partes
prácticamente iguales. En este caso, los proyectos se seleccionan según una evaluación del
valor agregado y la posición competitiva de la empresa a largo plazo, y no solo considerando el
beneficio de los accionistas. Es decir, importa más el futuro de la empresa que el resultado de
los beneficios a distribuir entre los accionistas que resultan del balance anual.

Costo objetivo
El beneficio resulta por diferencia entre el precio de venta y los costos. El precio de
venta esta acotado por sus dos extremos: El piso esta fijado por el costo, y el techo por el
valor o la utilidad que el producto representa para el usuario. La tarea del desarrollo es
maximizar dicha diferencia, lo cual implica minimizar el costo y maximizar la utilidad para el
usuario, como medio para aumentar la demanda. Es decir, los componentes del costo de un
producto no deben verse como algo rígido e inmodificable: Se puede y debe trabajar sobre
ellos para viabilizar el proyecto. En la mayoría de los casos habrá que operar sobre el producto
y sobre los procesos, y en otros casos será necesario disponer de otras variables externas a la
empresa para hacer viable el proyecto.
Para su análisis, conviene desglosar los costos según la etapa formadora:
• Desarrollo: Marketing, planificación, desarrollo de producto, validación del
desarrollo de producto, desarrollo de manufactura, validación del proceso de
manufactura
• Producción: compras, licencias, recepción, almacenamiento ( materia prima y
producto terminado), manufactura, control, embalaje
• Comercialización: promoción ,ventas, despacho y entregas, cobros
• Servicio postventa: Instalación y puesta en marcha, atención postventa, garantía
• Administración: Sueldos personal administrativo, amortizaciones, tasas
• Financiación (intereses): Carga financiera del capital propio invertido, carga
financiera resultante de la venta, debido a plazos de pago o toma de créditos
Tradicionalmente, el costo total se obtenía por acumulación de costos, pero la
tendencia moderna es operar en base a un costo objetivo, invirtiendo las cosas: Se va de

48
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 49

adelante hacia atrás. Este es un nuevo concepto que toma al usuario o cliente como base total
para la definición del producto, incluyendo además de las prestaciones del equipo, como una
característica mas, el precio que esta dispuesto a pagar el consumidor. Es bajo este enfoque
que deben ser desarrollados los nuevos productos.
Establecido el precio de venta como valor de mercado y fijado el beneficio deseado,
entonces el costo objetivo resulta de la expresión
Costo objetivo = Precio de venta – beneficio objetivo (34)
Impuestas dos de las variables, resultara la tercera. Como el precio de venta lo impone
el mercado, solo resta trabajar sobre los costos o aceptar un menor beneficio. En el método
aditivo, como se parte de los costos de producción actuales, quedara afectado el beneficio
resultante, lo cual viabilizará o no el proyecto. En el método sustractivo se impone el beneficio,
y en tal caso solo resta saber si el costo objetivo esta por encima del costo real de producción.
La parte mas importante de cualquier desarrollo es justamente la de lograr suficiente
innovación en el producto, los componentes y los procesos, de modo de satisfacer la meta de
costo objetivo. Para ello, partiendo de la meta de costo, se establecen metas para cada
elemento formador del costo. Este método se usa básicamente para los análisis de costo en la
etapa de desarrollo del producto, con la finalidad de influir en la estructura de costos del
mismo. El modelo parte del supuesto que todo producto puede desglosarse en funciones y que
estas pueden valorarse según la apreciación del cliente, para ser consideradas en la definición
del producto según sea su relación costo / valoración.
La escala de producción afecta todos los costos. Un volumen alto hace que los
costos de desarrollo, los que corresponden al desarrollo del producto y desarrollo de
manufactura, denominados costos no recurrentes, tengan mínimo peso. También el costo de
los componentes es muy dependiente del volumen, y de acuerdos de compra. La compra de los
componentes está actualmente globalizada a nivel de grandes grupos empresariales
multinacionales, con precios muy diferentes a los que un pequeño fabricante puede obtener.
Aun entre las grandes compañías multinacionales puede haber diferencias de casi uno a dos en
el costo de un mismo componente, aun tratándose en ambos casos de grandes volúmenes de
compra. Esto determina que actualmente, el costo final del producto a la salida de fábrica
descanse fundamentalmente en el costo de estructura, y en el costo de proceso que resulta del
armado, la soldadura, el control, la empaquetadura y el despacho a plaza.
Contar con una economía de escala redunda en:
• muy baja incidencia del costo de la I&D
• reducción del costo de compra de los componentes, debido a descuentos por
volumen
• alto beneficio por reducción de costos logrados por optimización del diseño
Esto no es posible cuando el mercado es pequeño y el producto aprovecha un nicho
del mismo. Las reglas para el diseño son otras. Partes o elementos que pueden ser dedicados, y
con importante reducción del costo, ya no son posibles de usar. Igualmente, no es posible usar
los métodos de manufactura aplicados en altos niveles de producción. Tampoco es posible
reducir el tamaño del producto, estrechamente ligado al costo, sea porque implicaría diseñar un
nuevo gabinete o algunas de las partes. En estos casos, el diseño debe asumir como inevitable
que al menos en su primer lanzamiento el producto sea una versión con bajo volumen de
producción y de alto costo. Luego de introducido el producto, con un mercado mas maduro,
se buscara ampliar el volumen. Esto, obviamente, solo será posible si la demanda del producto
es elástica, es decir, si aun con un alto precio existe un mercado suficiente que justifique el
desarrollo. Usualmente este es el caso de los productos de alta tecnología, como es el caso de
gran numero de productos electrónicos.

49
50 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Mercado objetivo
El conjunto de clientes que en un dado momento manifiesta un grado suficiente de
interés por el producto, y dispone de capacidad de compra, pero sin tomar en cuenta el precio
de venta, determina el mercado potencial del producto. Su estimación suele hacerse en base a
indicadores relacionados con la capacidad de compra, como ser el producto bruto per capita, el
nivel de ingreso medio, etc. La demanda en cambio mide, para un momento dado, la cantidad
de un producto que puede ser comprada en relación a su precio de venta, expresada en
unidades monetaria o unidades físicas, considerando tres supuestos:
• el mercado se compone de aquellos que están deseosos del producto en cuestión y
tienen capacidad para comprarlo ( es decir, supone un mercado potencial )
• existe una relación inversa entre la cantidad demandada (Q) y el precio de venta (P)
• la demanda solo es valida por un tiempo limitado. Con el tiempo los productos, las
costumbres y exigencias cambian.
El primer paso de un estudio de factibilidad económica es cuantificar el mercado
potencial, y analizar luego como este se deprime en relación al precio de venta. La variación
porcentual que sufre la demanda cuando se produce un cambio porcentual en el precio define
lo que se denomina la elasticidad E del producto,
dQ Q
E = (35)
dP P
Los productos de consumo masivo son poco elásticos, y por lo general superado un
cierto precio la demanda cae abruptamente. El codo de la curva de demanda esta vinculado con
el ingreso per capita. La existencia de este codo hace muy difícil que una pequeña compañía
pueda entrar en el mercado de entretenimiento., pero afortunadamente, dentro del área de la
electrónica, la situación no es tan mala, dado que es posible definir productos dedicados a
explotar nichos de mercado
Como el mercado esta integrado por todos los productos que compiten entre si para
satisfacer idéntica necesidad de un grupo de usuarios, si estos estuvieran estratificados,
también lo estaría el mercado. De no ser así, debe buscarse la posibilidad de segmentar el
mercado, desarrollando estrategias diferenciadas de promoción, comercialización o
desarrollando un producto diferente para un grupo de usuarios. Se busca con esto dividir un
mercado global en franjas menores, diferenciando a los usuarios y dando lugar a una función
de demanda también diferente, y a un mercado temporalmente cautivo.
Para una empresa el mercado potencial quedara limitado por la capacidad instalada o
que va a instalar. Eso da potencialmente sus posibilidades de crecimiento. Luego, lo novedoso
del producto, la estrategia de comercialización, la propaganda, la posición competitiva y el
precio de venta determinarán el factor de penetración y el perfil del mercado. Un lanzamiento
mas temprano, una mayor penetración inicial y una mayor porción del mercado, determinaran
mayor volumen de ventas y mayores beneficios, figura 32.

Pm Precio
Volumen de ventas
Mayor porción de mercado
Lanzamiento
temprano
P
Generacion
siguiente

Q Qm
tiempo
unidades
Ciclo de vida

Fig.32 Fig.33

50
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 51

Definir el perfil del mercado que se quiere tomar no es tarea fácil sobre todo cuando
se trata de productos nuevos. Este perfil determinará el resultado de la evaluación de
factibilidad económica, y afectara a los planes de compras y de producción futura, planes que
luego no son fácilmente modificables para adaptarlos rápidamente a las exigencias reales del
mercado. Uno de los errores de IBM cuando lanzo el primer computador personal, la PC, fue
precisamente subestimar el mercado, tanto que al mes y medio del lanzamiento de la PC ya
había cubierto toda la cuota del año, y se encontraba en imposibilidad de responder a esa
mayor demanda, lo cual posibilito que se introdujera la primera imitación.
La habilidad de muchas empresas es despertar el mercado, creando expectativas
previas al lanzamiento, de modo de saltar las etapas de introducción y difusión, o achicarlas; un
buen ejemplo de esta práctica se dio con el lanzamiento a nivel mundial del Windows 95.
La curva de demanda guarda una relación inversa entre la cantidad de unidades y el
precio de venta de cada unidad. Habrá un precio de venta suficientemente alto, Pm, para el cual
no va a haber ningún comprador interesado. En el otro extremo, regalando el producto, habrá
un número de unidades máximo que el mercado puede absorber, Qm, figura 33. Una
simplificación es aproximar entre estos dos límites por una recta. Esta aproximación lineal
tendrá sentido si se trabaja en un entorno de la curva, donde los valores de Pm y Qm resultan
por extrapolación, figura 33; para definirla, simplemente basta producir un cambio en el precio
de venta y ver como reacciona la demanda.

Ciclo de vida
Todos los productos tienen un ciclo de vida, que comienza con la aparición de la
innovación, le sigue una etapa de crecimiento (difusión del producto), y luego sobreviene la
madurez ( o saturación ) para finalmente caer en la declinación hasta la completa desaparición
del mercado, figura 34. Este perfil deberá ser hallado para el producto en desarrollo.
Producción
Declinacion
Saturacion
Crecimiento
Introducción

t
Fig.34 Fig.35
Muchos productos tienen un ciclo corto y único, como fue el caso de los equipos de
banda ciudadana, muy populares en los años 1970, figura 35. Otros productos están sujetos a
ciclos sucesivos, debidos a cambios generacionales, como es el caso del computador personal.
Como indica la figura 36 la tendencia, en todas las áreas, es a que los productos
tengan ciclos de vida cada vez más cortos, siendo en algunos casos el tiempo de permanencia
en el mercado mas corto que la duración del desarrollo. Esto llega al límite en que se esta
trabajando simultáneamente sobre varias generaciones distintas a la vez, con distintos grados
de avance.
cosmeticos 50 años atras

juguetes
hoy

herramientas

alimentacion
Fig.36
farmaceuticos

0 5 10 15 20 25
duración ciclo de vida

51
52 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Precio de venta
Hay dos modos de aumentar o asegurar beneficio: trabajando sobre el costo o
imponiendo el precio de venta. El proyectista solo puede influir sobre los costos; el precio de
venta es un problema de marketing. Cuando el producto debe penetrar en un mercado existente
debe ser competitivo, y en tal caso el único camino es trabajar sobre los costos. El precio de
venta en condiciones de competencia perfecta esta determinado por el mercado, y ningún
comprador o vendedor de por si puede alterarlo. Por ello, la tarea del desarrollo será obtener un
producto que satisfaga la especificación bajo metas de costo. Esto es lo que puede hacer
posible un mercado que antes no existía. Este fue el caso de las fotocopiadoras, para las que
Xerox nunca considero ni desarrollo un producto que permitiera salir de unos pocos clientes,
generalmente grandes empresas o corporaciones. Canon, en cambio pensó un producto para un
mercado mas amplio. Lo mismo ocurrió con las videograbadoras, producto introducido por
Ampex, empresa que nunca salió del ámbito profesional; igual situación se repitió con otros
productos electrónicos. El desafió es innovar para acercar el producto a segmentos de mercado
mucho mayores, y eso implica fijar el precio de venta como una restricción en la solución. Es
decir, en este caso el precio de venta se fija en función del mercado al que se quiere llegar.
Ahora bien, las empresas producen solo si el hacerlo es más beneficioso que no
producir. En otras palabras, se justificara producir para un precio de venta dado si los ingresos
exceden a los costos evitables. Desglosando los costos totales en costos fijos (CF) y costos
variables (CV), para una cantidad de unidades producidas q se define el costo medio total por
CF + CV CF CV
CMT = = + = CMF + CMV (36)
q q q
Los costos evitables son usualmente los costos variables, de modo que mantener la
producción se justificara si el precio de venta P es mayor al costo medio variable, CMV, es
decir si
P > CMV (37)
Esto implica que una empresa puede decidir continuar produciendo aun cuando el
precio de venta P este por debajo del costo medio total, CMT, solo que transitoriamente. El fin
último de cualquier empresa es obtener beneficio, el mayor posible. El punto de equilibrio
quedara definido por un precio de venta que resulte de la condición de no perder dinero; es
decir para un nivel de producción qc que se corresponde al mínimo de los costos medios totales
(CMT), figura 37.
Cuando el costo de producir una unidad mas, denominado costo marginal (CM),
verifica
∆ C (q )
CM = < CMT (38)
∆q ∆ q =1

decimos que hay economía de escala, siendo C(q) el costo total de producir q unidades.

CMT

Pc

qc Q

Fig.37 Fig.38 qc

El costo marginal (CM) para un volumen de producción Q se vincula al costo medio


total (CMT) por la expresión

52
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 53

CM = CMT Q +1 * (Q + 1 ) − CMT Q * Q = (CMT Q +1 − CMT Q )* Q + CMT Q +1

= ∆ CMT Q * Q + CMT Q +1 (39)


Para valores de Q menores a qc, ∆CMTQ es negativo, y en tal caso el costo marginal
estará por debajo del CMT, mientras que si Q>qc CM estará por arriba por ser ∆CMTQ
positivo. Para Q=qc es ∆CMTQ=0, de modo que este será el punto de cruce, figura 38.
En condiciones de competencia perfecta la oferta del mercado queda determinada por
la participación de todas las empresas, cada una con una porción de mercado poco
significativa, y un nivel de producción qo que se sitúa cerca del mínimo de los costos medios
totales (CMT), figura 39. Si el precio estuviera por debajo de Pc=minimo(CMT) no habría
oferta: Ninguna empresa fabricaría dado que ese valor Pc es el mínimo precio para el cual se
justifica producir. Para que haya beneficio el precio de venta debe ser superior a Pc, y se
obtendrá el máximo beneficio posible cuando el precio de venta iguale al costo marginal, lo
cual determina el máximo nivel qo de producción que ese fabricante esta dispuesto a ofertar
para ese precio de venta, figura 40.

Fig.39 Fig.40

Esto lleva a pensar que cuando media la participación de muchas empresas en el


mercado la curva de oferta será horizontal, con un precio de venta impuesto por el mercado
que se situara apenas por encima del costo de fabricación, Po ≅ Pc.
Un producto innovativo permite fijar un precio de novedad. En este caso, al no existir
competidores se goza de un mercado monopólico, y en tal caso el precio de venta puede ser
fijado para obtener el máximo beneficio. Una firma que puede vender todo lo que produce al
precio Po obtiene su máximo beneficio aumentando su producción hasta el límite en el cual el
ingreso por la venta de cada unidad adicional, denominado ingreso marginal, es mayor al
costo de producirla, costo marginal; es decir, producirá a condición de que
CM < IM (40)
pues en tal caso, la producción de una unidad adicional reditúa en un incremento del beneficio.
Dado que, por hipótesis, la curva de demanda supone que el volumen de venta solo
puede incrementarse si se produce una disminución en el precio de venta, por consiguiente, el
ingreso marginal, ingreso que se obtiene por cada unidad adicional vendida, será decreciente
con el volumen de producción, figura 41. En efecto, el ingreso marginal se obtiene
directamente de la curva de demanda, siendo
IM = Pv Q + 1 * ( Q + 1) − Pv Q * Q = ∆ Pv Q * Q + Pv Q + 1 (41)
y dado que ∆PvQ es siempre negativo, el ingreso marginal se sitúa siempre por debajo de la
curva de demanda, figura 41. Mientras el ingreso marginal sea mayor al costo marginal, con
cada unidad adicional producida se incrementa el beneficio. Por lo tanto, el nivel optimo de
producción qo resulta cuando se verifica dicha igualdad, figura 42.

53
54 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

En estas condiciones se tiene el valor límite del beneficio


B = (Po − CMT (qo ) ).qo (42)

Fig.41 Fig.42

Planteándolo de otro modo: como el precio de venta determina el volumen del


mercado, si se supone una relación lineal para la curva de demanda,
Pm
P = Pm − .Q (43)
Qm
y dado que los ingresos dependen de la cantidad de unidades vendidas Q por el precio de venta
P, y los egresos van a estar dependiendo de un egreso fijo, Cf , y de un egreso que será función
de los costos variables de fabricación, que para simplificar supondremos varían linealmente
con la cantidad de unidades Q, resulta
B = P .Q − C f − C v .Q (44)
y teniendo en (43) se obtiene
Pm
B = ( Pm − . Q ). Q − C f − C vQ (45)
Q m
que se hará máximo para un cierto valor de Q.

$
Dem anda 1 CM $
demanda
Pm
Beneficio 1 Beneficios
monopólicos Precio bajo competencia perfecta
Pc
CMT
Beneficio 2
Dem anda 2
$
Beneficios

Q Q
m Q
c
Fig.43 Fig.44
Las empresas tratan de encontrar ese máximo. Esto significa que si se está en una
condición inicial donde se obtiene un cierto beneficio BA, la empresa debe determinar si dicho
beneficio puede ser aumentado. Para ello introduce una variación temporaria en el precio y ve
cómo reacciona el mercado; si los beneficios aumentasen, se prosigue en igual dirección hasta
el límite en el que estos se ven disminuidos. Como la curva de demanda no se mantiene fija
con el tiempo, periódicamente se deben hacer tanteos, buscando mantenerse en el máximo.
Cuando la curva de demanda es muy inelástica (curva de demanda 1, figura 43 ) se da
una condición ideal para el monopolio. La figura 44 muestra como se maximiza el beneficio
cuando se tiene el monopolio de un producto.

54
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 55

Análisis de rentabilidad
El desarrollo del proyecto tendrá sentido si del mismo resulta una rentabilidad
aceptable. El resultado de este análisis no es sin embargo único, ya que dependerá de:
ƒ cambios futuros del escenario estimado
ƒ el concepto de solución que se considere
ƒ el criterio para la evaluación de la rentabilidad
Es obvio que cualquiera sea la forma de análisis, en todos los casos se parte de
estimaciones a futuro de los distintos factores de costo, del mercado, y de la tecnología. En
razón de ello, según sea el tipo de proyecto, será necesario analizar otros posibles escenarios,
considerando su probabilidad de ocurrencia, y en base a ello calcular el riesgo de cada
alternativa del proyecto ( concepto de solución ).
La evaluación económica busca determinar para cada alternativa de solución:
• el beneficio total o flujo de caja descontado
• el tiempo para el retorno de la inversión
• la tasa interna de retorno
• la relación costo / beneficio
a fin de decidir cual es la mejor opción. Para realizar estos análisis son de gran utilidad el
conjunto de herramientas financieras que dispone Matlab. Analizaremos seguidamente cada
uno de estos criterios.
1. Flujo de caja descontado (VAN). Este criterio determina como aceptable un proyecto si el
flujo de caja descontado neto total es mayor a cero. El flujo de caja se calcula como diferencia
entre los egresos y los ingresos al final del ciclo de vida. Como el ciclo de vida de la mayoría
de los productos electrónicos se sitúa entre los 3 y los 5 años, es necesario diferenciar entre el
resultado contable y el resultado económico. En este último es necesario considerar el costo del
capital, medido por la tasa de interés, lo que lleva al flujo de caja descontado.
Sea FCi el flujo de caja en un periodo i, balance entre ingresos y egresos en ese
periodo,
FC i = I i − E i (46)
Cuando se multiplica el flujo de caja por un factor de descuento βi se habla de un flujo
de caja descontado
FCD i = (I i − E i ). β i (47)
Al flujo de cada descontado también se le denomina valor actualizado neto, o VAN.
Para hallar el beneficio al final del ciclo de vida simplemente se contabilizan los flujos de caja
descontados de cada periodo refiriéndolos al momento inicial, mediante un factor de
descuento que toma en cuenta la tasa de interés,
1
β i
= (48)
(1 + t i ) i
donde ti, tasa de interés, es el costo del capital previsto para el periodo i. Este valor dará un
valor equivalente al valor del capital al inicio del proyecto de no haber depreciación o
inflación. Si pi es la tasa de inflación prevista para el periodo i, entonces, deberá considerarse
FC i 1
F CD = (49)
(1 + t i ) i (1 + p i ) i
i

Es decir, el resultado de los flujos de caja acumulados, calculados en los n periodos


del ciclo de vida, determinaran el beneficio del proyecto, o valor actual neto (VAN),
n n
FC i
VAN = B n = FCD = E o + ∑
1
FCD i = E o + ∑
i =1 (1 + t i ) i
(50)
siendo Eo la inversión inicial requerida para comenzar el proyecto, la cual será por tanto
negativa.

55
56 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Acumulando los flujos de caja netos por periodo, y llevados a una grafica, dentro del
ciclo de vida del producto, el valor al final del último periodo representa el beneficio total del
proyecto, figura 45.
T asa de interés = 0
FC (valo r con ta ble)
T a sa de interés de
m ercado: ti<T IR

desarrollo producció n B n

T asa interés =T IR t
Eo
TRI

Fig.45

2. Tiempo de retorno de la inversión. En muchos proyectos, con escenarios a largo plazo


impredecibles, o con alta probabilidad de que el escenario a futuro cambie, toma importancia el
tiempo de recupero de la inversión. Este valor resulta de determinar el valor de k tal que
k k
FC i
B k = FC = E o + ∑ FC
1
i/o = Eo + ∑
i =1 (1 + t i ) i
= 0 (51)

de modo que si el intervalo k esta muy próximo al final del ciclo de vida estimado para el
producto, o es mayor a cierto tiempo prefijado, entonces el proyecto resulta poco atractivo.
3. Tasa interna de retorno. Todo proyecto lleva implícito diversos riesgos. Por lo tanto, el
proyecto debe producir un beneficio más atractivo que el que resultaría de colocar el capital a
interés bancario. Por otro lado, como el beneficio B es función de la tasa de interés ti, habrá
una tasa de interés para la cual al final del proyecto resulta un beneficio nulo. Esta tasa de
interés se conoce como tasa interna de retorno, o TIR, de modo que
n n
FC i
B n = FCD = ∑ FCD i = ∑ = 0 (52)
1 i =1 (1 + TIR ) i
En la medida en que la TIR se acerque al valor de la tasa de interés de mercado el
proyecto se vuelve menos atractivo.
4. Relación costo beneficio. Este criterio se basa en determinar la relación entre el valor
actualizado de los ingresos brutos, o netos de egresos, en relación al valor actualizado del total
de los egresos; es decir, toma en cuenta el valor total comprometido en el proyecto. La relación
k
costo beneficio bruto esta dada por Ii
∑ (1 + ti ) i
Relación costo beneficio bruto = RCBB = i =k 0
Ei (53)

i=0 (1 + t ) i
i

y la relación costo beneficio neto por


k
Ii − E i
∑ (1 + t i ) i
Relación costo beneficio neto = RCBN =
i= 0
k
(54)
E i

i= 0 (1 + t i ) i
La RCBB indica cuanto se recupera en función del monto invertido, mientras que la
RCBN da una idea del rendimiento del proyecto. Obviamente, para aceptar el proyecto debe
ser RCBB>1 y RCBN >0.

56
INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación 57

Análisis de riesgo y sensibilidad


El estudio de factibilidad se apoya en supuestos de comportamiento de variables sobre
las que no se tiene control alguno, asumiendo estimaciones de escenarios futuros que hacen a:
• regulaciones
• cambios en los gustos o comportamiento de los consumidores
• cambios tecnológicos
• comportamiento de la competencia
• cambios en los costos de los componentes
• variaciones de los mercados de capital
• variaciones en los costos de la mano de obra
• costos de los insumos básicos ( electricidad, etc )
• depreciación monetaria
• inflación, etc
que por cierto pueden no ocurrir, y de ser así podría verse afectado el éxito del proyecto.
A este tipo de problemas se dedican los análisis de riesgo. Estos análisis son sin
embargo de aplicación limitada en los mercados emergentes, en los cuales, leyes y
regulaciones gubernamentales que hacen a la previsión de escenarios pueden cambiarse varias
veces al año. Esto hace que los criterios comúnmente aplicados para la aceptación de proyectos
carezcan en tales escenarios de sentido. Para estos escenarios solo son viables proyectos para
los cuales se pueda asegurar un corto tiempo para el retorno de la inversión, muy altos valores
de TIR o bien se cuenta con un mercado monopólico, obtenido mediante regulaciones,
barreras aduaneras, o altas tasas a la importación.
En cualquier caso, el análisis de riesgo sigue siendo una herramienta importante de
decisión, porque permite conocer los puntos débiles del proyecto. Para realizarlo se requiere
conocer para cada una de las variables que determinan el beneficio cual puede ser su probable
distribución durante el ciclo de vida.
Supongamos por ejemplo que el costo del componente i es Ci, y que del mismo se
deben colocar ni unidades por equipo; luego, por desglose de las partes del equipo, se puede
hallar el costo total de los componentes,
C = n C + n C + ....... + n .C (55)
T 1 1 2 2 m m

Estos costos estarán sujetos a una tendencia y a fluctuaciones, caracterizados por un


valor medio y varianza en función del tiempo. Esto llevara, para un momento dado, a un valor
medio y a una varianza del costo total dada por
σ T = n 12 .σ 12 + n 22 σ 22 + .......... .. + n m2 .σ m2 (56)
y lo mismo se puede repetir para los otros ítems de costo sujetos a fluctuación.
Para este tratamiento, si Xi es un componente de costo que influye sobre el beneficio,
para conocer su distribución probabilística, figura 46, se asume como modelo la función beta.
Los parámetros se sabe que pueden calcularse en base a una estimación basada en tres
escenarios: lo peor, lo mejor y lo más probable y supuestos de valor medio y varianza.
F(Xi) FC
f(B)

α
a b riesgo de
B

perdida
Xim XiM
Fig.46 Fig.47

57
58 INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

Básicamente, el beneficio B es función de un conjunto de variables Xi, es decir


B = b ( X 1 , X 2 ,... X i ,.... X m ) (57)
El tratamiento se simplifica recurriendo a la simulación de Monte Carlo. Si esta se
repite suficiente número de veces se obtienen curvas de flujo de caja que tienen carácter
aleatorio, figura 47, y de este modo se puede estimar el riesgo de que el proyecto termine
arrojando pérdida.

FC Beneficio maximo ( a partir de


aqui el proyecto es deficitario ) a
Primera Segunda
generacion generacion

Fig.48 t

El ciclo de vida y el perfil del mercado en el que se inserta el producto son otras
variables sujetas a fluctuación que también deben ser consideradas Obviamente el final del
producto estará determinado por varios factores. En una situación como la indicada por la
curva a, figura 48, donde pasado un cierto tiempo resulta desventajoso desde el punto de vista
del beneficio continuar con la fabricación, igualmente puede justificarse continuar para
mantener presencia en el mercado y no dejar un vacío que seria aprovechado por un
competidor, al menos hasta tanto no exista un producto sustituto. Esto muestra la necesidad de
tener lista a tiempo la generación siguiente.
También puede ocurrir que si es retirado de producción las perdidas serian de todos
modos mayores, debido a los costos fijos. Es decir, la meta a nivel de proyecto es obtener
máximo beneficio; una vez en el mercado, de lo que se trata es de obtener mínimas perdidas
evaluadas a largo plazo.
Para realizar estos análisis es conveniente apoyarse en análisis de sensibilidad previos,
a fin de que sean considerados todos los factores de mayor peso. Los análisis de sensibilidad
se realizan con la finalidad de determinar cuales son los factores que más inciden en el
resultado del proyecto, buscando:
• refinar los modelos a medida que se avanza en el proyecto, tratando de disminuir la
imprecisión propia de las primeras etapas
• controlar durante el desarrollo del proyecto la evolución de los costos más
significativos y las condiciones del mercado, para ver que el beneficio proyectado se
mantiene dentro de lo esperado
Uno de los mayores problemas asociados con el uso de modelos y estimaciones es el
de llegar a decisiones incorrectas debido a las imprecisiones con que se establecen los modelos.
Es decir, se trata de reducir el error de estimación de aquellos factores que en principio
pudieron haber sido estimados muy groseramente en los inicios del proyecto, sin conocer
todavía el peso que los mismos tienen en el resultado económico.
Hay diversos tipos de modelos desarrollados por las fuerzas armadas de USA y
grandes corporaciones, la mayoría de los cuales requiere soporte de computadora, como el
FLEX, desarrollado para realizar estimaciones dentro del ciclo de vida. El FLEX es un modelo
militar basado en el HDBK-259 ( Military Handbook 259).

58
Optimización
La perfección se alcanza no cuando ya no queda
nada más por agregar, sino cuando
ya no resta nada para mejorar
ANTOINE DE SAINT-EXUPÉRY

Podría decirse que hay dos tipos de problemas: unos con solución conocida, y otros de
solución desconocida. Los primeros pueden resolverse en base a información que se encuentra
en libros, revistas técnicas, o lograrse basándose en el conocimiento de expertos dentro del
área. En tales casos, la solución sigue un camino convencional: A partir de la solución
estándar desarrollada para este tipo de problema, el ingeniero, simplemente por cálculo,
desarrolla una solución particular adaptada al problema específico. Puede decirse que esta es
una vía de solución inercial, afincada en la experiencia existente.
Pero, en ciertos casos, con apropiado estudio del problema y de las soluciones
existentes, es posible desarrollar pequeñas mejoras, y excepcionalmente mejoras importantes.
En otros casos, se busca aprovechando otros principios, producir un cambio mayor en la
solución. Estos son los dos caminos que puede seguir el ingeniero, aportando en mayor o
menor medida una dosis de creatividad en la solución de los problemas:
• Optimizar las soluciones existentes, buscando mejorarlas
• Innovar, proponiendo alternativas distintas de solución
El primero, sin duda el camino más fácil, es aplicable en cualquiera de las fases del
ciclo de vida del producto, o solo puede limitarse al rediseño de alguna parte o cambios en el
proceso de manufactura. En muchos casos, con el simple cambio de valor de un componente es
posible obtener una mejora notable en el desempeño de un circuito. La condición óptima
resultara de evaluar cuan cerca se este en el ideal de producto, evaluando:
• Efectos indeseados, tales como un alto costo, altos rechazos, alta temperaturas,
alta tasa de fallas, gran volumen, etc.
• Efectos deseados, como larga vida útil, alta eficiencia, alta capacidad de
disipación, y mejores prestaciones en general
debiendo encauzar el proyecto de modo de minimizar los primeros y maximizar los segundos,
aprovechando para ello los grados de libertad disponibles. La relación de ambos determina un
factor de ideal del producto, o sea, su idealidad, al que debiera acercarse la solución,
Suma de los efectos deados
Idealidad =
Suma de los efectos indeseados

No siempre existe una solución ideal. Pero, de existir, podría ser tan compleja y
difícil de hallar, que es mejor quedarse con una solución aceptable. Es decir, un criterio
adicional a tener en cuenta es ver si los beneficios que resultan de una optimización compensan
los esfuerzos necesarios para su logro. Con frecuencia los proyectos están sujetos a urgencias,
por lo cual la toma de decisiones es rápida y por tanto resulta difícil contemplar todas las
alternativas que llevarían a una mejor solución.
A veces suele expresarse que “la meta de un ingeniero de diseño es desarrollar el
mejor sistema posible, de acuerdo a los recursos asignados, que cumpla el objetivo
establecido”. En la expresión “mejor sistema posible” están implícitos los dos conceptos mas
importantes del proceso de optimización:
60 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

• La existencia de un criterio frente al cual se valore que un sistema es mejor que otro; este
criterio no necesariamente puede estar explícitamente expresado dentro de los
requerimientos, y en tal caso deberá ser elaborado como parte del proceso de diseño
• la existencia de alternativas, o grados de libertad. De hecho cuando la solución es única,
no hay posibilidad de optimización alguna. En realidad, en este caso tampoco existe un
problema de ingeniería de diseño.
Cuando se dice “de acuerdo a los recursos asignados”, se esta fijando un concepto
importante del proceso de optimización: Las soluciones deben contemplar las restricciones
propias del problema. Claramente, la expresión “con el fin de cumplir un objetivo establecido”
es una condición básica: Solo puede hablarse de solución, si se da cumplimiento al
requerimiento o especificación, o al conjunto de objetivos fijados para el diseño. Surgen así,
los dos aspectos que siempre deben ser considerados:
1. Criterios de optimización: característica, condición o regla a satisfacer, la cual puede
ser de carácter puramente técnico o económico, aunque usualmente los dos aspectos
interactúan entre si. En el aspecto técnico se considera englobados todo lo que hace a
la prestación y operatividad. En el aspecto económico esta todo lo que tienda a formar
el costo: tecnologías, circuitos, componentes, procesos, controles, etc
2. Variables del sistema: las cuales pueden ser divididas en dos categorías:
(1) Variables dependientes, cuando están asociadas directamente al
cumplimiento de una especificación
(2) Variables independientes, cuando pueden ser establecidas para ajustarse
a los criterios de diseño
optimizacion

costo
economica

optimizacion
tecnica

Campo de soluciones

Soluciones óptimas

prestación

Fig.1 Fig.2

Tal como muestra la figura 1, en la solución de los problemas se llega siempre a un


compromiso entre los aspectos económicos y el técnico, que no es única. Existirá siempre la
posibilidad de cumplir una misma prestación (segmento vertical ubicado en el campo de
soluciones) con distintos esfuerzos económicos. Es claro luego que, para una prestación dada,
una sola de las soluciones será óptima (la de menor esfuerzo económico). Esta curva es solo
una idealización; por un lado, debe verse como algo muy dinámico: lo que es óptimo en un
momento puede no serlo en otro, porque el costo relativo entre los componentes cambia,
porque aparecen nuevos componentes, o nuevas tecnologías y procesos, etc., y por otro lado lo
que es óptimo en un país puede no serlo en otro. Influyen en ello la estructura productiva
propia de cada país, su idiosincrasia, sus regulaciones, impuestos, barreras aduaneras, etc. Por
ello, la curva solo sirve para materializar un concepto.

60
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 61

El enfoque del proyecto queda impuesto por los criterios que deben ser aplicados,
reconociéndose usualmente que es posible hallar criterios comunes según el segmento de
mercado al que este orientado el producto, tal como muestra la curva de la figura 2.
Usualmente se diferencia entre:
1. Área de entretenimiento: El factor preponderante es el costo, y fundamentalmente el
de fabricación.
2. Área profesional: Para estos productos la prestación debe siempre ajustarse a
especificaciones y se requiere además que el diseño sea validado. La gran cantidad de
especificaciones a cumplir y el mayor nivel de exigencia vuelven muy onerosas las
pruebas de validación de estos productos.
3. Área militar: Se busca que los equipos o sistemas superen en prestación a los del
potencial enemigo, y que además se garantice su funcionamiento en un ambiente
hostil que impone solicitaciones extremas. Todo ello acarrea costos elevados para
estos productos, lo cual no implica aceptar el concepto muy arraigado de suponer que
para equipos militares el costo no importa. El costo importa siempre, solo que se esta
dispuesto a pagar mas para conseguir mas; pero siempre se trata de lograr la meta con
el mínimo costo. En esta área importa normalmente el costo dentro del ciclo de vida.
En general hay dos tipos de problemas de optimización:
• Problemas de criterio simple: El objetivo es maximizar o minimizar una sola
función objetivo E.
• Problemas multicriterio: El objetivo es maximizar o minimizar más de una
función objetivo E, en forma simultánea.
En el primer caso se debe vincular el parámetro que surge del criterio con las
variables del sistema, basándose en un modelo apropiado de análisis. Esta vinculación definirá
una función de mérito o función de prestación, también denominada función objetivo,
expresada como
E ( x) = E ( x , x ,...., x )
1 2 n
(1)

donde, a su vez, las distintas variables podrán estar vinculadas por una función de
restricción, o un conjunto de ellas. Estas restricciones tienen las siguientes características:
9 Definen las condiciones factibles de diseño.
9 Establecen restricciones en las variables de diseño:
9 Directas sobre los valores de las mismas
9 Definiendo relaciones entre ellas
9 Fijan restricciones sobre el comportamiento del sistema:
9 Limitando la carga máxima, la potencia de salida, las impedancias, los umbrales
lógicos, etc.
9 Limitando los valores que pueden asumir las variables por imposición de leyes
físicas fundamentales, o porque la gran mayoría de las magnitudes físicas deben
ser siempre superiores a cero. En otros casos serán exigencias de
manufacturabilidad las que requieran que la magnitud deba superar un umbral
prefijado, como por ejemplo que el valor de capacidad deba ser superior a la
capacidad residual del propio circuito.
9 Pueden estar establecidas tanto por ecuaciones como por inecuaciones.
En la optimización multicriterio habrá un conjunto de funciones objetivo, cada una
asociada a un criterio, la cual busca optimizar un parámetro ligado a alguna especificación, o
vinculado a una condición del desarrollo, la fabricación, el control, la instalación, el
mantenimiento, etc. Según el énfasis que se ponga en alguno de estos aspectos se habla de un

61
62 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

diseño orientado por el criterio elegido. De lo que se trata es de aprovechar al máximo los
grados de libertad disponibles. Cada una de estas funciones objetivo se expresará en la forma
E j = E j ( x 1 , x 2 ,..., x n ) (2)
donde xi es una variable de diseño, y n es el número de estas. Luego, jugando con el conjunto
de variables independientes se trata de satisfacer las limitaciones o restricciones propias del
proyecto, las cuales pueden tomar la forma de igualdades y/o desigualdades
h i ( x ) = h i ( x 1 , x 2 ,..., x n ) = 0
(3)
g i ( x ) = g i ( x 1 , x 2 ,..., x n ) ≥ 0
o simplemente establecer los limites dentro de los cuales se debe lograr la optimización

xi < x < x s (4)


Puede ocurrir además que, dentro del rango, los valores deban limitarse a un conjunto
discreto. Este es el caso, por ejemplo, cuando la solución debe restringirse a valores
normalizados contenidos en una escala de tolerancias.

Métodos de optimización
Existen una gran variedad de técnicas para hallar la condición óptima que satisface un
dado criterio. Algunas de ellas serán superiores a otras en su aplicación a ciertos problemas,
dependiendo esto de que las funciones sean lineales o alinéales, que las variables sean
determinísticas o aleatorias, que se puedan establecer expresiones analíticas o solo puedan ser
relacionadas por datos experimentales, o que la función sea continua o tenga discontinuidades.
Los distintos métodos pueden clasificarse en métodos indirectos y directos. En los métodos
indirectos se determina la condición que debe ser satisfecha para considerar la solución como
óptima, y de ella se deduce el valor que satisface esa condición. En los métodos directos se
evalúa directamente la función de prestación a cumplir mediante la aplicación sistemática de
técnicas recursivas. Los métodos indirectos son normalmente tratables mediante métodos
analíticos: Estos incluyen la diferenciación, métodos variacionales y el uso de los
multiplicadores de Lagrange. Los métodos directos son apropiados para tratamiento por
computadora. El empleo de técnicas numéricas hace posible el tratamiento de problemas
lineales y no lineales.
Una solución eficiente y precisa para los problemas de optimización no es solo
dependiente del tamaño del problema en términos del número de restricciones y las variables
de diseño, sino también de características de la función objetivo y de las restricciones. Cuando
ambas, la función objetivo y las restricciones, son funciones lineales de las variables de
diseño, el problema se conoce como un problema de programación lineal (LP). La
programación cuadrática (QP) se relaciona con la maximización o minimización de una
función objetivo cuadrática que esta sujeta a una restricción de tipo lineal. Para ambos casos se
han desarrollado diversos procedimientos de solución.
Mucho mas difícil es la programación no lineal (NLP), en la cual, ambas, la función
objetivo y las restricciones, están sujetas a relaciones no lineales con las variables del diseño.
La solución en este caso recurre a un procedimiento iterativo, donde en cada nuevo intento se
establece la dirección de búsqueda en base al resultado del paso anterior. Esto se logra
usualmente por la solución de una LP, una QP, o llevándolo a un subproblema sin
restricciones.
Los distintos métodos deben verse como simples herramientas, que por si solo no
resuelven los problemas. Los problemas de la optimización giran siempre alrededor de dos

62
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 63

elementos que no son siempre fáciles de plantear, a saber: los criterios que juegan y la función
objetivo que se deriva de ellos.
Usualmente se piensa en la función objetivo como una expresión analítica que
vincula las variables en juego. No siempre es posible establecer una función de este tipo,
porque lo único que se puede establecer es una relación causa-efecto, que no puede volcarse en
un modelo matemático. A veces se hace una aproximación mediante modelos simples, y luego
se refina la solución en forma experimental. Diferentes métodos de optimización pueden ser
de ayuda en ambos casos, para reducir el número de iteraciones. En otros, el tratamiento
analítico solo permite marcar la dirección del camino óptimo. La solución óptima resultara del
compromiso con otros factores.
En muchos casos la solución óptima es un compromiso entre varios criterios con
exigencias contrapuestas. Básicamente, esta situación se da normalmente entre el costo y el
desempeño. Por ejemplo, en el caso del diseño de un transformador, la temperatura a la que
debiera trabajar es compromiso entre dos factores:
• fiabilidad superior a un valor impuesto
• costo
Un aumento de la temperatura por encima de cierto valor reduce la fiabilidad, y una
temperatura inferior, aumenta la fiabilidad a costa de un mayor costo. Para estar dentro de una
fiabilidad aceptable, la temperatura debiera estar por debajo de un valor limite, pero cercano al
valor que satisface la fiabilidad mínima aceptable. En tal caso, si En es el valor mínimo
aceptable, y x la variable de diseño, se trata de hallar el valor de x que verifica
En=f(x) (5)
Esta función puede convertirse en la búsqueda de mínimo, simplemente bastaría con
considerar la expresión
y = abs(f(x)-En) (6)
La forma de instrumentar la búsqueda dependerá de la herramienta de cálculo. Por
ejemplo, con Matlab se podría trabajar, entre otras alternativas, con
[v,po] = min(y) (7)
para obtener el valor ( v) y la posición del mínimo ( x(po) ). Si lo que importa es simplemente la
posición, también se podría usar
po = sum(f(x)<En) (8)
suponiendo la función f(x) creciente con x.

Métodos tabulares
Cuando no es posible un tratamiento analítico, un modo de determinar cual es la
mejor opción entre varias posibles consiste en armar una tabla, cuyos encabezamientos sean
“Pros” (ó “Positivo”), “Contras” (ó “Negativo”), e “Implicancias”. Debajo de las dos primeras
columnas se van anotando los factores que resultan favorables o desfavorables de tomar esa
decisión, y en implicancias los resultados de la misma ( que pueden ser tanto favorables como
desfavorables ). Asignando un puntaje a cada factor, y ponderándolos, la mejor alternativa es la
que resulta con el mayor puntaje.

PROS CONTRAS IMPLICANCIAS


........ ........ ........

puntaje P1 puntaje P2 puntaje P3

63
64 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

Una variante de este método es el análisis de fuerzas y resistencias. En este caso se


trata de ir definiendo para cada opción los factores que ayudan al objetivo ( fuerzas que
empujan ), y aquellos que son desfavorables ( fuerzas que resisten ), figura 3. La idea es
reconocer todos los factores que influyen en la decisión, y luego ver la manera de potenciar los
factores favorables, y eliminar o reducir aquellos que se contraponen.

Fuerzas que empujan Fuerzas contrapuestas


hacia el objetivo al objetivo
Factor 1 Factor 2 Factor 3 Factor 4 Factor 5 Totales
tiempo de
menor costo aprendizaje Peso 1 Peso 2 Peso 3 Peso 4 Peso 5
50
50 Opción 1
Opción 2
no hay disponibilidad
Objetivo en el mercado Opción 3
mayor soporte
20 50 Opción 4

Fig.3

Cuando son muchos los objetivos a cumplir resulta conveniente armar una tabla de
doble entrada: por un lado se anotan las características o factores que se van a tener en cuenta
en la decisión, y por otro las distintas opciones. El problema que se plantea es como balancear
características distintas. Esto se resuelve incluyendo un factor de ponderación para cada
característica, que tome en cuenta su importancia. Luego se le asigna a cada opción un
puntaje, según sea el grado de satisfacción de la característica. Tomando en cuenta el factor de
ponderación, resultara ganadora aquella opción que sume el mayor puntaje.
El mayor problema del método es la reducción a un único número, el puntaje,
evitando que el mismo no sea establecido en base a subjetividades, y contemple asimismo el
efectivo nivel de satisfacción de cada factor. Una manera de lograrlo es evaluando el costo o el
esfuerzo requerido para alcanzar igual meta.

Método del cálculo diferencial


Es el método más universal y simple, pero solo aplicable cuando el problema admite
formulaciones analíticas. Utiliza la primera derivada para encontrar los extremos de una
función diferenciable E(x). El procedimiento consiste en calcular la primera derivada de la
función e igualarla a cero, para luego encontrar con la solución de dicha ecuación los valores
en los que se dan los extremos. El método solo será aplicable para aquellas funciones E(x) que
no tengan discontinuidades.
Con la derivada primera se obtienen los puntos críticos de la función (máximos y
mínimos), y con la segunda derivada se determina si se trata de un máximo o de un mínimo.
dE
= 0 (9)
dx
d 2E (10)
< 0 , Maximo
dx 2
d 2E (11)
> 0 , Minimo
dx 2
Debiendo los elementos del circuito cumplir una sola función objetivo, se cuenta con
grados de libertad para cumplimentar exigencias o criterios adicionales. La parte mas difícil en
la mayoría de los problemas de optimización es como fijar los criterios para la optimización,

64
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 65

cuando estos no están formulados como parte del problema. De estos, algunos son criterios
básicos que juegan en todas las soluciones, a saber:
• criterio económico
• satisfacción del modelo de cálculo
• facilidad de realización
• mejor cumplimiento del objetivo
Dejando de lado el aspecto económico, el cual siempre deberá considerarse, el modelo
podría ir validándose a medida que se van determinando los valores y seleccionando los
elementos del circuito. En otros casos recién cuando se hayan terminado los cálculos se podrá
verificar si se satisfacen las condiciones del modelo, es decir si el cálculo cierra.
En la facilidad de realización se incluyen variados aspectos, relacionados estos con el
tipo de componente, el tipo de montaje, y con su valor. Específicamente, de cálculo pueden
resultar valores que no sean obtenibles prácticamente, o que condicionan el armado o la
realización de la placa de circuito impreso, y por ello deben desecharse.
En el caso en que deba cumplirse cierta característica, la pregunta es: ¿cómo podría
optimizarse la misma? Acá entra a jugar un criterio importante: el de mínima variabilidad
alrededor de la meta. Siguiendo el criterio de Taguchi, a medida que la solución se aparta del
valor nominal establecido como meta se originan pérdidas (insatisfacción del cliente), que son
mayores en la medida en lo que lo sea el apartamiento. En otras palabras, entre dos soluciones,
es mejor aquella que, con elementos de igual costo, conlleva a menor dispersión en la
especificación debido a variabilidad de los componentes. En tal caso, la optimización es
puramente técnica. En otros casos importara que el elemento de mayor costo tenga la menor
exigencia de tolerancia, en cuyo caso la optimización es económica. Será así, por ejemplo,
cuando se aprovecha el hecho de que el costo de algunos elementos es independiente de su
valor nominal, a condición de que se mantenga igual tolerancia y disipación.

Método de los multiplicadores de Lagrange


En el caso más general la función de prestación dependerá de n variables,
y = f ( x 1 , x 2 ,.... x n ) (12)
las cuales estarán sujetas a un conjunto de restricciones
hi = h ( x1 , x 2 ,..... x n ) i = 1 ,....... m (13)
Lo que se busca es determinar el conjunto de valores que hacen que la función
objetivo tome un valor extremo bajo las restricciones impuestas. Si se planteara la condición de
valor extremo considerando solo la función objetivo, resultaría un conjunto de n ecuaciones
∂f
= 0 (14)
dx i

de las cuales se derivaría una solución que seria inaceptable porque no garantiza que se
satisfaga el conjunto de las restricciones. Estas restricciones se dan en la mayoría de los
problemas de ingeniería, en los cuales no son posibles todos los valores. Por ejemplo, para que
sea posible la realización física en la mayoría de los casos será necesario que las xi tengan un
valor positivo, por lo cual es necesario considerar dicha restricción en la búsqueda de la
solución. Los multiplicadores de Lagrange permiten crear una función objetivo aumentada
con variables artificiales, los multiplicadores de Lagrange, cuya finalidad es incluir en la
función objetivo las restricciones propias del problema. Para entender y justificar el método
supongamos que la función de prestación este dada por
P = E ( x1 , x 2 ) (15)

65
66 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

para la cual se desea hallar los extremos bajo la restricción


h ( x1 , x 2 ) = g ( x1 , x 2 ) − c = 0
(16)
Hallando la derivada de (15) con respecto a x1 se obtiene
dP ∂E ∂ E dx (17)
= + 2

dx 1 ∂ x1 ∂ x 2 dx 1

y haciendo lo mismo sobre (16) es

∂h ∂ h dx (18)
+ 2
= 0
∂ x1 ∂ x 2 dx 1

Para hallar un valor de x1 que sea un valor extremo de P se debe hallar el valor de x1
que anule la derivada en dicho punto. Es decir, se debe determinar el valor de x1 que cumple la
condición
dP ∂E ∂ E dx 2
= + = 0 (19)
dx 1 ∂x1 ∂ x 2 dx 1

bajo la restricción (18). Combinando estas expresiones resulta


∂h ∂E
dx ∂x1 ∂ x1 (20)
2
= − = −
dx 1
∂h ∂E
∂x2 ∂x2
o también
∂h ∂h
∂ x1 ∂x 2 (21)
=
∂E ∂E
∂ x1 ∂x 2

Si ahora se define λ en la forma


∂E
∂x1 (22)
λ = −
∂h
∂x1
y teniendo en cuenta (21), esta variable λ también debe satisfacer
∂E
∂x2 (23)
λ = −
∂h
∂x2
Esta variable es denominada multiplicador de Lagrange. Por (20) también es
∂E
∂E ∂x1 (24)
= −
∂x2 dx 2
dx 1
expresión que, teniendo en cuenta (23), se puede poner en la forma

∂E
∂E ∂ x1 ∂h 1
= − = λ. . (25)
∂x2 dx 2 ∂ x 1 dx 2
dx 1 dx 1
de la cual resulta

66
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 67

∂E ∂h
+ λ. = 0 (26)
∂x1 ∂x1
y repitiendo el proceso para la expresión (24), se obtiene también
∂E ∂h
+ λ. = 0 (27)
∂x 2 ∂x2
Todo esto puede ponerse de un modo simplificado en la forma

(E + λ . h ( x 1 , x 2 ) ) = ∂ L = 0 (28)
∂ x1 ∂ x1
∂ ∂L
(E + λ .h ( x 1 , x 2 ) ) = = 0 (29)
∂x 2 ∂x2

conociéndose a L como el Langrangiano o función de prestación aumentada. Luego, los


valores de x1, x2 y λ que determinan un valor extremo para la función objetivo se hallan
resolviendo el conjunto de ecuaciones
∂L
= E 1 + λ h1 = 0 (30)
∂ x1
∂L
= E 2 + λh2 = 0 (31)
∂x2
∂L (32)
= h3 = 0
∂λ
en las cuales el multiplicador de Lagrange se trata como si fuera una variable independiente
mas, en lo que respecta a las derivadas parciales. Se tiene por tanto, en este caso, un sistema de
tres ecuaciones con tres incógnitas: x1, x2 y λ. Obsérvese que la restricción impuesta por la
ecuación (32) no es más que otra forma de expresar la condición
h ( x1 , x 2 ) = 0
(33)
Además, de las expresiones (30) a (32) se deduce que
E1
+
E2
= λ (34)
( − h1 ) ( − h 2 )
la cual nos dice que en el máximo (o mínimo ), la relación entre las distintas Ei y las hi debe
ser la misma.
Si se variara solo xi, entonces
∂E (35)
∆E = .∆ x i = E i . ∆ x i
∂x i
Esta expresión indica que un cambio unitario en xi (∆xi=1) provoca un cambio Ei
en E, ∆E=Ei. Pero además, considerando n variables, como siempre ha de ser
h .dx + ..... + h dx = 0 (36)
1 1 n n

entonces para un cambio unitario en xi, ha de verificarse


− h i = h 2 .∆ x 2 + ..... + h n .∆ x n (37)
expresión que muestra como deben variar las demás variables xj ( j≠i) para que continúe
cumpliéndose la restricción; se observa que la variación de estas debe ser ponderada por el
valor de hi, valor este que mide la importancia o peso de la variable en la restricción.

67
68 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

Métodos de búsqueda de intervalo


Los métodos de búsqueda del intervalo óptimo tratan de definir el valor extremo de
una función con un error predeterminado; es decir, más que determinar el valor óptimo, tratan
de hallar el intervalo dentro del cual se encuentra. Aunque pueden ser aplicados en general, los
métodos de búsqueda de intervalo son especialmente apropiados cuando se opera con
funciones trascendentes, o no analíticas, o bien cuando la búsqueda deba hacerse mediante la
realización de experimentos.
Las técnicas de búsqueda de intervalo pueden clasificarse de muchos modos: según
que la búsqueda sea discreta o continua, secuencial o no secuencial, local o global, o de
convergencia rápida o lenta, etc. Esto plantea un doble paso en la optimización: el de
seleccionar primero el método mas adecuado y recién después hacer la búsqueda del intervalo.
Estos procedimientos, especialmente importantes cuando los cálculos se debían hacer
en forma manual, podría pensarse que actualmente han perdido en gran medida su sentido,
dada la potencialidad de las computadoras personales. Son de utilidad, sin embargo, cuando se
quiere operar con muy altas precisiones, o cuando el proceso de búsqueda debe hacerse
experimentalmente, debido a que en tal caso por cada punto ( evaluación ) se debe hacer un
ensayo, y de lo que se trata es de definir el óptimo con un mínimo esfuerzo de ensayos.

Búsqueda uniforme
En la búsqueda uniforme del intervalo óptimo se deben realizar primero todas las
experiencias para definir luego, con los resultados, el intervalo dentro del cual se encuentra el
valor óptimo, figura 4. Aunque el método es para la mayoría de los casos poco adecuado, es
útil, sin embargo, cuando la función posee máximos y mínimos locales.

LISTADO 1
e=(incerteza/2);
x=a:e:b;
y=f(x);
[m,p]=min(y);
minimo=x(p)

Fig.4

Si se trata de un proceso computacional, Matlab en particular se presta para este tipo


de tratamiento dado que permite obviar el uso de los poco eficientes for ...end. La debilidad de
la búsqueda uniforme es la alta carga de computo cuando se requiere alta precisión en los
cálculos, lo cual lo hace inviable, salvo que se admita un intervalo de incerteza elevado. El
Listado 1 seria la herramienta computacional para el caso de usar Matlab, suponiendo que se
trata de hallar un mínimo.

Búsqueda secuencial
En vez de hacer todos los cálculos y hallar después entre estos el óptimo, una mejor
opción seria, partiendo desde un extremo del intervalo, ir comparando cada nuevo valor con el
anterior hasta encontrar la inversión en la tendencia. Cuando en base al resultado de cada
experimento se decide continuar o no, según sea el resultado de la experiencia anterior, se
habla de un método de búsqueda secuencial. Este es un método más eficiente que el anterior,

68
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 69

pero aplicable solo si la función es unimodal. Computacionalmente, la forma mas simple,


aunque no mas eficiente, de implementar este método es la aplicación sistemática del for...end
con un break (Listado 2 ).
Supongamos por ejemplo que se quiera encontrar dentro del intervalo (a,b) el valor
que optimiza una función de prestación, con un error ±e . Subdividiendo el intervalo (b-a) en n
subintervalos,
⎛b − a ⎞ (38)
n = entero ⎜ ⎟ +1
⎝ e ⎠
entonces, mediante la rutina del Listado 2 se halla el subintervalo dentro del cual se encuentra
el óptimo
a+(i-2).e ≤ x ≥ a+i.e (39)

LISTADO 2
n=round((b-a)/e)
y(1)=f(a);
y(2)=f(a+e);
signo=sign(y(2)-y(1));
for i=2:n
y(i)=f(a+i*e);
if sign(y(i)-y(i-1))+signo==0 x=a+(i-1)*e break end
end

Si bien el método de búsqueda secuencial uniforme es una mejora respecto al método


uniforme, el tiempo de computación puede ser igualmente excesivamente grande si e es muy
pequeño. Una mejor alternativa sería hacer la búsqueda, primero tomando subintervalos
grandes y hallado el subintervalo dentro del cual esta el máximo (o el mínimo), repetir la
búsqueda tomando ese subintervalo como nuevo intervalo de búsqueda. Nuevamente, hallado
el nuevo subintervalo dentro del cual esta el óptimo, se vuelve a repetir el proceso hasta llegar
a definir un subintervalo de valor igual al error admitido, figura 5.

a b

n pasos a1 b1

an-1 bn-
Fig.5 1
xi-2 xi-1 xi = xi-1+ 2.ε x

Otra posible forma seria la siguiente: Supóngase que se debe hallar el valor de x para
el cual la función E=E(x) pasa por su mínimo valor. Supongamos que partiendo desde uno de
los extremos se haya evaluado la función en los puntos xi - ∆x y xi , y se hayan determinado
dos valores E(xi-∆x) y E(xf) tales que
(40)
E (xi − ∆x) < E (xi )
Esto significa que se ha pasado por un mínimo para ese valor de x, el cual estará
comprendido dentro del intervalo:
(41)
xi − ∆x < x < xi

69
70 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

Si ahora se quisiera reducir el intervalo de incertidumbre, se parte el incremento ∆x


por dos y se invierte el proceso de búsqueda. El proceso se repite hasta encontrar un intervalo
de incertidumbre menor que un cierto ε predefinido, figura 6.

Búsqueda dicotómica
La búsqueda secuencial se hace más eficiente si en cada paso de búsqueda el intervalo
de incerteza se reduce a la mitad. Se habla en tal caso de una búsqueda secuencial dicotómica.
Este método requiere determinar en cada prueba dos valores muy próximos entre si, elegidos
en el centro del intervalo, figura 7. Con estos dos valores se puede determinar de que lado de
dichos puntos esta el óptimo. Si se busca un mínimo, y los valores obtenidos fueran los
indicados en la figura 7, entonces el mínimo se encontrara en el subintervalo izquierdo.
2
f(x)
1
3
4 5 7 o
o
6
8 9
∆x f(xi)
x1 xf -∆x xf 2 x2
1
4 3 a xi x i +∆ x b x
5 6
8 7
9
Fig.6 Fig.7

Es claro que se si quiere la determinación del valor extremo ( máximo o mínimo,


según corresponda ) dentro de un intervalo de incerteza δ, entonces serán necesarios
⎛ L ⎞
p = log ⎜ ⎟ (42)
⎝δ ⎠
2

pasos, y como por cada paso se requieren dos evaluaciones, entonces


⎛L⎞
n = 2 . p = 2 . log 2 ⎜ ⎟ (43)
⎝δ ⎠
será el total de experiencias requeridas.

Búsqueda de Fibonacci
Muchos problemas de ingeniería pueden ser optimizados de un modo sencillo cuando
se cuenta con un modelo analítico que los representa; en otros casos, la optimización debe
valerse de ensayos experimentales. Si este es el caso, importa usar un método de búsqueda que
permita llegar al óptimo con mínimo esfuerzo de búsqueda. Esto sucede cuando la función f(x)
a optimizar no es conocida explícitamente, pero puede ser evaluada experimentalmente. Solo
se requiere que la función sea unimodal, y conocer además el intervalo L dentro del cual hacer
la búsqueda del óptimo,
L= (b-a) (44)

Prefijado el número de ensayos n, se trata de determinar en base a los mismos el


menor valor del intervalo Ln=(bn-an) dentro del cual se encuentra el óptimo. Obviamente, la
menor cantidad de ensayos que permite reducir el intervalo de incerteza son dos: puntos x1 y x2,
figura 8. Estos puntos dividen al intervalo en tres secciones. En función del valor que tome la

70
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 71

prestación en dichos puntos, y según el extremo que se busca ( máximo o mínimo ), se decidirá
cual de las dos secciones extremas deberá descartarse. Si por ejemplo se tratara de hallar un
máximo, como f(x1)>f(x2), figura 8, se debería descartar la sección derecha (Sd).
El procedimiento de búsqueda a desarrollar se apoya en las tres reglas siguientes:
1. el intervalo de incerteza que reste después de cada evaluación debe tener igual valor,
independientemente de cual haya sido la sección descartada
2. debe aprovecharse para la siguiente decisión el resultado del ensayo que esta ubicado
dentro del intervalo de incerteza ganador
3. Los puntos de prueba deben ser seleccionados de modo tal que el intervalo de incerteza
que reste sea el menor posible; o planteado de otro modo, cada evaluación debe permitir
descartar el mayor intervalo posible
f(x1)
f(x2)
Si Sc Sd

x0 x1=x1(n) x2=x2(n)
Fig.8 L(n)

Se desarrollara un método de búsqueda apoyándose en estas reglas. Satisfacer la


primer condición requiere que los valores de la experimentación, puntos x1 y x2, sean
establecidos de modo que se verifique
x − x = x + L− x (45)
1 o 0 2

vale decir, las dos secciones ubicadas a ambos extremos deben ser siempre iguales.
Supongamos ahora haber llegado, después de realizar n ensayos, al intervalo final de
incerteza L. Para simplificar, supondremos que este intervalo sea de valor unitario, L(1)=L=1.
La idea es hallar la magnitud que debería tener el intervalo inicial L(n) para que después de los
n ensayos resulte el intervalo de incerteza L=1, aplicando reiteradamente el método basado en
los tres principios anteriores.
Evidentemente el intervalo final de incerteza debe resultar de los dos últimos ensayos,
el n-1 y el n, figura 9. Por ser los últimos no es de aplicación la segunda condición, pero si la
primera y tercera. La única manera de satisfacer ambas es dividiendo el intervalo en dos
mitades, y probar en dos puntos cercanos entre si, ubicados al centro del intervalo L(2), figura
9, es decir tales que
x n = x n −1 + δ (46)
con δ tendiendo a cero, y en tal caso
L 1 ≈ L 2 ≈ L (1) = L (47)
Si se buscara un máximo, como f(n-1)>f(n), es obvio que el mismo estará en la
sección derecha; es decir, en base al nuevo ensayo n y el resultado del ensayo anterior n-1,
del intervalo anterior L(2) se deriva el intervalo final de incerteza L = L(1) ≈ L1 ≈ L2, de lo
cual claramente resulta L(2)=2L.
f(x n-1 ) f(x n-1 )
f(x n )

x n-1 xn x n-1 xn
L1 L2
Fig. 9 L(2)

71
72 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

Veamos como juega la tercera condición. Supongamos que a cierta altura de los
ensayos el intervalo se haya reducido a La, figura 10, y que sean e1 y e2 los dos ensayos que
deben ser considerados en este intervalo para definir un intervalo de incerteza más reducido.
En base al segundo principio, uno de estos ensayos se supone que ya fue realizado: podría
tratarse de cualquiera de los dos, e1 o e2. Por la condición primera, si fuera e1, entonces el
intervalo anterior seria el Lc, mientras que si fuera el e2, el intervalo anterior seria el Lb.
Cualquiera de los dos satisface la primera regla, pero solo Lb satisface la tercera. Este es por lo
tanto el único posible.
e1 e2

La
x1
x2
e2 e3
Lb
x2

Fig.10 e1 e3
Lc
x1

De esto se deriva la condición de vinculación entre intervalos sucesivos, tal como


muestra la figura 11. Como surge claramente de dicha figura, se verifica que
L = L + L (48)
n n −1 n−2

expresión recursiva que coincide con la denominada serie de Fibonacci.


e n-3 en-2

L n-2
x2
en-2 en-1
L n-1
x2
x3=L n-2
en-1 en

Ln
Fig.11 x3=Ln-2
xn=L n-1

Como la sección Ln-2 es la que se agrega al intervalo Ln-1 para formar el intervalo Ln, se
concluye también que la proporción de intervalo descartado por cada ensayo esta dado por
Ln −2
d n = (49)
Ln
Si se fija el intervalo final L1 en L, para poder determinar el intervalo L2 aplicando la
formula (48) se debería conocer el valor del intervalo L2-2 =L0, que claramente no existe. Sin
embargo, para obtener una expresión de validez general se define un intervalo ficticio L0. El
valor de este intervalo ficticio se puede establecer, dado que se conoce L2=2.L1, por lo cual en
base a (48)
L 0 = L 2 − L1 = L (50)
Cuando se hace L=1, la serie de números así definida se conoce como serie de
Fibonacci, la cual determina la expansión del intervalo de incerteza. Un termino j cualquiera de
la serie de Fibonacci se define por
F j = F j −1 + F j − 2 (51)

72
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 73

Esta expresión recursiva, requiere que sus dos primeros términos sean prefijados en la
forma,
Fo = 1 , F 1 = 1 (52)
Aplicando la expresión (51), teniendo en cuenta (52), se pueden determinar los
sucesivos términos de la serie de Fibonacci, así como la proporción de intervalo descartado con
cada ensayo, basándose en la expresión (49).
n 0 1 2 3 4 5 6 7 8 9 10 11 12 13

Fn 1 1 2 3 5 8 13 21 34 55 89 144 233 377

dn 0.5 0.3333 0.4 0.375 0.3846 0.381 0.3824 0.3818 0.382 0.3819 0.382 0.382

Mostraremos ahora le potencialidad del método realizando n ensayos. Como se


desprende de la figura 12, con n ensayos, el intervalo final de incerteza resulta de dividir el
intervalo inicial por el valor del n-simo término de la serie de Fibonacci. Obviamente, el valor
óptimo corresponderá a un punto dentro de dicho intervalo, correspondiendo al punto medio de
dicho intervalo el menor error posible, de modo que el valor óptimo quedará así determinado
con una incerteza dada por
L
e = ± (53)
2 Fn
Reduccion
cantidad de del intervalo
ensayos n de incerteza

L(1)=1

2 L(2)=2

3 L(3)=3

4 L(4)=5

5 L(5)=8
Fig.12 6 L(6)=13

La aplicacion del metodo supone que previamente este definida la cantidad de ensayos
a ejecutar, valor que puede hallarse en base a la expresión (53), donde
L= (b-a) (54)
Determinando el valor de Fn , en base a (53), el valor de n debe ser el menor valor
para el cual se verifica
F ( n − 1) ≤
L
≤ F (n )
(55)
2e
Determinado el valor de n por la condición (55), los dos primeros valores para los
cuales se debe realizar los ensayos son elegidos de modo que estén separados de los extremos
del intervalo en un valor
Fn−2 (56)
d1 = .L = d n .L
Fn
vale decir, figura 13,
x1 = a + d 1 (57)
x2 = b − d1 (58)
o también
x1 = a +
F n−2
L (59)
Fn

73
74 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

y
L1 = L −
Fn−2
.L =
F n −1
L (60)
Fn Fn

Hallados los valores de x1 y x2, si los resultados fueran los indicados en la figura 13 y
se buscara un máximo, es claro que el intervalo 3 puede ser descartado; es decir, el máximo se
encuentra en el subintervalo L1. El procedimiento se repite ahora sobre el intervalo L1, y así
sucesivamente hasta el n-esimo ensayo. Obsérvese que en el método de búsqueda dicotómica,
cada prueba exige obtener el valor en dos puntos, mientras que el método de Fibonacci solo
exige en cada paso una determinación adicional. Visto de otro modo, con el método
dicotómico cada dos ensayos se reduce el intervalo de incerteza un 50%, mientras que en el
método de Fibonacci se reduce aproximadamente un 75%. La figura 14 compara la reducción
del intervalo de incerteza de ambos métodos en función del número de pruebas, partiendo de
un intervalo inicial L=1.

d1 f1 f2 d1
1 2 3
a L1 x1 x2 b

Fig.13 Fig.14
El método de Fibonacci, además de su mayor eficiencia, tiene otra ventaja. El método
dicotómico supone que la evaluación debe hacerse en dos puntos próximos. Cuando se realizan
ensayos experimentales, los resultados de los mismos están siempre sujetos a error
experimental. Esto implica que el valor real puede diferir del valor medido. Supongamos que
sea em1 el valor medido y ε el error de medición, figura 15a. En tal caso, el verdadero valor ev
será
e1 = e m 1 − ε ≤ e v ≤ e 2 = e m 2 + ε (61)
por lo que solo si se cumple
em 2 a + ε 2 a ≤ e2 o em 2 b − ε 2b ≥ e1 (62)
(112)
se puede asegurar que el método no lleva a una falsa decisión, figura 15b.
ε2b
f(x) Ln
em1
e1 dn.Ln
ε
dn.Ln
ε 2a em2 b
em2 a

e2
a) b)
a x1 x2 b x

Fig.15 Fig.16

La falta de resolución es otra limitación importante para la aplicación de estos


métodos. No es suficiente que la función objetivo sea unimodal, debe también asumir valores

74
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 75

dentro del intervalo de búsqueda que estén por encima del mínimo valor que puede ser
observado. Por ejemplo, supóngase que la función toma valores no nulos sobre un intervalo
restringido de la variable x, figura 16. Cuando se tiene un comportamiento de este tipo, para
hacer posible la búsqueda debe antes determinarse el rango dentro del cual la función objetivo
toma valores que puedan ser discernidos con el instrumental usado.
Por otro lado, el método de Fibonacci supone que el valor extremo se ubica en uno
cualquiera de los Fn subintervalos en que se puede dividir el intervalo de búsqueda inicial Ln, y
supone que todos son iguales, lo cual no necesariamente es así. Esto sucede si por ejemplo el
valor óptimo debe restringirse a un conjunto de valores preestablecidos, definidos por ejemplo
en base a una escala de tolerancia normalizada.
Las escalas de tolerancias definen el conjunto de valores disponibles por década, de
manera que dos valores sucesivos, considerando sus tolerancias extremas, se establecen con
mínimo o nulo solapamiento. Esto implica que la relación entre dos valores contiguos de la
escala es aproximadamente constante, y que además según sea la tolerancia será el número de
valores por década. Por caso, a una tolerancia del 5% le corresponden 24 valores por década,
lo cual define la escala E24. Por la forma en que son definidos, el conjunto de valores se alinea
según una recta en un gráfico semilogarítmico, figura 17, con una densidad de los valores
posibles de ser óptimos apiñados hacia los bajos valores, figura 18.

Fig.17 Fig.18
Visto de otro modo, la magnitud del intervalo de incerteza dependerá del valor
alrededor del cual se ubique el óptimo, como muestra la figura 18. Esto implica que la
cantidad de ensayos para llegar al óptimo no va a ser siempre la misma: dependerá del cual sea
el intervalo ganador. Si el óptimo se ubica en su valor mas bajo, el intervalo de incerteza final
es más chico que si se ubica en su valor más alto, y por lo tanto se requerirán más ensayos para
llegar al óptimo, figura 19. Si el número de ensayos se determina considerando el intervalo más
pequeño, de no resultar ese el ganador, el método pierde eficiencia. Un modo de optimizar el
proceso de búsqueda sería, después de realizar cada experiencia, recalcular el número de
ensayos necesarios en base al nuevo intervalo más pequeño con posibilidad de resultar
ganador.

Numero de ensayos
La

Lb

valor optimo
Fig. 18 Fig. 19

75
76 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

La desventaja del método, de cualquier modo, es que de entrada no es previsible la


cantidad de ensayos que deben realizarse. Además, como los ensayos deben hacerse solo con
valores normalizados, es claro que la eficiencia del método se vera reducida, lo cual implicara
que el número de ensayos será superior al previsto para el caso de una variación continua.
La pérdida de eficiencia del método se debe a que en su aplicación no se están
respetando los principios en los que se fundamenta. La figura 20a muestran todos los valores
correspondientes a una tolerancia del 5% comprendidos en dos décadas. Es posible observar
que, dependiendo de que lado este el intervalo ganador será el número de valores descartados.
Ahora bien, la primer regla exige que cualquiera sea la sección ganadora, esta debe contener
igual cantidad de valores que los que se descartan en la sección perdedora. Para conseguir esto,
el intervalo debe ser definido considerando la cantidad de valores sobre los que esta basada la
decisión, figura 20b, o lo que es igual, operar con una longitud de intervalo variable.
Procediendo de esta manera el número de ensayos será independiente de cual sea el valor
ganador. Podrá variar solo si el valor extremo fuese el primer o último valor de la serie, lo que
necesariamente agregaría un valor más a la medición.

Fig.20 b

Por otro lado, en el último paso de decisión no es posible aplicar el método, ya que,
debiendo siempre trabajar con valores estándar, no es posible probar con un valor muy cercano
al valor que se retiene de la evaluación anterior, figura 21a, lo cual permitiría reducir el
intervalo de incerteza en L/2, figura 21b. Debiendo realizar las mediciones con valores
normalizados, la prueba puede llevar a uno de los resultados indicados en la figura 21c y 21d,
con desigual reducción del intervalo de incertidumbre. Según el caso será necesario realizar,
figura 21c, o no, figura 21d, un ensayo adicional.

a) b)

c) d)

Fig.21

76
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 77

Búsqueda por relación áurea


El principal problema del método de búsqueda de Fibonacci es que requiere de
antemano saber la cantidad de ensayos a realizar. Se puede definir un nuevo método de
búsqueda sin prefijar de antemano el número de ensayos, usando la propiedad que resulta del
método de Fibonacci cuando el número de ensayos es elevado. En tal caso, la proporción de
intervalo descartado en cada ensayo se mantiene constante. Es decir, cuando n es alto, la
relación
Fn−2
d =
n
Fn (63)
tiende a un valor constante, figura 22. Asimismo, dado que
F j = F j −1 + F j−2 (64)
resulta también que la relación entre dos términos sucesivos de la serie de Fibonacci, relación
entre intervalos sucesivos, dada por
F n −1 F n−2
= 1−
Fn F n (65)
tiende al valor 0,618 si n>8. Si se usara esta relación cualquiera sea el valor de n, no seria
necesario precisar los ensayos a realizar. Como muestra la figura 23 el método de búsqueda por
sección áurea es solo levemente inferior al método de Fibonacci y superior al método de
búsqueda dicotómica.

Fig.22 Fig.23
Supongamos definido el intervalo de variación para la variable independiente x,
dentro del cual se supone hay un valor que hace óptima la prestación, siendo
L=xMax –xmin (66)
entonces, el método exige evaluar la función objetivo en dos puntos interiores del intervalo,
figura 24, definidos de la siguiente manera:
x 1 = x min + 0 , 618 ⋅ L (67)
x 2 = x Max − 0 , 618 ⋅ L (68)

Cuando los valores xi deben pertenecer a un conjunto de valores normalizados, los


valores obtenidos por (67) y (68) deben acercarse a algunos de los valores de la serie, con
intervalos conteniendo igual cantidad de valores. En lo demás, el procedimiento es idéntico a la
búsqueda de Fibonacci, y se diferencia solo por tener una convergencia más lenta. Al método
se lo conoce como búsqueda por sección áurea, debido a que la relación 0.618 fue aplicada
por los griegos en el diseño de edificios, buscando cumplir con la proporción
ancho
= 0 . 618
ancho + alto

relación que era denominada relación de oro, o relación áurea.

77
78 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

e e
ε ε

x x
xmin x1 x2 xMax

f1 ∆ f1 f2 f f1 ∆ f2 f2 f
Fig.24 Fig.25

El método es de interés debido a que en muchos casos es difícil definir de antemano el


número de experimentos a realizar, debido a que se desconoce la variación de la función
dentro del intervalo. Supongamos por caso que se trata de determinar la frecuencia de
resonancia de un circuito cuyo Q es desconocido. La incertidumbre admitida para la
determinación de la frecuencia de resonancia resultara de evaluar:
• la capacidad del instrumental de medición; si fuera ε la discriminación del mismo, el
intervalo final de incerteza dependerá del Q del circuito, figura 25, por lo cual no es
posible determinar el número de experiencias de antemano
• la pérdida de selectividad, o de ganancia, que resulta si se define una frecuencia
errónea de sintonía. Como se observa en la figura 25, si fuera por ejemplo ε la perdida
de ganancia admitida, el intervalo final de incerteza dependerá del Q del circuito, y si
este es desconocido no hay forma de saber de antemano la cantidad de ensayos que
será necesario ejecutar.

Método de gradiente
Muchos problemas de optimización requieren tratar con más de una variable, y si
bien es posible extender en muchos casos técnicas de búsqueda sobre intervalo, como el
método de Fibonacci, o el de relación áurea, estos exigen realizar muchas búsquedas
unidimensionales de un modo secuencial hasta la obtención del máximo (o mínimo) para cada
dimensión. El problema que esto acarrea es que la búsqueda multidimensional, basándose en
búsquedas unidimensionales, no es eficiente, exceptuando el caso en que una de las variables
pueda tomar solo unos pocos valores.
Cuando se hace la optimización de una variable mediante búsqueda de intervalo, a las
restantes se le asignan los valores óptimos que se han encontrado hasta ese momento, y se
procede en forma reiterada hasta lograr la convergencia a un punto.
Debido a que el método por búsquedas sucesivas sobre cada variable tiene una
convergencia lenta, esto lo hace poco adecuado. Lo conveniente es hacer la búsqueda del
óptimo considerando todas las variables al mismo tiempo, basándose en la información sobre la
pendiente de la función, o sea, su gradiente. La idea es, en cada nuevo punto, hacer la
búsqueda en la dirección de máxima pendiente.
Supongamos que la función de prestación dependa de dos variables
E = E ( x1, x2 ) (69)
con curvas de nivel como las indicadas en la figura 26. Partiendo de un punto P0, en el método
por búsqueda de intervalo primero se hace la búsqueda del valor óptimo de x2 sobre el
intervalo (a,b), bajo la condición x1=x10, lo cual lleva al punto P1. Luego, la búsqueda del
valor óptimo de x1 sobre el intervalo (c,d), asignando a x2 el valor que corresponde al punto
P1, x21, lo cual lleva al punto P2, y así sucesivamente hasta llegar al óptimo. En el método del
gradiente se produce un cambio simultáneo en las dos variables, moviéndose sobre la línea g.
Esto hace que se llegue a la convergencia en forma simultánea en ambas variables.

78
INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización 79

X2
b

P2 X2
x2 1 E1 E2 E3
P1 T O
P3

t N
g Po n

a I2
P0

c x1 0 X1 I1 X1
d
Fig.26 Fig.27

Supongamos para la función E las curvas de nivel indicadas en la figura 27, y que sea
O el punto óptimo a hallar. Partiendo de un punto arbitrario Po, para el mismo se debe definir
el vector de gradiente N, vector que es normal a la tangente T a la curva de nivel en ese punto,
⎛ ∂E ⎞ ⎛ ∂E ⎞
N = ∇ E = ⎜⎜ ⎟⎟ . I 1 + ⎜⎜ ⎟⎟ . I 2
(69)
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠

y sea n el vector unidad en la dirección del gradiente


⎛ ∂E ⎞ ⎛ ∂E ⎞
⎜⎜ ⎟ . I 1 + ⎜⎜ ⎟⎟ . I 2
⎝ ∂ x 1 ⎟⎠ ⎝ ∂x2 ⎠ (70)
n =
2 2
⎛ ∂E ⎞ ⎛ ∂E ⎞
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ ∂x1 ⎠ ⎝ ∂x2 ⎠

el cual marcara la dirección donde debe situarse el próximo punto en el que se debe hacer la
nueva evaluación de la función objetivo. Para definirlo exactamente se usan métodos de
interpolación polinomial, por ser los más efectivos cuando la función a minimizar es continúa.
Suponiendo que en el paso de búsqueda k se este con valores xi(k) , entonces la nueva
iteración se hará en x i ( k + 1) , donde
x i ( k + 1) = x i ( k ) + α i .∆ = x i ( k ) + ∆ x i (71)
siendo αi la proyección de n en la dirección xi, y ∆ un parámetro escalar que mide la magnitud
del paso. Para dos variables, x1 y x2, los valores de los incrementos de cada variable serán por
tanto
∂E
( ). ∆
∂ x1
∆ x1 =
⎛ ∂E ⎞
2
⎛ ∂E ⎞
2
(72)
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠
∂E
( ). ∆
∂x2
∆ x2 =
⎛ ∂E ⎞
2
⎛ ∂E ⎞
2 (73)
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ ∂ x1 ⎠ ⎝ ∂x2 ⎠

Como lo que se busca es un máximo (o un mínimo), luego de cada iteración se evalúa la


función E hasta detectar un aumento ( o una disminución ). Cuando esto ocurre, se invierte la
dirección del gradiente y se parte el incremento ∆ a la mitad. Por repetición de este proceso se
va estrechando la incerteza hasta cumplir el objetivo. El método se termina cuando se
satisfacen los dos criterios:
1. los valores en los que se obtiene el extremo de la función objetivo se han determinado
con una incerteza menor a un valor definido de antemano,
2. las derivadas en ese punto son menores a un valor prefijado ( condición de extremo )

79
80 INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

Método de programación lineal


Los métodos de programación lineal son aplicables a funciones de prestación E
lineales, donde el termino “programación” significa que las distintas variables deben ser
programadas, en el sentido de seleccionadas, para optimizar una función de desempeño del tipo
lineal. El término fue introducido con antelación a la aplicación de programas para
computación. Es decir, la palabra programación no tiene nada que ver con la elaboración de un
programa para su ejecución en computadora.

x1 E(x1,x2)

x1<f1(x2)

x1>f2(x2)
Fig.28

x2

En los problemas de programación lineal la función de desempeño esta dada por una
ecuación algebraica lineal, a la cual se agregan otras ecuaciones algebraicas lineales que actúan
como restricciones para la optimización del problema. Es decir, en general habrá una función
de prestación
E = a 1 . x 1 + ....... + a n . x n (74)
y un conjunto de restricciones del tipo
(75)
h i = b i 1 . x 1 + ........ + b in . x n ≤ , = , ≥ C i
Cuando el número de variables lo permite es conveniente utilizar un método de
solución gráfico, transformando las restricciones expresadas por desigualdades en igualdades a
fin de determinar las condiciones limites de la región de solución, figura 28. Este método es de
utilidad cuando existe, más que un valor, un conjunto de valores que satisfacen las condiciones
del problema. Es decir, cuando la solución esta representada no por un punto sino por una
región.

Aplicación de las herramientas de optimización de MATLAB


MATLAB® tiene una colección de funciones especialmente dedicadas a los
problemas de optimización, en su Optimization Toolbox. Estas herramientas incluyen diversos
tipos de rutinas de optimización, que permiten, entre otras posibilidades, la optimización no
lineal con y sin restricciones, la resolución de problemas de minimización, programación
lineal y cuadrática, ajuste por mínimos cuadrados, etc. Además, todas estas funciones son
archivos Matlab de tipo m dedicados a implementar algoritmos especializados de
optimización, cuyos códigos se pueden ver y alterar, sirviendo de plataforma para introducir
variaciones sobre las mismas, guardándolas obviamente con otro nombre.

80
Innovación
y
Prospección
Cuanto más original es un descubrimiento,
mas obvio parece después
ARTHUR KOESTLER

La supervivencia de una empresa ya no depende solo de que cumpla con los


siguientes cuatro requisitos, considerados por mucho tiempo como suficientes:
• Tener el producto que el mercado requiere y dominio tecnológico sobre el mismo
• Tener capacidad de manufactura y dominio sobre los procesos
• Contar con un mercado o tener capacidad para su desarrollo
• Disponer de un canal de distribución o comercialización adecuado
Según J.A.Barker (Paradigms, Harper Collins,1993), la clave para la supervivencia
de una empresa depende actualmente de cómo esta considere los tres siguientes factores:
• Anticipación, ligada a la prospección, o sea a la necesidad de saber que es lo que se
requerirá en un futuro, para saber a donde orientar los esfuerzos y como
evolucionaran las tecnologías
• Innovación, ligada a la necesidad de lograr el producto adecuado a las nuevas
necesidades
• Excelencia, ligada a la calidad, medida por la satisfacción de las expectativas
Ciertamente, la función del ingeniero es hallar una solución para los problemas. Pero,
con entornos cambiantes se requiere un proceso de innovación permanente. La innovación esta
estrechamente ligada a la creatividad. Hallar soluciones creativas requiere contar con muchas
entradas, obtenidas normalmente por lectura de material relacionado con el área, para poder
definir una salida.
La creatividad puede definirse como la habilidad para sintetizar nuevas
combinaciones de ideas y conceptos de una forma que sea útil a la solución de algún problema.
Al principio puede ser simplemente un esbozo, que se va luego completando desde lo simple a
lo complejo.
En todo proyecto el ingeniero se enfrenta a un número enorme de posibles cursos de
acción. Esto lo obliga a evaluar cada alternativa explícitamente, en función de criterios que
deberán ser establecidos y ponderados a fin de hallar la mejor solución. Pero, cuando el
individuo es verdaderamente creador percibe para los problemas soluciones poco usuales, las
cuales, además de ser originales, son a la vez muy efectivas. La originalidad de por si no es
suficiente; la creatividad debe también redundar en un mejor aprovechamiento de los
conocimientos y una optimización en el uso de los recursos. En resumen, el aporte creativo
aplicado a una solución particular se mide por el grado en que la solución:
• es efectiva y tiene éxito en la solución del problema
• desarrolla un nuevo concepto de diseño, saliendo de lo convencional, y es además una
solución simple, elegante e ingeniosa
En un tiempo se pensó que la facultad creadora era un don natural que dividía a la
humanidad en dos especies, la creadora y la no creadora. Sin embargo esta creencia ha dado
82 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

paso a la opinión de que la facultad creadora se estimula y desarrolla, y es un don que poseen
en mayor o menor grado todas las personas.
Lo cierto es que algunas sociedades han desarrollado una cultura que favorece la
invención y la innovación tecnológica, mientras que en otras este don permanece aletargado.
En las primeras se ha desarrollado una actitud en la cual prima la búsqueda continua de una
mayor eficiencia, un mejor aprovechamiento de los recursos y una mejor satisfacción de las
necesidades. Esto lleva a un continuo desarrollo de mejores soluciones, o como suele decirse,
a la búsqueda de la excelencia. Otras culturas son mas bien dogmáticas, asumiendo frente a los
problemas actitudes sumisas, conformista o de resignación.
Una justificación a los dos puntos anteriores lo constituye el hecho de que personas
que pasan de una cultura que no favorece la invención a otra que si lo hace, logran destacarse
en estas, debido a que han podido desarrollar su don personal en un ambiente propicio.
La creatividad ha sido relacionada con la edad de las personas. En este sentido vale la
observación de Del Buono, cuando explica que planteada la pregunta: ¿para que puede ser útil
una carretilla de ruedas ovaladas?, figura 1, encontró que la respuesta era muy diferente según
que la audiencia fueran niños de escuela primaria o grupos de dirigentes empresariales. Del
Buono manifiesta que encontraba respuestas en los niños; en los mayores solo una sonrisa.
Capacidad
innovadora

Fig.1 Fig.2 20 30 40 50 60
edad

En USA se han hecho estudios que muestran que los profesionales de ingeniería son
más creativos al finalizar su formación universitaria, figura 2. Muestra esto que la creatividad
máxima se manifiesta en una edad en la que:
• La persona tiene sus conocimientos frescos y actualizados
• No tiene preconceptos
• Hay menor cantidad de compromisos formales
La creatividad se da en todas las áreas de la actividad humana. En el área de la ingeniería
podría decirse que la creatividad es el uso del conocimiento y la tecnología en la búsqueda de
mejores soluciones a problemas existentes: No hay ingeniería si no hay creatividad.
Los individuos que se orientan a seguir carreras relacionadas con el mundo material,
tienen dos opciones básicas:
• realizar investigación, para aumentar la comprensión y los conocimientos. Es
desarrollado por la ciencia. Es un modo de convertir dinero en conocimientos.
• hacer ingeniería, aplicando los conocimientos disponibles a propósitos humanos
específicos. Es un modo de convertir conocimientos en dinero.
En ambos la base es la creatividad. Esta puede ser incentivada apoyándose en
diferentes métodos, algunos de los cuales se describirán mas adelante.
La labor del ingeniero esta relacionada con la creación de objetos materiales para
servir a las necesidades humanas. En la búsqueda de este propósito, el ingeniero encontrará que
la ejecución de su labor requiere conocimientos científicos algunas veces disponibles y otras
no. En ausencia de estos, procede con un programa de investigación, haciendo hipótesis
juiciosas acerca de los principios en los cuales se puede basar el diseño, hasta llegar a
soluciones satisfactorias. Podría decirse que los desarrollos de la ingeniería no pueden existir
sin la investigación. La investigación suele dividirse en:

82
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 83

• Pura: detrás del conocimiento por el conocimiento mismo


• Aplicada: detrás del conocimiento por un interés especifico. La investigación aplicada
no transforma conocimientos en dinero en forma inmediata; solo redunda en
beneficios cuando ese conocimiento se transfiere para aplicaciones de ingeniería
El desarrollo de ingeniería puede resultar en algo nuevo o distinto, reconocido como
una invención. La invención no resulta en un producto que concluye en el mercado en forma
inmediata. Esto recién ocurre después de una etapa innovadora, figura 3. Pasar de la idea al
lanzamiento al mercado requiere normalmente de un gran esfuerzo, que en muchos casos
implica trasponer una frontera tecnológica, y en otros afrontar el desarrollo de ese nuevo
mercado. El desarrollo de nuevos productos esta asociado a altos riesgos y costos, figura 3, y
esto hace que la mayoría de las empresas se vuelquen más a la imitación que a la innovación,
con poco o nulo esfuerzo de invención. Muchas empresas ven la I&D solo como un soporte
para sus negocios, y para ellas cualquier inversión en investigación que no tenga retorno
directo vinculado a su área de negocios es considerado un derroche.

Investigación Invención Innovación Comercialización

costos y riesgos

tiempo

Conocimiento Idea Producto Difusión Imitación


Fig.3

Esto justifica que si se hace un balance de las mayores invenciones se encuentra que
en una proporción de 3 a 1 estas recaen más en individuos que en empresas. Esto podría
llevarnos a pensar que la invención es predominantemente una tarea que se apoya en la
creatividad individual. De ser así, habría una gran limitación para futuras invenciones e
innovaciones, dado que estas necesitan cada vez mayores recursos, solo disponibles en
empresas, y además, la mayor complejidad inherente de los equipos requiere también del
aporte de personas con conocimientos en áreas muy diversas. Esto podría llevarnos a inducir
que hoy en día no hay lugar para el inventor solitario; pero tampoco esta es una verdad
incontrovertible. Es cierto que actualmente se necesitan grandes recursos, muchos más de los
que una sola persona pueda disponer, pero también lo es que:
• Los inventores son personas con una mente divergente, que difícilmente puedan integrarse
a un grupo de trabajo, y si lo hacen, raramente producirán algo original debido a que
deben ajustar sus ideas al esquema de trabajo del grupo, que tiende a disciplinar a cada
individuo hacia objetivos bien definidos.
• El inventor necesita, además de materiales e instalaciones, mucho tiempo. Normalmente
dispone de los dos primeros cuando integra una organización o grupo empresarial de I&D,
pero de tiempo dispone hasta cierto límite. Dentro de una empresa, el departamento de
I&D debe producir resultados en tiempos precisos. Si al cabo de un tiempo una línea de
investigación no logra ciertas metas, es posible que la dirección de la empresa decida
discontinuarla. Una decisión en tal sentido puede impedir que se alcance un logro
importante, posible si se dispusiera de un poco más de tiempo. Esta es la ventaja de la
dedicación personal. El inventor solitario, por el contrario, no se fija en el tiempo, y la
confianza en sus ideas es tan grande que ve las dificultades, decepciones y resultados
adversos solo como pequeños desafíos u obstáculos que debe vencer, y la escasez de
recursos es solo uno más, no reparando en medios con tal de lograr su propósito.

83
84 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Algunas historias creativas


Una historia de guijarros
En su libro Curso de Creatividad (El Ateneo,1988) Guerrero, relata una historia, que
describiremos muy abreviada, la cual muestra lo que es un enfoque creativo en la solución de
un problema. Cuenta: Hace muchos años, una persona que debía dinero si no lo devolvía en el
término convenido podía ser encarcelada. Un comerciante que no podía devolver la suma
adeudada recibió de su prestamista, descrito como viejo y avaro, la siguiente propuesta: Si el
comerciante le permitía casarse con su bella hija daba por cancelada la deuda. Como el
comerciante y su hija no parecían muy dispuestos a la propuesta, al prestamista se le ocurrió
resolver la cuestión haciendo que la decisión resultase de una prueba de azar. Cuando hizo la
propuesta estaban caminando por un sendero lleno de piedritas. Se le ocurre entonces tomar
dos piedritas, una blanca y otra negra, ponerlas en un bolso y ofrecer que la hija del
comerciante extraiga una; si fuera de color negro, debería casarse con ella, y si fuera blanca
quedaría liberado de la deuda. El trato fue aceptado, pero la hija del comerciante vio que el
prestamista tomaba dos piedritas, ambas negras, y las metía rápidamente en el bolso. El desafío
para ella era como, sin denunciar la maniobra del prestamista (al hacerlo se exponía a que este
desistiera de la propuesta y reclamara por la deuda), eludir la trampa a la que iba a ser
sometida. Si debiera aconsejar frente a esta situación ¿que estrategia propondría?

Una historia alrededor del barómetro


En la introducción del libro Analog Circuit Design ( Butterworth-Heinemann,1991) Jim
Williams cuenta la siguiente historia, que por brevedad resumimos de la siguiente manera: Un
profesor formula en un examen de Física la siguiente pregunta: “Mostrar la forma de
determinar la altura de un edificio con la ayuda de un barómetro”. La respuesta del alumno
fue: “Subo a la terraza del edificio, ato el barómetro a un hilo y lo dejo caer desde la terraza
hasta que toque el suelo. Luego midiendo la longitud del hilo obtengo la altura del edificio”.
Obviamente esa no era la respuesta esperada, por lo que el profesor le dio seis minutos más
para pensar la respuesta. Transcurridos cinco minutos, el profesor ve al alumno muy
pensativo, se le acerca y le pregunta si no conoce la respuesta, a lo cual este contesta: “Tengo
muchas respuestas, estoy pensando cual es la mejor”. Lo deja seguir, y antes de que transcurra
el minuto el alumno se le acerca con la siguiente respuesta:”Me subo a la terraza del edificio
desde donde dejo caer el barómetro y mido con un cronometro el tiempo que tarda en llegar
al suelo. Luego con la formula s=.5at2, calculo la altura del edificio”. El profesor acepto la
respuesta, aun cuando no era la que esperaba, y por curiosidad le pregunto que otras respuestas
había pensado, a lo que el alumno contesta: “Bueno, sin necesidad de subirme a la terraza, lo
que puedo hacer es aprovechar un día soleado, parar el barómetro sobre el suelo y comparar
la sombra que arroja el edifico y la sombra del barómetro, y por simple proporción deducir la
altura del edificio”. “Otra forma seria la siguiente: Este es un método mas bien simple y
directo: Subo por la escalara y voy apoyando el barómetro sobre la pared y marcando su
altura. Luego cuento la cantidad de marcas y sabiendo la longitud del barómetro, deduzco la
altura del edificio. Pero puedo también recurrir a métodos más sofisticados: Ato el barómetro
a una cuerda y usándolo como péndulo puedo determinar el valor de g al nivel de calle y sobre
la terraza. En base a la diferencia entre ambos valores de g, puedo obtener la altura del
edificio. Pero además de estas, existen muchas otras maneras de resolver el problema, por
ejemplo......”
El relato toca tres puntos importantes:
• Ironiza sobre ciertos profesores que admiten solo como respuesta valida tan solo
aquella que ellos esperan, normalmente ceñida y ajustada a lo que enseño en su curso
• Es una critica a la estrechez de miras, y una critica a aquellas soluciones que se
limitan tan solo a los enfoques convencionales (asociación de la presión con la altura)

84
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 85

• Nos muestra como un problema tiene más de una solución; el desafío es determinar
opciones y hallar la mejor. En este caso, si se debiera definir la mejor, ¿que criterio
debería emplearse?

El Eureka de Arquímedes
R.M.Roberts en el libro Serendipity, Accidental Discoveries in Science (Wiley, 1989)
relata la tan conocida anécdota sobre Arquímedes. Este, al descubrir casualmente mientras se
estaba bañando la solución al problema que lo aquejaba, sale corriendo desnudo por las calles
de Siracusa gritando:”Eureka, Eureka” (“la halle, la halle”). Lo que Arquímedes había hallado
era la solución al problema que le había planteado el rey Heredoto. El rey le había
encomendado a un joyero que le hiciera una corona de oro puro, y cuando la recibe, le entran
dudas sobre si la corona contendría todo el oro que el le había dado. Para despejar sus dudas le
encomienda a Arquímedes el problema de determinar si la corona era realmente de oro o una
mezcla. Para ello Arquímedes disponía de dos datos: el volumen y el peso del oro. El rey había
entregado un cubo regular de oro de medidas y peso conocidos. Estos eran los dos valores
que debían ser satisfechos. El desafío que tenía por delante Arquímedes era calcular el
volumen de la corona. Si conociese el volumen, conociendo además el peso, estaba en
condiciones de saber si se trataba de oro o de una aleación.

La actitud creativa
“No puede hacerse, es demasiado tarde para hacerse, no está dentro de lo planeado,
es demasiado costoso, ya ha sido probado, no es práctico, es contrario a las reglas de diseño,
no creo que funcione, ...”, estos son los obstáculos comunes que afronta el individuo que
propone algo nuevo y diferente. Evaluar e inmediatamente criticar las ideas de otros, es un
rasgo muy humano y común. Pocos pueden enfocar las ideas de otros con una mente abierta y
una actitud constructiva.
En consecuencia, cuando enfocamos las fases de un proyecto de diseño relacionado
con la proposición de conceptos alternativos, debemos suprimir intencionalmente nuestra
actitud crítica destructiva y suplantarla por otra más objetiva y receptiva.
Los innovadores operan sobre premisas concretas:
• Nada se puede decir sin antes haberlo ensayado
• Los obstáculos están para ser obviados
• Los fracasos son una oportunidad para aprender
• Los demás pueden pensar lo que quieran, los hechos son los que valen
Situarse en una posición creativa exitosa requiere:
1. Desarrollar una actitud creativa. Significa tener confianza en uno mismo; es decir, pensar
que hay más de una solución, y que esta se puede encontrar.
2. Dar rienda suelta a la imaginación. Mirar el problema bajo distintos ángulos, explorando
las ambigüedades, sin amedrentarse por las equivocaciones, o el miedo al ridículo,
tratando de observar al principio todo el cuadro, y no detenerse en los detalles
3. Ser persistente. No desanimarse. No buscar una respuesta rápida. El ejemplo mas
aleccionador es el de Edison. Encontrar el filamento adecuado para la lámpara
incandescente le llevo a realizar mas de 6000 intentos. A el se debe la frase: Invención es
95% de transpiración y 5% de inspiración
4. Desarrollar y abrir la mente. Significa ser receptivo a las ideas o propuestas ajenas,
repensándolas si fuera necesario; no cegarse ni cerrarse en las propias ideas

85
86 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

5. Suspender juicios prematuros. No considerar de entrada que el proyecto sea imposible,


sin estudiar todas sus facetas.
Un ejemplo de esto lo constituye la anécdota que Donald G. Fink protagonizo en los
laboratorios de la RCA, empresa en la cual se desempeñaba como consultor. Los
ingenieros del grupo de desarrollo le expusieron su idea de construir un tubo para
reproducir imágenes de televisión en color basándose en un mosaico de pastillas
luminiscentes dispuestas en forma de triángulos equiláteros. La idea era que cada triangulo
estuviera integrado por tres diferentes pastillas, conformando una tríada, y dependiendo en
cual hicieran impacto los electrones se emitiría uno de los tres colores básicos. Detrás de
la pantalla proponían disponer una mascara con miles de agujeros, uno por cada tríada, a
través de los cuales debían pasar los electrones emitidos por tres cañones diferentes; cada
cañón se identificaba con un color básico, y los electrones que emitía debían incidir sobre
la pastilla que correspondiera a su identificación de color. Esto requería que prácticamente
el error de alineamiento entre cada tríada y la mascara fuese nulo, y además era necesario
lograr una convergencia precisa de los electrones durante todo el barrido de la pantalla.
Luego de exponer la idea, los ingenieros requirieron si en la opinión del especialista
este veía factible la idea. Sin dudarlo, opino que la realización era imposible. Los
ingenieros, le explicaron que, habiéndose ya realizado fuertes inversiones, su intención era
proseguir con el desarrollo a menos que, en la opinión del experto, este considerara el
desarrollo como una imposibilidad técnica absoluta. La respuesta fue contundente: El
especialista no le daba ninguna chance al proyecto. Después de la negativa del
especialista, le invitaron a pasar a un laboratorio contiguo. Ahí Fink vio el tubo
irrealizable, y no solo uno, sino varios ejemplares funcionando, mostrando una magnifica
imagen en colores. Esto, que puede verse como una mala jugada, o motivada por segundas
intenciones, admite sin embargo otras lecturas:
a. la primera, es un reconocimiento tremendo al grupo de desarrollo, el cual supero lo
que Fink considero una barrera tecnológica infranqueable. Es decir, no habla mal de
Fink, sino que habla bien del grupo de desarrollo.
b. la segunda, nunca apresurar una opinión sin conocer todos los detalles
6. Reconocer bien los problemas de contorno. Esto implica no seguir reglas que no existen
ni son parte manifiesta del problema. Es común fijar para el problema restricciones que el
problema no tiene.
Como ejemplo citaremos la siguiente anécdota referida al disco compacto. Sony
había trabajado por varios años en el tema y lo había abandonado por las dificultades
mecánicas que había encontrado. En ese estado se ven sorprendidos por un pedido de
Philips que propone una reunión para aunar juntos una especificación. Aunque el interés
de Sony ya había desaparecido, por curiosidad acepta. En la primer reunión, cuando los
ingenieros de Philips muestran el tamaño del disco que proponían, los ingenieros de Sony
se ven sorprendidos: Su solución había fracasado porque se habían impuesto un tamaño
de disco similar a los clásicos LP de vinilo, lo cual creaba grandes dificultades para la
implementación mecánica. Es decir, se habían impuesto una limitación que el problema
no tenia.
Como una digresión curiosa digamos que, para definir el tamaño del disco, el
Director de Desarrollo de Philips requirió la opinión del celebre director de música von
Karajan, recibiendo como respuesta: “ si no entra la Novena Sinfonía de Beethoven en
una sola cara, no es lo suficientemente grande” . Esto determino el tamaño del CD, en
contra de las 18 horas de capacidad en que pensaba originalmente la gente de Sony.

86
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 87

La Invención
Cuando no hay una solución estándar de la cual partir, y se debe hallar una, se trata
de un problema de invención. La invención esta ligada a un nuevo descubrimiento científico o
logro tecnológico que hace posible concebir algo nuevo, y que se encuentre una solución a
problemas aun no resueltos, o que ni siquiera hayan sido explicitados como tales. Una
invención es luego toda solución diferente, cuya disponibilidad y uso es de utilidad en la
solución de algún problema. Inventar es resolver un problema de un modo distinto, utilizando
creatividad e inteligencia, y esto implica:
• cierto control del medio ambiente físico
• conocimiento de materiales, y de funcionamiento de otros dispositivos en los cuales
apoyarse, e ingenio para resolver las dificultades y contradicciones
• y muchas veces, gran habilidad manual
Son inventos el fusible (invento de Edison ), el teléfono, la válvula electrónica, el
receptor superheterodino, el radar, el tomógrafo, el microprocesador ( patentado por INTEL),
etc. Básicamente, las invenciones surgen:
1. Combinando conocimientos. Muchas invenciones resultan de combinar otras invenciones,
como ha sido el caso del tomógrafo computado, o bien reuniendo elementos conocidos.
Veamos un ejemplo: La alta variación de la tensión suministrada por una pila alcalina
puede ser solucionada mediante el uso de circuitos reguladores. Con estos es posible
asegurar una tensión de salida constante ( Vo ) pese a las variaciones de la batería. La
restricción es que para asegurar una alimentación adecuada debe ser
Vbateria > Vo (1)
Bajo esta condición se desaprovecha una porción importante de la energía de la
pila, figura 11; evitar esto es una buena oportunidad para la innovación.

Fig.11 Fig.12

La figura 12 es un esquema de solución en tal sentido. El regulador (B) funciona


en modo lineal cuando se verifica ( 1 ). El transistor Q en este caso no conduce, y L y C
actúan como filtro de entrada. Cuando la tensión de entrada cae por debajo de un valor en
el que deja de ser valida la expresión (1), entonces entra a funcionar el convertidor (A) que
levanta la tensión de la batería al valor requerido por el regulador lineal, extendiendo así la
vida de la batería. Alrededor de esta idea se han propuesto y desarrollado diversos
circuitos integrados.

Fig.13 Fig.14
Este esquema, si bien es innovador, resulta todavía ineficiente, dado que con el
empleo de un regulador lineal se pierde gran parte de la energía, figura 13. Es decir, el

87
88 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

ideal seria una combinación de un regulador por conmutación descendente en la primer


parte, y pasar luego a un tipo ascendente cuando la tensión de entrada es insuficiente.
Salvo las pérdidas por rendimiento, empleando un circuito regulador por conmutación,
figura 14, se consigue que la potencia entregada por la pila se mantenga constante.
2. Necesidad y ahorro de mano de obra. Estos han sido factores que estimularon siempre la
inventiva con el fin de evitar regulaciones extremas, el poder sindical, la dependencia, o
las limitaciones propias de la capacidad humana.
Un ejemplo de este tipo lo constituye la primera central telefónica. Su inventor,
Strowger, tenía una empresa funeraria y estaba molesto porque su competidor se enteraba
primero de los fallecimientos debido a que la esposa de este trabajaba en la central
telefónica, la que hasta ese momento era manual; esto le daba la ventaja de ser la primera
en enterarse de cualquier acontecimiento. Strowger pensó que la única manera de evitar la
ventaja del competidor era logrando un enlace telefónico sin intervención humana.
3. Solución directa. Esta es la forma usual de resolución de problemas, en la cual se
aprovecha el conocimiento y la tecnología en forma directa para dar solución a un
problema concreto.
4. Adaptación de un viejo principio a un viejo problema para generar una nueva solución.
Limitaciones tecnológicas hacen que la solución a ciertos problemas no aproveche
inicialmente todas las posibilidades de una nueva concepción o idea. Este es el caso del
receptor superheterodino. El esquema tiende a resolver de un modo muy elegante los
problemas del receptor de sintonía directa (sensibilidad y selectividad pareja cualquiera
sea el canal que se quiera recibir). La figura 15 esquematiza el principio de base del
receptor superheterodino.
fo-fc
fo+fc FI fo-fc FI
fc I

Mezclador
Fig.15 Demodulador
Filtro Filtro

Amplificador
Oscilador Local
fo=fc+FI

Esta propuesta no esta exenta de problemas, llamadas contradicciones en el


método TRIZ. Uno es la aparición de la frecuencia imagen. Es decir, el receptor no puede
diferenciar la frecuencia del canal deseado, de frecuencia fc, de otra señal de frecuencia
fi = fc + 2 . FI (2)
pues en ambos casos la señal resultante de la mezcla da lugar al mismo valor de FI.
Inicialmente la forma de resolver el problema fue disponiendo un filtro que
precediera a la etapa mezcladora, para eliminar la frecuencia fi. Como este filtro debe estar
sintonizado a la frecuencia a recibir, debe ser resintonizado cada vez que se cambia de
emisora. Para que esto sea automático, se hace variar la frecuencia del circuito selectivo y
la del oscilador local mediante un mismo mando, valiéndose para ello de un capacitor en
tandem. Esto funciona bien si hay un acompañamiento perfecto entre la frecuencia de
resonancia del circuito selectivo y la frecuencia de la emisora de interés, lo cual es
imposible de lograr por diferentes razones. La diferencia entre ambos valores se conoce
como error de arrastre, y es un viejo problema no bien resuelto: Para su solución se
requerían elementos adicionales ( capacitores de ajuste denominados padder y trimmer ),
y un proceso de calibración posterior .
Una manera de evitar esto seria lograr que el filtro de entrada rechazara la
frecuencia imagen sin que sea necesaria su sintonía. Esto es posible si en vez de operar con
una frecuencia intermedia FI que este por debajo de la banda a recibir, se opera con una
frecuencia intermedia que esta por encima de la banda a recibir, figura 16.

88
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 89

Filtro
Pasabajos
Banda de
operacion

2 30 FI= 100 MHz MHz


Rango de Banda de
variacion del frecuencias
oscilador local imagen

Fig.16 102 132 202 232 MHz

En tal caso, cualquiera sea el canal es siempre FI> fc, y además como el valor de
la frecuencia imagen esta dada por fc+2*FI, entonces esta se elimina disponiendo a la
entrada del receptor un filtro pasabajos fijo en vez de un filtro sintonizable. En un receptor
de onda media, por ejemplo, bastaría que la FI sea de 10.7MHz (definida en este valor
para usar filtros estándar); en receptores de onda corta (3 a 30 MHz ) la FI puede ubicarse
en valores mayores a los 100 MHz, tal como muestra la figura 16.
5. Aplicación de un nuevo principio a un viejo problema. La solución al rechazo de
frecuencia imagen consistente en trasladar la frecuencia intermedia a un valor por encima
de la banda en la que se opera encuentra sus limitaciones tecnológicas cuando se quiere
recepcionar frecuencias muy altas. Es decir, la solución anterior es aplicable en la banda
de HF, pero no lo es en la banda de VHF o superiores. Por caso, en un receptor de
radiodifusión de FM (88 a 108 MHz) ya no resultaría aplicable. Surge entonces una nueva
posibilidad: Recurrir a filtrado por transformada de Hilbert, figura 17. La transformación
de Hilbert mantiene la amplitud y produce un giro de 90 grados en la señal.
ej(wi-wo)t
Transformador
de A(t).ejπ /2=ej (wi-wo)tejπ /2
A(t).ej π / 2
Hilbert
ejwot ef
+
ejwit π/2 A(t)

A(t).e-jπ /2=ej (wi-wo)te-jπ /2

Fig.17 A(t).e-j π / 2
ej [ (wi-wo)t-π /2 ]

En este esquema, la señal deseada e imagen, de pulsación wd y wi se mezclan


con componentes en cuadratura de un oscilador local de pulsación wo y se hace un
posterior filtrado a la frecuencia de FI, verificándose para la señal deseada que
ω deseada =ω o −ω FI (3)
y para la indeseada
ω imagen = ω o + ω FI (4)
Tal como indica la figura 17, la rama I desfasa la señal de entrada en 90 grados,
mediante un transformador de Hilbert. Representando las señales en su forma compleja, la
figura 17 muestra como la señal imagen es cancelada. Por el contrario, la señal deseada
proveniente de las dos ramas, I y Q, se ve reforzada, tal como muestra la figura 18.
ej(wo-wd)t
Transformador
de A(t).ejπ /2=ej (wo-wd)tejπ /2 A(t).ej π / 2
Hilbert
ejwot ef
+
ejwdt π/2
A(t).ej π / 2
A(t).ejπ /2=ej (wo-wd)tejπ /2
Fig.18 A(t)
ej [ (wo-wd)t+ π /2 ]

89
90 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Obviamente, la supresión de imagen dependerá del apareamiento entre los dos


caminos, y de que las señales del oscilador local que excitan al mezclador estén
exactamente a 90º, y que el transformador de Hilbert provea un desfasaje exacto de 90º.
Estas condiciones se verifican en gran medida si toda la implementación se hace dentro de
un mismo circuito integrado, por lo que es posible lograr rechazos de imagen del orden de
los 30 a 50 dB, obviando así el empleo de un filtro sintonizable para el rechazo de la señal
imagen.
6. Aplicación de un nuevo concepto en un nuevo uso. La planilla de cálculo es un buen
ejemplo de ello; siendo desconocida antes de la computadora personal, se transformo
pronto en su principal aplicación.
7. Invirtiendo los conceptos. Muchas soluciones resultan por aplicación de un concepto, lo
cual lleva a pensar que aplicando un concepto opuesto no seria posible hallar una
solución.
Veamos un caso: El concepto de receptor superheterodino surge con la idea de
trasladar la ganancia y la selectividad a una frecuencia fija, y de ese modo lograr que
ambas características sean independientes de la frecuencia del canal a recibir.
En la década de los 1950, con la introducción de las comunicaciones de banda
lateral única (BLU) en la banda de HF, este esquema de solución tropezaba con el
problema de la inestabilidad del oscilador local. En esa época, muy lejos todavía de los
VCO y lazos enganchados en fase actuales, se debía recurrir a circuitos sintonizados del
tipo LC para implementar el oscilador local, figura 19, y la estabilidad de frecuencia que
así resultaba se situaba en el orden de 10-4 a 10-5; es decir, en el mejor de los casos
resultaba una variación en la frecuencia dada por
∆f 5
= 10 −
f
dando origen a un corrimiento que era función de la frecuencia del canal.
Con un valor de frecuencia de canal de 30 MHz esto significaba un corrimiento de
frecuencia del orden de 300 Hz, que supera al valor de 50Hz requerido para obtener
adecuada inteligibilidad. Esto volvía imposible la implementación de receptores de
comunicaciones de sintonía corrida.
FI 2 a 3 MHz FI=500KHz
FI=500KHz
fc=3 a 30 MHz
fc=3 a 30 MHz
fOL fOL
fO

Fig.19 Fig.20

Collins, empresa líder en la nueva tecnología, propuso una solución ingeniosa en


la cual se invertían los conceptos. En vez de operar con una frecuencia intermedia fija y el
oscilador local variable, desarrollo un nuevo concepto en el que la frecuencia del oscilador
local era fija, implementándose con osciladores a cristal ( un cristal para cubrir una banda
de 1 MHz), y una frecuencia intermedia variable, figura 20.
De este modo, como la frecuencia intermedia se situaba entre 2 y 3 MHz,
disponiendo un nuevo oscilador local con una variación restringida entre 2.5 y 3.5MHz, la
inestabilidad de este último se reducía en un orden de veces, haciendo posible la recepción
de señales de banda lateral única en la banda de HF.

90
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 91

8. Serendipidad. Es la invención por accidente, o casualidad. Realmente no existe tal cosa.


El hallazgo casual ocurre cuando en la investigación de ciertos problemas aparece la llave
que da solución a algún problema pendiente, o se avizora la posibilidad de nuevas
aplicaciones. Pero, para que la solución se reconozca, el problema debe existir entre los
problemas no resueltos o mal resueltos.
El mejor ejemplo en electrónica es el transistor, un hallazgo casual de la Bell
Telephone Laboratories. En 1945 la Bell formo en sus laboratorios un grupo para trabajar
en el desarrollo de amplificadores de estado sólido. Su intención era construir un transistor
de efecto de campo basándose en una teoría sobre semiconductores que había
desarrollado A.H.Wilson en 1931. Los varios dispositivos construidos en base a esa teoría,
nunca llegaron a funcionar. Tratando de explicar el porque descubrieron accidentalmente
el transistor de punta de contacto en 1947, y a partir de este descubrimiento posteriormente
desarrollaron el transistor de juntura en 1951. Finalmente en 1952 lograron el FET que era
la meta inicial del grupo, y demostraron además que la teoría de Wilson, con la cual se
había iniciado el desarrollo, no era valida.

La Innovación
El termino innovación se vincula con el empleo de nuevas ideas y conocimientos
tecnológicos y de comercialización a productos existentes, con la finalidad de bajar costos y
mejorar o agregar atributos que antes eran desconocidos, al menos en el mercado en el que se
va a comercializar. El innovador interactúa con todo un contexto formado por competidores,
proveedores, clientes, y regulaciones para poner en práctica un invento, de un modo que puede
ser:
• incremental, de consecuencia de sucesivos refinamientos en el producto o el proceso
• radical, cuando se produce una discontinuidad; implica un cambio en la concepción o
en la tecnología. Marca el final del ciclo de vida de un producto y el comienzo de otro
que se apoya en nuevos conceptos de solución. La prestación parte de un piso, que
bordea el techo de la generación anterior, y evoluciona hasta alcanzar un techo
impuesto por limitaciones tecnológicas o físicas en las que se apoya, adoptando la
clásica forma de S
El producto innovador puede que no sea competitivo en un principio y que se
encuentre por debajo de la línea de prestación alcanzada por el producto antecesor, pero por su
potencialidad esto cambia en el futuro. Este es el gran desafío: Que con el paso del tiempo
logre alcanzar la competitividad suficiente y desplazar a la generación anterior. También puede
ocurrir que sea tan innovador que ni siquiera tenga mercado y haya que crearlo, o bien que el
mercado no este en capacidad de aprovechar todas sus posibilidades en su inicio.
Aunque nuestro interés esta en la innovación tecnológica, la innovación puede darse
en cualquiera de las etapas del ciclo de vida del producto: en su concepción, en el desarrollo de
la manufactura o en la comercialización.
Frente a la innovación las empresas se posicionan de dos modos:
• Proactivo: En este caso la empresa opera sobre una base planeada, con recursos asignados,
preparándose para el cambio o el logro de objetivos futuros. Tratan de ser los primeros en
lanzar nuevos productos en el mercado, cuidando de que sean difíciles de imitar o mejorar,
y finalmente si la competencia entra al mercado, se bloquea al competidor con una
segunda y mejor versión.
• Reactivo: Espera a que aparezca un nuevo producto en el mercado, imitándolo
rápidamente si fuera exitoso, o desarrollando un segundo producto mejor. Esta estrategia
se basa en que difícilmente los nuevos productos aprovechen plenamente toda su
capacidad, y respondan exactamente a las necesidades de los usuarios.

91
92 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Diseño por evolución


El mayor dilema que enfrentan las empresas que cuentan con un producto
estrella, es como posicionarse frente la innovación. Sus posibles opciones son:
• Tratar de ampliar el mercado, mejorando la cadena de comercialización
• Innovar, buscando ampliar el mercado mediante el agregado de prestaciones
• Explotar el mercado que domina introduciendo nuevos productos
La primer opción implica desconsiderar totalmente la I&D. La segunda opción produce
cierta aversión debido a que el nuevo producto va a competir y sacarle parte del mercado al
anterior, salvo que, aunque competitivo, por sus características este orientado a un segmento
no cubierto por el anterior. De todos modos, aun compitiendo, esto siempre es mejor que la
existencia de un real competidor. Este concepto, que apunta al diseño por evolución, fue
introducido por la empresa DEC (Digital Equipment Corporation) al lanzar la familia PDP-11.
Su idea era definir una serie de productos que pudieran atender distintas necesidades, con una
arquitectura común simple y una concepción modular.
La teoría del diseño por evolución fue planteada en los siguientes términos:
• Los avances tecnológicos deben ser trasladados en uno de los siguientes estilos de diseño:
• proveyendo funcionalidad constante a mínimo precio, el cual debería disminuir con el
tiempo, figura 21a
• manteniendo los costos constantes e incrementar la funcionalidad, figura 21b
• aumentando los costos e incrementando la prestación, figura 21c. Si bien posible, esta
variante fue descartada por los diseñadores de DEC, pues apreciaron que tenía menor
potencialidad económica que las dos primeras.
• concibiendo una familia en la cual cada producto queda enmarcado en base a sus dos
características, costo y prestación, figura 22.
• introduciendo mejoras tecnológicas continuas, creando cada dos años dos nuevos
miembros de la familia por cada uno anterior: uno equivalente en precio, el otro
equivalente en funcionalidad, de modo que al cabo de algunos años se cuente con un
grupo desparramado dentro de un amplio espectro precio-prestación.

Fig.21 Fig.22
Actualmente los tres conceptos, especialmente el tercero y el primero, han sido y son
explotados con éxito por Intel para su gama de microprocesadores.
El concepto evolutivo toma nuevas formas al agregar la posibilidad de actualizar el
software, o personalizarlo, incorporando el mismo en una flash ROM. Por este medio se
consigue que los dispositivos vean alargado su ciclo de vida.
La tercera opción, basada en aprovechar el conocimiento del mercado, aunque es una
ventaja importante para introducir nuevos proyectos, su mayor contra es la resistencia a entrar
en áreas o productos que están fuera de la especialización, o del núcleo de sus negocios.

92
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 93

La investigación y el desarrollo dentro de las empresas


La inventiva y la innovación tuvieron carácter personal por mucho tiempo. Edison
fue el primero que la concibió como una actividad especifica, y por ello puede considerarse el
inventor de la fábrica de inventos. Actualmente son muchas las empresas dedicadas
exclusivamente a la invención y desarrollo de productos bajo demanda, con capacidad de
trabajo en una gran variedad de industrias y tecnologías. Pero, por lo general, debido a su
carácter estratégico, la mayoría de las empresas tienen sus propios departamentos de
investigación y desarrollo, en los que reinvierten un gran porcentaje de sus beneficios. De los
miles de ideas que manejan, menos de la mitad es considerada como valiosa para pasar a la
etapa siguiente. En otra instancia, algunas pocas pasan a la etapa de desarrollo, y solo muy
pocas cumplen con las expectativas y llegan al mercado, donde algunos productos serán
aceptados y otros fracasaran. Este proceso puede llevar muchos años de inversión intensiva.
Este concepto de descargar sobre los departamentos de investigación y desarrollo la
responsabilidad de la innovación está cambiando por otro en el que las compañías, como un
todo, se transforman en verdaderas máquinas de innovación, apoyándose en terceros como
proveedores de tecnología si ello fuera necesario. Esto, en muchos casos, se debe a que dentro
de las grandes corporaciones la innovación encuentra a veces límites insoslayables.
Cuestiones tales como: ¿por qué Canon entrevió las posibilidades de la copiadoras
personales, y no Xerox ? ¿Como es que una pequeña empresa como Nokia se queda con la
mayor porción de la torta de los teléfonos celulares, en detrimento de empresas fuertes en el
sector telefónico como Ericsson, Siemens, o Philips? ¿Por qué RCA, líder en la fabricación de
válvulas electrónicas, no sobrevivió a la generación de los transistores? Una respuesta posible
es que a las empresas tradicionales les resulta difícil innovar. Para lograr cambios, es necesario
estar repensando permanentemente los productos, buscando innovar lo suficiente como para
acceder a un mercado masivo, y teniendo claro que una solución basada exclusivamente en
reducción de los costos de componentes y procesos no cambia sustancialmente el mercado.
Esta situación se dio en la computación, en las copiadoras, en los video reproductores, etc.
El mayor problema del innovador es que al crear algo que no existe, no hay
posibilidad de evaluar el mercado, y lo que es peor no se puede indagar sobre la clase de
producto que realmente la gente quiere. Frente a una misma necesidad, por lo general hay
siempre distintas propuestas. El mercado decide cual prospera. Esto se reflejo en la batalla
entre IBM y Microsoft por imponer un sistema operativo para la PC; entre Masushita y Sony
por imponer el sistema de video, entre Sony y Philips por el audio digital, etc. En la innovación
se tienen dos posibles caminos:
• definir el producto pensando en el usuario, pero con la idea de que será necesario
generar el mercado y educar en el uso de ese producto.
• indagar lo que el publico quiere, y diseñar siguiendo esas pautas
Pero, cuando el cliente es disperso, y con desconocimiento de las posibilidades, las
chances de errar son grandes. Sobretodo, porque los deseos son cambiantes. Un competidor
más imaginativo hace valer nuevas posibilidades y puede cambiar los deseos de los clientes.
El gran problema para la innovación lo constituye la gran demanda de recursos, y la
necesidad de disponer de una masa critica suficiente que le asegure éxito al desarrollo. La
forma de resolver esta limitación es trabajando con políticas colaborativas entre grupos
empresarios. Son pocas las empresas que pueden afrontar por si solas ciertos desarrollos, y esto
solo es posible si se cuenta con una gran porción del mercado. La realidad actual es que para
muchos productos solo la competencia global provee la escala necesaria.
Aunque por necesidad todas las empresas realizan esfuerzos de innovación, sus logros
no necesariamente son volcados al mercado en forma inmediata. Solo las empresas que se
desenvuelven en mercados muy competitivos tratan de hacerlo tan pronto como pueden, para
obtener el máximo beneficio de la innovación mientras el mercado este libre de competidores.

93
94 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Las empresas dominantes por lo general actúan solo cuando las empresas menores los
obligan a ello, y en ese caso lo hacen rápido para no perder su posición en el mercado.
La firma que se desenvuelve bajo competencia, con una porción del mercado total
k.Q1, encuentra su gran oportunidad en la innovación debido a que al tener precios apenas por
encima de los costos, si el proceso innovador lleva a una reducción de costos, pasando de C1 a
C2, esto le permite, mientras tenga el monopolio del cambio tecnológico, maximizar su
beneficio, bien sea:
ƒ manteniendo el precio de venta P1 y su cuota de mercado k.Q1, con lo cual no
cambia la oferta pero incrementa su beneficio
ƒ ampliando su participación en el mercado, reduciendo el precio de venta, buscando
desplazar a sus competidores

Patentes
La patente es un contrato entre el estado y un individuo, mediante el cual el estado le
otorga el derecho de disponer en forma exclusiva y libremente de una determinada invención
por un tiempo definido ( 10 a 20 años ). Además de un reconocimiento a la creatividad de las
personas o empresas, el estado busca con ello generar incentivos para estimular la invención,
presuponiendo que a través de la invención se logra una mejor calidad de vida para las
personas. Como contrapartida, el propietario de la patente esta obligado a hacer publica toda la
información de su invención, lo cual enriquece el conocimiento técnico, y ayuda a la
creatividad y capacidad de innovación de otros. Es decir, para que sea acordada la patente, el
inventor esta obligado a realizar una solicitud en la cual debe hacer una descripción técnica
del invento. La solicitud es un documento público, debiendo tener suficiente detalle como para
que un especialista en el área pueda comprender su funcionamiento. La descripción debe ser
acompañada por esquemas, planos, o diagramas, que hagan posible reproducir el invento.
La solicitud de Patente de Invención se hace ante la Oficina de Patentes del país en
donde se solicita protección. Esto implica que la protección que se otorga sobre un invento es
territorial; es decir, una patente obtenida en un dado país, sólo da protección en ese país.
Aunque anualmente se acuerdan innumerables patentes, muchas quedaran solo como
archivos en alguna oficina de patentes. Muchos estiman en menos del 10% la cantidad de
patentes que tienen alguna posibilidad de desarrollo económico. En parte, porque muchas
empresas se rigen por el principio: “Debe protegerse todo lo que pueda ser protegido”. Es
decir, las patentes no son exclusivas de productos revolucionarios; en la mayoría de los casos
corresponden a procedimientos técnicos o son simples mejoras de un producto.
Los principios en que se basan los sistemas de patentamiento fueron establecidos en
la Convención de Paris en 1883. El denominado Convenio de París regula la protección de la
Propiedad Industrial. Independientemente, cada país emite leyes y regulaciones para la
protección de los derechos de la propiedad intelectual. Dentro de esta se incluyen, además de
las invenciones, las creaciones literarias o artísticas, los símbolos y nombres, las imágenes y
sonidos, y los diseños gráficos. Hay dos categorías:
ƒ Propiedad industrial, que incluye los inventos, marcas, y los diseños y modelos
industriales
ƒ Derechos de autoría, que incluye trabajos literarios o artísticos, películas, obras
musicales, diseños arquitecturales, etc.
Se considera invención a todo producto o proceso que implica una nueva forma de
hacer algo, o que representa una nueva solución técnica a un dado problema. Para que sea
acordada una patente se requiere que la invención:
ƒ sea pasible de uso practico, o sea que despierte un interés comercial

94
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 95

ƒ sea novedosa, con características nuevas, previamente desconocidas, en el campo


técnico de su aplicación
ƒ represente un salto inventivo, es decir que no pueda ser deducida por cualquier
persona con conocimiento medio en el área de aplicación
ƒ sea patentable bajo las leyes del país en los que se solicita. En la mayoría de los
países no son patentables por ejemplo teorías científicas, métodos matemáticos, etc.
Una marca es un signo distintivo que identifica ciertos productos o servicios
producidos o provistos por las empresas. Las marcas pueden ser una, o una combinación, de
palabras, letras, y números. Pueden ser también dibujos, símbolos, formas tridimensionales,
formas de envase o empaquetadura, señales audibles, colores, etc., y todo lo que pueda servir
como característica distintiva de un producto. Con la indicación Marca Registrada (Trademark)
el propietario de la misma hace saber que es de uso exclusivo, salvo que medie autorización
expresa, y que dicha marca esta sujeta a protección legal. Aunque el periodo de protección es
limitado, el mismo puede ser renovado indefinidamente.
El diseño industrial define los aspectos ornamentales o estéticos de un producto, sin
contemplar característica técnica alguna del mismo Cuando se contemplan las características
tridimensionales de un producto, tanto de forma como de superficie, se habla de un modelo
industrial, y se reserva el termino de diseño industrial tan solo a las características
bidimensionales, tales como texturas o tramas, líneas o colores, es decir, a todo diseño grafico.
Se usa el término legal Derechos Reservados o Copyright, para señalizar que una
obra literaria, artística o científica, expresada en cualquier medio, esta protegida por derechos
de autoría. Estos derechos se extienden solo a las expresiones, no a las ideas, procedimientos,
métodos de operación o conceptos matemáticos o técnicos como tales.
En las décadas de 1970 y 1980 hubo grandes debates sobre si la protección de
software debería estar cubierta por una patente o un derecho de autor, o si debería generarse un
nuevo sistema de protección. Finalmente se acepto que los programas deberían estar protegidos
por el derecho de autor, mientras que cualquier aparato que use el software debería ser
protegido por una patente.
Las contravenciones a los derechos de propiedad intelectual toman diversas formas:
ƒ plagio, imitación de un producto con pequeñas o nulas modificaciones
ƒ falsificación, cuando se pretende hacer creer que se trata de un producto
original
ƒ piratería, en la cual un producto de baja calidad, copia un producto
reconocido, aprovechando la imagen consolidada de otro producto
Para hacer valer sus derechos la persona física o jurídica ( las empresas ) debe
presentar una solicitud de patente en el organismo nacional competente. Por ejemplo, en
Francia, al igual que en Argentina, es el INPI ( Institut National de la Propriete Industrielle, o
Instituto Nacional de la Propiedad Industrial), del cual dependen la Oficina de Marcas, la
Oficina de Modelos y Diseños Industriales, y la Administración de Patentes.
Una patente protege solo las reivindicaciones solicitadas, en las cuales se describe
aquello que es lo novedoso del producto, indicando las características técnicas genuinas de la
invención o del modelo, o sea aquellas que no existían anteriormente, conformando un grupo
de peticiones ordenadas y enlazadas que definen la materia que será objeto de protección, y
serán tantas como sea necesario para definir y delimitar correctamente la invención. Se
distingue entre reivindicaciones independientes o principales y las dependientes o secundarias.
El pliego de reclamos se compone al menos de una reivindicación principal, en la cual esta
definida la invención, y de reivindicaciones secundarias ligadas a ella, las cuales aportan
detalles o características adicionales del invento. Estas, a pesar de ser inéditas, se consideran
auxiliares o complementarias de la reivindicación principal.

95
96 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Técnicas creativas
Para llevar a cabo el desarrollo de un proyecto hay disponibles una diversidad de
herramientas, la mayoría de las cuales solo indican que cuestiones deben ser consideradas, pero
no dicen nada de como hacerlo. El camino hacia la solución pasa primero por generar ideas, y
luego ver como hacer estas posibles, tratando de que las ideas y su implementación no se vean
solo limitadas al área de conocimiento que domina el grupo de desarrollo. Mayormente, la
creatividad se apoya mas en el pensamiento estructurado, que en otras vías no convencionales,
conocidas como formas de pensamiento lateral. El pensamiento estructurado reposa en el
razonamiento y la lógica como la vía hacia la creatividad, y lleva a soluciones basadas en
soluciones previamente desarrolladas para problemas similares.
La esencia del pensamiento lateral es la reestructuración de conceptos que ya existen
en la mente. El pensamiento lateral es algo así como un conjunto de técnicas por las cuales, a
partir de burlar y desorganizar dichas pautas, se trata de encontrar nuevos caminos de solución,
que sean a la vez originales y brillantes. De algún modo es pensar lo opuesto, salirse de los
esquemas convencionales, contraponer conceptos.
El pensamiento estructurado y el lateral son complementarios. Básicamente, el
pensamiento disciplinado es efectivo en la búsqueda de mejoras, aprovechando las soluciones
existentes, mientras que el pensamiento lateral lo es en la generación de nuevos conceptos e
ideas. Por ello, la mayoría de las técnicas creativas recurren a ambas formas de pensamiento.

Técnicas individuales
Por muchos años la creatividad se considero una tarea eminentemente individual,
propia de personas con mentes geniales. La realidad, sin embargo, muestra que la mayoría de
las invenciones e innovaciones surgen después de un largo esfuerzo de análisis y búsqueda. Es
decir, es importante la creatividad individual, propia de personas curiosas, con sólidos
conocimientos en el área, de mentes divergentes y cuestionadoras de las soluciones
convencionales, y muy observadoras de las tendencias, pero el éxito debe verse más como un
problema de dedicación y pequeños logros que de golpes de iluminación. Claro que este
esfuerzo de análisis, previo a toda nueva síntesis creadora, se vera reducido valiéndose de
apropiadas técnicas, algunas de las cuales se describen seguidamente.
1. Métodos analíticos. El análisis de diseño empleando modelos matemáticos conduce con
frecuencia al descubrimiento de mejores conceptos de diseño. Este análisis revelará
conocimientos fundamentales acerca de su comportamiento, y mostrara omisiones que
conducirán a nuevas ideas para lograr nuevas mejoras. La idea es vincular las características
del producto con los elementos que la determinan.; es decir, hallar relaciones causa-efecto. Una
herramienta para ello es el diagrama espina de pescado, figura 23. En esta, se reconocen y
diferencian las características principales de las secundarias y aún de otras más subalternas, y
esto conduce a una orientación de prioridades en la búsqueda de soluciones.
El análisis de las fallas y deficiencias de los productos, usando herramientas tales
como diseño de experimentos (DOE), análisis de modos de falla (FMEA), análisis de árbol
de fallas (FTA), y análisis de competitividad son también una fuente motivadora e inspiradora.
V a lo r
Secundarias 80%

Principales

A B C D
C a r a c t e r ís t ic a s
Fig.23 Fig.24

96
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 97

Para estos análisis son de ayuda los gráficos de Pareto. Con estos, se busca concentrar
la atención en los factores dominantes del problema, ateniéndose a la regla: “El 80 % depende
del 20 %”. Se trata de darle mayor importancia y priorizar la solución de aquellos aspectos que
son decisivos y no detenerse en otros que son secundarios o de fácil solución, figura 24.
También son útiles los diagramas de bloque, asociación de módulos y bloques
funcionales dispuestos de modo de dar solución al problema. De este modo, la solución de un
problema complejo queda reducida a la solución de pequeños problemas.
2. Monitoreo. La idea es ver y observar antecedentes, tratando de encontrar pistas en el pasado
que permitan entrever posibles soluciones, viendo las ideas que no pudiendo ser materializadas
en su momento, la tecnología hace que sea posible su actual implementación.
También los estudios y evaluaciones de los productos existente en el mercado, a
través de análisis de competitividad (benchmarking), pueden resultar una fuente importante y a
la vez motivadora e inspiradora. También lo sera el estudio de las patentes sobresalientes en el
tema, al igual que la revisión de las publicaciones técnicas y científicas.
El gran problema hoy en día es que son tantas las fuentes de información disponibles:
bibliotecas, organizaciones gubernamentales, universidades, empresas, laboratorios,
publicaciones periódicas, redes de información, etc., que el gran desafío es discriminar entre la
información verdaderamente útil de la totalmente desechable en el menor tiempo posible.
3. Analogía. Una interesante fuente de ideas de diseño se basa en el estudio del
comportamiento de los animales. Con frecuencia se encuentra que muchos descubrimientos
técnicos tienen su correlato natural en el comportamiento de los animales. Por ello, el
conocimiento de los medios naturales relacionados con el comportamiento de una función
puede ayudar a encontrar ideas de concepto para el diseño de nuevos productos.
La necesidad de aprender y comprender las soluciones que brinda la naturaleza ha
conducido a nuevas áreas de estudio como la biotecnología, donde se aplica el conocimiento de
sistemas vivientes a la solución de muchos problemas de ingeniería.
4. Análisis morfológico. La mayoría de los productos son diseñados en forma modular. Cada
uno de estos módulos admite múltiples formas de solución. Por combinación de estos módulos
es posible obtener múltiples posibilidades de implementación. Cada una de ellas es una opción
que debe ser evaluada. Para ello, el análisis morfológico recurre a los cinco pasos siguientes:
1. formular explícitamente el problema
2. identificar para los parámetros a satisfacer distintas formas de solución
3. listar todas las posibles combinaciones
4. examinar la factibilidad de todas las alternativas
5. seleccionar la mejor alternativa

5. Método de avance-retroceso. En la búsqueda de soluciones normalmente se parte de


condiciones impuestas en pasos previos que limitan las posibles soluciones. Si se considerara
el problema bajo una perspectiva más amplia, replanteando el punto de partida, y siguiendo
otra dirección, las limitaciones seguramente serán distintas y con ello se posibilitara entrever
otras soluciones.
El método funciona de la siguiente manera: Cuando se ve la inviabilidad de un
camino, el método propone retroceder un paso buscando desde una mayor perspectiva otros
caminos de solución. El método propone retroceder en pasos sucesivos hasta encontrar una vía
de solución apropiada, de ahí la denominación de avance-retroceso.
6. Provocación. Es una forma de pensamiento lateral; busca romper pautas establecidas en la
solución de los problemas planteando propuestas que se contraponen con las soluciones
establecidas. En base a propuestas ilógicas, que a simple vista parecen estúpidas o alocadas se
pretende descolocar la mente de modo de establecer un nuevo punto de arranque en el proceso

97
98 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

creativo. Hecha la provocación, vinculada al problema cuya solución se busca, se trata de


analizar la misma bajo diferentes ángulos:
• las consecuencias que tendría
• que beneficios aportaría
• que principios y propiedades deberían darse para que funcione
• en que casos sería una buena solución, etc.
de modo de ir, por evolución sucesiva, configurando una solución distinta.
7. Listado de verificaciones. El listado de verificaciones sirve de ayuda para pensar en los
posibles cambios que puede sufrir un producto existente, pero pensados con la idea de que los
mismos den origen a un nuevo producto. Las ideas que surjan pueden ser puntos de partida en
un proceso de pensamiento lateral. En el listado se deben incluir posibilidades referidas a:
• S – Sustitución ( materiales, componentes, etc )
• C – Combinación ( combinación con otros equipos o dispositivos )
• A – Adaptación ( alteración, cambio funcional )
• M – Modificación (cambio de forma, cambio de tecnología )
• R – Reducción
• E – Eliminación ( sacar componentes, simplificar )
• I – Inversión ( dar vuelta, contraponer )

Técnicas grupales
La explosión del conocimiento y la tecnología actual hacen muy difícil que una
persona pueda conocer y manejar todos los datos vinculados con un problema. Por ello, los
métodos grupales tienen más chances de éxito para definir posibles caminos de solución, pues:
• La participación de mas gente aporta una mayor capacidad de conocimiento, dado que
posibilita la presencia de expertos en cada área
• Se tiene la posibilidad de interactuar, y de aprender unos de otros
• Aumentan las chances de que de existir una solución óptima, esta sea encontrada
• Una solución por consenso tiene mas chances de éxito, al sentirse todos involucrados
Seguidamente se describirán algunas de las técnicas grupales más usuales.
1. Torbellino de ideas. Entre la gran variedad de técnicas grupales, la más difundida es la
denominada brainstorming, torbellino de ideas o lluvia de ideas. Es quizás el método de grupo
más famoso y conocido para estimular ideas. En este proceso se trata de sugerir tantas
soluciones como sea posible, sin consideración inmediata de su valor o de si estas satisfacen
todos los requerimientos del problema.
En una sesión de torbellino de ideas, el líder, que dirige el grupo, demanda soluciones
a un problema determinado, ajustando el desarrollo de la sesión a las siguientes reglas:
1. Provocar un clima de libre asociación de ideas
2. Promover variaciones sobre una misma idea, de modo que las ideas que genere un
participante puedan ser tomadas por otros, cambiando aspectos de la misma
3. Respetar ideas repetidas; la última versión puede generar nuevas asociaciones
4. Evitar gestos de aprobación o desaprobación. La critica no esta permitida. Ninguna
idea debe ser rechazada.
5. Limitar la duración de la sesión ( 20 a 30 minutos máximo )
El método puede también desarrollarse en forma individual, con la ventaja de que no
hay que preocuparse por la opinión que otros puedan tener sobre las ideas que surjan en la
mente. La desventaja en este caso es que la falta de sinergia de otros participantes le resta
efectividad.

98
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 99

2. Proceso Ringii. El método Ringii, desarrollado en Japón, es un proceso grupal pero con
mínima interacción cara-a-cara. En este método, el proyectista emite una idea que se somete a
otros en un papel. Estos pueden modificar o cambiar la idea. Con todas las propuestas el
proyectista vuelve a reformular la idea, que puede o no volver a someter a juicio por parte de
otros. El método puede o no tener carácter anónimo. Finalmente llegara a una línea de solución
sobre la cual el proyectista podrá comenzar a trabajar.
3. Técnica de Delfos. Muy similar a la anterior es la técnica de Delfos. A un grupo de
entendidos, no vinculados entre si, se les plantea el problema por nota. En una hoja, con
carácter anónimo, los especialistas deben detallar una propuesta de solución. Con esto se
genera una cierta cantidad de ideas, y analizando las mismas, buscando grados de coincidencia,
se seleccionan las fundamentales. Las ideas seleccionadas se hacen recircular en el grupo para
que los entendidos trabajen sobre ellas, y de ese modo, a través de varios pasos de depuración,
se vaya conformando una confluencia hacia lo que parece ser la solución más prometedora

4. Método sinergético El grupo, en este caso, es de tipo multidisciplinario, formado por


entendidos y no entendidos en el tema especifico. El entendido normalmente enfoca el
problema con preconceptos que normalmente limitan su capacidad creadora. El no entendido,
al carecer de los preconceptos de los entendidos, le aporta al grupo una cierta capacidad
creativa, sugiriendo soluciones que, aunque al principio puedan parecer absurdas,
replanteadas pueden ser el germen de una solución innovadora.

Teoría de la invención aplicada a la solución de problemas (TRIZ)


Muchos de los métodos dedicados a la innovación tales como torbellino de ideas,
diagramas causa-efecto, listado de verificaciones y herramientas usadas en la etapa de
definición y conceptualización del producto, tales como ingeniería del valor, análisis de
funciones, diseño robusto, la función de despliegue de la calidad, etc. no son apropiadas para
resolver las contradicciones a las que están sujetos los productos existentes. Se habla de una
contradicción cuando la solución de un parámetro acarrea el deterioro de otro, o bien cuando
un mismo parámetro debe satisfacer requerimientos contrapuestos. Generalmente, una nueva
invención tiende a eliminar algunas de las contradicciones de la actual solución, pero
seguramente también será fuente de otras contradicciones. Es claro que mientras haya
contradicciones no resueltas el producto estará sujeto a una carrera de nuevas innovaciones e
invenciones. Por análisis de muchas innovaciones, Altshuller, el creador del método TRIZ,
encontró que el proceso de invención responde a patrones comunes, los que agrupo en 40
principios de invención. Visto de otra manera, el conjunto de todos estos principios tienden a
señalar todas las posibles vías de evolución a las que puede estar sujeto un producto.
Para escapar a las limitaciones de muchos otros métodos, y apoyándose en los 40
principios para la invención, Altshuller propuso una metodología con la finalidad de ampliar
la mira de las posibles soluciones. Esta metodología sigue los siguientes pasos:
ƒ Identificación del problema
ƒ Replanteo del problema, analizando y buscando superar las contradicciones físicas
que resultan en las posibles soluciones
ƒ Análisis de las soluciones previas, y de las restricciones a las que están sujetas
ƒ Búsqueda de una nueva solución, basándose en alguno de los 40 principios de
invención
Uno de los métodos de solución es denominado Tabla de Eliminación de
Contradicciones. Este método, busca primero determinar las contradicciones, considerando
en ello 39 parámetros básicos, como ser peso, forma, tamaño, área, durabilidad, rendimiento,
potencia, fiabilidad, manufacturabilidad, reparabilidad, productividad, etc. a los cuales podrán

99
100 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

agregarse otros ligados al tipo de producto. La tabla conforma una matriz que tiene en ambos
ejes el conjunto de parámetros. En el eje vertical se seleccionan los parámetros a mejorar, y los
parámetros que se deterioran a consecuencia de dicha mejora en el eje horizontal. Luego, por
intersección de ambos parámetros resultara cual de los principios debiera ser aplicado para
resolver el conflicto.
Otro de los métodos propuestos para la solución de conflictos es el ARIZ, un
Algoritmo para la Solución de Problemas por Invención, basado en un conjunto de reglas
vinculadas a la evolución del producto y de los procesos, las vías de innovación, y a la
eliminación de las contradicciones.
Los mentores de la metodología TRIZ arguyen que la misma:
ƒ Es una herramienta útil en el diseño conceptual
ƒ Permite orientar y concentrar los esfuerzos de innovación en solo algunas vías
ƒ Permite identificar que problemas deben ser resueltos para mejorar el producto
actual
ƒ Sirve para reconocer y solucionar contradicciones, en vez de aceptarlas
ƒ Permite determinar las posibles formas en que evolucionara un producto
ƒ Permite reconocer entre varias alternativas cual innovación redundara en un
mejor producto, de menor costo y alcanzable en el menor tiempo

Prospección tecnológica
Con la prospección se busca explorar las posibilidades futuras, basándose en indicios
del presente. Se trata de identificar la aparición de nuevas tecnologías y de cambios en el
comportamiento de la sociedad y de la economía, para definir la mejor forma de posicionarse
ante estos nuevos escenarios.
Resulta difícil predecir. La prospección es una tarea compleja y propensa a error. Son
muchos los pronósticos y evaluaciones realizadas por personas y por empresas que estando
bien compenetradas en el tema han errado totalmente sus pronósticos. Las siguientes citas son
solo un ejemplo:
“El fonógrafo ...... no tiene valor comercial alguno”, le decía Thomas Edison, el
inventor, a su asistente, 1880.
“Es un sueño sin sentido imaginar que....los automóviles reemplazaran a los trenes
en el transporte de pasajeros”, American Road Congress, 1913.
“No hay ninguna posibilidad de que el hombre pueda obtener energía del átomo”,
Robert Millikan (premio Nobel de Física ), 1920.
“No existe razón alguna para que las personas tengan una computadora en su
casa”, Ken Olsen , presidente de Digital Equipmet Corporation, 1977
“Pienso que hay un mercado mundial solo para cinco computadoras”, Thomas
J.Watson, presidente de IBM, 1943
Pero, así como hubo grandes fallas de pronóstico, también hubo grandes aciertos,
siendo sin duda el más resonante el formulado por Moore, quien, en el inicio de la tecnología
integrada, estableció que los circuitos integrados tendrían un número de transistores por unidad
de superficie que se duplicaría cada año y medio. Su validez actual permite predecir que para
el 2005 habrá procesadores con tecnología de 0.01 micras frente a las 0.18 actuales del
Pentium 4 y del Athlon.
El verdadero problema es como entrever el futuro, dejando de lado las limitaciones
tecnológicas del momento. Para ayudar en esto se han desarrollado variadas técnicas, algunas
de las cuales se expondrán seguidamente.

100
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 101

Técnica Delfos
Consiste en solicitar la opinión de expertos sobre la posibilidad de lograr un desarrollo
nuevo, o de que un producto pueda alcanzar cierto valor en alguno de sus parámetros, y del
tiempo que se estima en que eso puede ser logrado.

Definición de escenarios
La idea básica de la prospección es definir futuros escenarios. Un escenario es un
estado hipotético, definido por la aparición de un conjunto de eventos, que de algún modo
interesan para la toma de decisiones. La cuestión es saber cuan probable puede ser dicho
escenario, basándose en la ocurrencia de otros eventos. En la prospección tecnológica se
considera como evento a cualquier suceso que determina que el desarrollo de un producto o
material pueda o no ser logrado en algún momento futuro. Ocurre que estos eventos no son
totalmente independientes unos de otros: habiendo ocurrido un evento este puede favorecer la
ocurrencia de otros. Esta interrelación define una matriz de impacto, con la cual se trata de
determinar un posible escenario. Analizando varios escenarios, se puede encontrar la robustez
de una estrategia para afrontar posibles condiciones favorables o desfavorables.

Técnicas de Regresión
Este método aprovecha los datos históricos para hacer una proyección futura. El
método sirve para medir cambios increméntales. Se basa en la información disponible del
pasado (estudio de lo sucedido en los últimos años), y por extrapolación se analiza la
posibilidad de que en un futuro se alcance una dada prestación. Es común su uso para la
evaluación del nivel de complejidad de los semiconductores. Como ya fue mencionado,
Gordon Moore predijo en 1965 que la cantidad de componentes por integrado se doblaría cada
dieciocho meses. Con muy leve apartamiento, esta predicción se vio corroborada en la
práctica, y derivo en lo que se conoce como ley de Moore.

Fig. 25

La ley de Moore supone un comportamiento en función del tiempo de tipo


exponencial, comportamiento que puede generalizarse a otros indicadores de desempeño de los
dispositivos digitales. Para el análisis de regresión, resulta conveniente linealizar la relación
tomando logaritmos. Basándose luego en datos históricos disponibles, y valiéndose de la
función de Matlab polyfit, considerando un polinomio de primer orden, se obtienen los
parámetros de la recta que mejor se ajusta a los datos. Luego, con la función polyval( p,t ) se
pueden extrapolar los datos a cualquier valor de t. Aplicando esta herramienta a los datos
conocidos para los microprocesadores, la velocidad estimada para el año 2021 es del orden de
los 510 GHz, figura 25. Aunque alto, el valor no debe asombrar teniendo en cuenta que desde
finales del 2001, basándose en la nueva tecnología SiGe, están disponibles microprocesadores
capaces de operar a 110 GHz, y transistores capaces de operar a 200 GHz, constituyéndose
estos valores en una nueva frontera tecnológica. Sin embargo, recientes trabajos de INTEL
muestran que para dicho año, 2021, en el que se espera que los procesos estén en limite de los
5 manómetros, la ley de Moore llegaría su fin.

101
102 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Técnicas de Correlación
Muchas áreas siguen a otras áreas. Por tanto, viendo que pasa en un área, se puede
deducir lo que ocurrirá en otra después de algún tiempo. El ejemplo clásico es el área militar,
muchos de cuyos desarrollos son luego volcados a aplicaciones civiles. Ejemplos notables son
las aplicaciones satelitales, Internet, GPS, etc.
También es posible hacer estimaciones basándose en los avances de laboratorio en
cierta área y analizar luego conque retardo dichos logros posteriormente son volcados en
nuevos productos. La aparición de nuevas tecnologías hace posible que en otras áreas se
traspasen fronteras que hasta ese momento parecían infranqueables.

Curvas de crecimiento
Es importante poder predecir los momentos en que ocurrirán los distintos cambios en
el crecimiento, a fin de determinar por cuanto tiempo mas se es competitivo, y de ese modo
poder planear anticipadamente la conversión a un nuevo escenario. En esta tarea ayuda el
poder establecer un modelo de crecimiento que mejor se ajusta al comportamiento conocido.
Cualquiera sea el producto o sistema siempre habrá un valor mínimo de arranque, al
cual sigue una etapa de crecimiento lento. Superadas las primeras dificultades, comienza una
etapa de rápido crecimiento, para nuevamente entrar en un periodo de escaso progreso cuando
la prestación se acerca a su máximo posible, normalmente establecido por alguna limitación
física o tecnológica. Este tipo de comportamiento conforma típicamente una curva denominada
en “S”, tal como muestra la figura 26 para el caso de lámparas incandescentes. La mejora se da
en todos los órdenes de prestación. Es así que mientras las primeras lámparas incandescentes
duraban tan solo 150 horas, diez años mas tarde, debido a las mejoras introducidas por Edison
su duración se extendió a las 1200 horas, con muy pocos progresos posteriores: Actualmente,
la duración media se sitúa en las 1500 horas.

Fig.26

Los modelos en “S” requieren que sea establecido el límite máximo que puede ser
alcanzado por una dada tecnología. Analicemos un caso: Uno de los factores que más limita la
velocidad de procesamiento de los sistemas digitales es el sistema de interconexión entre los
distintos dispositivos que integran el sistema. El tiempo de propagación de la señal entre dos
dispositivos dependerá de la longitud del camino, y de la velocidad de propagación. La
velocidad de propagación esta dada por
c
v =
ε
p
r
(13)
donde c, la velocidad de la luz en el vacío, es una constante universal, y εr es la constante
dieléctrica del medio.
Seleccionado un material, el tiempo de propagación dependerá solo de la longitud del
camino. Si la cantidad de dispositivos por unidad de superficie se cuadruplicara, entonces la
longitud del camino medio se reduciría a la mitad, figura 27. En otras palabras, si δ es la
densidad de dispositivos por unidad de superficie, entonces la longitud del camino medio
variara con δ . Por lo tanto, una medida de la perfomance tecnológica estaría dada por

102
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección 103

δ
PT = (14)
εr

Lo/2

Lo

Fig.27 Fig.28

La figura 28 muestra la mejora de la perfomance debida al aumento de la densidad


para los dos tipos de sustrato más usual.

Modelos teóricos de prospección


Un invento puede verse como una brusca ruptura en la evolución de un producto o
tecnología. Como se ha visto, la evolución sigue siempre una curva en S, en la cual se
reconocen tres fases, figura 29. Reconocer estas fases es importante, dado que tanto en la
primera como en su última fase, se requieren grandes esfuerzos para lograr solo mejoras poco
significativas. Es decir, el gran desafío es lograr entrar rápidamente en la fase dos, y reconocer
luego cuando se esta dentro de los limites físicos para no malgastar esfuerzos en la fase tres,
determinando el mejor momento para saltar de una generación a otra. Conocer esto, para
cualquier empresa, es una decisión de capital importancia En otras palabras, es importante
para cualquier empresa saber cuando es necesario volcar todos los esfuerzos en el nuevo
producto, lo que implica desatender la innovación del producto actual, sin por ello quedar
desubicada frente a la competencia. Para resolver esto son útiles los modelos de evolución.

Fig.29

El modelo de Pearl es uno de los modelos matemáticos más usuales para el análisis de
la evolución. Este modelo originalmente fue propuesto para evaluar el crecimiento de una
población. Responde a la expresión

103
104 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

Prestación = L (15)
1 + a * e − b .t
donde L es el limite teórico y a, y b constantes del modelo.
La ventaja del modelo de Pearl es que la forma y la ubicación de la curva pueden
controlarse en forma independiente. Para aplicar el modelo, primero se linealiza la curva
aplicando logaritmos en la expresión (15 ), y se ajustan luego los parámetros a los datos
disponibles
El modelo propuesto por Gompertz, es más apropiado cuando hay un fuerte
crecimiento,
− ae − bt (16)
Prestación = L * e
Este modelo da lugar a una curva asimétrica, y al igual que en el modelo de Pearl,
para determinar los parámetros del modelo, primeramente se debe linealizar y hacer luego una
regresión lineal basándose en los datos disponibles.
Hay muchas otras leyes que pueden ser aplicadas para ajustarse a curvas con forma
de S, además de las leyes de Pearl y Gompertz ya analizadas, como ser
y = e a −(b / t ) (17)
(
y = 1 − ae − bt )
3
(18)
La estimación de los parámetros puede hacerse de un modo directo. Para el caso de la
expresión (17) se toman logaritmos en ambos miembros, y luego se determina el mejor ajuste
por el método de los cuadrados mínimos en base a los datos disponibles. De este modo se
determinan las constantes a y b. Esto no es posible para la ecuación (18), donde se debe
recurrir a un método de cálculo con técnicas de regresión no lineal. La figura 30 muestra en
forma comparada las curvas de estos modelos.

Fig.30

En todos los casos primero se debe determinar los límites tecnológicos o físicos, y
luego en función de los datos conocidos, mediante técnicas de regresión, se determinaran los
parámetros del modelo. Luego se podrá extrapolar los resultados para un tiempo futuro dado.

104
Fiabilidad
Una persona puede fallar muchas veces,
pero solo reconocerá sus fallas
si encuentra alguien a quien culpar
JOHN BURROUGHS

El hecho de que un equipo deje de cumplir en algún momento con su función es un


hecho indeseado. Visto de otro modo, el tiempo durante el cual se puede asegurar que la
función va a ser satisfecha sin que ocurra falla alguna pasa a ser un factor de merito importante.
Esta característica esta ligada a la fiabilidad del equipo.
Más propiamente, la fiabilidad se define por la probabilidad de que un componente,
producto, equipo, o sistema funcione durante un lapso de tiempo bajo condiciones de carga
prefijadas. Se han remarcado los cuatro elementos fundamentales de la definición; veamos qué
significado tienen y en qué se traduce cada uno de ellos.
Al definir la fiabilidad como una probabilidad, esto lleva implícito que:
• los resultados son aplicables al comportamiento de poblaciones
• los resultados son aplicables solo al lote del cual se extrajeron las muestras
• los resultados solo pueden obtenerse de tratamientos estadísticos basados en pruebas
experimentales o evaluaciones de campo
• la estimación tendrá un riesgo asociado al tratamiento estadístico
Es claro que si la caracterización se restringiera solo al lote del cual se extrajeron las
muestras tendría poca utilidad. Para que la fiabilidad sea una herramienta útil debe permitir
aplicar los resultados hacia futuro, y más que eso, poder predecir comportamientos y poder
saber cómo hay que llevar el proyecto para poder cumplir con metas concretas de fiabilidad.
Esto solo es posible si se mantiene la caracterización estadística. Podrá inferirse esto si la
nueva población es fabricada de la misma manera, con los mismos insumos, procesos y
controles, de modo que quede asegurada la repetibilidad. Como estos elementos dependen de
cada fabricante, es posible que un mismo tipo de componente que es suministrado por dos
proveedores tenga distinta fiabilidad.
Al decir “funcionar” se quiere significar que se satisface la especificación. En una
acepción más amplia, seria satisfacer la necesidad. El incumplimiento de la especificación
puede ser temporario o definitivo, puede ser parcial o completo, puede ser repentino o gradual,
lo cual lleva a clasificar las fallas de distintas formas, por ejemplo atendiendo su causa:
• Fallas primarias: fallas no causadas ni directamente ni indirectamente por la falla de
otro dispositivo
• Fallas secundarias: fallas provocadas por la falla de otro dispositivo
• Fallas por mal uso: cuando resulta por aplicar el dispositivo fuera de sus limites
• Falla por debilidad inherente: si sobreviene operando el dispositivo dentro de su
especificación
• Falla por desgaste: cuando la falla sobreviene con el uso

Atendiendo la velocidad de aparición se clasifican también en fallas repentinas o


fallas progresivas, y dependiendo del grado o severidad en falla parcial o completa. Es parcial
cuando se desvía en una o varias características, pero no entraña la desaparición completa de
su funcionalidad. Por el contrario en una falla completa el dispositivo pierde toda
funcionalidad. Si la falla se manifiesta por un lapso de tiempo, después del cual recobra plena
funcionalidad sin ser sometido a acción externa alguna, se habla de una falla intermitente.
106 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Otra clasificación toma en cuenta el grado y la velocidad, diferenciando entre fallas


catastróficas, las cuales son fallas repentinas, completas y definitivas, figura 1, y fallas por
degradación o fallas paramétricas, las cuales son fallas progresivas y parciales. El
tratamiento que sigue esta referido exclusivamente a las fallas catastróficas, las que a su vez
pueden definirse como fallas relevantes o no relevantes. Ejemplos de fallos no relevantes son
aquellos derivados de la fabricación, o el mal uso, como seria cuando el ambiente de operación
supera los límites especificados. Se consideran relevantes las fallas repentinas de los
componentes que ocurren bajo condiciones normales de operación, y que tienen carácter
permanente. Es decir, se excluyen las fallas secundarias, las debidas al factor humano o por
influencias externas, y en general todas aquellas que dependan en gran parte del usuario, y que
por tanto escapan del dominio del fabricante.
Funcionar durante un lapso de tiempo significa que a partir de cierto instante t=0 el
equipo se mantiene en funcionamiento en forma ininterrumpida. Esto implica que en t=0 el
componente, equipo o sistema tiene que estar funcionando, o sea R(0)=1; la otra certitud es que
en algún momento futuro sobrevendrá la falla, o sea con certeza R ( ∞ ) = 0 .
X N f (t)
fa lla c a ta s tro fic a
No

fa lla p a ra m e tric a
N s (t)
m in im o va lo r a c e p ta b le p a ra X
∆ N f (t)

N f (t)

t t t+ ∆t
Fig.1 Fig.2
Hallado un comportamiento, este es valido para un tipo de carga; si esta se varía, los
resultados serán diferentes. Carga es todo lo que afecte la fiabilidad: temperatura, tensión, etc.
Debido al hecho de que los resultados no son de aplicación para un elemento
individual, puede pensarse que la fiabilidad es una herramienta teórica de poca utilidad
práctica. Pero el solo hecho de que suministre una expectativa, un comportamiento medio,
tiene de por si, como se vera, un gran valor práctico.

Fiabilidad observada, estimada, extrapolada y prevista


La probabilidad es una medida de la relación entre éxitos (o eventos favorables) sobre
eventos posibles. Supongamos que se cuenta con un lote de No elementos no reparables,
puestos a funcionar en el instante t=0. Anotando la cantidad de ellos que van entrando en falla
a lo largo del tiempo se obtiene una curva de mortalidad, figura 2. En un instante t en
particular habrán fallado Nf(t) elementos y sobrevivido Ns(t), por tanto la probabilidad de que
ocurra la falla antes del instante t resultara dada por
eventos favorables N (t )
F (t ) = =
f
(1)
eventos posibles N o

y la fiabilidad observada por


casos favorables N s (t ) N − N (t )
R (t ) = = =
o f
= 1 − F (t ) (2)
casos posibles N o N o

Supongamos ahora que se trate de un solo dispositivo y que este sea reparable. Esto
supone que producida la falla será reparado y repuesto en servicio. Si cada vez que es repuesto
en funcionamiento se determina el tiempo que tarda en volver a caer en falla, entonces al cabo
de No fallas tendremos No valores de tiempo para la falla, que ordenamos de menor a mayor,
t1 < t 2 < t 3 < ........ < t j < ........ < t No (3)

106
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 107

Para un tiempo tj < to < tj+1, se define la fiabilidad observada R(to) por, figura3,
N −j
R(t o ) = o (4)
No
y tratando estadísticamente los valores observados se puede hacer una estimación de la
fiabilidad, y determinar un intervalo de confianza, prefijado el nivel de confianza.

10 R(t)
. 0.7
.
.
. No
3
2
Fig.3 1

tO t tO t

Cuando se extiende por extrapolación o interpolación la fiabilidad observada o


estimada a duraciones o condiciones diferentes de aquellas que corresponden a los datos, se
habla de una fiabilidad extrapolada. La validez de la extrapolación estará justificada si se hace
en base al modelo de fallas que resulta del mejor ajuste a los valores experimentales.

Población

Muestra Fiabilidad Fiabilidad Fiabilidad Fiabilidad Fiabilidad


observada estimada extrapolada prevista de soporte

Fig.4

Prefijadas las condiciones de uso, basándose en consideraciones del diseño, es posible


calcular la fiabilidad de un dispositivo, equipo o sistema a partir de la fiabilidad de sus
componentes. Se habla en este caso de una predicción de fiabilidad. Cuando se hace la
determinación a partir de valores obtenidos por el uso del equipo o de pruebas de campo se
habla de una fiabilidad de campo. Los diferentes valores de fiabilidad se vinculan en la forma
indicada en la figura 4.

Tasa de fallas
Propongámonos hallar la cantidad de elementos fallados en un intervalo posterior a t,
t+∆t a partir de la curva de mortalidad. Es obvio que la cantidad de elementos que fallen en el
lapso ∆t va a ser proporcional a ∆t, y a la cantidad de sobrevivientes hasta el instante t.
Obviamente, solo podrán fallar durante ∆t los que estén en funcionamiento en el instante t. Al
coeficiente de proporcionalidad se le denomina tasa de fallas, y se indica por λ,
∆ N f ( t ) = λ . N s ( t ). ∆ t (5)
de donde,
1 ∆N (t )
λ (t ) = .
f
(6)
N s (t ) ∆t
En base a la definición de la función de fallas F(t), expresión (1), la cantidad de
fallados en ∆t será,
∆ F (t )
∆N ( t ) = ∆ F ( t ). N = .∆ t . N = f ( t ). N .∆ t (7)
∆t
f o o o

Si se compara (6) con (7) y se tiene en cuenta (2), resulta


No f (t ) 1 dR ( t )
λ = f ( t ). = = − .
N s (t ) R (t ) R (t ) dt (8)

107
108 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

la cual expresa la tasa de fallas como la probabilidad de que el elemento falle en el intervalo ∆t
subsiguiente al instante t, suponiéndolo en funcionamiento en el instante t.
Debido a que la tasa de fallas medida en 1/hora es una unidad muy grande, en la
norma militar HDBK-217 se comenzó expresándola en por ciento por mil horas, ( 10-5 1/h), y
mas recientemente en fallas por millón de horas, ( 10-6 1/h), salvo en el ambiente profesional
para el que se introdujo como unidad específica el FIT ( failure in time ), unidad de fallas en el
tiempo, que mide la cantidad de fallas cada 109 horas, o sea
1 FIT = 10 −9
[1 / hora ]

Fallas infantiles, accidentales y por envejecimiento

La variación de la tasa de fallas con el tiempo, λ(t), responde a un modelo genérico,


consecuencia de la combinación de dos mecanismos: Uno debido a las debilidades que puede
tener el dispositivo por vicios de proceso o debilidades de los materiales (fallas infantiles), y
otro debido al desgaste con el uso (fallas por envejecimiento). Su combinación determina un
comportamiento que, por la forma que toma, se conoce como curva en bañera, figura 5. La tasa
de fallas es función, además del tiempo, de la carga: si esta se incrementa, la tasa de fallas
sube, figura 6

λ(t) Fallas por


Fallas envejecimiento λ(t)
infantiles

carga
Fallas
aleatorias

ta t t
Fig.5 Fig.6

La exigencia de tasa de fallas depende del mercado al que esta orientado el producto.
El mercado de entretenimiento es muy masivo, manejándose anualmente para la mayoría de
los componentes volúmenes de varios miles de millones de unidades. El segmento profesional
es menos masivo, en varios órdenes de magnitud, y el militar, en el que se engloban los
equipos de uso táctico, es un mercado aun más restringido. Aparte, por tratarse de un mercado
sensible, los componentes se someten al final del proceso de fabricación a una etapa de
depuración, en la cual se aplican cargas para segregar los elementos débiles. Los elementos
exentos de debilidades que sobreviven pasan a sufrir fallas aleatorias, con λ constante.
Los componentes electrónicos se diferencian de otros componentes (por ejemplo de
los mecánicos) por el hecho de que el instante a partir del cual se manifiesta el envejecimiento
está muy lejano en el tiempo, volviéndose los equipos obsoletos más tempranamente.

Requerimientos de tasa de fallas


La exigencia de tasa de fallas de los componentes depende de la aplicación: del nivel
de complejidad y las exigencias de uso. Supongamos un radiorreceptor, un equipo de
comunicaciones, y una computadora de mediana a grande, y que cada uno tenga una cantidad
de circuitos integrados No de similar complejidad, y que las fallas admitidas por año y las
horas de uso al año sean las indicadas en la tabla I. Basándose en (6) resulta
9
10 N
λ =
f
. [FIT ] (9)
N o H a

108
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 109

Observando los valores calculados, se aprecia por un lado que los valores de tasa de
fallas requeridos en cada aplicación son muy diferentes, y por otro, que los equipos de alta
complejidad requieren valores de tasa de fallas extremadamente bajos. El primer problema que
esto acarrea es como asegurar estos valores de λ, siendo que en estos casos las fallas pasan a
ser eventos muy esporádicos, muy raros, lo cual hace muy difícil constatar un número de fallas
relevantes, que sea estadísticamente significativo.
TABLA I
Numero de Numero de Horas de servicio Tasa de fallas
Equipo elementos fallas al año al año
No Nf Ha λ [FIT]
Radiorreceptor 2 2 1000 106
Comunicaciones 20 0,5 4000 6250
Computadora 2000 0,1 8760 5,70

Estimación de la tasa de fallas

Siendo la tasa de fallas un evento raro, para su determinación se recurre a ensayos


censurados. Un ensayo se dice censurado cuando se impone un limite a las observaciones; es
decir, se restringe el intervalo dentro del cual se van efectuar las observaciones. La censura
determina el criterio que define la finalización del ensayo, lo cual puede ocurrir cuando se
alcanza un número prefijado de fallas r (censura de tipo I), o bien cuando transcurre un tiempo
prefijado de ensayo T (censura de tipo II), denominados a veces ensayos truncados en tiempo.
El valor de r, o el valor de T, es fijado al inicio del ensayo, al igual que la cantidad de
elementos N a ensayar. En un ensayo censurado del tipo I, el tiempo tr al cabo del cual se
produce la r-esima falla es la variable aleatoria. El tiempo total acumulado de funcionamiento
de los N elementos será
S = t1 + t 2 + ... + t r + ( N − r ).t r (10)
si no se hace reemplazo de los elementos fallados. Es claro que S es una nueva variable
aleatoria, que para el caso de una prueba con reemplazo valdría,
S = N .t r (11)
Si λ es la tasa de fallas y N.tr es el tiempo acumulado hasta que se produzca la falla
r, cabe esperar que el número de fallas r sea una variable aleatoria cercana a λ.N.tr. Mas
precisamente, Epstein y Sobel demostraron que la variable
u = 2 . N .t r .λ (12)
2
responde a una distribución χ con n=2.r grados de libertad, y que es además un estimador
insesgado de λ.

n=4 n=4

n=6 n=6

n=8 n=8

2S λ min 2S λ max
u=2.S. λ 2S λ max u=2.S. λ

Fig.7 Fig.8

109
110 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Siendo conocida la forma en que se distribuyen los valores de 2.S.λ, es posible


determinar con una probabilidad preestablecida el intervalo dentro del cual se encuentra 2.S.λ.
Prefijados dos valores λmin y λmax, en base a los valores de S y n que resultan del ensayo, se
puede afirmar con una probabilidad (1-α) que u = 2.S.λ se encuentra dentro del intervalo
[(2.S.λmin), (2.S.λmax)], figura 7, donde
2 . S . λ max

∫ f (u ).du
2 S λ min
= 1−α (13)

es el nivel de confianza de la estimación.


Los valores comprendidos entre λmin y λmax, determinan el intervalo de confianza, y
(1-α) es el nivel de confianza de la estimación. Si la estimación se hace para la peor condición,
es una estimación unilateral (α1=0,α2=α), con todo el riesgo a la derecha, figura 8.
Este tipo de ensayo tiene el inconveniente de que demanda un esfuerzo constante de
monitoreo, y su duración es indeterminada. Se evita esto con ensayos truncados por tiempo,
para acotar el esfuerzo del ensayo. En este caso, la cantidad de elementos N y el tiempo de
ensayo T son fijados al inicio del ensayo, siendo r la variable aleatoria. Este caso se reduce al
anterior, por estar comprendido dentro de sus límites (fallas entre r y r+1). En efecto, si el
valor de T concordara exactamente con el tiempo de aparición de la falla r, entonces los dos
métodos serian idénticos. La otra condición extrema que podría presentarse es que ocurriera la
falla r+1 de haberse prolongado un tiempo infinitesimal mas el ensayo, y en tal caso los grados
de libertad de la función χ2 serian
n=2.(r+1) (14)
En función de esto, el valor de λ puede ser estimado por

λ =
χ 2
(1 − α ,n) 1
. (15)
2. N .t
donde:
N, es la cantidad de elementos que se someten a ensayo
t es el tiempo de duración del ensayo
χ 2 (1 − α , n ) es el valor de la distribución Ki al cuadrado, correspondiente a un nivel de
confianza 1-α, y n grados libertad, fijados por (14).
El volumen del ensayo, cantidad de componentes a ensayar por el tiempo de duración
del ensayo, será función del máximo valor que se quiera garantizar para la tasa de fallas, y del
nivel de confianza ( 1-α ), el cual es fijado normalmente en el 60% para estos ensayos. Si el
nivel de confianza fuera mayor, digamos del 95% en vez del 60%, el volumen de ensayo
debería más que triplicarse para garantizar igual valor para la tasa de fallas, figura 9.
20
19
18
17
16
15
14
Chi al cuadrado/2

13
12 Nive l de confia nza 95%
11
10 90%
9
8
60%
7
6
5 50%
4
Fig.9 3
2
1
0
0 1 2 3 4 5 6 7 8 9 10
numero de fallas (r)
110
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 111

Supongamos que se trata de reemplazar un componente cuya tasa de fallas λo es


conocida, y que se debe definir un ensayo para verificar que el λ del nuevo componente
propuesto no es peor. Usar la expresión (15) para determinar la cantidad de muestras y el
tiempo de ensayo no es posible, pues su aplicación supone conocer los resultados del ensayo
anticipadamente a su realización. Este tipo de problemas es frecuente en la tarea de desarrollo.
Cuando se presentan estos problemas, la solución es hipotetizar un resultado y realizar luego
los cálculos o el experimento, según corresponda, y ver si la hipótesis es congruente con los
resultados. Si los resultados cierran, la hipótesis queda validada; caso contrario se desecha.
Como este ensayo no busca caracterizar, sino verificar que λ está por debajo de un
tope, λo, el ensayo puede ser muy abreviado. La expresión (15) permite definir el producto N.t
si fuera conocido χ 2 (1 − α , r ) ,
χ 2
(1 − α , r ) 1
N .t = . (16)
2 λo
Prefijado el nivel de confianza, 60%, se debería conocer el valor de r, cantidad de
fallos al final del ensayo. La solución pasa por hipotetizar un resultado final, hipótesis que se
debería basar en el mínimo esfuerzo: la menor cantidad posible de muestras, y tiempo de
ensayo lo más corto posible. Obviamente el ensayo más corto es aquel que termina sin que se
produzca fallo alguno. Suponiendo entonces que no falló ningún elemento, en tal caso todos los
parámetros de la expresión (16) son conocidos, lo que permite determinar N.t. Ejecutado el
ensayo, si al cabo del tiempo que resulta de aplicar (16), considerando la cantidad de elementos
ensayados, se hubiera producido 1 o más fallas, entonces no se cumpliría la hipótesis. Es
decir, la conclusión sería en este caso que la tasa de fallas es superior a la fijada como meta.
La dificultad en este tipo de ensayos es el gran volumen de ensayo requerido cuando
se manejan muy bajas tasas de falla, como sería el caso de los componentes usados en una
computadora basándose en los datos indicados en la Tabla I. En este caso, para un nivel de
confianza del 60% y cero fallas, el volumen del ensayo requerido debería ser
χ 2 ( 60 %, 0 ) 10 9 10 9
N .t = . .≈ ≈ 1, 75 x10 8 [ componente .h ]
2 5 ,7 5 ,7
Eso significa que si por ejemplo se pidieran 2 componentes, el ensayo duraría
1.75x108 horas, algo imposible. Si se quiere achicar el tiempo de ensayo se debería usar una
magnitud tan grande de componentes que también escapa a toda posibilidad de verificación
experimental. Restan dos opciones: Recurrir a ensayos acelerados, o reducir el nivel de
confianza. Riesgos tan altos como del 90% son a veces usados en los ensayos que tienen por
fin asegurar el mantenimiento de la caracterización.
Ensayos acelerados
Se podría simplificar el ensayo si fuese conocida la relación entre la tasa de fallas para
la condición de carga especificada y la tasa de fallas para una condición más severa, de modo
que la tasa de fallas sea varios miles de veces superior y ello acorte el tiempo requerido para
alcanzar un número de fallas prefijado. Luego, en base al factor de aceleración AF, que
relaciona las tasas de fallas para ambas condiciones de carga,
λ carga normal
AF = n
= ϕ( carga acelerada ) (17)
λ a
se determina la tasa de fallas que corresponde a la condición de carga normal, λn. La única
limitación para su aplicación es que se mantenga el mecanismo de falla.
De las muchas variables de aceleración, dos son las más utilizadas: la temperatura y la
tensión eléctrica. La temperatura tiene como ventaja la facilidad de implementación, por ser
fácilmente controlable, permitir una aplicación masiva, y proveer además un elevado factor de
aceleración.

111
112 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Ley de Arrhenius
La ley de Arrhenius mide la velocidad de los procesos físico-químicos, vale decir, la
velocidad v de cambio de una característica por unidad de tiempo. La ley expresa que
Ea

v = V o .e k .T (18)
-5
donde Ea se conoce como energía de activación, y es medida en eV; k=8,63x10 eV/K , es la
constante de Boltzmann; T es la temperatura en Kelvinos ( K ), y Vo es la máxima velocidad del
proceso.
Aceptemos que un elemento entra en falla cuando el valor de su característica X sufre
un corrimiento que supera un cierto valor. Supongamos entonces que el valor máximo admitido
en el corrimiento de un componente para considerarlo en estado de falla sea
∆ X = ∆ X lim (19)
La velocidad de cambio esta definida por la expresión (18), por lo que a la
temperatura T este valor se alcanzara en el tiempo ∆t,
∆ X lim
E
− a
= V o .e k .T (20)
∆t
A otra temperatura T1 esta condición límite se alcanzara en un tiempo ∆t1, siendo
Ea
∆ X lim −
= V o .e k . T1 (21)
∆ t1
Relacionando ambas expresiones surge
Ea ⎛ 1 1 ⎞
∆t ⎜ − ⎟
k ⎜ T T1 ⎟⎠
(22)
AF = = e ⎝
∆ t1
La relación ∆ t / ∆ t 1 es el factor de aceleración que, como se observa, varia
exponencialmente con la temperatura. Linealizando en 1/T, resulta
λ1 Ea ⎛ 1 1 ⎞ (23)
ln( AF ) = ln( ) = .⎜⎜ − ⎟⎟
λ k ⎝T T1 ⎠
En la figura 10 se grafica el factor de aceleración, AF, en función de T, referido a la
temperatura normal de 50ºC. Se muestra también en línea punteada la aproximación empírica
conocida como la regla de los 10 grados. Esta regla dice que la vida de un componente o
material se reduce a la mitad por cada 10ºC de aumento en la temperatura.

Fig.10

Conocida la energía de activación, bastaría un solo ensayo para hallar el tiempo para
la falla operando a una temperatura acelerada T; caso contrario, se deberán hacer dos ensayos,
a dos temperaturas distintas.

112
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 113

Ley de los aislantes


Para los aislantes se usa como variable de aceleración la tensión. La ley general de los
aislantes supone que la tasa de fallas responde a la ley,
−β
λ = k .V (24)
por lo cual, la aceleración resulta dada en este caso por la expresión,
β
∆t ⎛V ⎞
AF = = ⎜ 1 ⎟
∆ t1 ⎝ V ⎠ (25)
donde β es una característica propia del material aislante.

Modelo de Eyring
A diferencia de los modelos anteriores, que tienen fundamento empírico, el modelo de
Eyring ha sido derivado de consideraciones teóricas de mecánica cuántica. En este modelo, la
velocidad de proceso v en su expresión más simple esta dada por
v = A.T α .e − B / T e CS (26)

donde a, A, B y C son constantes apropiadas, T es la temperatura en kelvinos y S un segundo


factor de solicitación no térmico: humedad, tensión eléctrica, etc. Cuando el factor a tiende a
cero, y solo se tiene como factor de carga la temperatura, el modelo lleva al de Arrhenius.
El modelo de Eyring, en particular, es aplicado para determinar el tiempo para la falla
cuando el componente esta sometido a una humedad relativa HR,
b
t f = a .e HR (27)
donde a y b son constantes que dependen del dispositivo y en especial del encapsulado.
La humedad relativa HR debe evaluarse en el entorno del dispositivo y no en base a la
humedad ambiente. Ambas coincidirán solo si el dispositivo no disipa potencia.

Expresión general de la fiabilidad


De las expresiones (2) y (6) se deduce
dR ( t ) (28)
= − λ ( t ). dt
R (t )

la cual puede resolverse dado que se conocen las condiciones iniciales, pues es siempre R(0)=1,
de modo que
R (t ) t
dR ( t )
∫1
R (t )
= ∫−
0
λ ( t ). dt (29)

que puede ponerse en la forma


(30)
t
ln (R ( t ) ) − ln (1 ) = ln (R ( t ) ) = ∫ λ ( t ). dt
o

lo cual lleva a la expresión generalizada de la fiabilidad,


t


− λ ( t ). dt
(31)
R (t ) = e 0
expresada en función de λ(t). También, en base a (2) y (31) resulta
t


− λ ( t ). dt
F (t ) = 1 − e 0 (32)

como expresión generalizada de la ley de distribución de fallas.

113
114 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Fallas por solicitación


El modelo de tasa de fallas constantes, derivado para sistemas sometidos a una carga
fija, puede aplicarse también a sistemas expuestos a una serie de solicitaciones, cada una con
una pequeña probabilidad p de provocar la falla. Suponiendo que la probabilidad de falla en
cada solicitación es independiente de las solicitaciones previas, luego de n solicitaciones la
fiabilidad estará dada por
R ( n ) = (1 − p ) n (33)
Si en la igualdad
(34)
R = e ln(R )
se tiene en cuenta ( 33 ) resulta
(35)
R ( n) = e n. ln(1− p )
y si p es muy pequeño, en el desarrollo en serie de ln(1-p) se pueden despreciar los términos
de segundo orden o mayores, quedando así (36)
R(n) = e − np
que muestra que la fiabilidad decrece exponencialmente con el número de solicitaciones.
Si suponemos que las solicitaciones ocurren regularmente a intervalos ∆t , entonces
en el tiempo t se tendrán n = t ∆t solicitaciones, siendo en tal caso
p
− .t (37)
R(t ) = e ∆t = e − λo .t
donde
p (38)
λo =
∆t
es constante. Como p es igual a la relación entre la cantidad de fallados en ∆t, ∆Nf, respecto de
los sobrevivientes al inicio de ∆t, Ns, la expresión (38) resulta coincidente con la (5). Es decir,
el modelo de fallas exponencial correspondería al caso en el que las solicitaciones son
regulares.

Tiempo medio entre fallas


Aparte de la fiabilidad, R(t), otro parámetro indicativo es el tiempo medio para la
falla, TMPF, termino usado para el caso de equipos o componentes no reparables. En el caso
de equipos reparables será el tiempo medio entre fallas, TMEF, indicado a veces como MTBF
(Mean Time Between Failures ). Este se define por la esperanza matemática de primer orden,

TMEF = E (t ) = ∫ t . f ( t ). dt
0
(39)
donde f(t) es la función de densidad de fallas. Dado que

d (t . R ( t ) ) = R ( t ). dt + t .dR = R ( t ). dt − t . f ( t ). dt (40)
y como

∫ d (t . R ( t ) ) = t . R ( t )

0
= lim [t . R ( t ) ] − 0 .( R ( 0 ) = 0
(41)
0 t→ ∞

suponiendo que R(t) tiende rápidamente a cero cuando t → ∞ , por lo cual


∞ ∞
(42)
TMEF = E (t ) = ∫ t . f ( t ). dt =
0
∫ R ( t ). dt
0

114
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 115

Modelos de fallas: fiabilidad extrapolada


Con los datos relevados en las pruebas experimentales sería posible determinar la
distribución de las fallas en función del tiempo. Pero, este relevamiento en la mayoría de los
casos es imposible de realizar en forma completa en todo el tiempo de interés. Se trata
entonces de ver como unos pocos datos obtenidos en tiempos relativamente breves pueden ser
extrapolados a cualquier otro instante. Esto es posible si se demuestra que las fallas responden
a un modelo analítico determinado, y en tal caso se habla de una fiabilidad extrapolada
Aunque de hecho cualquier distribución de probabilidades podría ser propuesta, con
frecuencia los modelos propuestos se reducen a unos pocos. El mas conocido es el exponencial,
siendo otros modelos muy usados los de Weibull, el lognormal, y el normal, figura 11.

Exponencial Normal Weibull Lognormal

σ1
f(t) β<1
f(t) f(t) f(t) s=0.4
λ1 β=1
σ2 > σ1 s=1
λ2 β>1

t t t t
λ (t) s=0.4
λ(t) λ(t) λ(t)
β<1
σ1 s=1
λ1 σ2 > σ1 β=1
λ2 β>1
t t t
Fig.11 t

Si las fallas son de tipo accidentales es λ ( t ) = λ o , y en tal caso, de (31) resulta el


modelo de fallas exponencial
R (t ) = e − λt (43)
y por (2 )
F (t ) = 1 − R (t ) = 1 − e − λt (44)
siendo la función de densidad de fallas,
dF ( t ) −λt
f (t ) = = − λ .e
dt (45)
También, en base a (42) y (43), resulta
∞ ∞
1 1
∫ R ( t ) .dt
λ o ∫0
− λot
TMEF = e .d ( λ o t ) =
= (46)
0
λo
Si las fallas son por desgaste podrá aplicarse el modelo normal siempre que F(0) sea
despreciable. Esta ley corresponde a elementos con tasas de fallas creciente con el tiempo, y su
mayor ventaja es la gran cantidad de herramientas disponibles para su tratamiento.
Otro modelo muy usado es el de Weibull, en el cual la función de fallas es de la forma
β
⎛ t ⎞
− ⎜⎜ ⎟⎟
⎝η ⎠
F (t ) = 1 − e (47)
de modo que
β
⎛ t ⎞
− ⎜⎜ ⎟⎟
⎝η ⎠ (48)
R (t ) = 1 − F (t ) = e
β
β −1 ⎛ t ⎞
β ⎛ t ⎞ − ⎜⎜
⎝η ⎠
⎟⎟
f (t ) = .⎜⎜ ⎟⎟ .e (49)
η ⎝η ⎠
β −1
y f (t ) β ⎛ t ⎞
λ (t ) = = .⎜⎜ ⎟⎟ (50)
R (t ) η ⎝η ⎠

115
116 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

La ventaja que tiene la función de Weibull es que la misma es muy flexible y puede
adaptarse e interpretar desde fallas del tipo prematuro, como fallas por envejecimiento, y
contiene además como caso particular a la distribución exponencial, de tasa constante. Su
mayor desventaja reside mayormente en la falta de métodos y herramientas para su tratamiento.
El modelo lognormal posiblemente sea la función de fallas más común. Este modelo
resulta de suponer que las fallas se distribuyen normalmente no en relación al tiempo, sino
respecto al logaritmo del tiempo. Es decir, así como el modelo normal resulta de la suma
múltiples variables aleatorias,
x = x1 + x 2 + .......... + x n (51)
la distribución lognormal se considera que resulta por el efecto multiplicativo de muchas
variables aleatorias,
y = y 1 * y 2 * ........ * y n (52)
de modo que, haciendo x=log(y) resulta para x una distribución normal y para y una lognormal.
La distribución lognormal supone que la fatiga es el causal de falla, y que al principio
los materiales sufren un proceso rápido de reacomodamiento, que luego se vuelve muy lento.

Papel probabilístico
Un modo practico y rápido de hallar si un modelo de fallas se ajusta a los resultados
experimentales es utilizando papel probabilístico. La idea del papel probabilístico es realizar
una deformación ( transformación ) de las escalas de modo que la representación de la
distribución en dicho papel se corresponda a una recta. Como esta transformación es propia de
cada tipo de distribución, cada papel se conoce por el nombre de la distribución que linealiza.
Estos papeles permiten obtener una estimación de los parámetros de la distribución, y
con ello la extrapolación de los resultados más allá de los datos experimentales. Si bien el
papel probabilístico normal es de uso frecuente, no es ese el caso de los papeles de las otras
distribuciones. Actualmente, todos los paquetes de software dedicados al tratamiento
estadístico, como el Minitab, incluyen para las funciones de distribución usuales la graficación
en los papeles probabilísticos correspondientes.
Por caso, para una distribución de Weibull, como es,
β
⎛ t ⎞
− ⎜⎜ ⎟⎟
⎝η ⎠
(53)
F (t ) = 1 − e
la cual puede ponerse en la forma
⎛ 1 ⎞
ln ⎜⎜ ⎟⎟ = β . ln( t ) − β . ln( η ) (54)
⎝ ln (1 − F ( t ) ) ⎠

que adopta la forma de una recta si se hace el siguiente cambio de variables


⎛ 1 ⎞
y = ln ⎜⎜ ⎟⎟ (55)
⎝ ln (1 − F ( t ) ) ⎠
x = ln( t ) (56)
De un modo similar se obtienen los papeles exponencial, normal y lognormal. Luego,
si se vuelcan los valores obtenidos experimentalmente sobre dichos papeles, observando en
cual de ellos los datos se ajustan mejor a una recta, esta condición definirá el modelo de la
distribución que debe ser usada.
Alternativamente, pueden usarse otros tipos de pruebas, tales como la de
Kolgomorov-Smirnov o una prueba de ajuste en base a la distribución χ2, para lo cual puede
recurrirse a alguna de las herramientas computacionales, como por ejemplo Matlab.
Si los valores de los tiempos de falla exactos se ignoran, debido a que resultan de
comprobaciones periódicas, y solo se sabe que ocurrió dentro del intervalo entre la anterior
inspección y la presente, convencionalmente se asigna como tiempo de falla el correspondiente
al momento de la inspección en que es detectado, aunque esto agrega cierta incerteza.

116
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 117

Disponibilidad
Si un equipo que es reparable falla, cabe esperar que en algún momento posterior se
encuentre nuevamente en funcionamiento. La disponibilidad, A(t), mide precisamente la
probabilidad de encontrar el equipo funcionando en un instante cualquiera t. Si el instante t esta
suficientemente alejado del instante en que entro en reparación o se hizo la reposición de
funcionamiento, la disponibilidad resulta independiente de t, y define lo que se conoce como
disponibilidad a largo plazo o disponibilidad final del equipo. La disponibilidad final es un
factor importante en equipos de uso continuo, pues mide su máxima posibilidad de utilización.

tf1 tf2 tfi


En funcionamiento
tr1 tr2 tri
Fig.12 En reparación
t

Un equipo reparable solo pueda estar en uno de dos estados: funcionando o en


reparación. Supongamos que sea tri el tiempo insumido en la reparación i, y que sea tfi, el
lapso de tiempo que funciona sin discontinuidad hasta la aparición de la falla siguiente, figura
12. Claramente se ve que al cabo de un tiempo T se habrán efectuado n reparaciones, siendo
el tiempo total de funcionamiento
n
Tf = ∑t 1
fi (57)

y el tiempo insumido en las reparaciones


n
Tr = ∑t 1
ri (58)
El porcentaje de tiempo que el equipo esta en uso, evaluado en el tiempo Tf+Tr, es
n

n ∑ t fi

T ∑ t fi
1
TMEF
FU =
f
= 1
= n = (59)
+ T n n n n
+ TMR
∑ ∑ ∑ ∑
T TMEF
f r
t ri + t fi t fi + t ri
1 1 1 1

n
que se ve es función de la relación entre el tiempo medio entre fallas, TMEF, y el tiempo
medio de reparación, TMR. Esta relación define precisamente la disponibilidad de largo plazo.
Hallar la probabilidad de hallar en funcionamiento un equipo en un instante t
suficientemente alejado de t=0, es equivalente a la probabilidad de que un punto elegido al
azar dentro de un segmento de longitud total T = Tr + Tf, este ubicado en el subsegmento Tf. Es
decir, la disponibilidad a largo termino D estará dada por
TMEF
D = A (∞ ) = (60)
TMEF + TMR
La disponibilidad pasa a ser un factor prioritario en aplicaciones de servicio continuo,
como pueden ser estaciones de radiodifusión, líneas de fabricación continua, servicios públicos
de telecomunicaciones, etc., dado que los tiempos perdidos son irrecuperables.
Ahora bien, se pueden obtener valores altos de disponibilidad con valores de tiempos
medios entre fallas tanto bajos como altos, dependiendo del tiempo medio de reparación, por lo
que usualmente por si sola la disponibilidad no resulta un factor suficiente de evaluación;
siempre importara además conocer el TMEF.
Para analizar la disponibilidad en el corto plazo, bastaría considerar un conjunto de
realizaciones, es decir, el historial para varios equipos de la secuencia funcionamiento-caída
partiendo del estado de funcionamiento, si este fuera el estado inicial, o del estado de caída, si
fuera este el estado inicial a partir del cual interesa conocer la disponibilidad.

117
118 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Metas de Fiabilidad aplicadas al diseño


El desarrollo del producto debe considerar las metas de fiabilidad, basándose en
consideraciones sobre el sistema, es decir, expresándolas en términos orientados al uso,
contemplando las condiciones de uso y el tiempo durante el cual se requiere un desempeño
satisfactorio. En una relación contractual, las exigencias se volcaran en cláusulas, referidas a:
• Objetivos, o requerimientos de desempeño expresados normalmente por ejemplo en
términos de disponibilidad y tiempo de caída
• El criterio bajo el cual se considera que el producto deja de funcionar satisfactoriamente
• Condiciones de uso y de mantenimiento bajo las cuales se deben asegurar las metas
• Tiempo de vida del producto durante el cual deben asegurarse las metas
• Medios requeridos para asegurar las metas
• Penalizaciones por incumplimientos
La dificultad surge cuando no existen cláusulas de fiabilidad, o de existir, si estas son
de tipo cualitativo, basadas en satisfacer prácticas de ingeniería y métodos de trabajo
establecidos y aplicados por décadas. Las dos formas de especificar metas de un modo
cuantitativo son especificando la fiabilidad al cabo de un cierto tiempo, R(T), o por medio del
tiempo medio entre fallas, TMEF. Por considerarlo más representativo, el tiempo puede ser
reemplazado por distancia, forma esta usada por algunos fabricantes de automóviles para las
partes montadas sobre vehículos, donde se especifican los kilómetros rodados en vez del
tiempo, siendo usual por ejemplo fijar 100000 km. En otros casos serán ciclos, y en general
cualquier otro parámetro ligado al uso.
Otras formas posibles de especificación son:
1. el producto debe operar satisfactoriamente durante X horas el Y% de las ocasiones en
que es requerido
2. el equipo no debe fallar mas de X veces en Y horas de funcionamiento, con un nivel de
confianza del Z%
3. los reclamos por falla al año no deben superar al X% de la producción
4. el tiempo de vida medio de una población de elementos similares debe ser igual o
mayor a Y horas, con un desvío estándar de S horas
Cuando el diseño debe ser llevado teniendo en cuenta una meta de fiabilidad, si esta
no esta establecida en forma cuantitativa, habrá que determinar la forma de establecerla,
pudiendo resultar de alguno de los siguientes criterios:
• Por competitividad, tratando de no quedar mal situados frente a la competencia
• Por liderazgo, tratando de estar por encima de la competencia
• Por costo de garantía, tratando de encontrar el mejor balance entre los costos de
fabricación y los costos de la garantía, vinculados estos a la fiabilidad al cabo del
tiempo de garantía.
• Por costo dentro del ciclo de vida, en cuyo caso se busca optimizar el costo total, en el
que se incluyen además del costo de compra, el de instalación, el costo operativo, el
costo de mantenimiento y el de la disposición final del equipo.
• Por las penalizaciones por tiempos de caída, lo cual puede surgir de contratos
contractuales ( entre privados ) o por regulaciones que rigen el servicio ( caso de
servicios de carácter público )
• Por duración de la misión, como puede ser el caso de equipos en los cuales hay un
tiempo máximo de operación durante el cual se requiere un valor dado de fiabilidad;
este es el caso de equipos para aviones, marcapasos implantables, equipos para
satélites, y en general equipos con usos limitados a tiempos predeterminados.

118
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 119

• Por afectación del servicio, bien sea por los daños que pudieran causarse o por el
lucro cesante, como puede ser el caso de un equipo que atiende una línea de
producción. Es importante en algunos procesos industriales que requieren tiempos de
estabilización muy grandes, pudiendo en algunos casos llegar hasta 7 o más días, por
lo que su interrupción provoca grandes perdidas
La determinación puede ser más o menos compleja dependiendo del criterio. Si se
trata de posicionarse en relación a la competencia, debiera determinarse la fiabilidad de los
equipos competidores, recurriendo para ello a formas indirectas de estimación, o bien por
indagación directa, si el mercado se concentra en muy pocos compradores.
Si el caso fuera evaluar en función del tiempo de garantía TG, en tal caso, a partir de la
probabilidad de que el equipo deba ser atendido dentro del tiempo de garantía, dada por (1-
R(TG)), se deberá calcular el costo de garantía en base al costo medio de reparación,
C G = Costo medio reparacion * (1 − R (T G ) ) (61)
y como el costo de fabricación, CF, es a su vez función de R(TG), resulta como costo total
C total = C F (R ( T G ) ) + C G (R ( T G ) ) (62)
Es claro que con el aumento de R(TG) aumentara el costo de fabricación y disminuirá
el costo de garantía, y recíprocamente, por lo cual cabe esperar que exista una condición
optima de diseño para R(TG) que minimice el costo total. Esta condición puede ser establecida
en función de TG/TMEF. Si por ejemplo la distribución de fallas respondiera a una ley
exponencial, sería
TG

R ( T G ) = e TMEF (63)
de modo que el costo total resulta función de TG/TMEF.
En las expresiones anteriores se supuso un equipo que esta sujeto a funcionamiento
continuo, y en tal caso el tiempo de garantía y el tiempo calendario serán coincidentes. Como
usualmente la garantía se basa en el tiempo calendario, para equipos de uso discontinuado
deberá tenerse en cuenta:
• La tasa de fallas en funcionamiento, λo
• La tasa de fallas en estado de reposo, λs
• La probabilidad de falla con cada ciclo de solicitación, p , por ejemplo debidos a
ciclos de conexión-desconexión
Si el ciclo de trabajo es c, y el número de conexiones-desconexiones diarias fuese d,
entonces al cabo de HG horas de garantía, se tendrán
H
(64)
n= G
.d
24
solicitaciones, dando una tasa de fallas equivalente
λ = c.λ o + (1 − c).λ s + np (65)
de la cual se deduce la probabilidad de falla al cabo del tiempo HG de garantía,
F ( H G ) = 1 − e − λH G (66)
Cuando existan requerimientos de fiabilidad, las condiciones bajo las cuales se hace la
comprobación deben estar claramente especificadas. Es importante también considerar las
consecuencias que resultan de una fiabilidad inferior del equipo desde los puntos de vista del
servicio, la seguridad y el económico; y esto debiera balancearse con los costos de los ensayos,
el tiempo requerido para el ensayo, y la posibilidad de asegurar la fiabilidad por otros medios
que no sea a partir de ensayos, usando técnicas predictivas. Otro punto importante es como
asegurar que las muestras sobre las que se van a realizar los ensayos sean representativas.

119
120 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Predicción de la fiabilidad
Para predecir la fiabilidad de un sistema es necesario conocer la tasa de falla de los
equipos, y como estos se combinan. A nivel de equipos se necesita conocer la tasa de falla de
los componentes. Y a nivel de componentes serán datos suministrados por el fabricante de
componentes, o información que debe ser relevada experimentalmente, o que es obtenible de
datos disponibles de usos similares. Obviamente, si no se cuenta con esa información, tan solo
es posible hacer una aproximación genérica, pero igualmente útil como referencia, porque sirve
para mostrar los puntos débiles del sistema
El diseño difícilmente pueda llevarse de un modo directo en función de metas de
fiabilidad. Normalmente se hará el diseño de cada elemento con una carga cercana a la
nominal, y luego se estimara la fiabilidad del equipo o sistema en base a esas cargas. La
fiabilidad será función de la manera en que la falla de cada componente incide en el
funcionamiento del equipo del cual forma parte. Como la falla de cada elemento depende solo
de la carga a la que está sometido, las fallas de los distintos elementos deben considerarse
como eventos independientes, si solo se consideran las fallas primarias.
Para efectuar la predicción hay diversos métodos; la aplicación de un método u otro
dependerá del tipo de falla, la ley de distribución de las fallas, la forma en que la parte se
integra y afecta al sistema, la finalidad del análisis y la simplicidad del método. Básicamente se
usara:
• Modelo físico de fallas : Para el diseño de pruebas experimentales
• Método de redes: para estimar la fiabilidad de equipos, sin elementos redundantes
• Simulación de Monte Carlo: cuando los elementos tienen dos modos de falla, por
apertura y corto, y ambos tienen consecuencias distintas. También se usa cuando las
fallas siguen leyes complejas, o los elementos tienen una asociación compleja
• Árbol de fallas: cuando importa conocer solo ciertas fallas, atendiendo sus
consecuencias; específicamente cuando se deben realizar estimaciones de seguridad
• Cadenas de Markov: cuando se trata de sistemas redundantes
• Método de las cargas ( HDBK217): Cuando se quieren hacer comparaciones

Modelo físico de fallas


Con los modelos físicos de fallas se busca contar con una predicción de fallas
basándose en consideraciones sobre la distribución de las propiedades físicas de los elementos
y modelos de repartición de las cargas. Asumiendo para la carga y la resistencia un
comportamiento probabilístico, la fiabilidad puede estimarse en base a la yuxtaposición de
ambas distribuciones: la de capacidad o resistencia de los elementos y la de distribución de las
cargas, figura 13.
f r( r )
f(X)
fC (c ) resistencia
carga σ R

σ C

fallas
Fig.13
C R X

El diseño se ha basado por años en estos análisis, definiendo coeficientes o factores de


seguridad apropiados, los cuales simplemente relacionan las medias de ambas distribuciones,
R
factor de seguridad = (67)
C
cuyos valores se asignan con márgenes de seguridad que toman en cuenta el peso de la
variabilidad sobre los valores medios,
margen de seguridad = R −C (68)
(σ R + σ C2 )1 / 2
2

120
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 121

Debido a que la fiabilidad depende de la superposición de las colas de ambas


distribuciones, este es también denominado análisis de interferencia. Este análisis supone
que la falla sobreviene cuando el esfuerzo al que esta sometido el dispositivo supera su
capacidad para resistirlo. Este es un planteo estático, e independiente del tiempo si la
resistencia y la carga no varían con el tiempo, pero aplicable al caso en el que las cargas son
de tipo aleatorio, o periódico, y en todos los casos en los que se produzcan fallas por fatiga.

Método de las redes


En el método de las redes cada componente es asociado a un bloque de fiabilidad, el
cual se vincula con otros bloques según el modo en que su falla incida en la falla del sistema.
Dos son las formas básicas de asociación: la serie y el modo paralelo. Dos bloques se disponen
en serie, figura 14, si la falla de cualquiera de ellos implica la falla del sistema, estando cada
elemento de la red caracterizado por su fiabilidad o por su tasa de fallas. Considerando solo las
fallas primarias, la falla de cada componente es un evento independiente de los demás, por lo
cual la probabilidad de funcionamiento del conjunto estará dada por
R ( t ) = R ( t ). R ( t ) (69)
1 2

La red de fiabilidad serie es la mas común en equipos. En tal caso, si los n


componentes que integran el equipo responden a una ley de distribución exponencial, la
fiabilidad resultante estará dada por
n

− λ 1 .t − λ 2 .t − λ n .t
− ∑ λ i .t
−λ .t
R (t ) = e .e ......... e =e = e equ 1
(70)
que determina una distribución de fallas para el equipo también de tipo exponencial, con una
tasa de fallas dada por,
n
λ equ = ∑λ1
i (71)
y un tiempo medio entre fallas
1
TMEF = (72)
λ equ
Conclusión inmediata de (70) es que todo aumento en la cantidad de elementos del
sistema reduce la fiabilidad. En este sentido, el empleo de un mayor nivel de integración
favorece siempre la fiabilidad; por el contrario, con el agregado de más elementos se empeora.
Este seria el caso por ejemplo de poner dos resistencias en paralelo en vez de una, suponiendo
en ambos casos el mismo nivel de carga, es decir, igual temperatura de trabajo.
R 1( t)
R 2( t)
λ1 λ2
R1 (t) R2(t)
R n( t)

Fig.14 Fig.15
Cuando en un sistema formado por n elementos se requiere que fallen todos para que
se produzca la falla del sistema, se habla de una red paralelo: De otro modo, basta que uno
funcione para que el sistema funcione, figura 15. Una red paralela conforma un sistema
redundante. En este caso, dado que para que se produzca la falla es necesario que fallen todos,
la probabilidad de falla del conjunto estará dada por
F ( t ) = F 1 ( t ). F 2 ( t )......... . F n ( t ) (73)
o sea
R ( t ) = 1 − F ( t ) = (1 − R 1 ( t ) )( . 1 − R 2 ( t ) )........ (1 − R n ( t ) ) (74)
Se debe destacar que la forma física en que están asociados los componentes no
determina su forma de asociación en la red de fiabilidad. Vale decir, dos componentes pueden

121
122 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

estar eléctricamente en serie, pero formar bloques paralelos de fiabilidad. Pongamos por caso
el circuito de la figura 16a, con dos diodos en serie, D1 y D2. Considerando una curva
característica idealizada, figura 16b, es claro que si la falla fuese por cortocircuito, la falla de
uno solo de ellos no implicara la falla del circuito, solo implicara un aumento en la carga del
restante cuando este sujeto a tensión inversa; el resultado es distinto si la falla es por apertura.

a) D1 D2
i
Fig.16
b) e

Las fallas de los componentes no se dan siempre del mismo modo; para cada
componente una proporción de sus fallas será por cortocircuito, y el resto por apertura.
Obviamente, la probabilidad de falla por corto y apertura se vinculan con sus tasas de fallas,
P fcc λ .∆ t λ (75)
= cc = cc
P fap λ ap .∆ t λ ap
debiendo ser
P fcc + P fap = 1 (76)
La proporción con que se producen ambos tipos de falla es propia del componente y
del mecanismo de falla. Al darse los dos modos de falla, las redes pueden resultar bastante
complejas, y en tal caso para su solución deberá recurrirse a técnicas especiales de reducción o
emplear otros métodos de análisis, como ser simulación de Monte Carlo.

Simulación de Monte Carlo


La simulación de Monte Carlo es una herramienta muy general y poderosa, que
requiere, para su aplicación, contar con la función de distribución de cada uno de las variables
probabilísticas que participan del proceso. Es decir, si tenemos un conjunto de componentes X1,
X2, ...., Xi, es necesario conocer la función de distribución de fallas de los mismos.
Suponiendo conocidas las distribuciones, figura 17a, se determinan los tiempos tfi de
falla de cada componente Xi mediante una simulación del proceso. Cada tiempo de falla se
obtiene entrando con un número aleatorio como argumento en la función de distribución
inversa, figura 17b. Conocidos los tiempos de falla de cada componente, se halla la fiabilidad
del equipo para esa realización en base a la configuración de la red de fiabilidad. Contando
con una cantidad elevada de realizaciones se puede caracterizar estadísticamente el proceso.
FXi(t) t
X2
X1

X3
t ν=FXi(t)
a) b)
Fig.18
Fig.17
Supongamos un sistema formado por los componentes [X1, X2, X3], figura 18, y
que los tiempos para la falla de una realización simulada sean [ 7347, 3726, 707]. Para hallar
el tiempo para la falla se exploran los tiempos de menor a mayor, buscando el menor valor de
tiempo para el cual el sistema entra en falla En esta realización, la primera falla se produce en
el elemento X3 a las 707 horas, pero como este elemento esta en paralelo con el X2, su falla no
provoca la falla del sistema. Ahora, al producirse la siguiente falla a las 3726 horas y estando
fallado el componente X3, el análisis del sistema muestra que el mismo entra en falla.

122
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 123

Repitiendo esto para otras realizaciones, resultan los tiempos para la falla respectivos.
Con estos valores se puede determinar la función de densidad de fallas, u obtener la función de
distribución de fallas a la que responde el sistema, o su complemento, la fiabilidad. También
resulta el tiempo medio para la falla del sistema, como promedio de los valores de falla
determinados para las sucesivas realizaciones.
Una de las mayores ventajas de la simulación de Monte Carlo es que permite tratar en
forma simple redes de fiabilidad muy complejas, especialmente si las fallas pueden ocurrir
tanto por cortocircuito como por apertura, como seria el caso del arreglo de resistencias de la
figura 19. Este análisis supone siempre que es conocida la curva de distribución de fallas de
cada componente para cada modo de falla. En este caso, para cada elemento se deberá hallar el
modo y el tiempo para la falla en cada modo. Para ello se generan dos números aleatorios, y
luego, en base a las curvas de distribución de cada elemento, se obtienen los tiempos de falla
por cortocircuito y apertura. De hecho, solo el que más tempranamente ocurra puede darse.
R1 R4
R1 R2 R3 R4 R5
R1=R2=R3=R4=R5=1M Ω
A B
R3 cc ap cc ap cc
R2 R5 1M Ω ≤ R AB ≤ 1,8 M Ω
2642 3383 4609 102 4107

Fig.19

Otra forma seria hacer una primera simulación para determinar cual de los dos tipos
de falla se va a dar, dado que cada uno de los modos tiene una probabilidad de ocurrencia, y
luego trabajar con la curva de distribución correspondiente según el tipo de falle que resulte. La
probabilidad conque se da cada evento (falla por apertura o por cortocircuito) están
relacionadas con las tasas de fallas. Supongamos que en el 70% de los casos la falla sea por
apertura, y en el 30% por cortocircuito. En este caso, si el primer número aleatorio generado
esta entre 0 y 0.7 la falla será por apertura; caso contrario, será por cortocircuito. Supongamos
que para una realización se haya obtenido el modo de falla y el tiempo para la falla de cada
uno de los componentes, y supongamos que los valores obtenidos por simulación para una
realización sean los indicados en la tabla de la figura 19. Por análisis, se ve que ocurrida la falla
más temprana de R4 por apertura a las 102 horas la red sigue cumpliendo con la especificación.
Ahora, estando el resistor R4 abierto, al producirse la falla siguiente por cortocircuito de R1
a las 2642 horas, tampoco la red de resistencias entra en falla. Esta se produce recién cuando
falla por apertura el elemento R2, a las 3383 horas. Si esto se repite para otras realizaciones, se
puede hallar el TMEF como promedio del conjunto de esos tiempos de falla.

Método del árbol de fallas (FTA)


El método del árbol de fallas es una herramienta proactiva usada desde las fases más
tempranas del diseño con la finalidad de descubrir los puntos débiles del sistema frente a
modos de falla definidos. Es decir, no todas las fallas tienen el mismo significado, y deben ser
tratadas del mismo modo. En particular, cuando la falla puede ser fuente de graves daños el
diseño debe satisfacer metas de seguridad. La seguridad se define como la probabilidad de que
un equipo o sistema provoque daños a personas o pérdidas de bienes, o daño al propio equipo.
La US Navy ha definido la inseguridad como la probabilidad de sufrir el efecto destructor de
las propias armas como consecuencia de alguna circunstancia que pueda ocurrir previo a su
utilización, o al arribo sobre el objetivo.
Cuando los sistemas o equipos están sujetos a exigencias de seguridad, la aparición de
una falla puede dar lugar a alguna de las siguientes consecuencias:
• Menores, cuando la falla implica una degradación menor del sistema, o se ve
disminuida su capacidad para seguir cumpliendo la función en el futuro.

123
124 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

• Significativas, si hay perdida de funcionalidad, pero no tiene consecuencia sobre


personas o bienes, y no requiere la intervención inmediata para reponer la
funcionalidad por que la falla no acarrea peligro.
• Críticas, en las cuales puede haber daños menores, pero susceptible de provocar
mayores daños si no se interviene en forma inmediata
• Catastróficas, en las cuales hay daños mayores ( destrucción del sistema, heridos
graves o muertes )
El diseño pasa a tener así objetivos diferentes según las consecuencias de la falla. Las
exigencias de seguridad complican el diseño debido a que la fiabilidad y la seguridad pueden
entrar en conflicto, dado que la primera busca evitar la falla, y la segunda solo aquellas que
pueden provocar consecuencias graves. Esto lleva a diferenciar entre falla segura e insegura.
Para mostrar el conflicto, consideremos el caso de una llave destinada a interrumpir un circuito,
sujeta a dos tipos de falla: por cortocircuito y por apertura. Supongamos que solo el cierre
indebido de la llave desencadena consecuencias catastróficas (falla insegura), y que sea:
P1 = 0.01 la probabilidad de súbito cierre ( falla por corto )
P2 = 0.02 la probabilidad de imposibilidad de cierre ( falla por apertura )
En tal caso la fiabilidad será igual a la probabilidad de que no se produzca ninguna de
las dos fallas, mientras que la seguridad esta dada por la probabilidad de que no se produzca un
cierre indebido. Obviamente, dado que ambos eventos de falla son excluyentes, resulta
Fiabilidad = 1- ( P1 + P2 ) = 0.97
Seguridad = 1 - P1 = 0.99
Para aumentar la seguridad, como el evento a evitar es el cierre indebido, podrían
disponerse dos llaves en serie, figura 20. Para que ocurra el evento catastrófico, ambas llaves
deberían cerrarse prematuramente, mientras que la fiabilidad mide la probabilidad de que el
sistema cumpla con su función, para lo cual se requiere que ambas funcionen, o sea,
Seguridad = S = 1 - P12 (77)
Fiabilidad = R = ( P1 + P2 ) 2 (78)
y, haciendo los reemplazos resulta S= 0.9999 y R=0.9409. Es decir, una mejora en la seguridad
acarrea un empeoramiento de la fiabilidad.

Confiabilidad = 0.97 Confiabilidad = 0.9409


Fig. 20 Seguridad = 0.98 Seguridad = 0.9999

Para el caso planteado, la red serie empeora la fiabilidad pero es una redundancia bajo
la óptica de la seguridad, y al revés sucede con la red paralelo, por lo cual pareciera imposible
satisfacer ambos requerimientos. Sin embargo, esto es posible. Supongamos que se dispone de
una sola unidad, y que su fiabilidad para el tiempo que insume una misión, Ru(Tmision), sea de
0.999. Como la seguridad se relaciona con la posibilidad de falla, la seguridad coincidirá con la
fiabilidad. Supongamos ahora que se disponen 3 unidades en redundancia paralelo, figura 21.
Equipo en falla Estado de
falla
R=.999 R=.999 R=.999 E

E1
R=.999 R=.999 R=.999

E1.3
R=.999 R=.999 R=.999

Estado inicial estado seguro estado inseguro

E1.3.1 E1.3.2
Fig.21 Fig.22

124
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 125

Supongamos además que el sistema no permite la reparación cuando esta en


operación, cumpliendo la misión, y que además:
• 1 falla : sin consecuencias
• 2 fallas : se interrumpe la misión
• 3 fallas : sobreviene un accidente
Como la fiabilidad evalúa la probabilidad de cumplir la misión, mientras que la
seguridad evalúa la probabilidad de que no ocurra un accidente, es

Fiabilidad del sistema = R (Tmision ) = 1 − (1 − Ru (Tmision ) )


2
(79)

Seguridad del sistema = S (Tmision ) = 1 − (1 − Ru (Tmision ) )


3
(80)
Haciendo reemplazos, se obtiene R(Tmision) = 0.999999 y S(Tmision) = 0.999999999,
de modo que se han mejorado ambas características.
El análisis por el método del árbol fallas parte de suponer un evento final, que es una
condición de falla determinada, y luego para ese evento se debe determinar las causas que
pueden provocarlo. Puede ocurrir así que si se dan los eventos E1, o E2, o E3 ocurre el evento
final E, figura 22. A su vez, el evento E1 puede resultar si se dan los eventos E11 y E12, o el
evento E13. Pero E13 a su vez puede ser consecuencia de que ocurra E131 o E132. Y así se
debe ir desglosando hasta llegar a los elementos para los cuales es posible definir su
fiabilidad, o sea, que se conozca su probabilidad de falla. Queda así definida una configuración
en árbol, figura 22, basada en bloques lógicos.
Como los valores de probabilidad de falla se suponen muy bajos, a condición de que
sean todos eventos independientes, la probabilidad de un evento que responde a un bloque
lógico “O” puede ser calculada como la suma de las probabilidades de los eventos que lo
provocan; para el bloque lógico “Y” la probabilidad de ocurrencia será el producto de las
probabilidades de entrada. El diagrama lógico permite a su vez hacer simplificaciones,
tratándolas por Karnaugh, y ello permite apreciar mejor los puntos débiles del sistema.
El método anterior supone conocidas las probabilidades de falla, lo cual es así cuando
esta impuesto un tiempo para el cálculo. Si se quiere en cambio determinar la probabilidad de
falla en función del tiempo, entonces se debe recurrir a simulación de Monte Carlo.

Método de las Cadenas de Harkov


Así como el método de redes es apropiado a nivel de equipo, a nivel de sistemas,
donde por lo general hay redundancia, es más apropiado el tratamiento por cadenas de Markov.
Un sistema puede tomar un conjunto de estados, cada uno definido por una situación particular
de los equipos, y dentro de los cuales evoluciona con tasas conocidas. Supongamos que en un
momento dado t el sistema se encuentre en un estado particular i. Desde ese estado, en el
intervalo siguiente ∆t, podrá saltar a otro estado cualquiera j con una tasa, λij, desde el cual
podrá evolucionar a cualquier otro estado, entre ellos al i, con una tasa λji, en el intervalo de
tiempo subsiguiente. Esta evolución ocurre entre todos los estados del sistema, figura 23.
λ ij

i j
Fig.23
λ ji

La probabilidad de que en t+∆t el sistema se encuentre en el estado i dependerá de que


en el instante t el sistema ya se encuentre en el estado i, y se mantenga en ese estado durante
∆t; o que, encontrándose en t en otro estado cualquiera j salte al i en el intervalo ∆t. Si se

125
126 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

encuentra en el estado i, la probabilidad de que en el instante t+∆t se mantenga en el estado i,


dependerá de la probabilidad de que no cambie de estado durante el intervalo ∆t. La
probabilidad de que estando en el estado i en t no cambie de estado durante el intervalo ∆t va a
estar dada por la sumatoria de todas las probabilidades de salto a los demás estados, o sea
Probabilidad de no cambiar de estado en ∆t = 1 − ∑λ
j≠i
ij .∆ t (81)
por lo cual, la probabilidad de que se mantenga en el estado i, será igual a la probabilidad de
estar en ese estado en t, Pi(t), por la probabilidad de no cambiar de estado en el lapso ∆t, o sea
⎛ ⎞
Probabilidad de mantenerse en el estado i en ∆t = P i ( t ). ⎜⎜ 1 − ∑ λ ij . ∆ t ⎟⎟ (82)
⎝ j≠i ⎠
Si en el instante t estuviera en otro estado, podría pasar al estado i en el lapso ∆t. La
probabilidad de que estando en un estado distinto al i en el instante t y salte al estado i en t+∆t
será igual al producto de la probabilidad de estar en cualquier estado j distinto al i, Pj(t), por la
probabilidad de saltar de ese estado j al i durante ∆t, λji.∆t. La sumatoria de todas estas
probabilidades será
Probabilidad de saltar al estado i = ∑
j≠i
P j ( t ). λ ji ∆ t (83)

por lo cual la probabilidad de estar en t+∆t en el estado i resulta dada por


⎡ ⎤
Pi ( t + ∆ t ) = Pi ( t ). ⎢1 − ∑λ ji .∆ t ⎥ + ∑ P j ( t ). λ ji .∆ t (84)
⎣ j≠i ⎦ j≠i

Operando sobre esta expresión, resulta


Pi ( t + ∆ t ) − Pi ( t )
= P i ( t ). ∑ λ ji . ∆ t + ∑ P j ( t ). λ ji . ∆ t (85)
∆t j≠i j≠i

que tiene la forma


dP i ( t )
Pi ' ( t ) = = Pi ( t ). ∑ λ ji . ∆ t + ∑ P j ( t ). λ ji . ∆ t (86)
dt j≠i j≠i

Si el sistema tiene n estados, resultaran n ecuaciones diferenciales, cuya solución solo


requiere conocer el estado inicial. Este sistema de ecuaciones puede ser resuelto fácilmente
aplicando alguna herramienta computacional, como ser las provistas por MatLab.

Sistema con carga compartida


Supongamos el caso de dos diodos en paralelo, figura 24. En este caso, en su
condición normal, estado 1, ambos diodos están activos simultáneamente. Los estados 2 y 3
corresponden a uno de los dos diodos fallados (esto implica dos estados distintos), y el estado
4 se tendrá cuando los dos diodos están fallados.
Si hay simetría (nunca la hay, pero a los efectos del modelo se supondrá) se puede
suponer que ambos diodos soportan la misma carga, o sea que tienen idéntica tasa de fallas. Si
uno de los diodos falla el otro diodo debe soportar toda la corriente, mientras que si ambos
funcionan cada uno soporta la mitad de corriente. En otras palabras, al producirse la falla de un
diodo, el diodo que sigue funcionando pasa a tener una tasa de fallas distinta, porque aumenta
la carga a la que esta sometido. Al circular más corriente aumenta la caída de tensión, y con
más caída de tensión y más corriente aumenta la disipación, y con ello aumenta la temperatura.
Si aumenta la temperatura, aumenta la tasa de fallas.
λ 1
D1 funciona λ
D2 funciona
2 3
D1 funciona D2 funciona
D2 fallado
D1 fallado
Fig.24 4
λ+ D1 fallado λ+
D2 fallado

126
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 127

Veamos la solución por Matlab, partiendo del estado en el cual los dos diodos están
funcionando, y también si se parte con uno de ellos en estado de falla. El sistema de
ecuaciones esta representado por el listado 1, y el solucionador del sistema por el listado 2,
donde se ha supuesto el estado 2 como condición inicial.
LISTADO 1
function y=markov(t,p)
la1=.001;la2=.003;
y=[-p(1)*la1; p(1)*la1-p(2)*la2;
p(1)*la1-p(3)*la2; p(4)*la2+p(3)*la2];

LISTADO 2
t=1:1000;
po=[0 1 0 0];
[t,p]=ode45(@markov2,t,po);
r=[p(:,1)+p(:,2)];
t1=t*.001;
plot(t1,r1)

Fig. 25

La figura 25 muestra la fiabilidad para las dos condiciones iniciales. Se observa que la
fiabilidad decae notablemente cuando el sistema parte de los estados 2 o 3.

Sistemas con reserva


En los sistemas con reserva, al producirse la falla del equipo que esta en operación el
sistema debe conmutar a la unidad de reserva; el problema es que esta conmutación no siempre
será exitosa. Una primera simplificación es suponer que la conmutación no falla. También
puede darse esta otra situación: que la unidad que está como reserva falle aún en estado de
reserva. Por lo general podrá suponerse que en estado de reserva la tasa de fallas va a ser más
baja, digamos una tasa λ-. Es decir, el nivel de carga que tiene el equipo activo será siempre
mucho mayor, aunque esto a veces puede no ser así. Por ejemplo en un ambiente de alta
humedad, el dispositivo que está activo genera calor, y por lo tanto puede sufrir menos la
humedad ambiente que el elemento que esté inactivo. Una baja disipación, en ese caso, actúa
favoreciéndolo.
E1 funciona 1
λ E2 reserva A λ
estado e1 λ-

E2 funciona E1 funciona 2
B
E1 fallado
estado e 2 λ λ
E2 fallado λ
estado e3
E1 fallado
3
E2 fallado
estado e 4

Fig.26 Fig.27

Supongamos entonces que el sistema se compone de 2 equipos: E1 y E2, y que


inicialmente E1 está activo y E2 como reserva, figura 26. Si indicamos por e1, e2, e3, y e4 los
distintos estados, entonces la fiabilidad es la probabilidad de no caer en el estado e4. Pero esto
no lleva a una ley única; depende del estado en qué se encuentra en t=0. Si en t=0 el sistema
está en el estado e3, tendrá más posibilidad de entrar en falla que si se parte del estado e1.
Una simplificación adicional sería suponer que el equipo bajo reserva no sufre carga
alguna, entonces el sistema queda reducido en la forma que indica la figura 27.
En este caso, partiendo del estado inicial 1, la fiabilidad puede ser determinada por la
probabilidad de no estar en el estado 3, lo cual ocurrirá solo después de producirse dos fallas.

127
128 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Por consecuencia, la fiabilidad estará dada por la suma de las probabilidades de que al cabo del
tiempo t no ocurra ninguna falla, Po(t), o solo una, P1(t), vale decir

R ( t ) = Po ( t ) + P1 ( t ) =
(λ .t )0 .e − λ . t +
(λ .t )1 .e − λ . t
0! 1!
= e − λ . t 1 + λ .t .e − λ . t = (1 + λ .t )e − λ . t (87)
y dado que el tiempo medio entre fallas esta dada por
∞ ∞ ∞ ∞
1
∫ R ( t ). dt = ∫ e dt + ∫ λ .t .e .dt = ∫ λ .t .e
− λ .t − λ .t − λ .t (88)
TMEF = + .dt
0 0 0
λ 0
y como además
d ( x .e x ) = e x dx + xe x dx (89)
resulta
1 1 2 (90)
TMEF + = =
λ λ λ
lo cual implica duplicar el tiempo medio entre fallas que se tendría si se usara solo un equipo.

Sistema de reserva con falla por conmutación


Como el sistema de reserva se apoya en el sistema de conmutación, el análisis de
fiabilidad del sistema debe incluir la probabilidad de que el sistema de conmutación falle.
Obviamente, si el sistema de conmutación falla, la fiabilidad quedará impuesta por el equipo
que esta en funcionamiento. Es decir, si es p la probabilidad de falla del sistema de
conmutación, entonces del estado e1 saltara al estado e4 con una probabilidad igual a p.λ.∆t, o
sea con una tasa p.λ; y la probabilidad de salto desde el estado e1 al estado e2 estará dada por
(1-p).λ.∆t), o sea con una tasa (1-p).λ , figura 28.
λ
(1- p). λ E1 funciona 1 en funcionamiento 1 en funcionamiento
E2 reserva 0 en reparación 1 en reparación
estado e1 λ- 2 en reserva 1 en reserva
µ
E2 funciona pλ E1 funciona λ
E1 fallado
λ
E2 fallado µ
estado e 2 λ estado e3 µ
0 en funcionamiento 1 en funcionamiento
E1 fallado
E2 fallado 3 en reparación 2 en reparación
estado e 4 0 en reserva 0 en reserva
λ
Fig.28 Fig.29

Lo que esto pone en evidencia, es que la clave en un sistema de reserva es que la


fiabilidad del sistema de conmutación debe ser muy alta

Sistema con reserva y mantenibilidad


El método de Markov resulta muy apropiado cuando se quiere analizar un sistema
con mantenibilidad. Es decir, los equipos cuando caen en falla pasan a mantenimiento, y uno
de los que esta en reserva pasa a funcionamiento. Esto para un sistema de tres equipos, uno
activo y dos en reserva, dará lugar a los estados indicados en la figura 29.
Cuando interesa solo la fiabilidad, prefijado el estado del cual se parte, únicamente
deben ser consideradas las transiciones que aseguren la continuidad del servicio. El análisis de
estos sistemas será considerado en el capitulo dedicado a la mantenibilidad de los equipos

128
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 129

Método de las cargas


El método de las cargas, desarrollado por las Fuerzas Armadas Norteamericanas y
documentado en la norma HDBK-217, ha sido adoptado casi universalmente por la industria.
La única excepción es en alguna medida la industria de las telecomunicaciones, que sigue las
normas que emite el grupo de investigación y desarrollo integrado por las empresas del
conjunto Bell, la Bell Communications Research Inc (Bellcore ). La Bellcore ha desarrollado
una norma competidora aduciendo que la norma militar no se adapta a los equipos de
comunicaciones, por reflejar una posición muy pesimista. La norma Bellcore, además de
proveer distintos métodos de cálculo, resulta con valores más ajustados al permitir que los
resultados de los ensayos de depuración (burn-in) y los ensayos de campo y de laboratorio sean
tomados en cuenta en la evaluación. La norma militar contempla solo dos métodos: uno
aplicado en la fase temprana del diseño, y otro cuando se conoce la carga a la cual están sujetos
los componentes.
Lo común, sin embargo, es que, exceptuado el sector de telecomunicaciones, en la
mayoría de las aplicaciones, industriales y de servicios, se exija una estimación de fiabilidad
siguiendo la norma militar. La norma militar ha sufrido diversas actualizaciones, indicadas por
su letra terminal, siendo la ultima revisión la F-2 de febrero de 1995.
La aplicación de la norma militar presupone que los componentes son de buen origen,
es decir, el fabricante posee el dominio tecnológico necesario, y que las fallas ocurren a una
tasa constante. Esto último, si bien aceptable para componentes militares que están exentos de
fallas infantiles, igualmente es de utilidad aun cuando no se cumpla tal requisito. La norma es
siempre útil para hacer evaluaciones comparativas entre dos soluciones, pues en ese caso daría
lo mejor que se podría obtener en ambos casos.
La norma militar contempla dos métodos, el mas simple de ellos es el denominado de
conteo de partes, el cual se realiza en una fase temprana del proyecto, donde simplemente se
toma en cuenta la cantidad de componentes de igual tipo, a los cuales se les aplica una tasa de
fallas básica. El método supone que a esta altura del desarrollo solo es conocida la
configuración circuital, el tipo y cantidad de componentes.
El otro modelo parte de una tasa de base, λB, que se ve afectada por una serie de
factores multiplicadores, cada uno corresponde a un factor de carga, es decir,
λ = λ B .π T .π Qπ E .π L .........π c . (91)
donde
πT es el factor multiplicador que toma en cuenta la temperatura
πQ es un factor que toma en cuenta la norma a la que responde el componente ( proceso
de depuración al que esta sujeto el componente )
πE es un factor que toma en cuenta el ambiente o entorno de trabajo
πL es el factor de aprendizaje; si se trata de una tecnología asentada, si la producción es
continua o por lotes, etc
πC es un factor de complejidad, que depende del tipo de dispositivo, por ejemplo número
de pines de un circuito integrado, bits de una memoria, etc.
Estos factores varían con el tipo de componente y asumen valores extremos cuya
relación pueden estar en más de dos órdenes de veces. Además de los factores citados, hay
otros que dependen del tipo de componente.
La norma contempla todos los componentes electrónicos, desde soldaduras hasta
conectores, memorias, etc., dando para cado uno de ellos la tasa de fallas básica y los factores
de carga que permiten hacer la estimación de la tasa de fallas efectiva según sea la carga.
Su mayor merito es la simplicidad: Por basarse en un modelo exponencial, y
suponiendo que no hay componentes redundantes, la tasa de fallas del equipo será suma de las
tasas de falla de los componentes.

129
130 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Técnicas para la mejora de la fiabilidad


La fiabilidad inherente del equipo se puede calcular en base a la tasa de fallas de los
componentes, basándose en la información suministrada por los fabricantes, la obtenida en
evaluaciones propias, o bien tomando los valores del manual militar HDBK-217 como
representativos.
Supongamos haber realizado dicho cálculo y que los valores se sitúen en el orden de
la meta, ¿Sería esto aceptable? Bueno, la fiabilidad final del producto o sistema va a ser
consecuencia de muchos factores de fiabilidad, todos independientes entre sí, pero siempre con
un factor limitante que es la fiabilidad intrínseca o inherente a los componentes. Es decir, esta
sería la mejor fiabilidad esperable, que supone como único factor de falla la inherente a los
componentes. Esto supone que no hay errores de diseño, que el equipo no esta sometido a
ningún tipo de abuso y es bien mantenido, y que además el proceso de manufactura no ha
producido ninguna degradación, y que el software no contiene errores. Esto significa que si se
tomara en cuenta únicamente la fiabilidad inherente, se estaría haciendo una estimación
optimista. En otras palabras, como todos los otros factores lo que hacen es empeorar la
fiabilidad intrínseca, el valor de esta debiera ser algunos ordenes de veces superior a la meta.
Supongamos por ejemplo que para favorecer la ventilación fueron previstos agujeros
en la tapa superior del equipo y el usuario obstruye los mismos, tapándolos con otro equipo.
En tales condiciones de abuso el equipo va a tener un nivel de carga mayor, provocando fallas
más tempranas. Lo mismo ocurrirá si el equipo está pensado para funcionar hasta un nivel de
altura sobre el nivel del mar (el nivel de altura está vinculado a la capacidad de refrigeración
natural ) y se lo emplea en una altura mayor.
Cuando las condiciones de instalación, mantenimiento o de operación se sabe que
influyen sobre la fiabilidad, las mismas deben estar contempladas en la especificación. La
alternativa es estipular para el producto las condiciones de la instalación y los procedimientos
de mantenimiento y de operación requeridos para alcanzar el grado de fiabilidad que se
asegura.
En los equipos profesionales y en equipos militares los procesos de validación del
diseño tienden justamente a comprobar que la fiabilidad final del producto, la cual contempla
la fiabilidad de diseño y manufactura, es cercana a la meta de fiabilidad impuesta, la cual queda
limitada por la fiabilidad intrínseca. Por ello, cuando la predicción de fiabilidad intrínseca es
cercana a la meta las varias opciones son:
• Auditoria del diseño, para demostrar que todos los pasos destinados a garantizar la
fiabilidad han sido tomados
• Cambiar el esquema de solución. Visto en general: a nivel de equipos significara cambiar
algún circuito, subiendo el nivel de integración, o usando por ejemplo circuitos que debido
a su modo operativo originan una menor disipación en los elementos; a nivel de sistema
implicara cambiar la concepción del mismo.
• Descarga de elementos. Supongamos que se trate de una resistencia. Cuando el fabricante
define un nivel de disipación máximo, supongamos 0.25 vatios, presupone condiciones de
entorno y en base a ellas un valor de fiabilidad. La fiabilidad podría ser aumentada
usando una resistencia con una capacidad de disipación mucho mayor a la potencia que
efectivamente disipa.
• Usar componentes de alta fiabilidad. Algunos fabricantes ofrecen productos con distintos
niveles de fiabilidad que responden a distintos programas de prueba en manufactura.
• Incluir redundancia. El nivel de redundancia dependerá de lo que está comprometido. Si
la caída del sistema implica una pérdida grande, se deberá encontrar una solución que
permita levantarlo rápidamente; sea mediante unidades de reserva o con redundancia
activa, como es el caso de un computador personal, una PC. En este caso el elemento más
débil y crítico es el disco duro, porque tiene partes móviles, y su falla implica no solo la

130
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 131

caída del sistema, sino la pérdida de lo más valioso, que es la información almacenada.
Para resolver esto se han concebido los sistemas RAID (redundant array inexpensive
disk), un arreglo o conjunto redundante de “discos baratos”.
• Recurrir a la mantenibilidad preventiva, para eliminar las fallas por envejecimiento
• Realizar ensayos o procesos de depuración, para eliminar las fallas infantiles cuando el
diseño este basado en nuevas tecnologías, o componentes nuevos, o que resulten de
producciones discontinuas o por lotes, que haga presumir la existencia de componentes
débiles
• Realizar un proceso de asentamiento para el caso en el que haya elementos con tasa de
fallas decreciente con el tiempo

Análisis de fiabilidad
La fiabilidad final de un equipo dependerá de los componentes que lo integran, de su
diseño mecánico y eléctrico, de los procesos de fabricación, los métodos de prueba realizados,
la calidad de la instalación y la fiabilidad del software. Es decir, los análisis de fiabilidad
comprenden dos etapas:
• análisis del diseño
• análisis de los resultados de los ensayos
El análisis del diseño, a veces denominado fase A o α es principalmente un análisis
del diseño tal como es requerido por la definición de producto. Se consideran además en estos
análisis la capacidad que dispone el fabricante para asegurar que los requisitos impuestos
puedan ser cumplidos, lo que incluye un análisis de los procesos de fabricación. Los análisis
que contemplan las condiciones de uso, denominada fase B o β, tienden a evaluar el producto
bajo condiciones reales de explotación. En la fase A se contemplan los siguientes aspectos:
Fiabilidad de componentes. Se hace un estudio de los procedimientos con los cuales el
fabricante aprueba sus fuentes de componentes, de las especificaciones de fiabilidad que
formula, las comprobaciones de recepción, y las pruebas y métodos que utiliza para la
selección de sus componentes. Se juzga además el sistema que el proveedor de componentes
practica, y las acciones de seguimiento de las fallas de los componentes y de las acciones
correctivas consiguientes. En muchos sectores industriales solo pueden ser usados
componentes que han sido previamente aprobados. Adicionalmente, en los equipos
profesionales se hacen pruebas de durabilidad a largo plazo ( 2 a 5 años ) con la finalidad de
asegurar la estabilidad del componente en condiciones normales de funcionamiento.
Diseño mecánico y eléctrico. Se examina la elección de materiales, los acabados superficiales,
identificación y rotulado para la trazabilidad, requisitos sobre componentes y montaje, tipo de
construcción mecánica, requisitos sobre procesos, la forma en que se llevan a cabo las
modificaciones y reparaciones, la incombustibilidad de los materiales usados, la tolerancia
frente a descargas electrostáticas, compatibilidad electromagnética, normas ambientales y de
seguridad.
Fabricación. Se lleva a cabo un examen detallado de los procesos de fabricación y de los
controles, selección de materiales, su administración y almacenamiento. La finalidad de estos
análisis es verificar que los procesos de fabricación son adecuados y concordantes con las
exigencias de fiabilidad requeridas.
Calidad de la instalación. Se examinan los métodos y procedimientos recomendados para la
instalación, y las fases del programa de puesta en marcha.
Fiabilidad del software. Este análisis tiene por finalidad juzgar la capacidad y eficiencia de las
normas y rutinas seguidas durante el desarrollo y la fabricación de todas las partes del producto

131
132 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

de software, evaluando la fiabilidad en base a parámetros predeterminados. Se analiza la


documentación, los métodos para la verificación y la aprobación, información sobre errores,
medidas correctivas, la adecuación a las exigencias de los clientes y criterios de aprobación.
Métodos de prueba. Se evalúan los métodos de prueba que realiza el fabricante para asegurar
que el producto cumple con sus especificaciones. Estos análisis se concentran en los métodos
de prueba de componentes, de placas de circuito impreso, de software, y las pruebas finales
sobre el equipo.
Mantenibilidad. Se determina la capacidad del fabricante para proporcionar servicio técnico
para el producto. Se analiza el flujo de reparación, la organización del mantenimiento, los
centros de reparación, y los análisis de los datos obtenidos, y los cursos de capacitación y de
entrenamiento. Se analizan además los procedimientos seguidos para recibir, estudiar, trazar y
contestar informes de fallas tendientes a determinar la causa raíz del problema, y las acciones
de corrección si correspondieran. También se evalúan los procedimientos seguidos cuando el
equipo se envía a reparación, la existencia de un listado de repuestos recomendados, las
demoras en la entrega de repuestos, y la existencia de procedimientos para practicar
modificaciones en el hardware o en el software, y cuando estas serán con cargo al cliente.

Validación
Completado el diseño e implementado un prototipo, se debe comprobar que la meta
de fiabilidad ha sido lograda, dado que los cálculos predictivos se basan en tres supuestos:
• Componentes de buen origen
• Valores de carga correctamente estimados
• Producto definido en conformidad con su uso
que difícilmente pueda asegurarse que sean ciertos sin una verificación experimental.
El primer supuesto podrá asegurarse para la mayoría de los componentes, con
adecuada selección de proveedores; la excepción, son los componentes dedicados, y las
soldaduras. Las soldaduras son inevitables, y constituyen el componente de mayor población, y
además su fiabilidad depende del proceso. El segundo factor esta dependiendo de la validez de
los modelos usados en el diseño, y de la realización física del equipo.
Saber si las metas han sido logradas dependerá del análisis de los datos disponibles.
Estos datos pueden resultar de estimaciones basadas en el conocimiento del proceso físico que
provoca la falla, y de datos disponibles de fallas de los elementos que componen el producto,
recabados en las fases inicial e intermedia del desarrollo o de los ensayos de fiabilidad sobre
partes, o sobre el prototipo, realizados en la etapa final del desarrollo. También pueden basarse
en pruebas de campo, o en datos recogidos en el uso efectivo del equipo. Con cuantos más
datos se cuente, mayor será el nivel de confianza que podrá asegurarse para los resultados.
Uno de los puntos más importantes en estos ensayos es asegurar que las muestras sean
representativas.
Los ensayos no deben verse simplemente como un proceso de aceptación o rechazo.
Las causas y consecuencias de las fallas observadas durante los ensayos deben ser analizadas
en detalle, junto con la posibilidad de realizar tareas curativas.
Si bien normalmente se usan ensayos truncados o progresivos, para los cuales se
definen de antemano las condiciones de terminación, también es posible ensayar un número
dado de unidades sin prefijar de antemano requisito alguno de terminación. La fiabilidad
puede ser evaluada en cualquier momento basándose en el tiempo acumulado de ensayo y el
número de fallas. Cuando un equipo tenga varios modos de funcionamiento, deberá validarse
cada modo. En particular, la fiabilidad se establecerá para cada modo. Por caso, para un centro
musical pueden darse los siguientes modos: banda de radio de AM, banda de radio de FM,
casetera, y reproductor de CD.

132
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 133

Ensayos de fiabilidad
Supongamos que disponemos de n elementos que entran a funcionar en el instante t=0,
y que al cabo de los tiempos t1,t2, ...,ti,....tn estos componentes entran en falla, figura 30, donde
t 1 < t 2 < t 3 < ..... < t i < t i +1 < ...... < t n (92)
entonces, la fiabilidad en el momento ti estará dada por
n−i
R (t i ) = (93)
n
y la función de distribución de fallas será
i
F (t i ) = (94)
n
En el supuesto de que la tasa de fallas es constante, las horas acumuladas pueden
obtenerse del ensayo de muy pocas unidades, debido a que es posible efectuar la reparación de
aquellas unidades que entran en falla. Esto es usual a nivel prototipo donde se dispone de muy
pocas unidades para ensayo, por lo cual este procedimiento solo alargara el tiempo de
evaluación. El proceso es el mismo que si se dispusiera de muchas unidades para ensayo, solo
que hay que esperar más tiempo, figura 31. Además, si la tasa de fallas es constante, los
equipos pueden ser incorporados al ensayo en cualquier momento; solo importa el tiempo
acumulado de horas de funcionamiento.

t2
tn ti tj
tk
n t3
ti
t1 n

t t
Fig.30 Fig.31
La expresión (93) es una estimación tal vez pesimista, dado que supone que al cabo
del tiempo tn no sobrevive ningún elemento, lo cual sin duda no podría asegurarse si se
aumentase la cantidad de elementos bajo prueba. Es decir, es una mala estimación suponer que
F(tn)=1, por lo que una mejor estimación de las fallas resulta de suponer que hay un equipo
mas que al momento tn todavía no entro en falla, por lo cual
i
F (t i ) = (95)
n +1
n +1− i
R (t i ) = (96)
n +1
Del mismo modo se pueden estimar
∆F ∆ R R (t i+1 ) − R (t i ) 1
f (t ) =
∆t
= −
∆t t i+1 − t i
=
( t i + 1 − t i )( n + 1 )
para t i < t < t i +1 (97)
f (t ) 1
λ (t ) =
R (t )
=
( t i + 1 − t i )( n + 1 − i )
para t i < t < t i +1 (98)
y el tiempo medio entre fallas se obtiene a partir de la media de los tiempos para la falla,
n
ti
m o = TMEF = ∑ 1 n (99)
Estas son estimaciones puntuales. Para una mejor estimación se recurre a estimaciones
de intervalo. En este caso, en vez de un valor se determina un intervalo dentro del cual esta el
parámetro buscado. Este intervalo será función de los datos relevados y del nivel de confianza.
En particular, si se tratara del TMEF, esto implica que se desea saber con una probabilidad
dada ( 1-α), que se denomina nivel de confianza, los limites dentro de los cuales esta el TMEF.

133
134 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Como este valor medio resulta de la suma de n variables aleatorias, tendrá también carácter
aleatorio y responderá a la distribución t de Student. Como las n variables están vinculadas por
(99), el número de grados de libertad, o variables independientes, será igual a n-1. Es decir,
s
TMEF ± tα / 2 ,n −1 .
n (100)
donde
n
( t i − TMEF )2 n
t i2 − n .TMEF 2
(101)
s 2
= ∑
1 n − 1
= ∑
1 n − 1
El tiempo para la falla es un valor preciso solo si los elementos sujetos a prueba son
monitoreados en forma continua. Usualmente, para reducir el esfuerzo, la verificación es
periódica. El tiempo de monitoreo es entonces un parámetro importante que debe ser
establecido al comienzo del ensayo, debiendo ser tan corto como sea posible para no
influenciar en los resultados. Para el caso de tasa de fallas constante, debiera ser del orden del
20% del tiempo medio entre fallas. El tiempo de falla de los componentes que fallaron a
posteriori del control anterior se asigna suponiendo que la falla ocurrió un instante previo al de
monitoreo.
El otro aspecto que debe ser considerado es que en esta evaluación solo se consideran
las fallas relevantes. Son no relevantes las fallas secundarias, las fallas debidas al mal uso de
los componentes ( fuera de sus limites de carga), por ejemplo debidas a sobrecargas no
intencionales provocadas durante el ensayo. Las fallas que pudieran ocurrir debido a causas
que han sido remediadas, también deben ser excluidas, todo lo cual implica hacer un análisis de
los causales de fallas.
Así como ciertas fallas son excluidas, otros tipos de fallas son decisivas para el
rechazo, independientemente de la meta. Esto ocurre cuando las fallas afectan la seguridad.
Como tiempo acumulado de ensayo se excluyen los tiempos de asentamiento, si los
hubiera, y los destinados a la decantación de las fallas infantiles, los cuales pueden integrar la
fase final del proceso de fabricación. Los equipos sometidos a ensayos de fiabilidad se
suponen muestras representativas, y que por tanto no pueden estar sujetas ni antes ni durante el
ensayo a ninguna acción de acondicionamiento, salvo las reparaciones normales previstas para
el equipo y necesarias para poder continuar el ensayo.
Como resultado de las pruebas experimentales se trata de ver si la ley de fallas puede
ser descripta por una ley analítica, como puede ser la exponencial, u otra distribución.
Siempre, salvo que se justifique apropiadamente lo contrario, se parte del supuesto de que la
distribución de fallas del equipo es de tipo exponencial (ver página 159).
Para saber si los datos experimentales se ajustan a una distribución dada se recurre a la
prueba de Kolmogorov-Smirnov. Con esta prueba se mide la concordancia entre una
distribución acumulativa observada de valores y una función de distribución continua. La
ventaja de este método de prueba es que resulta más eficaz que el estimador χ2 cuando se
dispone de pocas muestras. Para esta prueba se puede usar la función de Matlab
kstest(x,fd,alfa), la cual permite probar que los valores experimentales, vector x, se ajustan a
los valores teóricos de la función de distribución, vector fd, con un riesgo predefinido alfa.

Ensayos de aceptación. Ensayos progresivos


La finalidad de un ensayo de aceptación de fiabilidad es demostrar que el diseño
satisface la meta de fiabilidad. Uno de los ensayos mas simples se basa en el proceso binomial
para prueba de hipótesis. El objetivo es demostrar que al cabo del tiempo T la fiabilidad es R1.
En esta prueba se colocan n unidades a ensayar, y se observa la cantidad de fallas X al
cabo del tiempo T, resultado que se compara con la probabilidad de que siendo cierto ese valor
de fiabilidad se produzcan esas r fallas. La desventaja de este método es que se podría haber

134
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 135

tomado una decisión con menor tiempo de ensayo, y además, para igual tiempo calendario, con
un menor volumen de ensayo.
Si el ensayo es realizado sobre la base de alcanzar un número de fallas dado, es
necesario un monitoreo continuo o a intervalos pequeños hasta que se produzcan las r fallas. La
ventaja es que los equipos en falla pueden ser reparados y repuestos en funcionamiento, lo cual
permite aumentar el volumen de ensayo para un tiempo dado.
En muchos casos es posible abreviar el ensayo recurriendo a una compresión de
tiempo. Por caso, la vida útil de un automóvil es cercana a los 10 años, pero en ese lapso el
tiempo de uso de los distintos dispositivos electrónicos que lo integran en promedio será
cercano a las 2000 o 3000 horas. Puede entonces aplicarse una aceleración en el sentido del
tiempo calendario. En general esto será aplicable a equipos sujetos a ciclos operativos. Cuando
se hace una compresión de tiempo, habrá que considerar la cantidad de estos ciclos operativos,
y si los mismos dan lugar a problemas de fatiga. Los ensayos acelerados, por incremento de la
carga, raramente son aplicados en los ensayos de fiabilidad destinados a validar.
En general el método desarrollado anteriormente es poco eficiente para ser aplicado en
las pruebas de validación de fiabilidad, debido a que lleva a ensayos más largos de lo
necesario. Esta condición ocurre cuando las muestras bajo ensayo están muy apartadas de la
meta, sea porque están mucho peor, o mucho mejor, que el valor establecido. Para estos casos
es mas apropiado el método de ensayo secuencial o progresivo. La única desventaja del método
secuencial es la necesidad de monitorear en forma continua o a intervalos pequeños.
La característica del ensayo progresivo es que el número de fallas para llegar a una
conclusión no esta predeterminado de antemano, sino que depende de los resultados obtenidos
en los momentos de monitoreo. En este tipo de ensayo en cada instante de monitoreo existen
tres posibles decisiones:
1. Aceptar la hipótesis de que TMEF es superior a un valor dado
2. Rechazar la hipótesis de que TMEF es superior a un valor dado
3. Continuar con el ensayo hasta cumplir la exigencia de rechazo o aceptación
Cuando se da alguna de las dos primeras condiciones el ensayo se termina; en el caso
de la tercera se debe proseguir hasta llegar a alguna de las dos primeras.
La idea es comparar las fallas que resultan del ensayo con el número de fallas r que
debieran resultar si el tiempo medio entre fallas tuviera el valor prefijado m. Estos análisis
parten del supuesto de que la tasa de fallas del equipo es constante, por lo cual la ley de fallas
es de tipo exponencial1, salvo que un análisis previo justifique el uso de otra distribución.
Bajo el supuesto de una distribución exponencial, las fallas se darán con una cierta
tasa λ=1/m, donde m es el tiempo medio entre fallas. En tal caso, la probabilidad de que al
cabo del tiempo H ocurran r fallas estará dada por
e −H /m ⎛ H ⎞
r

P (r / m ) = .⎜ ⎟ (102)
r! ⎝ m ⎠
Obviamente, contando con un solo prototipo, de producirse una falla debiera
reponerse en funcionamiento el equipo para proseguir con el ensayo.
Indiquemos por P1(r/m1) a la probabilidad de que al cabo del tiempo H se produzcan
exactamente r fallas si el tiempo medio entre fallas es m1, y que sea P2(r/m2) la probabilidad de
que se produzcan r fallas si el tiempo medio entre fallas fuera m2. El problema puede ahora ser
planteado de la siguiente forma: Si al cabo de H horas de ensayo se observan r fallas, se trata
de ver cual de las dos alternativas para m es mas plausible. Esta decisión debiera tomar en
cuenta que de ser cierta la hipótesis de que m≥m1, entonces, para aceptar tal hipótesis, la
probabilidad de ese evento debería ser alta
P aceptacion ( Si m ≥ m 1 ) = 1 − α (103)

1
véase pagina 159

135
136 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

y si fuera menor o igual a un valor m2 la probabilidad de aceptar la hipótesis debiera ser baja,
P aceptacion ( Si m ≤ m 2 ) = β (104)
De otra manera: siendo verdadera la hipótesis de que m≥m1, la probabilidad de que se
rechace debe ser baja
Prechazo ( Si m ≥ m 1 ) = P 2 = α (105)
y debe ser alta la probabilidad de rechazar si esta no fuera verdadera,
Prechazo ( Si m ≤ m 2 ) = 1 − β (106)
La figura 32, basada en (102), muestra como varia la probabilidad de que ocurran
exactamente r fallas para distintos tiempos medios entres fallas ( m ), relativos al tiempo de
prueba (H)

Fig.32

Supongamos un valor particular de r, tal como r=10. Analizando la relación P1/P2 para
los dos valores de m, m1 y m2, pueden darse tres situaciones, figura 33; buscamos vincular la
decisión de aceptar la hipótesis de que m es igual o superior a m1 con dicha relación, P1/P2 .

a) b) c) d)
Fig.33

La observación de la figura 33a nos muestra que P1 es bastante mayor a P2, por lo
cual podemos suponer que es más probable que el tiempo medio entre fallas sea m1, y no m2.
Esto implica aceptar la hipótesis de que m≥m1. Lo contrario se da en el caso de la figura 33b;
mientras que en las figuras 33c y 33d no es posible tomar ninguna decisión. En ambos casos es
necesario proseguir el ensayo, hasta caer en una de las situaciones anteriores.
Veamos esto más en detalle. Supongamos por ejemplo que al cabo del tiempo Ho se
han producido 10 fallas, resultando para los valores supuestos de m1 y m2 las probabilidades
indicadas en la figura 34a. Vemos que en este caso las probabilidades P1 y P2 son muy
similares, no permitiendo sacar ninguna conclusión. Al proseguir el ensayo durante H1 horas
adicionales se pueden presentar tres escenarios:

136
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 137

• Que se haya incrementado el número de fallas, pero se mantenga la indeterminación,


figura 34d, quedando en una situación similar a la de la figura 34a
• Que no se haya producido ninguna falla adicional, lo cual, como se ve en la figura
34b, esto conduce a la aceptación de la hipótesis.
• Que haya habido un incremento importante de fallas, figura 34c, lo cual nos lleva al
rechazo de la hipótesis
El problema que resta es saber como definir los límites para la toma de decisiones.
Esto requiere agregar un criterio adicional. Wald sugirió relacionar las probabilidades P1 y P2
con las probabilidades de aceptación y de rechazo.

Aceptar

a) Rechazar b)
Proseguir

c) d)
Fig.34

Supongamos que se trata de definir el límite de aceptación. Si aplicamos un factor de


escala x a la probabilidad P1 de modo que coincida con 1-α,
P1' = x . P1 = 1 − α (107)
resulta como factor de escala x
1 − α
x = (108)
P1
el cual se aplica al valor P2 con el fin de compararlo con el valor de β. El criterio es aceptar la
hipótesis de que m ≥ m1 si se verifica que
(109)
x .P 2 ≤ β
lo cual lleva a definir la probabilidad Pa de aceptación de la hipótesis por la condición
β
Pa = P1 ≥ P 2 (110)
1− α
Esta condición también puede ponerse en la forma
P2 β
≤ (111)
P1 1 − α
siendo convencional denominar B a la relación a cumplir por P2/P1 ( por estar vinculado a β )

137
138 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

β
B = (112)
1 − α
Para clarificar ideas, supongamos que se busca determinar el tiempo mínimo en que
podría ser alcanzada la decisión de aceptar y que se fija como factor de discriminación del
ensayo
m
D = 1
= 5
m 2
(113)
y que α=0.1 y β=0.1, de modo que B = 0.111. Es obvio que el menor tiempo de aceptación
resultara cuando se cumpla la condición ( 110 ) sin haber ocurrido falla alguna. Ahora bien,
para r=0, P2 y Pa pueden expresarse en función de m/H, expresión (102), en la forma
r
e − H / m1 ⎛ H ⎞
P a = B . P1 ( r = 0 / m 1 ) = B . .⎜⎜ ⎟⎟ = B .e − H / m1
(114)
r! ⎝ m1. ⎠
r
⎛ D .H ⎞ e − D . H / m1 (115)
P2 ( r = 0 / m 2 ) = P2 ( r = 0 /( m 2 = m 1 / D )) = .⎜⎜ ⎟⎟ = e − D . H / m1
⎝ m 1 ⎠ r!
Luego, en base a la condición límite impuesta por la expresión (110) resulta el valor
de (m/H) que cumple con la condición para la aceptación de la hipótesis para mínimo tiempo
de ensayo,
1
H = . ln( 1 / B ) * m 1 = 0 . 549 * m 1 (116)
4
Del mismo modo se puede obtener el menor tiempo en el que se puede aceptar que el
tiempo medio entre fallas real es m≥m1 habiendo ocurrido una falla, figura 35,
1
H = . ln( D / B ) * m 1 = 0 . 9519 * m 1 (117)
D −1
Para que haya posibilidad de rechazo necesariamente debe haber ocurrido alguna falla
de modo prematuro. Esto puede verse por el hecho de que para r=0 es siempre P1>P2, figura
36, lo cual vuelve imposible aplicar el criterio de rechazo para r=0. Por el contrario, para
aceptar la hipótesis, impuestos m1 y m2, solo se debe hallar el valor de H que satisface la
relación P1/P2 que se corresponde a los niveles de confianza establecidos, figura 36.

P1
P2

m2/H m1/H
Fig.35 Fig.36

Establecer la condición para el rechazo de que m≥m1, sería lo mismo que establecer la
condición de aceptación de que m≤m2. En este caso se aplica el factor de escala sobre P2, de
modo que
x . P2 = 1 − β (118)
resultando un factor de escala
1− β (119)
x =
P2
Luego, se acepta la hipótesis de que m ≤ m2 si se verifica que
x . P1 ≤ α . (120)
o sea

138
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 139

P1 α

P2 1 − β (121)
o también
P2 1 − β
≥ = A (122)
P1 α

Teniendo en cuenta (112) y (122) , la condición para continuar puede expresarse como
P2
B < = D r .e − H ( D − 1 ) / m 1 < A (123)
P1
que puede también ponerse en la forma
ln( B ) < r . ln( D ) − H ( D − 1 ) / m 1 < ln( A ) (124)
y operado queda
ln( B )
+ ( D − 1 ).
H
< r <
ln( A )
+ ( D − 1 ).
H (125)
ln( D ) m1 ln( D ) m1

Cuando se fijan valores para A, B y D esto determina un plan de muestreo, y define en


el plano (r,H/m1) las rectas limites
⎛ ln( B ) ⎞ ⎛ H ⎞ ⎛ H ⎞ (126)
r = ⎜⎜ ⎟⎟ + (D − 1 ). ⎜⎜ ⎟⎟ = a + b . ⎜⎜ ⎟⎟
⎝ ln( D ) ⎠ ⎝ m 1 ⎠ ⎝ m 1 ⎠
⎛ ln( A ) ⎞ ⎛ ⎞ ⎛ H ⎞
r = ⎜⎜ ⎟⎟ + (D − 1 ). ⎜⎜ H ⎟⎟ = c + b . ⎜⎜ ⎟⎟ (127)
⎝ ln( D ) ⎠ ⎝ m1 ⎠ ⎝ m1 ⎠

de las regiones de aceptación, rechazo o continuación.


Cuando para el ensayo se cuenta con un solo equipo, entonces, si cada vez que se
produce una falla el equipo es reparado y repuesto nuevamente en funcionamiento, se tendrá
un tiempo de funcionamiento acumulado
H = t 1 + t 2 + ........ + t r (128)
donde ti es el tiempo de funcionamiento desde la reposición i-1 hasta la falla i. Si se tratara de
r equipos que son puestos en funcionamiento en forma simultanea, H será el tiempo
acumulado de ensayo hasta que se produzca la falla de los r equipos.
tiempo esperado para la decision

numero de
r fallas Finalizacion por tiempo
s
la

ensayo truncado
al
rf
po
n

ensayo progresivo
io
ac
liz
na
Fi

ensayo progresivo
ensayo truncado Finalizacion con cero fallas

H Tiempo medio entre fallas real


tiempo acumulado de ensayo
lineas de rechazo
lineas de aceptacion
a) b)
Fig. 37
La diferencia entre el ensayo progresivo y los ensayos truncados por fallas o por
tiempo, son evidenciadas en las figura 37a y b. De la observación de estas curvas surge que las
principales ventajas del ensayo progresivo son:

• La cantidad de fallas para llegar a una decisión es mínimo


• El tiempo acumulado del ensayo para llegar a una decisión es mínimo
• Hay un tiempo máximo o número de fallas máximo para decidir en uno u otro sentido

139
140 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

y sus desventajas:
• El número de fallas y el costo del ensayo varían de un modo amplio; esto implica que
no puede establecerse de antemano un plan que contemple la asignación de recursos y
tiempo de ensayo de un modo definido
• El máximo número de fallas y el tiempo de ensayo pudiera resultar mayor al que
requiere un ensayo truncado
Por otro lado, los ensayos truncados tienen como ventajas:
• El tiempo de ensayo es fijo, lo cual permite una mejor asignación de los recursos
• El número de fallas queda prefijado al comienzo del ensayo, y en tal caso es posible
determinar el número de equipos requeridos desde el inicio, pudiendo proseguir con el
ensayo hasta alcanzar la meta sin necesidad de reparar los equipos que entran en falla
• El tiempo de ensayo es mas corto que el que pudiera resultar en un ensayo progresivo
si se esta muy cercano a la meta
y como desventajas:
• En promedio, el tiempo de ensayo es mayor al que resulta con un ensayo progresivo
• Equipos muy buenos o muy malos requieren excesivo tiempo de ensayo, si se lo
compara con el requerido por un ensayo progresivo
La norma IEC 605-7 y diversas normas militares contienen gran variedad de planes de
ensayos progresivos, desarrollados para distintos valores de α y β, y del factor de
discriminación del ensayo
m1 TMEF aceptable
D = = (129)
m 2 TMEF no aceptable
y en las mismas se incluyen las curvas de operación, los criterios de decisión, y la probable
duración del ensayo. Las figuras 38 y 39 muestran las curvas correspondientes al plan 4:1, con
factor de discriminación D=1.5 y las figuras 40 y 41, corresponden al denominado plan 4:4,
con un factor de discriminación D=5.

Fig.38 Fig.39
Se observa que a medida que D es mas bajo, lo cual implica mejor discriminación
entre lo aceptable y lo no aceptable, el tiempo de ensayo se ve notablemente aumentado. Por
ejemplo, para D=5 el valor esperado del tiempo de ensayo, cuando se esta en la proximidad de
la meta, es de E(t)=0.7*m1, mientras que para D=1.5 resulta E(t)=20*m1. Esto muestra que
solo se justificará realizar un esfuerzo de ensayo casi 30 veces superior en casos muy
especiales. Por otro lado, si se fijara el mismo valor del TMEF no aceptable, el primero
resultaría más ventajoso.

140
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 141

Fig.40 Fig.41

Los ensayos de comprobación normalmente se realizan en las etapas tempranas del


desarrollo o en preproducciones, con la finalidad de determinar que cambios es necesario
introducir en las fases más tempranas del desarrollo. Esto plantea el problema de la
representatividad de las muestras usadas para los ensayos. El ideal es que las muestras sean
extraídas de una población de modo aleatorio. Esta es una limitación importante en las
primeras etapas del desarrollo, donde solo se dispone de unos pocos prototipos.
Otra limitación a tener en cuenta es que los resultados anteriores suponen que la tasa
de fallas es constante. Si esta condición no se cumple, será necesario analizar las
consecuencias de una tasa de fallas creciente o decreciente con el tiempo. En general, si el
tiempo bajo ensayo es menor que el tiempo medio entre fallas verdadero, aquellos equipos que
tengan una tasa de fallas decreciente tienen menos probabilidad de pasar la prueba que equipos
que exhiben una tasa de fallas constante. Lo contrario pasara con equipos con tasa de fallas
creciente. Esto puede llevar a aceptar equipos con una tasa de fallas a largo plazo elevada.
Previo a su realización, en estos ensayos se debe:
• Definir el equipo bajo prueba. Esto implica definir claramente que partes del equipo serán
sometidas a prueba, buscando por un lado :
o Reducir la magnitud del ensayo, excluyendo de la comprobación aquellos
componentes cuya fiabilidad excede largamente la meta
o Omitir los componentes susceptibles de ser cambiados por el usuario, o cuyo estado
inicial no puede ser totalmente definido ( estado de carga de una batería ), o bien por
el hecho de que estos componentes dentro del tiempo en el que se quiere estimar la
fiabilidad deben ser cambiados ( por estar sujetos a acciones de mantenibilidad )
• Definir la condición de falla. Esto implica definir el valor límite que pueden tomar los
parámetros del equipo para considerarlo en estado de falla
• Definir la carga y factor de aceleración. La carga impuesta en los ensayos de laboratorio
debe estar relacionada con el comportamiento del equipo en campo, y ello solo es posible
si se cuenta con información que permita relacionar ambos. Para equipos sujetos al mismo
tipo de uso, y valiéndose de iguales métodos de ensayo, establecer esta relación solo
requiere hacer una evaluación.
• Definir el plan de ensayo. Para seleccionar un plan de ensayo se debe:
o Determinar el tiempo medio entre fallas mínimo aceptable ( m2). Si m1 es el tiempo
medio para la falla especificado, definir m2 dependerá del factor de discriminación
del ensayo D y del factor de aceleración FA.
o Determinar el máximo tiempo disponible para el ensayo. En la etapa de desarrollo,
el tiempo y la cantidad de equipos se determinan para conformar el programa de
desarrollo, pero siempre es recomendable usar para las pruebas de fiabilidad, como
mínimo, 3 unidades.

141
142 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Depuración del diseño y crecimiento de la fiabilidad


A medida que progresa el proyecto, adicionalmente a los FMEAs realizados desde
una etapa temprana, se realizan ensayos sobre las distintas partes definidas para el equipo
buscando depurar su diseño. Este proceso es esencial y debe ser previo a la fase de validación.
Los ensayos depuradores se centran especialmente en las partes más susceptibles a
errores de diseño, evaluando las características funcionales requeridas en la especificación, y
haciendo mediciones de consumo, polarizaciones y niveles lógicos correspondientes al estado
inicial del circuito, y de otros estados más relevantes, así como una verificación térmica, de
interferencias, ruido, sensibilidades, etc.
En estas pruebas, dedicadas a mejora continua de la fiabilidad, se diseñan y siguen
procedimientos específicos orientados a la depuración del diseño. En su nivel más primario se
harán sobre plaquetas armadas por el propio ingeniero de desarrollo. Opcionalmente, previo a
estas pruebas, podrán hacerse verificaciones armando el circuito en plaquetas de prueba, del
tipo “bread-boarding”, o recurriendo a un programa de simulación como SPICE. En esta etapa
se testean en forma independiente algunas áreas o etapas del circuito, aisladas de otras, y recién
después de verificada su funcionalidad y características de interés, se podrá hacer una prueba
completa sobre 3 o 4 prototipos. Si no se hicieran, y hubiera muchas fallas debido a errores de
diseño, común en los primeros prototipos, se haría muy difícil la tarea de aislar los errores. La
prueba por módulos es el mejor modo de simplificar esta tarea. No hacer comprobaciones
parciales del diseño solo posterga el momento de aparición del problema, ocasionando mayores
costos y perjuicios. Además, lograr un diseño más robusto implica un esfuerzo por única vez.
Con la depuración se busca verificar que los dispositivos son usados correctamente,
con cargas bien establecidas, que la manufactura no acarrea sobrecargas ni existen vicios de
proceso, ni debidos al modo en que los productos son almacenados, serán instalados, reparados
o usados, asegurando al mismo tiempo un software libre de errores. En otras palabras, se busca
mejorar la fiabilidad final aumentando la probabilidad de éxito de cada uno de los sucesos,
R ( t ) = R i ( t ). R d ( t ). R m ( t ). R s ( t ) (130)
de forma de acercarla a la fiabilidad inherente a los dispositivos.
En la etapa de crecimiento, cuando el equipo bajo ensayo manifiesta una falla, la
misma debe investigarse para reconocer si se trata de una falla inherente al dispositivo en falla,
y pueda considerarse aleatoria, o es esperable debido a desgaste, o si es por alguna causa
externa al mismo. Cuando los ensayos muestran recurrencia de fallas, con aparición de dos o
más fallas de un mismo componente, o de un mismo modulo, o en la misma ubicación, o que
ocurren en relación a un cambio dado de carga, son todos síntomas de una debilidad del diseño,
o indicativos de componentes de baja fiabilidad.
También es necesario investigar la causa de falla de todas las primeras fallas que se
producen a posteriori del lanzamiento del producto al mercado. Es decir, estas fallas no
pueden ser tratadas como simples acciones de mantenimiento sin antes comprobar que se trata
de una falla normal y que cae dentro de lo esperable.

Modelos de crecimiento de la fiabilidad


Los ensayos de fiabilidad tienden a mostrar que el diseño y los procesos de
manufactura son adecuados, y que el producto satisface las exigencias de uso. Hasta lograr que
el equipo pase los ensayos de aceptabilidad, se realizaran continuas pruebas, investigaciones, y
análisis hasta la detección y posterior corrección del problema, ejecutando recurrentemente el
ciclo de la figura 42.
Si
Diseño inicial Ensayo ¿Satisface?

Fig.42 Rediseño Análisis de


ingeniería

142
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 143

Los datos obtenidos de los sucesivos ensayos se vuelcan en las curvas de crecimiento.
Las curvas de crecimiento sirven para medir no solo el progreso en el decaimiento de la tasa de
fallas; sino que también sirven para medir la efectividad de las pruebas, y predecir un tiempo
probable en que podrán ser alcanzadas las metas impuestas; y ciertamente saber si en un dado
tiempo se puede lograr el objetivo.
Usualmente, estos ensayos se comienzan en una fase temprana del desarrollo, figura
43, y se continúan aun después del lanzamiento de la producción. En sus comienzos las
evaluaciones se harán sobre los componentes seleccionados, y los procesos de manufactura
implícitos en esa selección.

Curva de crecimiento
de la fiabilidad Meta de fiabilidad
Fiabilidad
Ensayo de circuitos

postlanzamiento
preproduccion

Evaluacion de
Evaluacion de
preprototipos

Mejoramiento
componentes

b
Evaluacion

Evaluacion
Evaluacion
Ensayo de

prototipo

service

campo
Lanzamiento ta t
producción
tiempo
Fig.43 Fig.44

La idea de graficar los valores de R, m (TMEF ) o λ durante el desarrollo sirve no solo


para cuantificar los progresos, curva a, figura 44, sino también para determinar si es necesario
incrementar esfuerzos o prorrogar el lanzamiento, curva b, y es una medida conservadora del
crecimiento de la fiabilidad,
n−r
R (T ) = (131)
n
donde se supone que al momento T, de n elementos o equipos en funcionamiento, se han
producido r fallas. Pero, como a lo largo del desarrollo se van eliminando causales de falla, es
evidente que la fiabilidad que importa es la fiabilidad instantánea, la que resulta del equipo que
se esta probando con las mejoras introducidas.
Uno de los primeros modelos usados para evaluar la mejora del tiempo medio entre
fallas o, lo que es equivalente, la tasa de fallas, es el modelo de Duane. Es un modelo
empírico muy utilizado durante el desarrollo para la estimación del crecimiento de la fiabilidad.
Tiene la ventaja de que puede evaluarse en función del tiempo, contabilizando el tiempo de uno
o varios equipos, o basarse en ciclos o bien en eventos para elementos de único uso.
Partiendo de los datos experimentales se puede determinar
r
λ = (132)
Ta
cuya evolución , siguiendo el modelo de mejora de Duane, será del tipo
λ = a.T a− α (133)
Linealizando la expresión ( 133 ) resulta
log λ = log a − α . log T a (134)
En función de los datos de r y Ta que resultan de las pruebas, se hallan los parámetros
a y α que mejor ajustan al modelo. Con estos parámetros se puede hacer una estimación del
tiempo que demandara alcanzar la meta, después de transcurrido un tiempo de mejoras Ta.

143
144 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Fiabilidad de componentes: Datos de los fabricantes


Aunque todos los fabricantes realizan esfuerzos para la mejora de la fiabilidad de sus
componentes, son pocos los que proveen información precisa de ayuda para el diseño. Solo en
pocos casos se cuenta con análisis y datos disponibles, como los suministrados por caso por
Siemens para la selección de capacitores electrolíticos, Siemens Components Report 5/78 y
6/83. El análisis parte del supuesto de que el tiempo para la falla m a una temperatura T se
vincula con el tiempo para la falla mo, a una temperatura de referencia To=40ºC, por
T − To
− (135)
m = mo 2 T
Luego, si RESR es la resistencia de perdidas serie del capacitor,
tg ( δ )
R ESR = (136)
ω .C
la potencia disipada en el mismo cuando esta sujeto a la corriente eficaz I, estará dada por
Pd = I 2 . R ESR (137)
Esta potencia sobreeleva la temperatura del capacitor en un valor ∆T, valor este que
resulta de alcanzar el equilibrio entre la potencia disipada y la transferida al ambiente,
P = h. A.∆T (138)
t
El factor de transferencia h varia entre 0.001 y 0.002 Watt/cm2.ºC, dependiendo del
diámetro del capacitor, y el valor del área de transferencia A, la cual se relaciona con las
dimensiones del capacitor. Combinando ambas expresiones se halla que
h . A .∆ T h . A . ∆ T . w .C (139)
I max = =
R ESR tg ( δ )
Normalizando las dimensiones, es posible obtener para cada una de ellas los valores
de A y h, de modo que para cada encapsulado queda definida la corriente máxima en relación a
la sobreelevación. Esta sobreelevación, por (135), se vincula con el tiempo para la falla, cuando
son conocidos C, w y tg(δ). Para simplificar el tratamiento, y obtener un valor de
caracterización propio de un tamaño se adoptan valores de referencia ∆Tr, Cr,wr y tgδr, de
modo de establecer una corriente máxima de referencia para cada modelo ( encapsulado )
h . A . ∆ T r . w r .C r (140)
Ir =
tg δ r

de modo que
I max ∆T ω C tg δ
=
Ir ∆Tr ω r Cr tg δ r (141)
es una característica propia de un tipo de componente, figura 45.

Fig.45

T ºC

Como la aplicación impone el valor de la corriente máxima, el valor de la frecuencia


(ω=2.π.f) y el valor de capacidad requerido, la selección del tipo de capacitor resultara de los
valores de la corriente de referencia y la tg δ, que figuran en las hojas de datos del componente.

144
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 145

Fiabilidad de software
La fiabilidad de software se diferencia de la de hardware en que en software las fallas
son siempre consecuencia de errores, y por tanto un programa en su ejecución funcionara o
fallara siempre; en este sentido, no tendría carácter aleatorio. Deviene así solo cuando el
camino en el que esta el error es recorrido en forma aleatoria durante la ejecución del
programa, y esto ocurrirá para cierta combinación de entradas y estados anteriores.
Bajo el supuesto anterior, se define la fiabilidad de software como la probabilidad de
que un programa opere sin fallas durante un tiempo en un entorno dado. El entorno se relaciona
con el perfil operativo. Este resulta definido por la característica de distribución de las entradas,
o de los estados del sistema, figura 46.
Especificación

Documentación
Definición estructura y metricas
Probabilidad
de ocurrencia Definición algoritmos

Codificación
Depuración
Integración

Validación
Estados
Fig.46 Fig.47

El desarrollo de software sigue el proceso indicado en la figura 47. El primer paso es


definir la especificación. Este documento incluye las exigencias del usuario y las que impone
el hardware, es decir, las que resultan de la plataforma que le sirve de base y con la cual debe
interactuar. En tanto que la especificación de hard es común que exista en todos los proyectos,
una especificación de software completa es menos frecuente. Esto podría explicarse por el
hecho de que el conocimiento del hard es necesario para poder realizar el soft, a efectos de que
este sepa como manipular el hard; mientras que el soft no tiene otro “cliente” que requiera
documentación. Por otro lado, el software cambia con frecuencia, debido a lo fácil que es
agregar o sacar funcionalidad con solo variar unas líneas, y esto hace más difícil mantener
actualizada la documentación. Este es el punto débil de muchos proyectos, quizás porque el
software es lo último que se realiza, y el tiempo que resta para documentar es escaso, quedando
en muchos casos tan solo resumida a comentarios a continuación de las líneas de código.
La documentación de software debiera identificar los detalles de diseño necesarios
para entender como funciona, y contener:
• Listado de los requerimientos, especificación de ingeniería, definición del hardware
• Protocolos de comunicaciones con otro software, dentro del mismo producto y
externos al mismo. Esto incluye los mecanismos de interfase, protocolos de comando
y de respuesta, definición de los conflictos o colisiones, y todo lo necesario para el
intercambio de información entre las partes
• Una descripción de cómo el diseño es implementado, en su relación con las
interfaces, valiéndose de flujogramas, diagramas de estado, seudo codificación, etc.
La tarea que mas esfuerzo demanda es la de depuración, la cual no se resume solo a
eliminar los errores, sino que también debe generar la información que permita estimar la
fiabilidad del software. La depuración busca eliminar errores debidos a inadecuada:
• Especificación
• Inicialización
• Manejo de excepciones ( situaciones anormales )
• Validación de entradas
• Lógica, etc

145
146 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Los tres primeros puntos son los más importantes. El primero porque es el que
condiciona el desarrollo del software; el segundo implica definir el estado del cual debe partir
el sistema en su arranque o en cada reinicialización, pero igual criterio debe ser aplicado para
cada módulo. El tercero implica que deben estar definidas las acciones para todos los estados
del sistema, considerando todas aquellas acciones que sean susceptibles de ocurrir.
La programación para los productos electrónicos es normalmente realizada en C o en
lenguaje ensamblador, y esto la diferencia de las programaciones dedicadas a ejecutarse en una
PC, donde lo usual es codificar en C++ , Java u otros lenguajes, pero nunca en lenguaje de
maquina o ensamblador. La otra diferencia es que en la programación de microcontroladores,
la programación es más detallada y menos genérica, es decir, esta muy relacionada con el hard
con el cual debe vincularse. Además, importa la velocidad, dado que la operación es de tiempo
real. Otra diferencia importante, es que mientras que para los programas que corren en PC se
aceptan y se considera normal que existan errores, esto, para el software de los productos
electrónicos es en la mayoría de los casos totalmente inaceptable, en especial cuando median
razones de seguridad, como podría ser el caso de controladores dedicados al automóvil.

Métricas de complejidad
El objetivo de la depuración es eliminar errores a fin de mejorar la fiabilidad, o lo que
es igual, aumentar el tiempo medio para la falla, figura 48. Es obvio que la posibilidad de
cometer errores será dependiente de la complejidad del software, de su tamaño y de la
estructuración de la solución. Si bien los programas cortos pueden estar libres de errores, en los
programas muy largos estos serán inevitables y seguramente la cantidad de errores ET inicial
será proporcional a la longitud del programa, medida por líneas de código (LOC), figura 49.
TMPF ET

diferentes
estrcuturas
t
Eliminación de errores LOC (longitud)

Fig.48 Fig.49

La longitud del programa importa además para evaluar el esfuerzo de desarrollo.


Halstead fue el primero en proponer una estimación preliminar del tamaño del programa,
basándose en la cantidad de operandos y operadores. Shooman, basándose en las leyes de Zipf,
llega a una expresión similar. La primera ley de Zipf establece que la frecuencia de aparición
fr de cada una de las t palabras distintas contenidas en un texto escrito en un dado lenguaje,
ordenando las t palabras conforme a un rango r según sea su frecuencia, verifica
c (142)
fr =
r
donde c es una constante. Por la forma en que ha sido definido, r es una variable que se
extiende desde 1 a t. Si fr es la frecuencia de aparición de la palabra de rango r, entonces en
un texto de n palabras, habrá
c .n (143)
nr =
r
palabras de rango r.
Ahora bien, la función de frecuencia fr deberá cumplir con la propiedad fundamental
de probabilidades

146
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 147

t
(144)

1
f r ( r ). dr = 1

de la cual resulta,
1 (145)
c =
ln( t )
Otra condición resulta de aceptar que el máximo rango ( rmax = t ) aparece un número
de veces dado; aceptando que aparezca solo una vez, de (143) resulta
c .n (146)
1=
t
y combinando las dos últimas expresiones surge que
(147)
n = t . ln( t )
que tiene similitud con la expresión sugerida por Halstead, si se considera separadamente la
cantidad de operadores n1 y de operandos n2 usados en el desarrollo del programa,
n = n 1 . log 2 ( n 1 ) + n 2 . log 2 ( n 2 ) (148)
El valor de LOC dependerá de la estructura, los algoritmos, y el lenguaje. Un lenguaje
de mayor nivel permite además de reducir un orden de veces la longitud, obtener una mejor
estructuración del programa (mas fácil de entender y seguir), y aumentar la fiabilidad.

Estructuración y modularización
Un programa se vuelve más fiable en la media en que es estructurado y modular.
Una solución modular busca que un problema complejo y de difícil tratamiento como conjunto
sea resuelto mediante la solución de pequeños problemas, más fácilmente tratables. Un
módulo, por definición, es un trozo de programa que tiene una única entrada y una sola salida.
Cuando el programa esta compuesto por una secuencia de instrucciones que se
ejecutan una a continuación de otra, de haber un error, siempre fallara en su ejecución. Esto
puede no ocurrir si el programa tiene al menos una bifurcación, y solo una de sus ramas
contiene el error. En tal caso, la falla dependerá de la probabilidad de pasar por esa rama.
McCabe definió una medida de complejidad, denominada complejidad ciclomática,
y la vinculo con la fiabilidad del programa. McCabe supone que un programa es más
susceptible al error en los puntos de decisión (una rama de cualquier tipo) que en el medio de
una codificación lineal. Es decir, cuantos más lazos haya, mayor será el nivel de complejidad,
más difícil será su desarrollo, insumirá más tiempo la depuración, y será también menos fiable
y más difícil de mantener.
Por ello, el primer paso será dividir el programa en módulos independientes, buscando
que estos no superen un nivel de complejidad. La independencia se obtiene haciendo que cada
módulo tenga una sola entrada y una única salida, aunque internamente puede tener estructuras
complejas, no secuénciales. La solución es estructurada si el programa, y cada módulo, es
combinación de alguna de las estructuras de lazo definidas en la figura 50. Son módulos
estructurados el A, C,D,F y G; también lo son el B, el E y el H.
lin e a s d e l flu jo g r a m a

D C G

A B E H
e s tru c tu ra d o n o e s tru c tu ra d o

a) b)
Fig.50 Fig.51

147
148 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Disponiendo cada módulo de modo que todos los lazos queden en el mismo
semiplano, definido este por una línea que marca la secuencia de tareas a ejecutar, la condición
estructurada implica que no haya entrecruzamiento de los distintos lazos. Será así si los lazos
están anidados, figura 51a, situación que no se da en la figura 51b.
La complejidad de McCabe resulta de contar la cantidad de regiones formadas por el
conjunto de lazos, sumando a las regiones internas, la externa; es decir, para el caso de la
figura 51a el índice de complejidad valdría 6. Como criterio de diseño, se recomienda no
superar un valor de 10; si se superara, se debería subdividir el módulo en módulos mas simples.
λ(t)
Poca documentación
Mal estructurado
i (ti,pi)
Poca modularidad operacion mantenimiento j
depuración

depuración operacion
t
Fig.52 Fig.53

Una mala documentación, programación poco estructurada y falta de modularidad


pueden deteriorar la tasa de fallas en procesos posteriores de mantenimiento, y dificultar la
depuración, figura 52.

Modelos de fiabilidad de software


En su primer corrida el programa tendrá cierta cantidad de errores ET, que referidos a
la cantidad de sentencias o instrucciones IT define la tasa inicial de errores,
ET
εT = (149)
IT
la cual puede oscilar entre el 0.1% y 1%. Conociendo la longitud del programa, es posible por
tanto tener una idea aproximada de la cantidad de errores iniciales que contiene.
Cuando se ejecuta el programa, la probabilidad de que encuentre un error dependerá
de que la ejecución pase por el camino donde se encuentra el error. Si se piensa en que la
ejecución de un programa consiste en moverse dentro de una red de software, en la cual los
arcos representan segmentos de ejecución del programa y los nodos estados del programa
previos a la ejecución de un segmento, habrá entonces una probabilidad pi de que estando en
el estado j sea seleccionado un arco dado i. La ejecución de las sentencias de este arco
supone un tiempo ti. Es decir, si se aísla una parte del programa, resultara un grafo como el
indicado en la figura 53. Supongamos que en el grupo de sentencias del arco i existiera un
error. Entonces la probabilidad de que este se manifieste entre t y t+∆t dependerá de la
probabilidad de que habiendo tenido t horas de ejecución correcta, el programa pase por el
arco i durante el intervalo ∆t subsiguiente.
A través de sucesivas ejecuciones, en la fase de depuración, se detectan y corrigen los
errores iniciales. Los dos principales problemas que plantea la depuración son:
• Definir una estrategia de depuración, de modo de pasar por todos los arcos
• Definir el criterio para dar por finalizado el proceso de depuración
Cuando los errores están contenidos en arcos de alta probabilidad de ejecución serán
fácilmente detectados, pero aquellos con baja probabilidad de ejecución serán de mas difícil
detección si se ejecuta el programa en condiciones normales. Para poder detectarlos en tiempos
razonables será necesario buscar la forma de forzar su frecuencia de ejecución.
La finalización del proceso de depuración puede ocurrir por tres causas:

148
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 149

• Se ha alcanzado una meta


• La tasa de remoción se hace muy baja, y se requiere mucho esfuerzo (tiempo)
para encontrar una mejora. Esto ocurrirá, cuando ciertas ramas del programa
tengan poca probabilidad de ejecutarse.
• El proceso de depuración siembra mas errores que corrige; en vez de aumentar el
TMEF, empieza a disminuir o se mantiene constante, pero oscilando alrededor de
un valor
Las metas pueden resultar de:
• Asumir la imposibilidad de corregir todos los errores, fijando un tiempo medio entre
fallas debido a errores de software. Se recurre por ejemplo del modelo de Showman
• Establecer un máximo número de errores residuales, teniendo como limite último
cero errores

Modelo de Shooman
Shooman propone para la fiabilidad un modelo exponencial, con una tasa de fallas
proporcional a la tasa residual de errores,
(150)
ε r (τ ) = ε T − ε c (τ )
siendo εT la tasa de errores totales, y ε c(τ) la tasa de corrección, o sea la cantidad de errores
corregidos al cabo del tiempo τ, Ec(τ),
E c (τ )
ε c (τ ) = (151)
IT
de modo que
R (t ) = e − λt = e − kε r (τ ).t = e − k .(ε T −ε c (τ ).t (152)
El modelo implica:
ƒ Aceptar que el programa quedara siempre con errores residuales ( λ≠0 )
ƒ La fiabilidad puede mejorarse con mayor tiempo de depuración
ƒ ET y k son constantes invariables del modelo, obtenidos de datos experimentales
Supongamos que en n ejecuciones del programa, hubo r fallos y (n-r) ejecuciones
exitosas. Si Ti es el tiempo de una ejecución exitosa, y tj el de una ejecución fallida, las horas
totales de funcionamiento serán
n−r r
H = ∑T +∑ t
i =1
i
j =1
j (153)

Asumiendo un modelo exponencial, el tiempo medio entre fallas estará dado por,
1 H
TMEF = = (154)
λi
i
r
Este modelo supone que al final de un tiempo de corrección τ se alcanza un
1
TMEF =
⎡ E ⎤
k ⎢. T − ε c (τ ) ⎥ (155)
⎣ IT ⎦
Contando con dos determinaciones, se pueden calcular los valores de k y ET, que son
los parámetros invariables del modelo, en base a
H1 1 1
= =
r1 λ1 ⎡E ⎤
k ⎢ T − ε c (τ 1 ) ⎥
(156)
⎣ IT ⎦
H 2 1 1
= =
r2 λ2 ⎡E ⎤ (157)
k ⎢ T − ε c (τ 2 ) ⎥
⎣ IT ⎦

149
150 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

En estas expresiones, Hi es el tiempo acumulado de ejecución durante el cual han


aparecido ri fallas, y se han corregido εc(τi) errores. Estas expresiones permiten obtener una
estimación de k y ET,
⎡λ2 ⎤
⎢ ⎥ . E c ( τ 1 ) − E c (τ 2 )
(158)
⎣ λ1 ⎦
Eˆ T = −
λ2
−1
λ1
IT
kˆ = λ 1 .
Eˆ T − E c (τ 1 ) (159)
Como el modelo supone que k y ET son dos constantes invariables, con sucesivas
correcciones ambos parámetros deberían tener poca fluctuación; caso contrario el modelo será
invalido. Para determinar el tiempo medio entre fallas, y saber si esta o no en la meta, es
necesario conocer, además de los parámetros del modelo, k y ET , la tasa de errores detectados,
expresión (151). Como la cantidad de errores corregidos r al cabo de un tiempo τ es una
variable aleatoria, para un buen ajuste de los parámetros se requiere recolectar muchas fallas,
haciendo sucesivas ejecuciones del programa, para aplicar luego cuadrados mínimos. Es
importante asimismo documentar el tipo de error encontrado y la forma de corrección, no
limitándose solamente a hacer la corrección. Esto permitirá comprobar si algunos errores no
son consecuencia de una posible siembra de errores debido a correcciones previas.

Método de las cero fallas


Admitiendo que el proceso de corrección de errores tiene un decaimiento exponencial,
figura 54, se puede prefijar el tiempo de prueba requerido para asegurar un número residual de
errores. Es decir, el modelo asume que la cantidad de errores residuales después del tiempo τ
de corrección es
E r (τ ) = ae − b τ (160)
donde a y b son constantes apropiadas del modelo. Este modelo es útil para determinar el
tiempo de depuración prefijada una meta de fiabilidad. Pfleeger, (Software Engineering,
Prentice-Hall, 1998) da la siguiente expresión, sin fundamentar,
⎛ E m ⎞
ln ⎜⎜ ⎟⎟ (161)
∆T = ⎝ 0 .5 + E m ⎠ .T
⎛ 0 .5 + E ⎞
ln ⎜⎜ m
⎟⎟
⎝ E c + E m ⎠
para estimar el tiempo necesario de ejecución que permita asegurar que se esta dentro de una
meta de errores, Em, en función del tiempo de depuración T insumido en hallar Ec errores, si
transcurrido un tiempo ∆T adicional no se encuentra ningún error. En tal caso, se puede
asegurar que la cantidad de errores residuales es Em, o están por debajo de dicho valor.
A una expresión similar se puede llegar mediante el siguiente análisis. Es claro que
para τ=0 se tendrá el total de errores, ET, por lo que a=ET.
Er
Ec
ET ET

Ec1
Ec(τ)

Em +1
Er(τ)
Em

τ1 τ2 τ3
τ

Fig.54 Fig.55

150
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad 151

El método consiste en suponer que al cabo de cada corrección se esta en la meta mas
un error. Si en la expresión (160) se toman logaritmos, se obtiene
ln (E r (τ ) ) = ln( E T ) − b .τ (162)
Luego, si al cabo del tiempo τ1 se han detectado y corregido Ec(τ1) errores, y se
supone que en ese momento se esta con una cantidad de errores residuales igual a la meta, Em,
mas uno, o sea
(163)
E r (τ 1 ) = E m + 1
y como además debe ser
(164)
E T = E c (τ 1 ) + E r (τ 1 ) = E c (τ 1 ) + E m + 1
por lo que (162) queda en la forma
(165)
ln (E r (τ 1 ) ) = ln (E m + 1 ) = ln( E c (τ 1 ) + E m + 1 ) − b .τ 1

Luego si al cabo del tiempo τ2 se detecta un nuevo error, deberá ser


ln (E r (τ 2 ) ) = ln (E m )= ln( E c (τ 1 ) + E m + 1 ) − b .τ 2 (166)
De (165) se obtiene
⎛ E (τ ) + E m + 1 ⎞
ln ⎜⎜ c 1 ⎟⎟
⎝ Em +1 ⎠ (167)
b =
τ1
Combinando (165 ) y (166 ), y teniendo en cuenta (167), se obtiene
⎛ E +1⎞ ⎛ E +1⎞ ⎛ Em ⎞
ln ⎜⎜ m ⎟⎟ ln ⎜⎜ m ⎟⎟ ln ⎜⎜ ⎟⎟
⎝ Em ⎠ = ⎝ E ⎠ ⎝ E + 1 ⎠
τ 2 −τ1 = m
.τ 1 = m
.τ 1 (168)
b ⎛ E c (τ 1 ) + E m + 1 ⎞ ⎛ Em +1 ⎞
ln ⎜⎜ ⎟⎟ ln ⎜⎜ ⎟⎟
⎝ Em +1 ⎠ ⎝ E c (τ 1 ) + E m + 1 ⎠

Esto implica que si antes de que transcurra un tiempo τ2-τ1, contando a partir de τ2,
se detecta un error, figura 55, entonces no es valida la hipótesis, y es necesario volver a
reformularla haciendo el mismo planteo. Por el contrario, si transcurrido ese lapso no se detecta
ningún error se puede tomar como valida la hipótesis, y por tanto aceptar que el programa tiene
la cantidad de errores residuales establecidas en la meta.
El modelo será valido en tanto sus dos parámetros, a y b, tengan poca fluctuación, lo
cual no ocurrirá si se generan mas errores que los que se corrigen. Puede ocurrir también que
no se halle ningún nuevo error por más que se aumente el tiempo de ejecución, en cuyo caso
se deberá:
• buscar otros caminos de flujo, caminos que no han sido recorridos antes
• dar por terminada la depuración si superado un cierto tiempo no se hallan nuevos
errores
Si bien el modelo no permite asegurar con certitud que el programa este exento de
errores, si se formula la hipótesis de que el programa tiene al momento τ1 dos errores, el
tiempo necesario para detectar uno de ellos será
⎛ 1 ⎞
ln ⎜ ⎟
τ − τ = ⎝ 2 ⎠ .τ
2 1

ln ⎜⎜
2 ⎞
⎟⎟
1
(169)
⎝ E c (τ 1 ) + 2 ⎠

de modo que si transcurrido ese tiempo no se halla ningún error, entonces se puede concluir
que el programa o bien esta libre de errores, o a lo sumo tiene uno.

151
152 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

Métodos para la prueba de software


La tarea mas difícil y compleja del desarrollo de un programa es la de depuración,
con la cual se busca:
• detectar errores
• corregir errores
Para llevar a cabo esta tarea es necesario definir primero una estrategia de
depuración, de modo de detectar el máximo de errores con el menor esfuerzo posible. En
ciertos casos será conveniente trabajar en la condición real de operación, usando programas de
diagnostico especiales, y en otros bastara con recurrir a emuladores. El mayor problema es que
para una prueba consistente, muchos sistemas deben operar en tiempo real, sin que haya
alteración alguna en los tiempos.
Un modo de simplificar la tarea es depurando por módulos, en forma independiente,
o en forma progresiva: es decir a los probados se van agregando los nuevos módulos a probar.
Las pruebas deberían contemplar:
• pasar por todas la sentencias
• probar todas las ramas
• probar todos los caminos
Para ver la diferencia entre probar las ramas y probar los caminos, consideremos el
caso de un programa compuesto de dos módulos iguales, figura 56, y supongamos que la
variable X pueda asumir valores comprendidos entre 0 y 3. Para probar todas las ramas seria
suficiente probar el caso X=1 en solo uno de los módulos. Esto lleva al camino indicado en la
figura 57a. La prueba de todos los caminos del conjunto requiere que sean probados 16
caminos, dado que en cada modulo hay 4 posibles caminos, y cada uno de ellos puede
combinarse con cualquiera del otro modulo. En un programa de cierta complejidad esto puede
llevar a una cantidad de caminos imposible de verificar.
En una prueba exhaustiva debieran considerarse todas las combinaciones de las
entradas (con valores validos e inválidos), considerando todas las secuencias posibles de estas.
Como esto es imposible, normalmente se seleccionan algunas entradas al azar, o según algún
criterio, por ejemplo las de mayor probabilidad de ocurrencia.

Fijar X

M1
Poner B en 0

Ejecutar A Incrementar B

M2 B=X?
No

Si M1
X=0 X=1 X=2 X=3
a) b) c) d) e)
Fig.56 Fig.57
En ciertos casos resulta conveniente agregar sentencias para el control a lo largo del
programa, por ejemplo produciendo mensajes que permitan visualizar valores de interés o
estados de registros, los cuales se sabe deben responder a cierto patrón. Como método general
es poco eficaz, dado que solo permite saber en que parte del programa se observo por primera
vez el error, pero no donde este se genero, lo cual obliga a hacer un rastreo hacia atrás para ver
donde difiere lo esperado de lo ejecutado.
Los métodos más eficientes se basan en el análisis de los síntomas. Esto llevará a
formular hipótesis de posibles causas, las cuales por medio de pruebas sucesivas se irán
descartando hasta descubrir el error.

152
Mantenibilidad
La persona inteligente resuelve los problemas
La sabia los evita
EINSTEIN

En la especificación para el diseño del equipo debe estar definido si este debe ser
diseñado como reparable o desechable. El equipo se dice diseñado para la reparación si se
desarrollan acciones desde su definición de modo que en caso de falla pueda volverse
operativo en el menor tiempo y al menor costo. Los equipos son definidos como desechables
cuando su reparación resulta antieconómica, o su costo de reposición es bajo o del orden del
costo de reparación, o bien cuando es muy baja la probabilidad de éxito en la reparación.
La función de mantenibilidad en el diseño se ocupa de definir todos los aspectos
relacionados con la mantenibilidad de los equipos. Como la falla de los distintos elementos
tiene carácter aleatorio, los tiempos insumidos en la reparación tendrán el mismo carácter, y
deberán ser evaluados en forma probabilística. Es por ello que la mantenibilidad se define
como la probabilidad de que un equipo que entro en falla pueda ser reparado en un tiempo
dado, contando con recursos y procedimientos definidos. Esto último se relaciona con:
1. capacitación del personal
2. disponibilidad de repuestos
3. instrumental y bancos de prueba
4. documentación (manual de servicio).
La mantenibilidad de un equipo es una característica que queda definida en el diseño,
y depende de factores tales como la tasa de falla de los elementos, tipos de falla a los que están
sujetos, la serviciabilidad, accesibilidad, diagnosticabilidad y soportabilidad y de ayudas para
el mantenimiento. Estas ayudas pueden ir desde algo tan complejo como la incorporación de
sistemas de autodiagnóstico e inclusive capacidad de autoreparación, hasta algo tan simple
como ceñirse al estudio de facilidades o formas de montaje que permitan una rápida detección
y remoción de las partes en falla, especialmente de aquellas con alta frecuencia de falla.
Para evaluar la mantenibilidad usualmente se considera la condición más favorable, lo
que supone que se cuenta con todos los medios y capacitación suficiente, y por lo tanto solo
entran en consideración los aspectos propios del equipo, englobados en lo que se conoce como
su serviciabilidad. Con esta expresión se intenta medir la facilidad con que el equipo ha sido
pensado para su reparación.
El concepto probabilístico que existe en la definición anterior implica que los
resultados son solo aplicables a una población de equipos. Podrán aplicarse a un solo equipo
considerando para este todo el conjunto de fallas a las que puede estar sujeto en su vida útil.
La caracterización estadística permite definir un valor del tiempo esperado ( medio ) de
reparación, y del tiempo medio entre intervenciones.
Se debe diferenciar entre mantenibilidad y mantenimiento. La mantenibilidad es una
característica del equipo, mientras que el mantenimiento es una actividad desarrollada para
reponer en servicio un equipo, lo cual depende del sistema o estructura de mantenimiento.
El estudio de la mantenibilidad sirve para definir acciones que permitan aumentar la
fiabilidad y la disponibilidad, determinando las acciones de mantenimiento y procedimientos
en la etapa de diseño, facilidades para la serviciabilidad, las prevenciones para que la
reparación no lleve a fallas secundarias, y la definición de acciones preventivas que eviten la
entrada en falla. Es importante además prever la forma de no degradar la seguridad del equipo,
ni durante las tareas de mantenimiento, ni a posteriori. Esto indica que la seguridad,
característica que se mide la probabilidad de provocar daños a terceros o al propio equipo, debe
154
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

ser analizada no solo durante la operación normal del equipo, sino también en condición de
estado de falla o del proceso de mantenimiento.
Las acciones de mantenimiento pueden clasificarse en :
• Mantenimiento proactivo:
o Preventivo (recurrentes y programadas) :
ƒ Por inspección
ƒ Por recambio
ƒ Por recalibración y conservación
o Predictivo
ƒ Por verificación (recurrentes, programables )
ƒ Por alarma (recurrentes, no programables )
o Pasivo ( no recurrentes)
Mantenimiento reactivo (Forzosas, no programadas) :
Mantenimiento correctivo (recurrente)
o Mantenimiento curativo ( no recurrente )
Es de hacer notar que la mantenibilidad, como disciplina técnica, fue introducida
recién en 1954 por las fuerzas armadas de USA.

Mantenimiento proactivo
El mantenimiento proactivo se asienta en acciones de prevención o monitoreo,
realizadas con el fin de anticiparse a la aparición de las fallas. Estas acciones de mantenimiento
buscan minimizar costos y grado de afectación al servicio. Será en función de esto que podrá
decidirse su práctica. Si se hace práctica preventiva con recambio, ello disminuirá la tasa de
fallas de los componentes afectados según el riesgo admitido, es decir, según se decida el
momento del cambio. En caso contrario, estos componentes afectaran en mayor medida el
tiempo correctivo, y se tendrá sin duda un mayor tiempo de baja del equipo y mayor afectación
del servicio.
Las ventajas de un mantenimiento proactivo son:
• Mejorar la fiabilidad y/o disponibilidad. En otras palabras, la justificación del
mantenimiento proactivo es mantener la fiabilidad en todo momento por encima de un
cierto valor, o asegurar un valor predeterminado de disponibilidad.
• Evitar los perjuicios de una falla súbita a través del cambio periódico de partes
sometidas a desgastes de cualquier tipo, para evitar que el tiempo operativo no se vea
afectado. Basta para ello, realizar las tareas de mantenimiento preventivo en los
tiempos ociosos del equipo
• Eliminar o reducir el costo de inmovilización de repuestos, dado que estos pueden
adquirirse al momento de intervención, descontando las demoras previsibles para su
obtención.
Las acciones de mantenimiento proactivo pueden también clasificarse en:
• Activas
• Pasivas
Si bien ambas pueden ser definidas durante el desarrollo, las pasivas por lo general
serán recomendaciones a tener en cuenta para la instalación u operación, según el ambiente en
que deba operar el equipo o sistema. Normalmente, este será el caso cuando el equipo va a
funcionar en entornos muy distintos, algunos de ellos muy agresivos. Es decir, estas acciones
solo se ejecutaran cuando se verifiquen tales condiciones, lo cual evita que su costo sea
trasladado a todos los equipos, aun para aquellos que funcionan en ambientes muy benignos y
controlados.

154
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 155

Mantenimiento preventivo
Las tareas de mantenimiento preventivo activo son tareas que se realizan
periódicamente sobre los sistemas tendientes a prolongar el tiempo libre de falla. Estas
acciones están influenciadas por la etapa de diseño. En este mantenimiento existen varias
acciones principales, a saber:
- Reemplazo de elementos que presentan síntomas de desgaste, o aquellos cuya
probabilidad de fallas F(t) aumenta luego de transcurrido cierto tiempo. El
mantenimiento preventivo activo por reemplazo se aplica generalmente a las
actividades vinculadas con elementos mecánicos sujetos a desgaste o fatiga,
fundamentalmente si los elementos tienen partes móviles, o sufren ciclos térmicos.
- Conservación. Incluye todas las tareas de mantenimiento programadas para
conservar al sistema o producto en una determinada condición, tales como
lubricación o engrase de partes móviles, limpieza de filtros antipolvo, limpieza de
cabezales magnéticos, reformateado de discos rígidos, para evitar que un gran
desalineamiento acumulado impida la lectura de alguna posición, etc.
- Reajuste o recalibración para mantener el equipo dentro de su especificación,
previniendo fallas paramétricas
El mantenimiento preventivo por reemplazo se justifica cuando la función de densidad
de fallas f(t) asociada a una parte o elemento del equipo es de tipo normal y de muy poca
dispersión; en tal caso, adoptando un riesgo α, en función del mismo resultara un tiempo para
el reemplazo de dicho elemento, Tr, figura 1. Por este medio, el recambio previene o se
anticipa a la aparición de la falla.
f(t) λ( t )
α
Fig.1
t t
Tr

El tiempo para el reemplazo se estima admitiendo un riesgo de que la acción deba ser
correctiva, por presentarse la falla anticipadamente al momento previsto para hacer el
reemplazo. Este tiempo se definirá según el riesgo admitido, función de los perjuicios que
surjan de presentarse la falla imprevistamente, o bien prefijando otro criterio.
Un reemplazo anticipado lleva implícito que se desperdicia capacidad de uso de
aquellos componentes que entrarían tardíamente en falla, más allá del tiempo de recambio. Si
la dispersión es grande, entonces es mas conveniente monitorear periódicamente algún
parámetro X que sirva de indicio, figura 2, aplicándose en tal caso una acción de
mantenimiento predictivo.
comportamiento de un dado equipo
f(t)
X
valor limite

T monitoreo

Fig.2 t monitoreo t t monitoreo


t

El reemplazo periódico podrá basarse en el tiempo calendario cuando se trate de


equipos sujetos a uso continuo, o cuando el envejecimiento ocurra por el simple transcurso del
tiempo ( engrases, lubricaciones, etc ). En caso contrario se debe monitorear alguna variable

155
156
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

ligada al uso ( por ejemplo los km en un automóvil ), o basándose en consideraciones de uso


medio, cuando el desgaste es función del tipo de uso.
Si la ley de fallas es exponencial, no hay posibilidad de monitoreo ni tratamiento bajo
riesgo, dado que la falla es de aparición aleatoria. En este caso, el mantenimiento preventivo
llevaría siempre a un gran desaprovechamiento, figura 3, y desde el punto de vista de la
fiabilidad no habría ganancia alguna, mas bien perdida, y además siempre la disponibilidad se
vería disminuida.
f(t)
λ(t) λ (t)

t t t

Fig.3 Fig.4
Si por otra parte el componente tuviera una tasa de fallas decreciente con el tiempo,
figura 4, el mantenimiento preventivo seria contraproducente: en vez de aumentar, la fiabilidad
disminuiría. En otras palabras, tratándose de un equipo o de un sistema no redundante, para
que el mantenimiento preventivo tenga sentido debe darse una tasa de fallas creciente con el
tiempo.
Es decir, de las tres posibilidades: tasa de fallas decreciente, tasa de fallas constante y
tasa de fallas creciente, tratándose de equipos, solo en este ultimo caso tiene sentido el
mantenimiento preventivo.
Esto establece una diferencia entre los equipos electrónicos, cuyos componentes
básicamente responden a fallas de tipo aleatorio, con respecto a los mecánicos, en los cuales
domina la falla por desgaste. En los equipos electrónicos el mantenimiento preventivo
normalmente no solo no aporta ventaja alguna, sino que llevaría a desperdiciar gran parte de la
vida útil de los componentes, agregando el costo de la acción preventiva, y además se correría
el riesgo de empeorar la fiabilidad debido a sobrecargas accidentales como consecuencia de la
intervención, figura 5. Este desmejoramiento de la fiabilidad ocurrirá siempre que exista la
probabilidad de que la acción de mantenimiento preventivo sea imperfecta, ocasionando daño
en algún elemento del equipo, figura 6. Esto se traduciría en un salto, discontinuidad, en la
función de fiabilidad al momento de la intervención. Es decir, se supone que al momento de la
intervención el equipo esta en funcionamiento y que podría continuar en ese estado de no
intervenirse, mientras que con la intervención existe la posibilidad de provocar su falla.
R(t)
R(t)
Desmejoramiento
de la fiabilidad
Desmejoramiento
de la fiabilidad

t
t
intervenciones intervenciones

Fig.5 Fig.6

La duración de las acciones del mantenimiento preventivo, por ser tareas concretas
conocidas, tienen un carácter determinístico, sujetas a mínima fluctuación. Dado que pueden
desarrollarse distintas acciones en distintos momentos, pero con frecuencia conocida, es
posible hablar también de un valor medio, aunque en este caso no se da el carácter
probabilístico, ya que se evalúan acciones programadas con mínima fluctuación de los
tiempos.

156
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 157

Mantenimiento preventivo con recambio


Sea f(t) una función de densidad de fallas, figura 7, que da origen a una tasa de fallas
creciente con el tiempo, figura 8. Se trata de hallar la nueva función de densidad de fallas que
resulta cuando se practican acciones de mantenimiento preventivo, las cuales se suponen
realizadas a intervalos fijos TM.

Fig.7 Fig.8
La acción de mantenimiento preventivo determina una nueva función de densidad de
fallas, dado que los componentes solo son susceptibles de fallo dentro del intervalo [0, TM] que
sigue a un reemplazo, figura 9a. Entonces, definiendo una función f1(t), figura 9b, con
existencia solo en el intervalo en que son usados los componentes,
f 1 (t ) = f (t ) 0 ≤ t ≤ TM
(1)
f 1 (t ) = 0 t > TM
en base a la misma se puede obtener la nueva función de densidad de fallas, fp(t), para
cualquier instante t>TM. Igualmente, la función de fiabilidad obtenida en base a f(t) solo es
aplicable en el intervalo de validez de la función de densidad, Ro(t), figura 10b.
Aceptando que solo se consideran fallas las de tipo catastrófico, lo que excluye los
cambios preventivos de elementos, el análisis de fiabilidad puede realizarse de dos modos:
• a partir de cada intervención (sea esta preventiva o correctiva), para la que se
supone t=0 y restringiendo dicho cálculo hasta el instante de la primer
intervención preventiva, o sea para tiempos t que verifican 0 ≤ t ≤TM.
• a partir de cualquier intervención, o desde la primer puesta en marcha, sin
restricción alguna de tiempo, o sea para todo t>0

a) Fig.9 b)

a) b)
Fig.10
157
158
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Como después de una intervención, sea correctiva o preventiva, el equipo va a quedar


siempre en funcionamiento, parece razonable restringir la estimación de fiabilidad hasta el
instante en que debiera realizarse la intervención preventiva subsiguiente. Es decir, dado que
cada intervención restituye a nuevo el componente, por tanto, a posteriori de la intervención
será siempre
R ( kTM + ∆T ) = 1 k = 0,1,2,3,.....n (2)
lim ∆T →0

y, dentro de cualquier intervalo (kTM, (k +1) TM), calculado a partir de una intervención, la
función de densidad de fallas será una replica de la densidad de fallas entre 0 y TM
El segundo caso supone que la intervención preventiva es transparente al usuario, o
cuando menos sin consecuencias catastróficas. Se trata, bajo este supuesto, de calcular la
fiabilidad para cualquier instante t a partir de la primera puesta en marcha o desde cualquier
intervención.
Si R(TM) es la probabilidad de que no falle durante un intervalo cualquiera (0,TM ),
evaluado a partir de una intervención, entonces la probabilidad de que siga en funcionamiento
en un instante t cualquiera posterior,
t = k.T + t para 0 < t ≤ T (3)
M m m M

estará dada por la probabilidad de que haya funcionado desde el instante t=0 hasta el instante
t= kTM, y que no se produzca un fallo catastrofico en el intervalo k.TM < t ≤ k.TM + t m. Dado
que la fiabilidad para el intervalo (0,TM ) es R(TM), entonces, la probabilidad de que no haya
fallado en ninguno de los k intervalos previos estará dada por, figura 11,
R ( k .T M ) = [R ( T M ) ]
k
(4)
A su vez es
tm

R (t m ) = 1 − F (t m ) = 1 − ∫
0
f 1 ( t ). dt (5)
de modo que
R ( t ) = R ( kT + t m ) = R ( k .T M ). R ( t m ) = [R ( T M ) ] . R o ( t − kT
k
M M ) (6)
y la función de densidad fp(t) dentro del intervalo (kTM, (k+1) TM), estará dada por
= − [R ( T M ) ] . [R ( T M ) ]k . f 1 ( t
dF ( t ) dR ( t ) dR ( t )
(t ) = = − = − k .T M )
k
f p (7)
dt dt dt

R(t)
1

R(T ) R2(TM )
M R3(TM)

0 T 2T 3T t
M M M

Fig.11 Fig.12

Como R(TM) es menor a 1, Rk(TM) será decreciente con k y por tanto la función de
densidad tendrá una envuelta exponencial, figura 12. Esto justifica que a pesar de que la tasa
de fallas de los elementos sea creciente con el tiempo, si media este tipo de mantenimiento, se
pueda aplicar el modelo exponencial.
La tasa de fallas dentro de cada intervalo necesariamente debe repetirse, originando
una función periódica, figura 13, de modo que si la variación de λ(t) con el tiempo no es
grande, se puede asimilar a una tasa de fallas constante. Visto de otra manera: sobre No

158
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 159

equipos, la cantidad de equipos fallados, Nf, durante un lapso de tiempo igual a TM se


mantendrá siempre constante,
N f = N o .(1 − R (T M ) ) (8)

Evaluando la tasa de fallas en el intervalo ((k-1)TM,kTM), teniendo en cuenta (4), es


1 ∆R 1 R ( kT ) − R (( k − 1 ) T M ) 1 − R (T M )
λm = − = − M
= (9)
R ∆t R (( k − 1 ) T M ) TM TM

Se ve que la consecuencia de esta acción de mantenimiento es convertir una ley de


fallas por desgaste ( creciente en el tiempo ) en una ley de fallas de tipo exponencial, por su
aproximación a una tasa de fallas constante. La figura 13 muestra la tasa de fallas bajo
mantenibilidad preventiva y la tasa de fallas media que resulta de la expresión ( 9 ), y la figura
14 compara la fiabilidad con y sin mantenibilidad preventiva.

Fig.13 Fig.14
La frecuencia conque se deben practicar las intervenciones preventivas se determina
en función de metas de:
• máximo riesgo de falla (ó meta de fiabilidad )
• metas de tiempo medio entre fallas
• tiempo medio entre mantenimientos
• disponibilidad
• mínimo costo de mantenimiento
El primer caso es el más simple de analizar. Si f(t) es la función de densidad de fallas,
el tiempo para la intervención se definirá para la condición de riesgo impuesta,
TM


0
f ( t ). dt = α = 1 − R ( T M ) (10)

tal como indica la figura 15, y según ello variará la fiabilidad R(TM) , como se indica en la
figura 16, y mejora a medida que se reduce TM. Normalmente, el riesgo esta acotado cuando los
requerimientos de seguridad son mandatarios.

f(t)

t/TMEFc
Fig.15 Fig.16

159
160
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Si la acción de mantenimiento preventivo es transparente al usuario, el efecto


resultante del mantenimiento preventivo es una mejora en el tiempo medio entre fallas,
TMEFp , el cual resultara dado por
∞ (11)
TMEFp = ∫ t. f
0
p ( t ). dt

R(t)

T t

Fig.17 Fig.18

Pero, la mejora del tiempo medio entre fallas catastróficas es a costa de una
disminución del tiempo entre intervenciones preventivas, TM, de modo que si estas no fueran
transparentes al uso, su aplicación sería indeseable. Importa por tanto, no solo que las fallas
catastróficas sean mínimas, sino que además la frecuencia de intervención preventiva sea
compatible con el uso, asegurando mínima interrupción del servicio. Esto es especialmente
importante cuando las fallas se extienden sobre un amplio rango de tiempos, como es el caso
indicado en la figura 15.
Si se evalúa la disponibilidad en función de la relación entre TM y el tiempo medio
entre fallas sin mantenibilidad preventiva, TMEFc, se encuentra que hay un valor de TM
óptimo, que maximiza la disponibilidad. Este valor, como se aprecia en la figura 17, depende
de la relación entre los tiempos medios involucrados en ambas reparaciones, tc/tp; si ambos
fueran iguales, la mejor disponibilidad se obtiene en ausencia de mantenimiento preventivo,
dado que, en tal caso, la mantenibilidad preventiva no aporta ventaja alguna desde el punto de
vista de la disponibilidad.
El tiempo entre intervenciones preventivas también puede ser determinado buscando
mínimo costo de mantenimiento durante el tiempo de vida útil del equipo.

Mantenimiento preventivo imperfecto con recambio


Si como consecuencia de la intervención preventiva cabe la posibilidad de daño de
alguno de los otros componentes, se habla de una intervención imperfecta. Si p es la
probabilidad de falla que puede ocasionarse en cada intervención, en tal caso la fiabilidad
estará dada por

R p (t ) = [R (T ) ] .(1 − p ) k .R (t − kT )
k
para kT < t < ( k + 1).T (12)

En este caso aparece un compromiso entre la mejora que se produce con cada
intervención al reemplazar componentes sujetos a desgaste, y la degradación que resulta de una
intervención imperfecta. Esto nos lleva a suponer que existirá un intervalo para la intervención
óptima, que dependerá de p y de la ley de variación de la tasa de fallas con el tiempo. La
expresión (12 ) indica, justamente, que después de cada intervención se pasa a tener menos
fiabilidad que la se tendría si no se hubiera intervenido; solo se mejora la fiabilidad en el largo
plazo, dado que a partir de T se tiene una menor pendiente para R(t), figura 18. Con bajos
valores de T podría incluso resultar siempre un empeoramiento de la fiabilidad.

160
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 161

Tiempo entre calibraciones


El valor de los elementos varía con el tiempo, afectando las características del equipo.
Una alternativa para mantener las características dentro de límites establecidos es realizar
reajustes periódicos. El tiempo entre reajustes dependerá de la variación que sufren los
elementos a lo largo del tiempo y del rango de variación admitido. Sea E la especificación a
cumplir, función del valor de ciertos componentes circuitales,
E = f ( X 1 , X 2 ,.... X n ) (13)

Si se tratara de un instrumento de medición, E será el error de medición. En tal caso,


el tiempo entre calibraciones dependerá de la perdida de capacidad del sistema de medición, y
del riesgo admitido de obtener un valor incorrecto. En este caso, el riesgo mide la probabilidad
de falla, o pérdida de fiabilidad de la medición; o sea, de que el error sea superior al admitido.
Fijada una fiabilidad R(H), en función de la misma se deberá hallar el tiempo H entre
calibraciones, figura 19. Para ello, es necesario hallar la distribución de la especificación para
distintos valores de tiempo1, figura 20, con la finalidad de determinar el tiempo H para el cual
R ( H ) = 1 − (α 1 + α 2 ) (14)
R(t) p(E) t=0
R(H)

α1 α2
t=H
Emin Emax E
H t

Fig.19 Fig.20

Tiempo entre acciones de conservación


Ciertas acciones de conservación pueden ser totalmente programadas, mientras otras
dependerán del tipo de acción, condición de uso del equipo y la agresividad del entorno.
Supongamos por ejemplo un filtro antipolvo. Cuando el filtro esta limpio las características del
forzador de aire y de la carga determinaran un caudal de aire Q1, figura 21. A medida que se va
obstruyendo el filtro, aumenta la carga y provoca que el caudal disminuya hasta un valor Q2,
de modo que la acción de limpieza debe ocurrir antes de que el caudal se reduzca al valor Qm,
mínimo valor de caudal necesario para que la temperatura no sobrepase un valor limite
compatible con la fiabilidad esperada. El tiempo entre las acciones de limpieza estará
dependiendo de la agresividad ambiental. Cuando la acción es de realización simple, no
requiere mayor capacitación, e involucra poca perdida de tiempo, entonces se podrá programar
un tiempo entre acciones tomando un margen amplio frente a la máxima carga posible. En
otros casos, puede resultar conveniente recurrir a una acción de mantenimiento predictivo,
sensando la temperatura y generando una señal de aviso cuando se ve sobrepasado cierto valor,
figura 22.
caracteristica
caracteristicas presion
caida de presion, p

del forzador
de carga temperatura
filtro sucio
valor limite de alarma
∆p filtro limpio

Qm Q2 Q1 caudal Tp t
Fig.21 Fig.22
1
Véase pagina 224

161
162
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Mantenimiento predictivo
El mantenimiento preventivo con reemplazo periódico de partes solo puede basarse en
el tiempo calendario cuando se trata de equipos sujetos a uso continuo, o a un uso regular de
por ejemplo X horas por día, y los equipos están además siempre sometidos a la misma carga.
También, cuando el envejecimiento ocurra por el simple transcurso del tiempo (caso de
engrases, lubricaciones, etc). Si este no es el caso, es conveniente monitorear alguna variable
ligada al uso ( por ejemplo los Km en un automóvil ), o de una forma menos precisa, basarse
en consideraciones de media, en función del modo típico de uso. Pero aun en estos casos, el
desgaste puede ser muy diferente según sea la exigencia de carga del elemento, carga que a su
vez puede tener carácter aleatorio. La alternativa en este caso es recurrir a una inspección para
el control de estado, en base a la cual predecir el momento de la inspección siguiente, o la
futura acción de recambio del elemento.
Este tipo de situación se da también cuando el tiempo para la falla tiene una
dispersión muy grande, figura 23, y es además posible monitorear alguna característica
relacionada con la falla, de modo que la acción de mantenimiento sea consecuencia de una
verificación basada en el estado del propio elemento, y no algo que surge solo como
consecuencia del transcurso del tiempo.
Cuando el costo de control es bajo frente al costo del recambio, una opción es hacer
monitoreos periódicos, con tiempo entre controles basados en el desgaste previo. Otra opción
es agregar sensores para monitorear un parámetro del sistema altamente correlacionado con la
aparición de la falla, basándose en lo que se denomina análisis de firma. Estos sistemas se
fundamentan en el hecho de que en su funcionamiento normal los equipos tienen un diagrama
particular de ruido, de vibración, de temperatura, de presión, de irradiación, etc., el cual se
altera con el desgaste. Las dos variables mas usadas para este fin se basan en el análisis del
comportamiento térmico o en el vibratorio; el primer caso básicamente orientado a
componentes eléctricos y el segundo a componentes mecánicos.
x1(t) x2(t)
f(t)
nivel de falla
x(t) f(t)
f(t)
T
nivel de alarma

t
TM tr1 tf1 tr2 tf2 t

Fig.23 Fig.24
El aprovechamiento del análisis térmico para detectar signos de inminente falla se
debe a que la mayoría de los componentes tienden a recalentarse a medida que sus propiedades
se deterioran.
Con mantenimiento preventivo los elementos deberían ser cambiados al cabo del
tiempo TM, figura 24, mientras que el predictivo permite extender el uso hasta un instante de
recambio tr definido por un nivel de alerta, cercano al limite de la capacidad de uso del
elemento, y podrá ser algo tan simple como la señalización del contenido de tinta de un
cartucho de impresora, o la indicación de estado bajo de una batería, etc. Cuando no sea
posible el monitoreo automático permanente, el instante del recambio resultara del análisis de
tendencias, en base a registros históricos. A pesar de que el momento de intervención no puede
ser programado, es igualmente importante debido a :
• Razones de seguridad ( la falla puede acarrear graves consecuencias )
• Exigencias de una mayor disponibilidad
• Razones económicas, para un mejor aprovechamiento de los elementos, o
por el beneficio que aporta una mayor disponibilidad

162
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 163

Mantenimiento pasivo
El mantenimiento preventivo pasivo incluye todas las acciones destinadas a proteger
al equipo de su entorno. Es pasivo porque no se interviene sobre el equipo. La finalidad es
reducir o evitar sobrecargas mediante la incorporación de protectores frente a transitorios de la
alimentación primaria ( red eléctrica ) o para evitar cortocircuitos o sobrecargas. Lo primero
haciendo un filtrando en las líneas de entrada al equipo para evitar los efectos de ruidos o
sobretensiones de tensión, figura 25, bajo el supuesto de que el propio equipo nos las incluya.
Equipo
ruido e interferencias externas

µP
Circuito bajo
Fig.25 Unidad
proteccion
independiente

linea
ruido e interferencias externas
Fig.26
Fig.27
Los transitorios de la fuente de alimentación son especialmente críticos en muchos
casos, y para ellos caben varias acciones:
• acondicionadores de línea, para aislar de un modo activo al equipo de su
fuente, figura 26
• disposición de supresores, destinados a absorber sobrepicos, figura 27
• empleo de fuentes ininterrumpidas (UPS) con las cuales se aísla totalmente
al equipo de la línea, y se asegura su alimentación aun frente a una caída
transitoria de la tensión de línea
Algunos sistemas disponen de protecciones de forma que una sobrecarga
momentánea no produce la interrupción definitiva del servicio, solo temporaria. Para estas
condiciones hay distintos tipos de tratamientos:
• el equipo se protege mientras dura la sobrecarga, restituyéndose la operación
tan pronto desaparece esta
• el equipo realiza un número de intentos de reconexión automática en forma
periódica, y solo superado cierto numero pasa a condición de falla
definitiva.
Otra acción de mantenimiento preventivo pasivo especialmente importante se da para
evitar las consecuencias que resultan del ciclado de encendido-apagado de equipos que
manejan mucha disipación y están sujetos a fatiga térmica. El ciclado térmico que resulta de
encender y apagar un equipo es en muchos casos el que determina el número de ciclos de fatiga
térmica que sufre el equipo. Las tres maneras de solucionar esto son:
• mantener el equipo siempre encendido, o reducir al máximo las conexiones y
desconexiones
• mantener el equipo en una condición intermedia que asegure un menor salto
de temperatura, manteniéndolo en un estado de preparado o listo para operar
• demorar la activación para producir el calentamiento de un modo suave

163
164
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Mantenimiento curativo
Sobre la primera serie de equipos que es lanzada al mercado es necesario hacer un
seguimiento especial de las primeras fallas que se presentan. Esto implica que, frente a la
primera falla de cada componente se debe desencadenar una acción de análisis previo a
cualquier acción correctiva, cuyo propósito es determinar si corresponde una acción de
mantenimiento normal, requiriéndose tan solo una acción correctiva, o si es necesario
introducir acciones curativas. Serán necesarias acciones de tipo curativo cuando:
• las fallas escapan a las predicciones basadas en el modelo ( se concentran en
uno o pocos elementos, y ocurren en una cantidad superior a la esperada )
• la falla tiene suficiente relevancia para ser critica, afectando la seguridad
• las fallas son consecuencia de error humano, pero susceptibles de ser
evitadas por rediseño
• la falla es causada por otros equipos, o condiciones de entorno que escapan
a las especificadas o previstas en el diseño
Las acciones curativas buscan generar cambios en el diseño para evitar la repetición
de fallas que responden a las características anteriores.
Cuando existan discrepancias entre las condiciones de campo y los resultados
obtenidos en pruebas de laboratorio, será necesario realizar análisis con la finalidad de
explicar tales resultados contradictorios, buscando saber si se trata de:
• inadecuada definición del producto
• debilidad o defectos en los componentes
• errores de diseño
• problemas de manufactura
y por otro lado, determinar la relevancia de la falla, de modo que, según sea su gravedad se
proceda a:
• retirar el producto del mercado,
• hacer un llamado para un pronto cambio,
• producir una instrucción de cambio con la primer entrada en servicio del
producto, sea por este u otro causal
Si la causa es debilidad de los componentes causada por una partida con alto índice
de defectos, la acción curativa quedara restringida a todos los equipos que fueron montados
con esos componentes, para lo cual sirve la trazabilidad.

Mantenimiento correctivo
Se distinguen dos tipos de mantenimiento correctivo:
• Mantenimiento primario. Se trata en el menor tiempo posible de remover una unidad
o modulo que contiene el elemento fallado y reemplazarla por otra, sin detenerse a
aislar el elemento especifico en falla, valiéndose para ello de indicadores de
diagnostico apropiados
• Mantenimiento secundario. Este mantenimiento sigue al mantenimiento primario. Se
realiza sobre los módulos que han sido removidos en el mantenimiento primario,
apoyándose en instrumental y un banco de prueba, y se ejecutan en un lugar alejado
del punto en que ocurrió la falla.
Estos conceptos de reparación se aplican sobre todo cuando se requiere alta
disponibilidad, y se fundamentan en que:
• es mas fácil reconocer un modulo en falla que el elemento que la provoca

164
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 165

• el modulo, normalmente enchufable, puede ser removido y ser reemplazado en muy


corto tiempo; no es este el caso de un elemento que esta soldado sobre una placa de
impreso
En este tipo de mantenimiento se incluyen las tareas no programadas, que son
consecuencia de una falla repentina en el sistema o producto, a saber :
ƒ Identificación de la falla (diagnostico)
ƒ Desarme y acceso
ƒ Localización del elemento en falla (aislamiento de la falla)
ƒ Remoción y reemplazo o arreglo
ƒ Ajuste
ƒ Rearmado
ƒ Verificación
Todas estas acciones son totalmente técnicas, y los tiempos involucrados en las
mismas definirán el menor tiempo en que un equipo fallado puede ser reparado. Es
básicamente sobre estos tiempos que puede y debe actuarse en la etapa de diseño.

Función de mantenibilidad
El tiempo de reparación dependerá del elemento bajo falla, y de factores tales como la
accesibilidad, facilidades para el diagnostico, habilidad de los reparadores, etc. Como las fallas
son aleatorias, y es diferente el tiempo de reparación involucrado en cada componente, los
tiempos necesarios para volver el equipo operativo serán también aleatorios. Supongamos un
conjunto No de equipos con fallas diversas, y que la cantidad de equipos reparados al cabo del
tiempo t sea Nr(t), entonces, la mantenibilidad al tiempo t estará dada por
N (t )
M (t ) = r
(15)
N o

La cantidad de equipos que pueden ser reparados en el lapso ∆t dependerá de la


cantidad de equipos aun no reparados y del lapso de tiempo

∆ N r ( t ) = µ .( t ). ( N o − N r ( t ) ).∆ t (16)
o también
∆ N r (t ) (N − N (t ) )
= µ ( t ). o r
.∆ t (17)
N o N o
siendo µ(t) la tasa de mantenibilidad. Operando sobre la expresión (17) se obtiene
dM ( t )
= µ ( t ). dt
1 − M (t ) (18)
e integrando, bajo la condición de que en t=0 no hay ningún equipo reparado, y por tanto
M(0)=0, se obtiene
M (t ) t
dM ( t )
∫0 1 − M ( t ) = ∫0 µ ( t ). dt (19)

de modo que
t


− µ ( t ). dt
M (t ) = 1 − e 0 (20)
con una función de densidad dada por

= µ ( t ). [1 − M ( t ) ]
dM ( t )
m (t ) = (21)
d (t )
siendo el tiempo medio de reparación

165
166
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad


TMR = E [ t ] = ∫ m ( t ). t .dt
0
(22)

Dado que la mantenibilidad es la probabilidad de que un equipo que entro en proceso


de reparación en el instante t=0 este reparado al cabo de un cierto tiempo t, entonces, si la
función de mantenibilidad fuese conocida se podría determinar, prefijado un riesgo, el tiempo
que puede llevar su reparación. El riesgo mide la probabilidad de que no sea reparado al cabo
de dicho tiempo. Esto puede hacerse determinando cual de los modelos probabilísticos se
ajusta mejor a los datos experimentales, recurriendo para ello a papel probabilistico o alguna de
las pruebas de bondad de ajuste, como ser la prueba de Kolmogorov-Smirnov o la prueba χ2.
normal exponencial lognormal
m(t) m(t) m(t)

Fig.28
t t t
Los modelos de mantenibilidad más usados son el normal, el exponencial y el log-
normal, figura 28, dependiendo de que:
1. Los tiempos están determinados por acciones comunes, como ser desarmado y
rearmado, con una leve fluctuación que depende del tipo de elemento ( ley normal )
2. La mayoría de las reparaciones demandan poco tiempo por disponer de un sistema de
diagnostico ( modelo exponencial )
3. Existan muchas tareas de mantenimiento que requieren mas tiempo que la media; es
decir, la mediana es mayor que la media ( modelo lognormal)

Disponibilidad
La disponibilidad ha sido definida por la probabilidad de que un equipo se encuentre
operando, o en capacidad de operar, en un instante de tiempo t cualquiera partiendo de una
condición inicial prefijada, que puede ser de funcionamiento, o desde un estado de falla.
Mientras que la fiabilidad se preocupa por un funcionamiento continuo sin falla, y es
aplicable a equipos reparables y no reparables, la disponibilidad es una característica propia de
los equipos reparables. Para un equipo no reparable, la probabilidad de que en un instante t este
operativo dependerá únicamente de que no entre en falle; o sea que, en este caso, coincidirá la
disponibilidad con la fiabilidad.

Disponibilidad y fiabilidad de un equipo reparable


Consideremos como caso simple el de un equipo reparable, el cual puede estar en
cualquiera de sus dos estados, entre los cuales evoluciona con tasa de fallas λ y de reparación
µ, figura 29.
λ λ

Fallado Funcionando Fallado


Funcionando
Estado 2 Estado 1 Estado 2
Estado 1
µ
Fig.30
Fig.29
Si lo que interesa es hallar la fiabilidad solo se debe considerar la evolución de 1 a 2,
mientras que si fuera la disponibilidad se deben considerar las dos transiciones. Es decir, la

166
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 167

fiabilidad esta dada por la probabilidad de que estando en el estado 1 se mantenga en ese
estado. Mientras que la disponibilidad esta dada por la probabilidad de que si en t=0 se
encuentra en el estado 1 se mantenga en ese estado, o bien de que si en algún momento entre 0
y t paso al estado 2, en el instante t se encuentre nuevamente en el estado 1; o bien de que si en
t=0 esta en el estado 2, en t este en el estado 1. Si las transiciones son a tasa constante, la
fiabilidad resultara del análisis del sistema de la figura 30, el cual lleva a
R (t ) = e − λt (23)
Para hallar la disponibilidad A(t) se necesita resolver el sistema de ecuaciones
diferenciales (ver página 125),
dP 1 ( t )
= − λ .P 1 + µ .P2 (24)
dt
dP (t )
2
= λ .P 1 − µ .P 2
dt (25)
sujeto a una condición inicial dada, por ejemplo que para t=0 el sistema se encuentra
funcionando, estado 1. En este sistema, la disponibilidad A(t) esta dada por la probabilidad de
que en t el sistema este en el estado 1, o sea por P1(t), vale decir
A ( t ) = P1 ( t ) (26)
Pero además, como debe ser
P (t ) + P (t ) = 1 (27)
1 2
queda finalmente

= − λ . A ( t ) + µ .[1 − A ( t ) ] = − ( λ + µ ). A ( t ) + µ
dA ( t ) (28)
dt
De esta expresión podemos hallar por un lado la disponibilidad de largo plazo,
sabiendo que en tal caso debe ser
dA ( t )
= 0
dt t→ ∞
(29)
de modo que reemplazando resulta
µ TMEF
D = A (∞ ) = =
λ + µ TMEF + TMR (30)

Fig.31

Si en la solución de la ecuación (28) se considera un factor de integración de la forma


e-(λ+µ).t y como además es A(0)=1, esto lleva a la expresión
µ λ
A (t ) = + .e − ( λ + µ ). t (31)
λ + µ λ + µ
que nos muestra que la disponibilidad, arrancando desde 1 para t=0, tiende en forma monótona
a un valor constante, igual al valor de la disponibilidad de largo plazo. Si la condición inicial
fuese que en t=0 se comienza la reparación del equipo, en ese caso la disponibilidad debe
arrancar en 0 en t=0, y tender a largo plazo al mismo valor anterior, figura 31.

167
168
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Disponibilidad y fiabilidad con reserva y mantenibilidad


Para hallar la fiabilidad de un sistema formado por un equipo activo y otro en reserva,
figura 32, solo se deben considerar las transiciones que mantienen en funcionamiento al
sistema en forma ininterrumpida, figura 33. Se supone que la conmutación no tiene fallas ni
demora, y que además el equipo en estado de reserva no falla en ese estado.

1 1 operativo
1 en reserva
1 1 operativo
1 en reserva λ λ
λ λ
µ µ
1 operativo 1 operativo estado 1 estado 3
1 en reparacion 2 1 en reparacion
2 estado 2
λ λ µ

µ 3 2 en reparacion 3 2 en reparacion

Fig.32 Fig.33 Fig.34

Prefijadas condiciones iniciales, la fiabilidad, probabilidad de estar en los estados 1 o 2, puede


ser hallada resolviendo el sistema de ecuaciones diferenciales
dP 1 ( t )
= − λ . P1 ( t ) + µ . P 2 ( t ) (32)
dt
dP 2 ( t )
= λ . P 1 ( t ) − ( λ + µ ). P 2 ( t )
dt
o bien definiendo un sistema equivalente de solo dos estados, englobando a los estados que
aseguran el funcionamiento del sistema 1 y 2 en un estado único, figura 34. Supongamos que el
sistema original evolucione del estado 1 al 2. Es claro que habiendo saltado al estado 2, la
probabilidad de que regrese al estado 1 es µ .∆t, y de que salte al estado 3 es λ.∆t. Esto implica
que por cada transición de 2 a 3 se producirán µ/λ transiciones de 2 a 1. Por consiguiente,
mientras en un sistema sin reserva en un lapso ∆t se tendrían λ transiciones, en el nuevo
sistema se tendrán µ/λ menos, lo cual permite aproximar la fiabilidad por la expresión
⎛λ⎞
− ⎜⎜ ⎟⎟ .λ .t
⎝µ⎠
R (t ) = e (33)
expresión que es valida si, como ocurre, la relación µ/λ es alta.
F ia b ilid a d

F iab ilid ad

µ/λ

µ/λ=

Fig.35 Fig.36

La figura 35 muestra la importancia de la mantenibilidad en la mejora de la fiabilidad,


y la figura 36 permite apreciar que la diferencia entre el verdadero valor de la fiabilidad y el
que resulta de la aproximación (33) es mínimo si µ/λ≥30.

168
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 169

Análisis de un sistema general


A medida que aumenta el número de estados se dificulta la solución analítica. En tales
casos parece más adecuado hallar la solución del sistema de ecuaciones diferenciales en base a
algún paquete de computación numérica, como el que provee Matlab. Para mostrar la
simplicidad de este tratamiento, consideraremos el caso de un sistema con mantenibilidad y
dos equipos de reserva, figura 37.
LISTADO 1
1 operativo 1 operativo
2 en reserva function y=markov(t,p)
1 1 2 en reserva
la=.001;
λ λ mu=.01;
µ µ y=[-p(1)*la+p(2)*mu;p(1)*la-p(2)*(mu+la)+
1 operativo 1 operativo mu*p(3);p(2)*la-p(3)*(mu+la);p(4)*la];
1 en reparación 1 en reparación
2 1 en reserva 2 1 en reserva LISTADO 2
λ λ
µ 3 en µ 3 en t=1:1000;
λ reparación reparación
λ po=[1 0 0 0];% condicion inicial
3 3 [t,p]=ode45(@markov,t,po);
1 operativo 4 1 operativo 4 r=p(:,1)+p(:,2)+p(:,3); %fiabilidad
µ 2 en reparación t1=t*.001;
2 en reparación
plot(t1,r,'r')

Fig.37 Fig.38

Matlab dispone de un paquete de cálculo para la solución de ecuaciones diferenciales,


denominado Matlab ODE, el cual, a partir de condiciones iniciales, permite determinar la
evolución de un conjunto de variables ligadas a través de un sistema de ecuaciones
diferenciales. Para resolver el sistema se debe codificar el sistema de ecuaciones como una
función y guardarla como un archivo de extensión .m, Listado 1, figura 38. Esta función es
llamada por uno de los solucionadores de ecuaciones diferenciales que integran el paquete de
Matlab, en este caso el ode45, el cual provee moderada precisión y es típicamente uno de los
más usados, Listado 2, figura 38.
Este tratamiento, como se ve es simple, y permite rápidamente hallar tanto la
fiabilidad como la disponibilidad, partiendo de cualquier estado inicial. La figura 39 muestra,
para el sistema de la figura 37, la fiabilidad partiendo de cualquiera de los tres posibles estados.
Claramente se ve que partiendo del estado 3, la fiabilidad se desmejora apreciablemente, por lo
que este debe ser considerado como un estado de emergencia del sistema.
En la figura 40 se muestra la fiabilidad que se obtiene en el estado que se denomina
como de emergencia comparándola con la fiabilidad que se tendría en un sistema sin reserva
alguna. Se aprecia en dicha figura que, aun en el peor caso, el sistema con reserva igualmente
presenta a largo plazo una gran ganancia respecto a un sistema sin reserva.

Fig.39 Fig.40

169
170
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Tiempo de mantenimiento medio


Cada componente tiene asociado una tasa de fallas λi y un tiempo tri de reparación.
Muchos componentes tendrán valores coincidentes de λi y tri, por lo que el tiempo total de
reparación, Tr , considerando todas las fallas que puedan darse en un tiempo suficientemente
largo T estará dado por
m
Tr = ∑λ
i =1
i .n i .t ri .T (34)

donde m es el total de grupos de componentes y ni la cantidad de componentes del tipo i


La cantidad de eventos que llevan a ese tiempo total de reparación depende del
número total de fallas,
n

∑ n .λ .T
Numero total de fallas = (35)
i i

de modo que habrá un tiempo medio de mantenimiento correctivo dado por


n

∑ n i . λ i .t i
(36)
Mc = TMR = n

∑ n i .λ i

En base a esta expresión se puede calcular el TMR de un equipo en función de la tasa


de falla λi y el tiempo de reparación tri de cada elemento o grupo de elementos.
Del mismo modo, habrá un tiempo medio de mantenimiento preventivo, Mp
Tiempo total bajo intervención preventiva
M p = Total de intervenciones preventivas
(37)
Si tpi es el tiempo que demanda una intervención preventiva para una acción dada i,
que se practica a intervalos Ti, entonces el tiempo total insumido en las intervenciones estará
dado por
T
t p = ∑ t pi . = ∑ t pi . f i .T (38)
T i

y como el número de intervenciones esta dado por


T
n p = ∑ Ti
= ∑ fi .T (39)
resulta un valor medio dado por
M =
∑ f pti .t pi .T
=
∑ f tpi . t pi
(40)
∑ ∑
p
f pti .T f tpi
donde
ftpi= frecuencia con que se ejecuta la tarea de mantenimiento i-esima
tpti= tiempo requerido para la tarea i-esima.
En un lapso de tiempo T habrá cierta cantidad de intervenciones preventivas de
duración ( tp) y otra cantidad de intervenciones correctivas de duración (tc), de modo que el
tiempo total durante el cual el equipo es intervenido (Ti) será
(41)
Ti = tc + tp ∑ i ∑
y el tiempo medio por intervención, sin discriminar el tipo, esta dado por
Ti tc t
= ∑ + ∑ (42)
p

n n n
o también
nc tc np tp
TMR = M =
n
∑ nc
+
n
∑ n
= p c .M c + p p .M p
(43)
p

170
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 171

Disponibilidad intrínseca, efectiva y operativa


Para evaluar la disponibilidad de un sistema suele tomarse la disponibilidad a largo
plazo, dado que este valor es independiente del estado del cual se parta. En un servicio de uso
continuo, la disponibilidad es un factor que mide el máximo grado de utilización del equipo,
dentro de su vida útil. Este dependerá de que tiempos se consideren como de indisponibilidad
del equipo.
La mejor disponibilidad se obtendrá cuando solo se considere la indisponibilidad
debida a fallas catastróficas y se computen únicamente los tiempos técnicos (activos) de
reparación, es decir, los que están comprendidos en la identificación, localización, remoción,
reposición, ajustes y verificación. En esta evaluación se incluyen los tiempos de reparación
debidos a las fallas catastróficas de los elementos sujetos a mantenimiento correctivo,
excluyendo los tiempos involucrados en el mantenimiento preventivo. Se excluyen los tiempos
de las acciones de mantenimiento preventivo, dado que, al ser programadas, pueden hacerse en
tiempos que no afectan la utilización del equipo, lo cual será posible en equipos de uso
discontinuo. Por otro lado, los retardos logísticos y administrativos, son dependientes del
sistema de mantenimiento, y teóricamente podrían hacerse nulos.
La disponibilidad así calculada es denominada intrínseca o inherente y representa la
mejor disponibilidad posible del equipo. Es una característica totalmente definida en el diseño.
Bajo práctica preventiva, al considerar solo las acciones correctivas, la disponibilidad
intrínseca adquiere su mejor valor,
TMEMc
Ai = (44)
TMEMc + M c

donde TMEMc es el tiempo medio entre fallas correctivas y Mc el tiempo medio de


mantenimiento correctivo.
Si la intervención no resulta transparente al uso, sino que indispone el uso del equipo,
es necesario computar los tiempos involucrados en tales acciones, hablándose en tal caso de
una disponibilidad efectiva, dada por
TMEM
Ae = (45)
TMEM + p c .M c + p p .M p

donde TMEM (ó MTBM, mean time between maintenance ) es el tiempo medio entre acciones
de mantenimiento,
1 1
TMEM = = (46)
λ eq λc + λ p
siendo λc la tasa de fallas catastróficas, y
λ =
1 (47)
p
M p

la tasa de intervención preventiva. Como λc decae cuando λp se incrementa, habrá un Mp


óptimo, que maximiza la disponibilidad.
Raramente la intervención es inmediata a la falla, por necesidades administrativas,
papeleos, traslados, esperas y tiempos logísticos, siendo frecuentemente estos los que
determinan el tiempo para la reposición en servicio, de modo que la disponibilidad operativa
final se vera afectada por todo ello,
TMEM
Ao =
TMEM + p c .M c+ p p .M p + p c .M AdyLog
(48)
donde TMEM es el tiempo medio entre intervenciones, Mp es el tiempo medio de
mantenimiento preventivo, Mc es el tiempo medio de mantenimiento correctivo, y MAdyLog es el
tiempo medio administrativo-logístico. A diferencia de las disponibilidades intrínseca y
efectiva, la disponibilidad operativa depende más del usuario que del equipo: de la
organización, política y estructura de mantenimiento, y del inventario de repuestos, y afecta,
por no ser programada, solo al mantenimiento correctivo.

171
172
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Tiempo de reposición de servicio


Si para la reposición del servicio se recurre a unidades de repuesto, concebidas como
módulos directamente insertables, la función reparación tiene poca implicancia en el
restablecimiento del servicio, y en tal caso se debe aplicar el concepto de tiempo medio de
reposición de servicio (TMRS o MTRS), dado por el tiempo requerido para obtener una unidad
de sustitución, suponiendo que se cuenta con el repuesto, y sumándole a dicho valor el tiempo
de instalación. En tanto, el tiempo medio de reparación ( TMR o MTTR) define el tiempo
necesario para reparar la unidad defectuosa, generalmente en un centro de reparación distante.
En rigor, el tiempo medio de reposición de servicio incluye el tiempo dedicado a aislar
el defecto, el necesario para obtener una unidad de repuesto, mas el tiempo para reemplazar la
unidad defectuosa y comprobar el buen funcionamiento del equipo.
En los sistemas se suele diferenciar entre equipamiento esencial y no esencial, según
que afecte o reduzca la capacidad de prestación o de partes que no tienen influencia
significativa en la misma (por ejemplo la falla de algún testigo de estado). En tales casos, los
tiempos medios de falla para la porción esencial del equipamiento pueden estar en un orden de
veces por encima de las partes no esenciales, y al mismo tiempo con menores tiempos medios
de reposición. Esto implica que para las partes esenciales conviene, más que la reparación,
hacer la reposición in situ en base a unidades de repuesto. El tiempo medio de reparación,
TMR, es un concepto que se aplica a la unidad defectuosa, no al sistema, desglosándose en :
• Tiempo técnico (activo ), que se cuenta a partir del momento en que el equipo llega al
técnico; es normalmente el tiempo mas pequeño, y en algunos casos solo representa
el 1% o menos del total.
• Tiempos administrativos: involucra los tiempos de “papeleo” (burocráticos),
traslados, y colas de espera.
• Tiempo logístico : involucra el tiempo que demanda la obtención de repuestos
Los tiempos administrativos y logísticos dependen del sistema de mantenimiento, y es
una prerrogativa del usuario definir el que le resulta más apropiado, atendiendo al tipo de
servicio, cuando se trata de equipos de uso profesional.

Capacitación y experiencia
Se debe diferenciar entre capacitación, relacionado con un entrenamiento formal para
la realización de una tarea, y nivel de experiencia vinculado con la habilidad desarrollada en el
ejercicio de la misma. Ambos factores inciden en el tiempo de ejecución de las tareas.
Las tareas de capacitación son necesarias cuando el equipo a reparar presenta cierta
complejidad. Incluyen la realización de cursos formales y de entrenamiento para la realización
de las tareas de mantenimiento. La capacitación tiene por fin :
• Entender el funcionamiento del equipo
• Entender y manejar la documentación de mantenimiento
• Conocer cuales son las fallas mas frecuentes y aprender a resolverlas
• Saber llevar a cabo las acciones de mantenimiento preventivo
• Aprender a diagnosticar y reparar las fallas en general
y deberá apoyarse en un manual de capacitación para el mantenimiento. Este puede ser un
documento en papel, en formato electrónico, ser un casete de video, o estar ubicado en un sitio
de la web, e incluso puede estar contenido dentro del propio equipo.
El objetivo es alcanzar una efectividad inicial mínima, de modo de :
1) Minimizar la cantidad de personal necesario
2) Minimizar la cantidad de horas de mantenimiento empleadas

172
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 173

3) Reducir la tasas de error en el cumplimiento o desarrollo de las tareas, o posibles


daños, lo que implicará disponer de protecciones y salvaguardas
4) Evitar la ejecución de trabajos innecesarios, como ser remociones y chequeos
indebidos
5) Aumentar el conocimiento de las relaciones causa-efecto, para mejorar la
diagnosticabilidad
6) Lograr el menor tiempo de indisponibilidad (mayor satisfacción del cliente )
y la evaluación de estos parámetros mostrara si el programa de entrenamiento es adecuado.
Si el sistema no es complejo y la probabilidad de cometer errores es baja,
generalmente se elimina el entrenamiento o capacitación formal y se emplea solamente el
entrenamiento “sobre la marcha”; es decir, aprender a medida que se realiza el trabajo. Pero
siempre la mayor efectividad se logra a partir de la acumulación de experiencia, la cual se
evalúa por medio de curvas de aprendizaje. Estas curvas responden a modelos, uno de los
cuales supone que el tiempo de ejecución demandado por una tarea cuando se ejecuta por n-
ésima vez, T(n), se vincula al tiempo requerido por vez primera, T(1), por la expresión
T (n ) (49)
− β
= n
T (1 )
donde β es un parámetro del modelo. Otro modelo apropiado es el de Gompertz,
⎛ b ⎞
− ⎜⎜ ⎟⎟
⎝ n −1 ⎠
T ( n ) = T1 .e − a . e (50)
dado que contempla un progreso fuerte al principio, para acercarse a un piso después de haber
repetido cierto número de veces la tarea. Estos modelos son útiles para determinar los recursos
requeridos para cumplir con tiempos efectivos de mantenimiento, y para definir los tiempos de
entrenamiento necesarios. A veces la evaluación se hace mediante un factor de inexperiencia,
el cual mide el incremento del tiempo medio de reparación de una persona con cierto tiempo
de experiencia en relación al tiempo que le insumiría a una persona experimentada.

Diseño para la mantenibilidad


Los tiempos involucrados en el mantenimiento, tanto correctivo como preventivo,
quedan definidos explicita o implícitamente en las primeras acciones de desarrollo, a partir
mismo de la definición de producto. Para ciertos productos, es en la propia definición donde
se establecen las exigencias de mantenibilidad en forma directa, especificando el tiempo medio
de reparación, o en forma indirecta a través de exigencias de fiabilidad y disponibilidad.
Durante la etapa de diseño del equipo se apunta a lograr:
• Reducción de los medios necesarios para el mantenimiento
• Hacer posible el mantenimiento por personal inexperimentado
• Disminución del tiempo de inmovilización para el mantenimiento, usando
módulos reemplazables, incorporando indicadores funciona/falla y medios de
autodiagnóstico.
• Previsión de puntos de acceso y determinación de las señales esenciales a
verificar que faciliten el aislamiento de las fallas
• Medidas de prevención frente a fallas graves, o a las acciones de desgaste
• Prevención de fallas para conexión en caliente ( interconexión de equipos
cuando al menos uno de ellos esta en operación )
• Imposición de fusibles, conectores polarizados, bloqueos o inhibición de
controles cuando un accionamiento inoportuno pueda dar origen a fallas
apoyándose en:

173
174
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

• El análisis y/o determinación de los criterios y políticas de mantenibilidad impuestos


en la definición del producto, como paso previo a la concepción y el diseño
• FMEAs (failure mode and effects analysis), en los cuales se hace el análisis de los
modos posibles de falla y sus efectos, con el fin de prevenir en el diseño las causas, y
facilitar su corrección
• revisiones criticas del proyecto, en las que se trata de ver que el desarrollo contemple
las exigencias de mantenibilidad que se hayan impuesto
• la definición de acciones de mantenimiento preventivo pasivo, que atiendan el
entorno de operación del equipo
• el análisis de los datos de campo disponibles, o recopilando información de campo
para conocer los problemas encontrados en equipos similares
• la estandarización, racionalizando el empleo de componentes ( no diversificar), para
reducir el nivel de repuestos; independientemente, se usaran componentes preferidos,
y de fácil obtención
• un diseño mecánico con facilidad para el desmontaje, con indicaciones y vistas que
permitan además el posterior ensamble en forma rápida
• análisis térmicos, tendientes a determinar la disipación de calor dentro del equipo, de
modo de asegurar para los componentes la menor temperatura posible, como medida
proactiva para reducir la tasa de fallas. Esto implica :
o diseñar el gabinete para proveer adecuada transferencia de calor al ambiente
o localizar los componentes para lograr:
ƒ la mejor transferencia de los elementos de alta disipación
ƒ el aislamiento térmico de los elementos mas sensibles a la
temperatura
o Considerar la comprobación de todas las temperaturas criticas como un paso
esencial del diseño
• el diseño de experimentos dedicados a obtener mejoras en la disponibilidad y la
mantenibilidad
• disposición de ajustes que sean poco interdependientes entre si
• la definición y consideración de escalones de mantenimiento en el diseño
• previsión de repuestos de componentes específicos, para atender las reparaciones
durante el lapso de vida del producto. Algunos compradores exigen la obligación de
suministro por lapsos determinados ( en algunos casos de hasta 20 años ).
• Definición de rutinas de comprobación y reparación, y forma de acceder a
memorias o registros ( por ejemplo a través de buses internos como el I2C, o el IEEE
1149 ) para verificación de estado
• Definición del rearranque seguro en sistemas de operación continua
• Disposición de facilidades de reprogramación, en caso de equipos programables

Serviciabilidad
La serviciabilidad evalúa la facilidad con que un equipo permite la reparación,
conciliando la ubicación de los componentes más propensos a falla para facilitar su
localización, el acceso, su remoción y recambio, con otros aspectos tales como su tamaño,
peso y forma, compatibilidad térmica, compatibilidad electromagnética, facilidad para el
ajuste, y razones ergonométricas. La serviciabilidad se ve ayudada con:
• Facilidad de acceso. Por ejemplo en el caso de la figura 41 resulta difícil acceder para
comprobar o reemplazar el componente B, que esta encajonado entre los elementos A y C.
También, una realización como la indicada en la figura 42a dificultaría la remoción y
reposición de los componentes

174
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad 175

A C
B placa

a) b)
Fig.41 Fig.42

• Existencia de puntos de prueba adecuados, que permitan localizar fácilmente la falla


• Disposición de elementos de monitoreo, con indicación en una pantalla, o por lectura de
un instrumento, del comportamiento de algunas variables del equipo (corrientes, tensiones,
niveles de excitación, temperatura, estado de algún elemento que sufre desgaste, etc). Las
indicaciones estarán adaptadas a cada equipo, pudiendo ser:
o Focos luminosos, diferenciando por color, parpadeos o cadencia para distinguir
los distintos tipos de problema
o Indicadores, display o pantalla, con números o letras para referenciar defectos
tipo, especialmente si la variedad de fallas es muy alta.
o Instrumentos de aguja o digitales. En el primer caso, la escala puede estar
diferenciada en zona normal de funcionamiento (verde) ó insegura (roja); en el
segundo, la condición insegura se diferencia mediante parpadeo de la indicación
o Señales acústicas codificadas para aumentar la capacidad de reconocimiento, y
diferenciación del tipo de falla, con es el caso del arranque de una PC
• Modularización : balanceando entre las dos opciones:
• Equipo modularizado
• Equipo de chasis único, totalmente integrado
La idea es armonizar las exigencias de un fácil reemplazo de módulos o plaquetas, para
facilitar el primer escalón de mantenimiento por parte del usuario, con el de los procesos
de manufactura y los costos.
• Conexiones flexibles: El empleo de mangueras y cableados terminados en conectores
facilitan el mantenimiento, evitando desoldaduras y posteriores resoldaduras.
• Facilidad para el desarmado y rearmado, estableciendo formas de fijación para las partes
mecánicas que hagan simple y rápido el desarmado y posterior rearmado:
o Recurriendo al empleo de partes unidas por encastres o enchufe a presión
o Evitando el uso de tornillos, y de usarlos mantener el mismo tipo de cabeza y paso
o Empleando trabas rebatibles
o Reducida cantidad y variedad de herramientas
• Facilidad para la validación por bloques. Esto se logra seleccionando puntos de prueba
que permitan validar o descartar grandes bloques, de modo que con pocos pasos de
chequeo se pueda determinar la parte en falla.
• Facilidad para la diagnosticabilidad o supervisión, permitiendo por ejemplo que desde
un remoto sea posible hacer el testeo del equipo valiéndose de un MODEM
• Inhibición de falsas maniobras. Si el procedimiento de mantenimiento debe ejecutarse
siguiendo pasos en un orden prefijado, el producto debe desarrollarse de modo que solo
sea posible realizar dichos pasos siguiendo tal orden
• Provisión de seguridad mediante guardas, coberturas, advertencias, seguros de puertas y
restricciones de acceso para aquellas partes que operan a alta tensión ( tensiones
superiores a los 70 Voltios ), tienen partes móviles, emisión láser, etc.
• Previsión de acciones de mantenimiento preventivo, de modo que su frecuencia sea
fijada considerando los turnos por día y la cantidad de días a la semana en la que se
prevé estará operativo el equipo.

175
176
INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

Diagnosticabilidad
La diagnosticabilidad mide el conjunto de medios dispuestos en el equipo destinados
al pronto reconocimiento de los elementos en falla, de modo de aislarlos y corregirlos en el
menor tiempo posible. Cuando se la considera en el diseño, se habla de un diseño orientado a
la diagnosticabilidad.
Supongamos un equipo compuesto por N componentes dentro de los cuales se debe
aislar un componente en falla, y supongamos que todos tengan igual probabilidad de falla. Si
el método de prueba se basara en una comprobación secuencial, y cada comprobación
insumiera un tiempo To, el tiempo necesario en media estaría dado por
N
Tc 1 = .T o (51)
2
Si se instrumenta un método mediante el cual cada prueba permite aislar la falla a la
mitad de los componentes, entonces la cantidad de pruebas n quedaría reducida a
2n = N (52)
por lo que
log( N )
Tc 2 = .T o (53)
log( 2 )
resultando así una eficiencia en el método dada por
Tc log( 2) N
1
= .
TcN ) 2 2 (54)
log(
Cuando la falla se circunscribe a un componente que puede tener múltiples modos de
operación, el proceso no es tan directo. Cuando los estados que puede tomar son pocos, puede
ser de ayuda la incorporación de indicadores luminosos. Pero cuando son muchos, una de las
mejores aproximaciones a este requerimiento es el BIST (Built-in self-test), también
denominado BIT (built-in test). El BIST incorpora capacidad de verificación en el mismo
equipo, actualmente favorecido dada la mayor incorporación de software dentro de los equipos,
y la proliferación de dispositivos analógicos con interfaces de comunicación por buses, por
ejemplo el I2C, o por empleo de dispositivos boundary-scan. Estos sistemas son además
necesarios debido a que los defectos cada vez están mas ocultos (son más difíciles de detectar).
Algunos sistemas incluyen varios niveles de diagnosticabilidad, cada uno más complejo y
potente que el precedente.

Estimación de la mantenibilidad
Como un paso mas del diseño habrá que estimar la mantenibilidad, para comprobar
que se han alcanzado las metas propuestas, las que luego deberán verificarse sobre prototipos.
Para hacer la estimación del tiempo medio de reparación es útil confeccionar una planilla
como la indicada en la tabla I. Los tiempos de cada una de las tareas podrán basarse en
experiencias previas, u obtenerse de tablas de tiempos. En particular la MIL-HDBK-472
(Military Handbook: Maintainability Prediction ) provee una base de tiempos de reparación
estándar. El tiempo medio de reparación resultara de la aplicación de la expresión (34). Si el
TMR excediera el valor permitido, habrá que replantear la solución.
TABLA I
Modulo Tipo de Cantidad Tasa Tiempo medio ( hrs) λx
Elemento de de λxn TMRi TMR
en falla elementos falla Diagnos- Acceso Locali- reemplazo Ajuste Armado Verificación
tico zación
xn
n FIT
1 capacitor 15 40000 .0006 .01 .1 .03 .15 0 .08 .03 .4 .00024
Transistor 3 ... .... .... ... ....
.... .............. ...... ....
Σ λxnÆ Σ1 Σ λxTMRxnÆ Σ2
Tiempo medio de reparación (TMR) = Σ2/Σ1

176
Calidad
El problema de hacer correctamente las cosas de entrada
es que de ese modo nadie apreciaría cuan dificultoso fue
de "FORTUNES”

Todos los equipos o productos son diseñados para satisfacer una necesidad. En su
acepción más amplia, la calidad de un producto es la medida en que ese objetivo es logrado.
Esta evaluación engloba todas las características vinculadas con la aptitud para satisfacer dicha
necesidad, estén estas explicitadas o sean condiciones implícitas de uso. Las características se
consideran implícitas cuando, a pesar de no estar contempladas en la especificación,
igualmente deben cumplirse. Por ejemplo, puede no haber especificación alguna referida a
ralladuras o golpes, y ello no implica que las mismas sean aceptables.
El satisfacer las condiciones de uso esta vinculado a que el producto:
• sea bien definido
• este bien diseñado
• sea fabricando conforme
• tenga soporte para su uso
Las condiciones que debe cumplir el producto para satisfacer la necesidad se plasman
en un documento de definición de producto. El producto esta bien definido cuando la
especificación se corresponde con la satisfacción de la necesidad. Según Juran ( Juran y la
Calidad por el Diseño ) “el diseño de un producto es el proceso de definir las características
del producto para satisfacer las necesidades de los clientes”. Bajo este enfoque, es en la etapa
de definición de producto donde realmente se realiza el diseño, pues es donde se definen los
atributos y cualidades que va a tener el producto, y que el desarrollo simplemente debe atenerse
a cumplir. El PDD ( Product Definition Document ) es por ello el documento primario y mas
trascendente. Es claro que en la definición de producto pueden estar incluidas cosas
irrelevantes, y en cambio no estén contempladas otras características que determinan su aptitud
para satisfacer la necesidad, figura 1.
necesidad
desarrollo

manufactura Definicion
de
producto
Fig.1

Que un factor sea irrelevante o no dependerá del tipo de producto, pero considerarlo
así es siempre una prerrogativa del cliente. Por ejemplo, el color del gabinete puede ser
irrelevante en algunas aplicaciones, mientras que en otras será un factor tan decisivo que su
especificación se establece dando las coordenadas, con su tolerancia, en el diagrama cromático
del IEC. Las características y atributos que explícitamente no integran la especificación, ni son
características implícitas del producto, podrán ser considerados grados de libertad solo cuando
las mismas sean indiferentes bajo la perspectiva del cliente.
Si bien el PDD establece que características debe cumplir el producto, es en el
desarrollo donde estas se fijan, pudiendo o no ser concordantes con las establecidas en el PDD.
178 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

De la selección que se haga de partes y elementos podrá resultar que el producto


desarrollado tenga apartamientos respecto a la especificación establecida para el mismo. Igual
ocurrirá si el proceso de manufactura no conforma al diseño; la instalación, los abusos de uso,
y un mal soporte de postventa pueden ser nuevas fuentes de apartamientos.
Para evaluar la calidad de un producto a la salida de fabrica se debe considerar
separadamente la calidad de diseño, relacionada con los defectos o vicios propios del producto,
de la calidad de fabricación, vinculada a no conformidades debidas a los procesos. Se
denomina defecto a la incapacidad para cumplir con los requerimientos de uso. Esto ocurre si
los requerimientos establecidos para el diseño difieren de los requerimientos de uso. La calidad
de conformidad indica que tan bien cumple el producto con las especificaciones y tolerancias
establecidas por el diseño. No conforme es un producto que no satisface los requerimientos de
diseño. De esto resulta que un equipo que cumple su especificación, es decir que es conforme,
puede no satisfacer la necesidad, y en tal caso debe considerarse defectuoso. Un equipo
defectuoso permite un uso restringido. Usualmente se considera que un equipo no conforme es
siempre defectuoso.
Todos los productos se fabrican con varios grados o niveles de calidad. Estas
variaciones en los grados o niveles de calidad son intencionales, en el sentido de que son
conocidas y se aceptan, y el elemento que los diferencia es la calidad de diseño. Vale decir, un
producto puede tener buena calidad de fabricación pero mala calidad de diseño.
La calidad de diseño se evalúa en la etapa de validación del diseño y de los procesos
de manufactura. Pero, aun cuando todas las acciones del diseño y de la manufactura se orientan
para que los productos funcionen satisfaciendo la necesidad desde su primer utilización ( t = 0),
por diversas causas puede no resultar así. Si para t = 0 el producto esta conforme queda
implícito que funciona, es decir, que cumple con las especificaciones. El no funcionamiento
implicara siempre un equipo defectuoso. Si el incumplimiento se produce con el uso, decimos
que el equipo entro en falla; la no conformidad o el defecto son, por el contrario, de origen. Es
decir, mientras la falla sobreviene con el tiempo, a consecuencia del uso, los defectos son de
nacimiento: se originan en el diseño o la manufactura.
En su acepción más restringida la calidad mide el grado de cumplimiento de una
especificación; por tanto es una medición de los conformes, y mide tan solo la calidad impuesta
por diseño que resulta del proceso. La primera herramienta introducida para la evaluación de
calidad, el control estadístico de calidad, esta basada en este concepto. Con el empleo del SQC
(Statistical Quality Control ) se busca acotar el porcentaje de productos defectuosos que
pueden llegar a manos de los usuarios. El método tiene dos grandes desventajas:
• por ser reactivo, redunda en mayores costos, y requiere además una acción recurrente
• por ser estadístico, admite que a manos del usuario lleguen productos defectuosos, en
vez de trabajar bajo la meta de producto perfecto ( cero defectos )
El paso lógico siguiente es la introducción de métodos proactivos: En vez de eliminar
los productos que resultan defectuosos al final del proceso, el objetivo es desarrollar procesos
que minimicen los defectos, diseñando procesos aptos y manteniendo luego bajo control dichos
procesos. Surge así una nueva herramienta, el SPC (Statistical Process Control), que si bien es
un paso adelante en el camino de la mejora, es todavía insuficiente porque excluye los defectos
originados en el diseño. Se logra un mayor avance cuando se incorpora en la etapa de diseño
un conjunto de herramientas y conceptos nuevos, tales como el diseño de experimentos, DOE
(Design of Experiments ), técnicas anticipativas de análisis de los modos de falla y sus
consecuencias, los FMEA ( Failure Mode and Effect Analysis ), y estudios de ingeniería del
valor, VE(Value Engineering ), con el fin de identificar los métodos mas simples y económicos
para satisfacer las funciones del producto. Pero el paso mas trascendente se da cuando se
introduce el concepto de la administración total de la calidad, el TQM ( Total Quality
Management ), en el que se maneja la idea de que la calidad es una responsabilidad de toda la
organización. Es decir, el TQM surge como una herramienta destinada a la administración de

178
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 179

la calidad vista de un modo totalizador. Esto redefine el papel de la empresa y la


responsabilidad de cada sector para lograr mayor productividad, mayor satisfacción de los
clientes (no necesariamente son los usuarios finales del producto), mejor posición competidora,
mayor participación en el mercado, y al mismo tiempo mayor rentabilidad, figura 2.
M a rk etin g D ise ñ o M an u fa ctu ra

SQC

tiempo
M a rk etin g D ise ñ o M an u fa ctu ra

SPC SQC

M a rk etin g D ise ñ o M an u fa ctu ra


DOE
FM EA
QFD SPC SQC
VE
Fig.2 QFD
TQM

Convencionalmente, más que la calidad, se evalúa la falta de calidad, medida por las
no conformidades. Esta evaluación se hace midiendo la cantidad de equipos no conformes en
proporción a los equipos evaluados. Esta medición, sin embargo, no es totalmente objetiva:
Sirve para indicar que proporción de equipos están defectuosos por no conformidad, pero no es
un buen indicador de la calidad del proceso, y sin duda del diseño. Puede ocurrir que con igual
porciento de equipos defectuosos la cantidad de defectos por equipo sea distinta, y claramente
en ambos la calidad es diferente. Esto lleva a considerar los dos siguientes índices de calidad:
• índice o tasa de defectos
• proporción de defectuosos o defectuosidad
donde, Cantidad total de defectos
tasa de defectos = (1)
Cantidad de equipos
defectuosidad = Cantidad de equipos defectuosos (2)
Cantidad de equipos
siendo común expresar dichos valores como porcentajes. La tasa de defectos es una medida de
la media de defectos o deméritos por unidad y suele indicarse por U,
n

∑ D i (3)
U = 1

n
donde Di es la cantidad de deméritos de la unidad i, y n es la cantidad de unidades evaluadas.
Por lo general es usada para evaluar la calidad de equipos complejos.

Clasificación de los defectos


Dado que no todos los incumplimientos tiene igual importancia, la evaluación de
calidad debe distinguir entre los siguientes tipos de defectos :
• Mayores: Son los defectos que al darse no permiten el uso de los productos. Por
ejemplo si un circuito integrado tiene una patita rota, impidiendo su uso, será un defecto mayor
• Menores: Son aquellos defectos que permiten el uso de los productos en forma
restringida. Este seria el caso por ejemplo de un circuito integrado que tiene una patita doblada
y ello dificulta su inserción manual
• Críticos: Son los defectos que de darse provocarían daños a terceros, por lo cual no
es posible el uso

179
180 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Por otro lado, mientras algunos defectos suelen detectarse fácilmente, por simple
inspección visual o previo al momento del proceso, otros están mas ocultos y solo se
manifestarían en alguna etapa mas avanzada del proceso. Por lo general los defectos de tipo
mecánico caen en el primer grupo, y los eléctricos en el segundo. Esto lleva a clasificar los
defectos propios de los componentes electrónicos en:
• Mecánicos: vinculados a partes mecánicas. Normalmente son de fácil detección por
simple inspección, admitiéndose una tasa de defectos mayor, del orden de hasta 2,5 % o 5%.
• Eléctricos: vinculados a alguna característica eléctrica del producto. Son de difícil
detección temprana en el proceso, por lo cual se requiere baja tasa de defectos, al menos un
orden de veces menor a los de tipo mecánico, por ejemplo 0,25 % o aun menor. Actualmente
valores de 100 ppm o menos son comunes para muchos componentes electrónicos.

Calidad de proceso
Todo proceso esta sujeto a la influencia de múltiples factores aleatorios cuyos efectos
combinados producen un resultado también aleatorio, el cual queda caracterizado por la
función de distribución de la característica de interés. Estos factores pueden desdoblarse en:
• causas comunes, también denominadas aleatorias
• causas especiales o asignables, también denominados factores sistemáticos
Las causas comunes son debidas a múltiples factores: operarios, maquinas, materiales,
etc. Cada factor de por si tiene poca influencia, pero, cuando todos confluyen, sus efectos se
suman y dan lugar a una variación significativa. Estas variaciones pueden predecirse porque
tienen un nivel de variabilidad que permanece relativamente constante en el tiempo. Cuando
solo se manifiesta este tipo de causas se habla de un proceso bajo control. Las causas comunes
pueden considerarse inherentes al proceso, dado que al no ser fácilmente eliminables, son las
que determinaran su capacidad. Es decir, son causas comunes las que resultan una vez que
todas las causas especiales de variación fueron eliminadas. La variabilidad debida a causas
comunes, por ser consecuencia de muchos factores, dan lugar a una distribución de tipo
normal. Esta es condición necesaria para reconocer la existencia de solo causas comunes, pero
no suficiente, pues también la presencia de causas especiales puede llevar a una distribución
normal.
Las causas especiales, debidas a un operario, una maquina, o un proceso particular, se
manifiestan por cierto lapso de tiempo; su característica distintiva es que no es una causa
común a todas las unidades. Provienen además de un número limitado de causas, que producen
efectos importantes. Las causas sistemáticas pueden subdividirse entre:
• influencias sistemáticas predecibles
• factores de perturbación
Con esta subdivisión se busca que el control de variabilidad de proceso discrimine la
influencia debida a efectos perturbadores imprevisibles. No son predecibles cuando no son
regulares; es decir, cuando las causas aparecen y desaparecen en forma intermitente. En este
caso se dice que el proceso esta fuera de control. En cambio, las influencias sistemáticas
predecibles pueden surgir por análisis técnico del proceso, presencia de regularidades, de
observaciones empíricas, o bien observando los comportamientos a largo plazo.
Un proceso sujeto a factores aleatorios se dice estable cuando la media y la varianza
se mantienen constantes a lo largo del tiempo, o sea si
µ (t ) = µ o (4)
σ (t ) = σ o (5)
Esto corresponde al denominado modelo de proceso “A”, figura 3. Cuando permanece
constante la varianza del proceso, y la media tiene una variación aleatoria alrededor de una

180
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 181

media de largo plazo, siguiendo una distribución normal, esto define el modelo de proceso
“B”. Si la media estuviera sujeta a variaciones regulares, vale decir, con un comportamiento
que es predecible, esto corresponde al modelo de proceso “C”, figura 3.

Modelo de Proceso “A” Modelo de Proceso “B” Modelo de Proceso “C”

Fig. 3

Se dice que un proceso esta bajo control cuando mantiene su distribución con el
tiempo, o esta cambia de un modo conocido o entre límites conocidos. El que un proceso este
bajo control no lo hace apto. Un proceso se dice apto cuando tiene capacidad para satisfacer los
requerimientos de calidad y esto implica que sus características se mantienen dentro de límites
prefijados, figura 4.

R e s u lta d o

P ro ce s o
Si Si S i (*) S i (*) S i (*) No No
c o n tro la d o
C a p a c id a d Si Si Si No No ? No
d e p ro c e s o
(*) S up on e c au s as s is tem a tic a s pred ec ible s

Fig. 4
La evaluación de capacidad busca determinar si un proceso es apto. Es obvio que solo
para un proceso bajo control tiene sentido el análisis de capacidad.
El que un proceso este bajo control solo requiere que se mantenga la varianza, pero
que tenga capacidad requiere además que los valores de sus características se mantengan
dentro de límites impuestos por la especificación.

Capacidad de Proceso
Usualmente la especificación impone un valor nominal para las distintas
características. Aunque el valor que resulta del proceso no coincida con el valor nominal
deseado para la característica, igualmente resulta admisible a condición de que el apartamiento
no supere ciertos límites, dentro de los cuales se considera que no hay degradación
significativa en el cumplimiento de la necesidad. Conocer este apartamiento es necesario para
el diseño del producto y para la determinación de métodos productivos aptos.
No deben confundirse los límites establecidos por la especificación con los límites
establecidos para el control de proceso. Obviamente, los límites del proceso deben caer
siempre dentro de los límites de la especificación. Determinar que esto sea así, es medir la
aptitud del proceso para satisfacer la especificación. Es decir, medir la capacidad de proceso es
evaluar si las etapas de diseño del producto y de procesos están en aptitud de cumplir la
especificación. Que un sistema sea estable no significa que sea apto, pero para que sea apto
necesariamente debe ser estable, y cumplir además con las exigencias del diseño.

181
182 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Con el valor nominal de la especificación y su tolerancia se pueden establecer los


valores extremos de la especificación, Emax y Emin, y por consecuencia su rango ∆E
∆E = E max − E min (6)

Si la variabilidad que resulta por diseño y proceso se origina en causas comunes,


responderá a una distribución normal, quedando su dispersión limitada mayormente a un
intervalo comprendido dentro de los 6σ. Esta dispersión debe ser menor a la tolerancia de la
especificación; en la medida en que esto se logre será la aptitud o capacidad del proceso,
E max − E min (7)
Cp =
6 .σ
Este índice por lo general no se utiliza, ya que solo evalúa la dispersión, y solo seria
aplicable si la media de proceso esta centrada sobre el valor nominal especificado. Serviría
para evaluar la dispersión de proceso, pero no la adecuación del proceso a un determinado
producto. Para ello el índice debe considerar la situación mas comprometida, dada por
C = min (C ,C )
pk pu pl
(8)
donde
E − X
C =
max
(9)

pu

X − E min (10)
C =

pl

y σ es una característica del proceso que debe ser determinada en base a los valores
observados, después de haber eliminado las causas especiales.
Este índice evalúa el proceso en relación al requerimiento especifico del producto,
considerando el limite mas comprometido de la especificación, figura 5, y supone un proceso
bajo control. La condición limite de Cpk=1, si bien corresponde a un proceso bajo control, se
debe considerar marginal, mientras que Cpk<1 resulta inaceptable, figura 6.
p(X)
p(X)

X Emax - X X Lmc - X X
X
Emax-Emin Emax-Emin
3σ 3σ
Fig.5 Fig.6
Considerando un proceso con comportamiento normal podemos suponer como muy
raro, prácticamente imposible, la aparición de un evento de valor X-En=4σ, (donde En es el
valor nominal especificado para la característica analizada), por lo que si el rango de la
especificación en relación a la dispersión (medida por σ) satisface ∆E=8σ, en tal caso el valor
de Cpk seria
∆E 8σ
Cpk = = = 1 . 33 (11)
6σ 6σ
Este valor suele tomarse como el limite de la condición marginal; es decir, Cpk > 1.33
es la condición a cumplir.
Es una tarea del proceso de optimización conseguir que las medias que resultan por
diseño y proceso coincidan con el valor nominal requerido, o sea
X = En (12)
lo cual implicaría nula variabilidad de la media. Esta condición es de difícil cumplimiento, por

182
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 183

lo cual, para tener en cuenta sus efectos se impone una exigencia mayor para la dispersión del
proceso, estrechándolo en un σ adicional por lado, lo cual implicara considerar 5σ a cada lado
para evaluar la capacidad de proceso, o lo que es igual, lograr una dispersión que satisfaga
∆E = 10. σ (13)
Otra forma de evaluar la aptitud de proceso, siempre bajo el supuesto de que las
variaciones siguen una distribución normal, es calculando el mínimo valor de la variable
normalizada z, definida como
⎛ E − X X − E ⎞
Z = min ⎜

max
, min ⎟

(14)
σ σ
min
⎝ ⎠
el cual difiere del valor dado por la expresión (7 ) solo en un factor de escala. Conociendo z,
se puede determinar la probabilidad de defectuosos.
La mayor dificultad se da en el arranque de los procesos por no contar con suficiente
población como para establecer una buena caracterización estadística, y porque además son
frecuentes las causas especiales que dan lugar a que el proceso sea inestable. En tal caso, en
vez del Cpk se trabaja con el Ppk. La diferencia entre ambos es que en este ultimo el desvío
estándar se iguala al desvío estándar muestral, considerando la media muestral que resulta de
los k subgrupos con n-1 elementos cada uno,

σ t = st =
1
k .n − 1
∑∑
k

i =1 j =1
n
(x ij − x )2 (15)

y por tanto, a diferencia de σ, en el que solo se contempla la variabilidad de proceso por causas
comunes, σt contempla la variabilidad total; es decir, siempre será
σt ≥σ (16)
Es decir, mientras σ mide la variación inherente al proceso una vez estabilizado, σt
mide la variación total del proceso. La perfomance del proceso en una fase preliminar de
manufactura se evalúa en base al índice Ppk
P = min( P , P ) (17)
pk pu pl

E − X
P pu =
max
(18)
3 .σ t

E min − X (19)
P pl =
3 .σ t

La capacidad de proceso Cpk resulta después de un periodo de mejoramiento, el cual


se extiende hasta el punto en que no es posible una mejora adicional, sin recurrir a cambios
sustanciales, como pueden ser cambios de maquinas o de tecnologías. Por el contrario Ppk
permite evaluar la perfomance en todo momento, por lo que la relación
C min( C ,C )
=
pk pu pl

P pk min( P pu , P pl ) (20)
sirve como un indicador del desempeño efectivo de proceso, y por ello algunas regulaciones
técnicas establecen que cuando esa relación es mayor a 3 es necesaria una acción correctiva.
Para determinar los índices de capacidad de proceso Cp y Cpk se puede usar la función
de Matlab capable(data,espec), la cual además permite obtener la probabilidad de que del
proceso resulten muestras que estén fuera de los limites de la especificación. Esta función
supone que los valores medidos en data responden a una distribución normal, con valor medio
y varianza constantes, y son además estadísticamente independientes. El argumento espec es un
vector que determina los limites inferior y superior de la especificación. Además con la
función capaplot(data,espec) se ajusta los datos a una distribución normal, y se calcula la
probabilidad de que una nueva observación caiga dentro de los limites especificados en espec,
graficando la distribución y los limites de la especificación.

183
184 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Control Estadístico de Proceso (SPC)


Bajo la denominación SPC (Statistical Process Control ) se engloban todo un
conjunto de procedimientos basados en métodos estadísticos cuyo fin es evaluar ciertas
variables del producto y de los procesos. En general, las técnicas de control estadístico de
proceso ( SPC ) tratan sobre la adquisición de datos, el análisis de los valores que resultan de
las mediciones, el calculo de la capacidad de proceso, y la realización de estimaciones de
efectividad de los cambios que se van introduciendo para la mejora de los procesos.
La calidad total de un producto resultara como consecuencia de la ingeniería de diseño
del producto, la ingeniería de proceso y del control de manufactura. Asegurar la calidad
implica actuar en el momento adecuado en cada una de estas etapas. Pero siempre, la mejor
calidad que se puede obtener del proceso de manufactura será consecuencia de la que se haya
definido en el diseño y en la ingeniería de procesos, figura 7.

Entradas de Diseño de Diseño de Calidad de


Calidad ¿ cumple ? Calidad de Manufactura ¿ cumple ? ¿ cumple ?
diseño producto manufactura producto
de diseño
Si proceso Si
No No
No
Mejora Mejora Accion de
continua continua control

Diseño de producto Diseño de procesos Control de manufactura Uso

Fig. 7

Establecida una calidad de proceso, la aparición de causas especiales en la


manufactura degradaran ese nivel de calidad, figura 8.
Proceso fuera de
Proceso control y no apto
controlado
y apto

defectuosos o
o mp
mp tie
tie
defectuosos
Limite inferior de Limite superior de Limite inferior de Limite superior de
la especificacion la especificacion la especificacion la especificacion

Fig. 8

Existen dos métodos para evaluar la calidad de manufactura. Uno, conocido como
evaluación por atributos, solo busca saber si se esta o no dentro de la especificación. El otro,
conocido como evaluación por variables, busca conocer cuan cerca se esta del valor ideal; o
sea, determinar en que medida se aparta el producto de su especificación nominal.
La evaluación por atributos tiene la ventaja de ser rápida y simple, pero provee poca
información para el control y la mejora. Se utiliza en procesos no críticos, y se conocen como
controles del tipo pasa–no-pasa.
Los valores medidos en una evaluación por variables son tratados estadísticamente y
permiten saber si el proceso esta bajo control. Fundamentalmente se apunta a determinar si la
media y la varianza se mantienen constantes. Por proporcionar más información, la evaluación
por variables se utiliza siempre para componentes críticos, y para ajustar la primera serie de
producción. Esta es una etapa muy importante e imprescindible a los efectos de la validación
del diseño y su adecuación al proceso de producción. Cuando se hace esta caracterización se
deben descartar las causas especiales o asignables.

184
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 185

Graficas de control de calidad


Durante la manufactura se debe monitorear el proceso para verificar que el mismo
esta bajo control. Para este seguimiento se usan las denominadas gráficas de control, o graficas
QCC (Quality Control Chart ), llamadas a veces también graficas de Shewart. Las QCC
(Graficas de control de calidad) son el elemento central para el control del proceso.
Con las graficas de control se trata de saber, de un modo visual y rápido, si el proceso
se mantiene bajo control o debe intervenirse por excederse los límites admitidos, o bien
basándose en el análisis de su tendencia. Las graficas representan la evolución de las
características del proceso, y resultan de estimar una característica basándose en una cantidad
n de muestras, que son extraídas por lote o unidad de producción (hora, turno, día), las cuales
conforman un subgrupo que se supone es representativo del proceso en ese periodo particular.
parametro w limite de intervencion superior

w
6σ w
distribuccion
limite de intervencion inferior normal
Fig. 9

1 2 3 4 5 6 7 6 8 9 10 11 12 13 14 15 16 1|7 18 19 20 21 22 23 24 25
t subgrupo

En el control por variables se evalúan dos parámetros: uno vinculado a la media y otro
a la varianza de la característica que se este controlando. En un control por atributos se evalúa
un único parámetro, la cantidad de defectos o defectuosos. Usualmente, en cada muestreo se
toman unidades consecutivas para evitar que entre ellas se manifieste alguna causa especial. La
representación de estos parámetros en función de los subgrupos, normalmente limitada a 25,
conforma la grafica de control, figura 9
Los limites son establecidos bajo el supuesto de que es valida la distribución normal;
es decir, supone que la diferencia entre el valor obtenido en cada muestreo con respecto al
valor nominal propio del proceso es una variable aleatoria que sigue una ley normal, y además
se acepta que la probabilidad de que resulten valores apartados en mas de 3 sigma es
despreciable, debido a que son evaluadas muy pocas muestras en cada muestreo.
Sea W un parámetro usado como medida de calidad, que resulta de combinar las
observaciones X realizadas en cada muestreo. En un control por variables, W estará relacionado
con la media o con la variabilidad de la característica X, o será un conteo de defectos, en un
control por atributos. Como W resulta de combinar los valores observados, dado el carácter
aleatorio de estos, W será por tanto una variable aleatoria. Suponiendo conocido el valor medio
de esta variable aleatoria, w , y su desvió estándar σ w , entonces, en el supuesto de que W
responde a una distribución normal, sus valores quedarán restringidos conforme al criterio de
los 3 sigma, y por lo tanto los limites de intervención estarán dados por
Limites de intervención de W = w ± 3 .σ w (21)
En un control por variables, σ w estará vinculado con el desvió estándar σ que resulta
del proceso para la variable X, (22)
σ w = A. σ
dependiendo A de la cantidad de muestras extraídas por cada subgrupo.
Si bien el criterio de las 3 sigmas se ha estandarizado, y se le considera un límite
natural, los límites de control pueden ser establecidos tomando un criterio distinto, por ejemplo
considerando un nivel de confianza del 99%, lo cual es usual en las primeras corridas de
producción. En tal caso los límites serán más estrechos.

185
186 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Los limites de intervención surgen de las características del proceso ( µ y σ ), y no


deben ser confundidos con los limites que admite la especificación a cumplir. Adicionalmente
el grafico puede tener límites de advertencia. Para fijar los limites de intervención se hacen
estimaciones de σ y µ en las primeras corridas de producción, y por tanto serán o no adecuados
dependiendo del tipo de proceso. Lo serán para un modelo de proceso “A” , pero los modelos
“B” y “C”, figura 3, requieren que estos limites deban ser modificados para tomar en cuenta la
fluctuación de la media
Dado que los límites son establecidos en el supuesto de una distribución normal, para
aceptar los resultados de la grafica de control es necesario comprobar que el modelo es valido.
Esto se hace trasladando sobre papel probabilístico normal los datos obtenidos, y verificando
que los diversos puntos se ubican sobre una recta, figura 10. También puede trazarse un
histograma superponiendo en la misma grafica la función normal basada en los parámetros
estimados, figura 11. Recurriendo a Matlab, la prueba de normalidad se puede hacer con las
funciones jbtest() para una prueba de Bera-Jarque, lillietest() para la prueba de Lilliefors, o
kstest() para la prueba de Kolmogorov-Smirnov.

Fig.10 Fig.11

Optimización de procesos
Cuando un proceso se pone en marcha es necesario realizar sobre el mismo varios
análisis de capacidad, tendientes a su optimización, figura 12. Esta optimización se subdivide
en dos fases:
• Análisis de proceso previo al comienzo de la producción seriada
• Análisis de proceso en producción seriada
Arranque produccion seriada

tiempo

Analisis de proceso

Analisis capacidad Analisis capacidad Analisis capacidad


de corto plazo primaria de largo plazo

Mejora continua de la capacidad

Capacidad de Capacidad Capacidad de


Fig.12 corto plazo preliminar largo plazo

Minimo 100 elementos. Para usar Todos los efectos deben haberse
Minimo 50 elementos
grafica de control se requieren al manifestado; ocurre despues de
menos 20 muestreos varios dias o semanas de produccion

186
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 187

Normalmente se supondrá que la distribución es normal, salvo que haya evidencias de


que el comportamiento sigue otra distribución, en cuyo caso esa será la que debe aplicarse. Se
ha visto que para el análisis de proceso se trabaja con:
• graficas de control de calidad
• graficación sobre papel probabilístico normal
aunque también puede recurrirse al análisis de varianza ( ANOVA).
Los análisis se hacen en cada una de las fases usando los mismos procedimientos y
métodos de cálculo. La única diferencia reside en el número de elementos y en el momento en
que se procede al análisis.
Cuando las evaluaciones se ven limitadas a pocos elementos obtenidos en un tiempo
corto, básicamente con estas observaciones se obtiene una capacidad de maquina que no toma
en cuenta la variabilidad debida a muchos otros factores ( variaciones en el material o en los
elementos, variaciones debidas a la mano de obra, variaciones debidas a condiciones
ambientales, etc). En estas evaluaciones se parte de un mínimo de 50 elementos producidos en
forma continua. El análisis se hace dividiendo los elementos en 10 muestreos con 5 partes
cada uno, los cuales son tomados en forma cronológica para identificar posibles tendencias.
Con estos valores se puede establecer la capacidad de maquina o la capacidad potencial de
proceso, Cm, considerando solo la variabilidad. Si la evaluación toma en cuenta el
apartamiento del valor medio con respecto al valor objetivo, o sea el valor nominal de la
característica, se obtiene la capacidad de proceso, Cmk.
Para un análisis preliminar se requiere como mínimo 20 muestreos de al menos 3
elementos cada uno, tomados a intervalos iguales de tiempo. Una mejor evaluación resulta
considerando 25 muestreos con 5 partes cada uno. Este análisis puede ser complementado con
un análisis de varianza y análisis de normalidad.
Todos estos análisis tienden a mostrar posibles desvíos, sirviendo de guía para la
mejora de procesos. Con los valores preliminares se evalúa la capacidad de maquina, Cm, la
capacidad preliminar de proceso, Pp, y la evaluación de capacidad de proceso, Cp, considerando
solo la relación entre la variabilidad admitida para el proceso ( ∆E=VLS-VLI). ∆E es la
diferencia entre los valores límites superior e inferior admitidos para la característica.
Considerando el apartamiento respecto al valor nominal, resultan los indicadores de capacidad
de maquina, Cmk, o el de capacidad preliminar de proceso Ppk . Tomando suficientes
muestras para tener en cuenta todos los factores de variabilidad se puede también hacer una
evaluación de capacidad de proceso, Cpk.
Pero la única manera de asegurar la capacidad de proceso en condiciones reales es
mediante análisis de largo plazo. Esto requiere que los datos sean obtenidos en un plazo que
permita que todos los factores que influyen en el proceso se hayan manifestado. Normalmente,
este análisis involucra la producción por un lapso de un mes. Será una evaluación de potencial,
Cp, cuando solo toma en cuenta la variabilidad, y una evaluación de proceso, Cpk, cuando se
toma en cuenta la variabilidad alrededor del valor nominal especificado, figura 13.
VLI zp VLS VLI zpk VLS

6σ En
Fig.13

∆E ∆E

Dado que para la determinación de Cp y Cpk, se usan los valores muestrales de la


media y la varianza, los valores así obtenidos son solo estimaciones. Es decir, por definición,

187
188 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

el verdadero valor de Cp esta dado por


C =
∆E (23)

p

mientras que de las observaciones se obtiene un valor estimado


~ ∆E
C =
p
6s (24)
de modo que
~ s (25)
C = C p.
σ
p

Esto implica que mas que la capacidad de proceso, lo que se determina es el intervalo
de confianza dentro del cual se encuentra Cp , suponiendo especificado un nivel de confianza.
Si σ es la varianza de la distribución y n es el número de observaciones, entonces como el
valor de la varianza muestral s2 sigue una distribución χ2 con n-1 grados de libertad, es decir,
1/ 2
s ⎛ χ 2 ⎞ (26)
= ⎜⎜ ⎟⎟
σ ⎝ n −1 ⎠
de modo que considerando un nivel de confianza para la estimación (1-α), resultara para s/σ
un intervalo de confianza, figura 14.
Por caso, si se cuenta con n=50 observaciones, de la distribución χ2 con n-1 grados
de libertad y un nivel de confianza del 99%, el extremo inferior del intervalo de confianza
estará dado por
1 / 2
s ⎛ χ 2
(1 − α / 2 , n − 1 ) ⎞
= ⎜⎜ 1
⎟⎟ = 0.7457 (27)
σ 1 ⎝ n − 1 ⎠

y el extremo superior
1/ 2
s ⎛ χ 2
(1 − α / 2 , n − 1 ) ⎞
2 = ⎜⎜ 2
⎟⎟ = 1.2635 (28)
σ ⎝ n −1 ⎠
de modo que
~ ~ (29)
0 . 7457 * C p < C p < 1 . 2635 * C p
Esto indica que la evaluación de capacidad esta sujeta a cierta incerteza, y además
como en la evaluación de Cpk interviene la media muestral, la incerteza resultara aun mayor.

p(s/σ)

intervalo de
confianza
Fig.14 α/2 α/2

s/σ
Las evaluaciones de capacidad de proceso presuponen aptitud en los equipos usados
para la medición, es decir, que se cuenta con capacidad de medición. Esto supone que existen
adecuados procedimientos para la validación y el seguimiento del instrumental usado en las
observaciones, a fin de asegurar que su precisión, linealidad, estabilidad y repetibilidad se
mantienen dentro del error admitido. En otras palabras, la variabilidad observada resulta de
combinar dos efectos de variabilidad: los propios del proceso y los debidos al sistema de
medición, y ambos pueden estar sujetos tanto a causas comunes como especiales de variación.
La exigencia de capacidad de medición, en general se basa en la regla del 10%: los
errores de medición deben ser menores que el 10% de la tolerancia a medir. Es decir, la
capacidad del sistema de medición, Cmed, debiera verificar
∆E
C med = = 10 (30)
6 *σ m

188
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 189

Función de Pérdidas de Calidad de Taguchi


En su posición tradicional la industria consideraba que las pérdidas por calidad
sobrevienen solo cuando alguna característica se sale de especificación. En contraposición,
Taguchi introdujo un nuevo concepto: la pérdida ocurre tan pronto como la característica se
desvía de su valor deseado, figura 15. El enfoque nuevo es que explícitamente incluye la
insatisfacción del usuario como un costo, considerando que un producto, aun cumpliendo con
su especificación, puede originar pérdidas debido a que en su desempeño se aparta de la meta.
La evaluación de la función de pérdidas se constituye así en una herramienta para evaluar la
mejora en la calidad de un producto.

L(x) Japon
Tolerancia especificada

USA

$ Valor deseado

Emin Xo Emax
Fig.15 Fig.16

Se podría decir que frente a la calidad hay dos posiciones:


1. Operar con la peor calidad que el usuario tolera; el presupuesto es que la calidad tiene
un costo, y por tanto el nivel que no acarrea reclamos es el aceptable,
2. Operar con la mejor calidad que el usuario pueda reconocer; esta postura presupone
que el usuario valora la calidad, independientemente de que haga o no reclamos; es
decir, la meta es la satisfacción del usuario
La cuestión es ¿por qué producir piezas con una calidad mejor a la requerida por las
especificaciones?. La respuesta es que esto lleva no solo a satisfacer mejor al cliente, sino que
además obliga a una mejora constante de los procesos, y se logra también una reducción en los
costos. Esto se contrapone con el enfoque de suponer que la calidad tiene como finalidad
definir para el producto el mínimo nivel de calidad que el cliente esta dispuesto a aceptar,
presuponiendo que una mejora de calidad implicara mayor costo, menores beneficio y es un
esfuerzo sin sentido.
La variabilidad que surge del proceso de manufactura puede resolverse de dos modos:
• Definiendo procesos e insumos para entrar dentro del rango admitido en la
especificación
• Aceptando la variabilidad que surja de los procesos e insumos y segregando en el
control los elementos que estén fuera de especificación, figura 16
Si aceptamos que del proceso resulta una distribución gaussiana, la segunda
alternativa nos llevara en un caso extremo a una distribución cuasi-uniforme, figura 17. En el
primer caso, si la tolerancia en la especificación (∆E) fuese 6σ, el índice de capacidad de
proceso valdría 1; en el segundo caso, asumiendo una distribución uniforme,
tolerancia
σ = Cp
12 (31)
por lo cual el índice de capacidad de proceso valdría
tolerancia tolerancia
Cp = = = . 57 (32)
6σ 6 .( toleranica / 12 )
que se corresponde a una peor capacidad. Como en ambos casos se esta dentro de tolerancia la
cuestión es saber si los productos que resultan de ambos procesos pueden ser considerados de
la misma calidad, aun cuando el índice de capacidad de proceso sea distinto.

189
190 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

p(X) p(X)

Fig.17 ∆E ∆E X
X

Podría pensarse que en la última posición, dejando de lado los costos visibles y los
desechos, bajo la óptica de la calidad se estaría en el mejor nivel posible, dado que se esta
cumpliendo estrictamente con la especificación, dado que asegura que todos los productos
cumplen la especificación. Bajo esta óptica el Cpk no seria un buen indicador. Esta ha sido la
postura tradicional de la industria occidental, en contraposición a la postura adoptada por la
industria japonesa. En esta postura, si bien la mayoría de los productos están mas cerca de la
meta, tiene la penalización de que algunos pocos pueden quedar fuera de especificación. Pero,
con otra mira, en la postura tradicional, habrá mas cantidad de productos alejados del
comportamiento ideal, y además, debido a los cambios que sobrevienen con el correr del
tiempo, seguramente ambas distribuciones iniciales tenderán a desparramarse, figura 18,
originando en el segundo caso mayores reclamos de falla.
p(X) p(X)

t=T
t=0

Fig.18
X X
∆E ∆E

En la postura tradicional de la industria los procesos se ajustan hasta caer dentro de la


variación admitida por la especificación, tratando de lograr una condición en la cual la
variabilidad quede impuesta por las limitaciones debidas a las instalaciones e insumos
adoptados, figura 19. El control de proceso en esta postura se limita a verificar que la media
µ(t) y la desviación σ(t) se mantienen constantes a lo largo del tiempo.
asentam iento p(X)
σs de proceso t>to

t=0

Fig.19 to t Em ax-Em in X

Por el contrario, la postura japonesa supone que existe un valor ideal para la
especificación y que se debe trabajar en forma continua en el mejoramiento del producto,
actuando sobre el diseño, los componentes y procesos buscando acercarse a ese ideal, figura
20. Esto es visto como una postura filosófica, denominándose kaizen a este proceso de
mejora continua, el cual, por lo general acarrea:
• Un brusco incremento de defectos en el corto plazo debidos al cambio
• Una fuerte caída de defectos a largo plazo debidos a la mejora
σs p(X)

En
Fig.20 ∆E X

Cambios de procesos e insumos

190
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 191

La posición de la industria japonesa parecería no justificarse, dado que una vez


alcanzada la especificación implicaría desarrollar continuamente un esfuerzo sin compensación
aparente. Esto parte de suponer que los efectos de la variabilidad se traducen en costo solo si
se sale de los limites de la especificación, y en tal caso habrá una penalización que dependerá
de la etapa en la que el defecto sea detectado; obviamente, en esta posición una mejora
posterior solo acarrea mayores costos. Este seria el caso para una característica cuya función
de densidad fuera como la mostrada en la figura 21, en la cual todas las unidades entran dentro
de la variación admitida, en cuyo caso, bajo esta premisa no cabría penalización alguna.
L (x)

$ $
P (x)
En x
P o s tu ra tra d ic io n a l
∆Ε

x N u e v o c o n c e p to
∆Ε L (x)

$ $
Fig.21
x
En

La industria japonesa mantiene una postura opuesta: considera que el costo existe en
la medida en que haya apartamientos respecto a la condición ideal, solo que estos costos
pueden estar ocultos. Razonando así es que Taguchi propuso evaluar estos costos a través de
una función de perdidas, proponiendo que el costo dependiera del corrimiento respecto a la
condición ideal o meta del producto, m, condición para la cual el costo obviamente será nulo,
figura 22. Es decir, en esta postura, la función de densidad de probabilidad ideal debería ser
una delta de Dirac, figura 23, ubicada en el valor nominal de la especificación.
L (∆ X ) P (X )

δ(X )

∆Χ
∆Χ
∆ E
Fig.22 ∆ E Fig.23

En la postura de Taguchi, las pérdidas L dependen de cuan apartado se este de la


meta,
L = f (∆X )
(33)
donde
∆X = X − E n = X − m (34)
y donde se supone que m es la condición ideal de diseño, normalmente el valor nominal de la
especificación, y X el valor efectivo de la característica que se esta evaluando.
Si se hace una aproximación de Taylor de segundo orden, es
f " ( 0 ). ∆ X 2
(35)
L = f ( 0 ) + f ' ( 0 ). ∆ X +
2!
pero como f’(0) es nulo, porque f(X) tiene un mínimo en X=0 (dado que las pérdidas son
positivas cualquiera sea el sentido del apartamiento), y además f(0) también es cero (el cumplir
la meta no puede causar pérdida ), resulta
1
L = f " ( 0 ). ∆ X 2
= k(X − m)2 (36)
2
donde m representa el valor ideal de la característica, y X el valor efectivo que resulta en una

191
192 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

realización. La constante k puede determinarse si es conocida la pérdida A correspondiente a


un apartamiento ∆ ,
A = k∆2 (37)
por lo que se puede poner,
A
L = .( X − m ) 2 (38)
∆2
Si para un producto hubiera k características a cumplir, de cada una de ellas resultara
una pérdida asociada Li, de modo que la pérdida total será la suma de todas las pérdidas,
k k
Ai
L = ∑ Li = ∑ ∆
.( X i − mi)2 (39)
Considerando una única característica, la evaluación del proceso de manufactura
debiera basarse en el valor medio de las pérdidas, (40)
L = E ( L ) = k .E ( X − m ) 2 ( )
y denominando ν al desvío estándar del apartamiento respecto a la especificación,
(41)
ν 2
(
= E (X − m)2 )
resulta
A
L = ν 2

∆2 (42)
y para k características
Ai
L = ∑ ∆ 2i
.ν i
2
(43)
Esta función es útil no solo para evaluar mejoras de proceso, sino también para
evaluar la necesidad de introducir cambios en el diseño.
Si bien por este medio es posible poner en evidencia costos visibles, la expresión
también es un buen medio para evaluar costos ocultos. Estos resultan de pérdidas en venta o de
mercado, tan pronto este percibe una opción para el producto con menor corrimiento respecto
al valor ideal.

Optimización del diseño


El proceso de optimización arranca con el diseño mismo, comenzando en la definición
de producto. El primer problema de optimización que se plantea esta referido a como
establecer la tolerancia admitida para las distintas características del producto, y como
establecer el valor nominal de estas, a fin de poder plantear la función de pérdidas. Un modo de
resolver esto seria:
• Fijar como valores límites aquellos que provocan un nivel de insatisfacción tal que el
Y% de los usuarios se vean incitados a demandar acciones correctivas.
• Determinar los costos resultantes de :
o Las pérdidas causadas por indisponibilidad del equipo
o Los costos de la reparación, personal y repuestos
o Los costos del transporte del equipo al centro de reparación
Es función de la etapa de desarrollo minimizar la función de pérdidas, y a ese efecto el
valor del factor k, vinculado con el costo efectivo, es intrascendente.
El proceso de optimación en la manufactura se desarrolla en dos pasos. Primero se
busca estrechar la variabilidad del proceso y reducir luego el corrimiento entre el valor medio
que resulta de proceso y el valor de diseño. Es decir, primero se busca reducir la dispersión, y
en el siguiente paso un mejor acercamiento a la meta.
La función de pérdidas es usada para:

192
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 193

• Determinar tolerancias de diseño


• Cuantificar la calidad de diseño
• Optimizar los proceso de manufactura
• Comparar los costos de manufactura y los costos por pérdida de calidad
Supongamos que el valor nominal represente la condición ideal de la meta. Este seria
el caso, por ejemplo, de la impedancia característica de un conector, la cual debería ser igual a
la del cable coaxial con el que se conecta. Taguchi supone que si un elemento tiene un
apartamiento (xi-m) de la meta, el mismo da origen a una pérdida
L = k .( x − m )
2 (44)
i i

por lo cual considerando una población n de equipos, para los mismos tendremos un valor
medio de pérdidas
1 n
L = E [L i ] = k .
n
2
∑ (xi − m )
2 (45)
= k .E [( X − m ) ]
1

que es una característica del diseño, que puede expresarse en la forma,


⎛ 1 n ⎡1 ⎤ ⎞
( )= 1 n
L = k .⎜⎜ ∑ x i2 − 2 x i . m + m 2
∑ x i2 − 2 m . ⎢ ∑ xi ⎥ + m 2


⎝ n 1 n ⎣n 1 ⎦ ⎠
⎛ 1 ⎞
= k .⎜⎜ ∑ x i2 − 2 . m . x + m 2

⎟ (46)
⎝ n ⎠
Luego, sumando y restando en ( 46) el cuadrado del valor medio de x, resulta
⎛ 1 n
L = k .⎜ ∑ x i2 − x i ( ) 2
+ xi ( ) 2
− 2 .m . x + m 2 ⎞

⎝ n 1 ⎠
⎛ 1 n
(
= k .⎜ ∑ x i − x
⎝ n 1
)2
+ x − m ( )2 ⎞
⎟ = k.σ

[ 2
(
+ x − m ) 2
] (47)

con lo cual las pérdidas medias quedan expresadas en función de la varianza y del corrimiento
del valor medio. Para un lote de n unidades, se tendrá
[
L = k. s 2 + (x − m )2 ] (48)
En esta expresión se reconocen dos factores de pérdidas: la dispersión y el corrimiento
de la meta, y dado que ambos tienen el mismo peso, actuando solo sobre uno de ellos, el otro
queda como un limite para las pérdidas.
En ciertos casos puede que lo deseable para la meta sea un valor nulo. Este seria el
caso por ejemplo de la resistencia de contacto en un conector, en tal caso la función de pérdidas
tomaría la forma

[
L = k. s 2 − x
2
()]
(49)

o que la mejor condición del parámetro es el valor más alto posible. Este seria el caso, por
ejemplo, de la resistencia de aislamiento entre pines de un conector. Conviene en tal caso
trabajar con la característica inversa, para el ejemplo, con la conductancia en vez de la
resistencia.
Quizás la mayor debilidad de la función de pérdidas es que evalúa en forma conjunta
la dispersión y el corrimiento, cuando su reducción exige esfuerzos diferentes. Trabajar sobre
la dispersión requiere actuar sobre muchos factores, mientras que el corrimiento exige operar
con uno o un número muy reducido. Para el proceso de mejora, Taguchi propuso una
metodología, conocida como diseño robusto, que trata en forma independiente la variabilidad
y el corrimiento de la meta. Su idea es maximizar lo que el denomina relación señal a ruido,
entendiendo como señal al valor medio que resulta del proceso y como ruido la variabilidad.

193
194 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Diseño robusto
El diseño robusto busca reducir las pérdidas debidas a los apartamientos de la meta o
valor ideal de la característica. Básicamente podemos pensar que se dan tres tipos de factores
que contribuyen al apartamiento, denominados factores de ruido, a saber:
• Factores externos, que son factores ajenos al producto, tales como la temperatura, la
humedad, el polvo, vibración, errores humanos, etc
• Imperfecciones de manufactura, que provocan variaciones en los parámetros de unidad a
unidad, los cuales son inevitables en cualquier proceso de fabricación. Por ejemplo el valor
nominal de un resistor es de 10 kΩ, pero la medición de uno particular arroja 9.97kΩ
• Degradación de características con el uso, que hacen que si bien inicialmente el producto
esta en la meta con el tiempo se vaya apartando
El diseño robusto busca controlar estos factores de ruido, buscando determinar los
valores de diseño de tal modo de minimizar la sensibilidad a los mismos. Es en la etapa de
diseño donde deben ser considerados estos factores, tratando de establecer diagramas
circuitales y procesos de modo tal que sea posible minimizar los apartamientos respecto a la
meta y hacer que esto sea posible operando con altos valores de tolerancia para las variables
del proceso. En la concepción de Taguchi el proceso productivo puede verse como un bloque
que produce una respuesta (y ) cuando se encuentra sujeto a distintas señales ( s ) y factores de
ruido ( x ), figura 24.
Factores
x de ruido

s y
f(x,z,s)
Excitación respuesta para el
del usuario usuario

factores
Fig.24 de control z SR Factor de
escala

La respuesta y puede verse como función de:


• Señales, s, es decir, las acciones que desarrolla el usuario, por ejemplo, pulsando un
botón
• Factores de control, z, que son los elementos responsabilidad del proyectista para
lograr que el producto produzca la variabilidad deseada
• Factores de ruido, x, que son los factores no controlados o no controlables
• Factor de escala, SR, cuya función es correr el valor medio de la respuesta
Si la función de diseño se expresa en la forma
f ( s , z , x , SR ) = g ( s , z , SR ) + e ( x , s , z , SR ) (50)
donde g(s,z,SR) es la función deseada, entonces el diseño debería :
• Definir los valores de z para maximizar la parte predecible frente a la no controlable;
o sea maximizar la relación señal a ruido
• Llevar la parte predecible a la meta, ajustando algún elemento o factor de escala, SR
Supongamos por ejemplo que la relación entre el valor medio y el desvío sea
constante e independiente del valor medio, lo cual se verifica en muchos procesos o
características. Por ejemplo puede suponerse que para un resistor el máximo desvío respecto a
su valor nominal (Rn) esta vinculado directamente con el desvío estándar en la forma
± ∆ R = 5 .σ (51)
o sea

194
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 195

∆R R
σ = = t. n (52)
5 5
de modo que resistores de igual tolerancia ( t ) verifican el supuesto.
Supongamos ahora que como resultado del proceso se obtenga un valor medio dado
para y, y que m sea la meta a cumplir, siendo el factor de escala, en tal caso,
m
SR = (53)
y
que si suponemos es aplicado sobre la media se satisface la meta. En tal supuesto, se afectara
el desvío estándar, llevándolo a
m m
σ n = SR .σ = .σ = .s (54)
y y
Luego, dejando de lado el factor k, la función de pérdidas queda expresada por
⎡ ⎛ m ⎞
2 ⎤ 2
s
L = ⎢ ( 0 ) 2 + ⎜⎜ . s ⎟⎟ ⎥ = m 2
. (55)

⎣ ⎝ y ⎠ ⎥
⎦ (y ) 2

y dado que m es la meta, minimizar la función de pérdidas es lo mismo que maximizar la


relación
S
=
(y ) 2

(56)
N s2
que mide la relación entre el valor medio de la señal, ( y ) 2 , y el ruido, s2, o variabilidad en las
características del producto.

Comparación entre capacidad de proceso y la función de pérdidas


Se ha visto que tanto la capacidad de proceso como la función de pérdidas permiten
evaluar la calidad de un producto. En el primer caso alineamos el producto con la “voz del
proceso”, y en el segundo alineamos la “voz del proceso” con la “voz del cliente”. Nos
proponemos analizar cual de las dos formas es mejor índice de calidad.
Si la meta esta centrada en el valor medio de la tolerancia, o sea
E + E
m = max min
(57)
2
fijado el desvío máximo,
E − E (58)
∆E = max min

2
es,
E max = m + ∆ E (59)
y en tal caso,
E max − X m + ∆E − X (60)
C = =
3 .σ x 3 .σ x
pk

Si todos los valores se normalizan respecto al apartamiento máximo ∆E, dividiendo


numerador y denominador por ∆E, resulta
C =
1 − (X − m ) ∆E =
1 − µ
(61)
3 .σ 3 .σ
pk

Por otro lado, la función de pérdidas esta dada por


L = k.σ [ 2
x (
+ X − m ) 2
] = k .∆ E 2
[
.σ 2
+ µ 2
]
(62)

que puede también ser normalizada con respecto al valor k.∆E2, sin pérdida de generalidad
alguna. Las figuras 25 y 26 muestran los valores del desvío estándar y del apartamiento de la
meta para distintos valores de Cpk y L. Puede observarse que mientras que la función de
pérdidas L da una buena indicación del apartamiento de la meta, o de la condición ideal, Cpk
no es un buen indicador en tal sentido.

195
196 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Fig.25 Fig. 26
En otras palabras, procesos con muy baja variabilidad, pero con gran apartamiento de
la meta, si se evalúan con la función de pérdidas deberían ser descartados, mientras que con el
Cpk pueden ser considerados como muy buenos. Es decir, si la variabilidad es una función de
densidad delta de Dirac, limite de la función gaussiana para σ→0, ubicada muy próxima al
valor extremo tolerado por la especificación, daría para Cpk un valor infinito, que es la mejor
figura de merito posible; mientras que evaluado el proceso en base a la función de pérdidas se
obtendría un valor muy alto, indicativo de un mal producto. En realidad, esto podría ser visto
así: Un producto con una característica como la indicada en la figura 27 sería indicativa de un
excelente proceso, y tendría un índice Cpk muy alto, teóricamente infinito; pero evaluada en
base a la función de pérdidas tendría un valor similar al de un producto que esta en el limite del
rechazo: bastaría con solo tomar un valor de ∆ suficientemente chico. Es decir, Cpk es un buen
indicador de proceso pero no de producto.

Fig.27 Emin m Emax

Es decir, se ve que el Cpk se puede aumentar tanto como se quiera actuando solo sobre
la variabilidad, mientras que en la función de pérdidas es necesario actuar sobre ambos
factores, la media y la variabilidad. Por otro lado, el valor de Cpk depende de la variabilidad
del proceso y del rango de la especificación, no así la función de pérdidas.

La iniciativa seis sigma


En el ambiente industrial se ha considerado por muchos años como límite para la
variabilidad el criterio de las 3 sigmas, lo cual, como se supone una distribución normal,
implica aproximadamente 3 defectos cada 1000 unidades. Esta es una posición conformista,
contrapuesta a la concepción de Taguchi, que supone esfuerzos continuos para acercarse a la
meta y achicar continuamente la variabilidad en las características de los productos. Para estar
en línea con este enfoque se ha propuesto el método de las seis sigmas, el cual plantea como
meta de tolerancia total 12σ. Esto implica pasar de aproximadamente los 3 defectos por mil a
3 defectos por millón (3 ppm). Esta iniciativa fue impulsada con éxito por Motorola a través de
su Motorola´s Six Sigma Black Belt Program, y prontamente fue adoptada por la mayoría de
las grandes corporaciones, extendiéndose su aplicación no solo a productos, sino también a
servicios y a todo tipo de operaciones.
La iniciativa de las seis sigmas de tolerancia por lado supone que de los 12σ en total,
3σ son asignados al descentrado de la media respecto al valor objetivo y 9 σ a la dispersión,
figura 28. Bajo esta óptica, para mantenerse dentro de la iniciativa seis sigma, la capacidad de

196
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 197

proceso debiera valer como mínimo

9σ (63)
C = = 1 .5

pk

p(X) p(X)

9 σ En 9 σ En
1.5 σ 1.5 σ 1.5 σ 1.5 σ
6 σ 6 σ
Fig.28 ∆E ∆E

Si bien la adopción de la meta de las seis sigmas implica reducir la variabilidad total
que pueden tener las características de un producto, y se acota la variación de la media, se
diferencia de la metodología de Taguchi en que en esta, mediante la función de pérdidas,
ambas resultan combinadas en un solo factor. Es decir, el método seis sigma sigue orientado a
capacidad de procesos, y puede verse simplemente como una propuesta que busca satisfacer
una mayor exigencia en la capacidad de proceso.
Cuando una empresa adopta esta iniciativa, lo que en realidad esta indicando no es
solo que su meta principal es dar plena satisfacción a sus clientes, sino que busca además
disminuir pérdidas innecesarias. Pero, un límite de 12 sigmas implica mayores esfuerzos en el
diseño y la manufactura, e instrumental de control acorde a la mayor resolución con que debe
medirse, mayores cuidados en la evaluación, y un gran esfuerzo dedicado a la mejora continua
para alcanzar las metas propuestas.
La meta de las seis sigmas presupone que la variabilidad del producto es susceptible
de mejoramiento mediante el cambio de algunos de los elementos o de los procesos. La
iniciativa no consiste simplemente en introducir una nueva meta, propone además una
metodología de trabajo para alcanzarla, basada en los cinco pasos siguientes:
1. Definir. Como primer paso se debe definir cuales son las características importantes
para el cliente, y los factores de los que dependen
2. Medir. Se deben instrumentar las mediciones y recolectar los datos
3. Analizar. Se busca convertir los datos en información, con la finalidad de obtener un
mayor conocimiento del producto y de los procesos: saber cuales son los factores de
mayor peso que son causa de problemas o defectos
4. Mejorar. Se desarrolla una solución al problema, introduciendo los cambios en el
producto o los procesos. Se evalúan luego los resultados de los cambios, y de juzgarse
necesario se proponen nuevos cambios
5. Controlar. Cuando el proceso esta conforme con el nivel deseado de un modo
predecible, el mismo es puesto bajo control y monitoreado para asegurar que no se
produzcan cambios inesperados.
Los cinco pasos seis sigma, comúnmente conocidos como DMAIC ( Define,
Measure, Analyze, Improve, Control ), parten del supuesto de que la mejora en la variabilidad
conlleva siempre, además de una mayor satisfacción del cliente, una mejora para la empresa.
Es decir, el objetivo es obtener el máximo mejoramiento con la mínima inversión, buscando
que los ahorros logrados mediante las mejoras superen el costo derivado de introducir dichas
mejoras. La idea es reevaluar el valor agregado de algunos elementos, mejorándolos,
cambiándolos o simplemente eliminándolos.

197
198 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Verificación de la calidad
El control de calidad es la actividad técnica y administrativa mediante la cual se miden
las características de calidad de un producto, comparándolas contra su especificación o los
requisitos establecidos, y su finalidad es tomar acciones apropiadas cuando exista una
discrepancia entre el funcionamiento efectivo y el esperado. En electrónica, dada la gran
cantidad de características de los componentes usados, la inspección deberá limitarse a
comprobar solo las especificaciones que sean relevantes para la aplicación, apuntando a:
• la corrección ( en control estadístico de procesos ) cuando las inspecciones se hacen
en línea con los procesos, ejecutándose en tiempo real,
• la aceptación o el rechazo ( en control estadístico de calidad ), cuando las
inspecciones se realizan sobre partidas o lotes, a la entrada o salida de procesos
El control de calidad busca primariamente detectar desvíos respecto a las metas, y
minimizar o eliminar toda posibilidad de despachar productos que no están conformes para el
uso. Para tal fin se realizan monitoreos ( control estadístico de proceso ) e inspecciones (control
del 100% o control estadístico de calidad ). Trabajar con métodos estadísticos para el control
implica aceptar un índice de defectuosidad no nulo. La única manera de obtener un 100% de
calidad es a través de inspecciones 100%, partiendo del supuesto de que sea posible una
inspección perfecta. Algunas empresas que realizan inspecciones del 100%, como un modo de
prevenir posibles errores, someten adicionalmente los productos a una inspección de muestreo,
como un control del método de control. La inspección 100% implica un aumento de costo muy
grande, pues, en vez de dividir el costo de la inspección de algunas muestras por el total del
lote, cada pieza carga con el total del costo de inspección, pudiendo en tal caso el costo de
inspección superar al costo de fabricación.
Si la inspección es manual, la inspección del 100% no es garantía del 100% de
calidad, y lo peor es que el error podría llevar a rechazar elementos buenos. Solo una
inspección automática puede garantizar un 100% de calidad, y su mayor beneficio resulta
cuando esta integrada al proceso productivo.
La inspección no debe verse exclusivamente como una tarea dedicada tan solo a
segregar las partes malas que resultan de un proceso. Las inspecciones pueden realizarse con
objetivos más amplios, a saber:
• asegurar que los requerimientos propios y del usuario están conformes
• asegurar que los productos o materiales no conformes que sean identificados en tal
estado:
o no puedan ser usados,
o solo puedan ser usados si media acuerdo con el cliente, recategorizandolos y
suministrándolos como elementos subestándar
o puedan usarse mediando una concesión del cliente
o sean retrabajados o reparados antes de ser liberados para el uso
o se puedan recuperar aquellas partes que permitan el reuso, dado su valor, si
se puede asegurar que su estado inicial se mantiene ( por ejemplo, un
dispositivo montado sobre un zócalo )
o sean retirados de uso si hubieran sido indebidamente despachados, como
medida de contención
• identificar y documentar las disconformidades, determinando la causa raíz que
permita definir las acciones correctivas/preventivas adecuadas
• servir de herramienta para la mejora continua de la calidad de proceso
El proceso productivo opera sobre los insumos de entrada siguiendo procedimientos
establecidos para obtener un producto de salida que responda al diseño, figura 29. Una vez
validados los dispositivos y procedimientos que definen la operación, se supone que estos

198
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 199

permanecerán estables, y por tanto en principio solo habrá causas comunes de variabilidad; la
salida de proceso resulta en tal caso mayormente dependiente de los insumos de entrada.
Admitiendo para los componentes de entrada cierto nivel de defectuosidad, esto tiene
consecuencias diversas:
• Obliga a llevar el diseño en base a metas de calidad
• Requiere que en el diseño se haga la selección de componentes y demás insumos
considerando el nivel de defectos con que es suministrado cada componente
• Obliga a que en alguna etapa ( en la entrada, durante el proceso, al final, o como
servicio de postventa) se deban eliminar los componentes defectuosos
• Acarrea la inmovilización temporaria de elementos buenos causada por los defectuosos

Procedimientos Costo de control

Insumos Producto
Proceso

Fig.29 Fig.30

No siempre es posible el control del 100% de la funcionalidad por razones de costo y


tiempo. Este es el caso por ejemplo de circuitos integrados LVSI de alta complejidad, figura
30; en otros casos directamente no es posible la inspección porque la misma altera la
capacidad de uso del dispositivo. En este sentido, según sea su capacidad de control, los
productos entran en una de las dos categorías siguientes:
• productos que pueden ser inspeccionados y comprobados antes de ser lanzados al uso,
• productos en los cuales la comprobación o inspección plena no es posible porque
o inhibiría su uso futuro ( por ejemplo circuitos integrados OTP),
o porque implicaría alterar la característica, dañando el producto. (básicamente
productos con capacidad para desarrollar una sola misión),
o es una parte de un sistema mayor, y requiere de este para su prueba plena
o el control total es muy oneroso.
El control de proceso se incorpora a lo largo del flujo de manufactura según
convenga, y específicamente en los nodos críticos del mismo. Las normas identifican tres
etapas de inspección:
• inspección de entrada de materiales
• inspección de procesos
• inspección final previa a la liberación para el uso
La inspección de entrada normalmente se ve dificultada por el elevado volumen de
componentes que integran un equipo electrónico, y el elevado volumen de producción. Al
descartar un control del 100% en los insumos de entrada, las alternativas son :
• Confiar en el proveedor ( se supone que solo se trabaja con proveedores calificados )
• Controlar estadísticamente los insumos
Cuando se trabaja con proveedores reconocidos, el control de entrada al proceso
podría ser innecesario dado que el nivel efectivo de defectos esta por lo general varios ordenes
de veces por debajo del declarado. Solo si existiera desconfianza del proveedor, o sobre los
elementos, quedaría justificado el empleo de control. Con proveedores calificados solo
excepcionalmente se justificara el control de insumos. La cláusula 9.8 de la guía ISO 9004-1
exige sin embargo que se lleve un registro de la calidad en el momento de la recepción, que

199
200 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

permita valorar la tendencia histórica en el desempeño del proveedor. La norma QS-9000,


antecesora para la industria automotriz de la ISO-9000, acepta valerse de garantías y
certificaciones. La decisión, finalmente, pasa por diferenciar entre:
• Proveedores calificados: Los elementos suministrados por los proveedores que están
en este estado son evaluados previos a su uso en producción. El proveedor debe
demostrar que los productos tienen adecuada calidad y que opera bajo un sistema de
calidad antes de pasar a integrar el listado de proveedores calificados
• Proveedores certificados: Los proveedores calificados que consistentemente
demuestran altos niveles de calidad son candidatos para entrar en el nivel de
proveedores certificados. Los materiales suministrados por estos proveedores no están
sujetos a ningún tipo de inspección de entrada. Los proveedores certificados después
de una evaluación inicial quedan sujetos solo a evaluaciones periódicas
En todos los casos, cada lote de producción debe ser identificado por un número
único que se mantiene en todos los pasos del flujo de manufactura para permitir la trazabilidad.
Según el momento en el que se hace la inspección de proceso cabe distinguir entre:
• inspecciones fuera de línea
• inspecciones en línea /en proceso
• inspecciones en línea /post-proceso
los tres tipos están indicados en la figura 31.

Proceso Proceso Proceso Proceso Proceso Inspeccion

aceptad
muestras Inspeccion
rechazados
Inspeccion
Fig.31
La inspección fuera de línea esta separada del proceso productivo, con un retardo
entre el proceso y el momento de la inspección. La mayoría de las inspecciones manuales
entran en esta categoría. Este tipo de inspección esta motivada porque:
• la capacidad del proceso esta bien dentro de la tolerancia de diseño
• hay un gran volumen de producción en un tiempo muy corto
• el proceso es estable y con bajo riesgo de sufrir causa asignables
• es alto el costo de inspección frente a la pérdida ocasionada por las partes defectuosas
La alternativa es una inspección en línea, la cual se hace a medida que las partes están
siendo fabricadas, y es por ello la que aporta mayor ventaja: permite variar el proceso y
corregir de inmediato los problemas de calidad.
Usualmente, en la inspección en línea /en proceso el proceso y la inspección son
simultaneas. Esto implica comprometer en la calidad al mismo operario. Cuando no son
posibles las inspecciones en línea /en proceso, o cuando no es posible el 100% de inspección,
la alternativa es la inspección en línea /post-proceso. En ese caso, la inspección se realiza en
forma inmediata al proceso. La desventaja es que la acción correctiva tiene un retardo: influirá
recién en los siguientes elementos que entran en proceso.
En la inspección en línea /post-proceso caben dos posiciones extremas:
• inspección distribuida, con varios puntos de inspección a lo largo de la línea
• inspección final, en la cual se controla solo el producto final
La primera opción permite identificar los problemas más tempranamente, e introducir
las acciones correctivas como respuesta. La manufactura electrónica requiere contar con un
sistema distribuido, pues aun siendo muy bajo el porcentaje de defectuosidad, como se trabaja

200
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 201

con una cantidad muy grande de componentes, potencialmente se tiene una alta cantidad de
defectos en cada proceso. En una plaqueta que lleva montados por ejemplo 100 elementos
puede haber varios miles de puntos de soldadura, por lo que aun siendo baja la defectuosidad
por soldadura, puede arrojar una elevada defectuosidad para la plaqueta.
Los procedimientos y el diagrama de flujo de proceso identificaran la inspección
requerida de materiales y elementos en cada paso del proceso. Los detalles del proceso y de
los procedimientos específicos usados en la manufactura deben ser guardados en la historia del
producto, a los efectos de poder identificar posibles problemas de campo con las condiciones
del proceso. Para el caso de productos OEM (original manufacture equipment ), el tiempo de
mantenimiento de estos registros, es normalmente acordado con los clientes.
Los productos ya manufacturados, aun estando el proceso bajo control, pueden tener
no conformidades, por lo cual es importante que solo puedan despacharse para su uso o
instalación aquellos productos que han completado la etapa de inspección, y resultan
conformes con lo establecido en el plan de calidad. Esta es la función de la inspección final,
en la cual se involucra la inspección y prueba del producto antes de su despacho al cliente. Esta
alternativa se apoya detrás del concepto de que es mas económico y efectivo realizar todas las
inspecciones en un solo lugar, en vez de tenerlas distribuidas sobre toda la planta, y además,
puede pensarse que ofrece una mayor protección al cliente por ser previa a la entrega del
producto.

Control estadístico de calidad (SQC)


Mediante la evaluación de unas pocas muestras se pueden hacer estimaciones
estadísticas de una población. En el presente caso interesa comprobar que la proporción de
defectuosos d existentes en una población esta por debajo de un nivel considerado como
aceptable, el cual es denominado AQL (Acceptance Quality Level). El plan de muestreo
idealmente debiera ser tal que la probabilidad de aceptar el lote fuese 1 si d ≤AQL, y cero si d
> AQL, figura 32. Es decir, el plan debiera discriminar los lotes buenos ( d ≤AQL) de los
malos sin error alguno, lo cual solo es posible inspeccionando el 100%. Como no es posible
inspeccionar el 100% de los elementos, habrá que admitir cierto riesgo de aceptar lotes con un
nivel de defectuosos mayor que el considerado aceptable, bajo la condición de que si el valor
de defectuosos es superior a un máximo nivel de defectos tolerados en el lote (LTPD) se
produzca el rechazo. Entre ambos valores, el AQL y el LTPD, se admitirá una transición,
figura 33, en la cual la probabilidad de aceptación debiera decaer desde una Pa=1 para d=AQL,
a cero para d=LTPD.

Pa(d) Lotes buenos Lotes malo Pa(d)


1 1

AQL d AQL LTPD d

Fig.32 Fig.33
La curva real, denominada curva de operación, se establece fijando los riesgos de
rechazar el lote, considerando que el nivel de defectos es superior a AQL cuando en realidad es
menor, o de aceptar el lote pensando que su nivel de defectos es menor a LTPD cuando en
realidad es mas alto. Estos riesgos han sido establecidos en las normas como un 5% ( α= 5% )
y 10% (β = 10 %), denominados riesgos de vendedor y comprador, respectivamente, figura 34.
Sea h(i,N,n,D) la probabilidad de hallar i defectuosos en un lote de N elementos que
contiene D=d.N defectuosos, y del cual se extraen y evalúan n muestras elegidas en forma

201
202 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

aleatoria, entonces si el criterio de aceptación permitiera hasta r elementos defectuosos, la


probabilidad de aceptación estará dada por
r
Paceptacion = ∑ h (i , N , n , D )
0
(64)

Como la distribución hipergeométrica h(i,N,n,D) es poco amigable, es mas practico


trabajar con la distribución binomial, que es una buena aproximación a la misma si N es
mucho mayor a n, y en tal caso,
P (c ) = ( ).d
n
c
c
.(1 − d ) n − c (65)
o bien valerse de una forma mas simplificada, la distribución de Poisson,
(n.d )c .e − nd (66)
P (c ) =
c!
Las expresiones (65) y (66) permiten obtener la probabilidad de que en n muestras
extraídas de un lote con una proporción de defectuosos d resulten exactamente c defectuosos.
Supongamos aplicable la aproximación binomial. En tal caso se puede calcular la
probabilidad Pa de que si el lote tiene un nivel de defectuosos AQL o inferior se encuentren
a lo sumo c defectuosos en una muestra de n elementos extraídos en forma aleatoria de un lote
varias veces superior al tamaño de la muestra. Si como criterio de aceptación se impone que Pa
deba ser igual o superior a un valor prefijado (1-α), entonces, en el limite, la probabilidad de
aceptación estará dada por
∑ ( ).( AQL
c
P aceptacion =1−α = n
i ) i .(1 − AQL )n − i (67)
i=0

Al mismo tiempo se desea asegurar que si el nivel de defectuosos fuera igual o


superior a un valor dado (LTPD) la probabilidad de aceptación ( β ) sea muy baja, o sea
( n ).( LTPD ) i .(1 − LTPD )n − i
c
(68)
P = β =
aceptacion ∑
i=0
i

Definidos α, β, AQL y LTPD, se trata de encontrar los valores de n y c que satisfacen


las ecuaciones anteriores. Esto define un plan basado en una muestra única, y su curva
característica, figura 34.
α

n=32
c=2
n=125
n=77 c=8
c=4

AQLa =AQL c
LTPDa = LTPD b

Fig.34 Fig.35
Fijado el valor de AQL, el plan debiera proveer el mismo nivel de discriminación, y
ser independiente de la cantidad de elementos que formen el lote, de modo que los resultados
puedan compararse entre si. Esto no ocurre si los planes se basaran en la inspección de un
porcentaje de la población. Por ejemplo, trabajando con dos proveedores, donde el principal
suministra el 80% y la segunda fuente el 20% restante, si se hiciese un control basándose en los
porcentajes de sus entregas, por ejemplo extrayendo un 10%, ambos controles tendrían curvas
de operación distintas, figura 35. El resultado es que el proveedor minoritario aparecería
favorecido, debido a que para igual nivel de defectos reales tendría menos rechazos,
induciendo a pensar equivocadamente que suministra con un mejor nivel de calidad.

202
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 203

Fig.36 Fig.37

Visto de otro modo, la curva de operación es poco sensible a N, tal como muestra la
figura 36, pero muy sensible a n y c, como muestra la figura 37.
Lo planes de muestreo se han normalizado, tomando como referencia la norma militar
STD-MIL-105E, como es el caso de las normas ANSI/ASQC Z1.4 y la ISO/DIS-2859.
Los distintos planes de muestreo difieren en la discriminación, relación LTPD/AQL,
y quedan totalmente caracterizados por su curva de operación; conociendo esta se puede
obtener la probabilidad de aceptación para cualquier nivel de defectuosos. Los planes son
diseñados para mantener la misma curva de operación, o bien proveer una dada discriminación.
Las inspecciones se dividen en dos grupos:
• Inspecciones especiales, que se aplican cuando no es posible el uso de las generales,
bien sea por escasez de recursos o de tiempo, y que por tal razón solo son de
aplicación excepcional, dado que proveen baja discriminación
• Inspecciones generales, que son de aplicación habitual, y en las cuales a su vez se
diferencian tres tipos de muestreo: riguroso, normal, y reducido.
A su vez, los indicios de calidad determinaran cual de los tres tipos de muestreo
siguientes conviene aplicar:
• Muestreo simple: la decisión se basa en los resultados de una única extracción
muestral,
• Muestreo doble: para llegar a la decisión puede ser necesario hacer hasta dos
extracciones de muestrales,
• Muestreo múltiple: a la decisión se puede llegar después de haber realizado varias
extracciones muestrales, tantas como nueve.
Decidir el plan mas adecuado resultara de consideraciones de riesgo y esfuerzo.
Cuando se tiene gran confianza en el proceso o el proveedor, en función de ensayos anteriores,
se recurre a ensayos reducidos. Lo contrario si hubiera desconfianza o falta de antecedentes. Lo
mismo es valido respecto a la selección entre ensayos de muestra única, doble, o múltiple.
Los planes de doble o de muestreo múltiple se emplean cuando existe gran confianza
de que el producto supera las especificaciones o una gran desconfianza de que las cumpla; su
utilidad se debe a que si el número de defectos se halla muy alejado de la especificación el
ensayo se abrevia; pero, la penalización es que si la calidad se acerca a la meta se hace mas
largo y por ende mas costoso que el plan de muestra única. Este resultado muestra la ventaja
de estar bastante por encima de la meta, dado que de ello resulta un menor esfuerzo de
verificación. El problema que se plantea entonces es como definir el nivel de defectuosos
admitido en el proceso de modo que el resultado de la primera muestra sea definitorio. Visto de
otra forma: conviene realizar esfuerzos en la mejora de proceso ( es un esfuerzo único ), en vez
de invertir permanentemente en esfuerzos de verificación.

203
204 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

La función calidad en el diseño: Familia ISO 9000


El aseguramiento de la calidad ha evolucionado con el tiempo, pasando de una etapa
reactiva, donde, mediante inspecciones, se pretendía identificar y luego corregir los defectos, a
una metodología proactiva de aseguramiento de la calidad, que busca prevenir actuando en las
fases de diseño y desarrollo, más que corregir en la fase de producción. Para ello se debe actuar
desde la etapa más temprana, la fase conceptual o de definición del producto, tratando de ver
los problemas que las decisiones del diseño pueden originar en las fases posteriores del ciclo
del producto, figura 38, y sin limitarse exclusivamente a los aspectos técnicos.

Concepto
Desarrollo de Diseño Prevención
Producto
Planificacion de la Aseguramiento
Fig. 38 producción de la calidad

Producción Corrección

La ISO (International Organization for Standardization ) hacia los finales de la


década de los 80 emitió un conjunto de normas especificas dedicadas al aseguramiento de la
calidad, conocidas como la serie ISO 9000. Estas normas formaban una familia que abarcaba
todas las fases, desde los principios o lineamientos, pasando por la administración y los
modelos de gestión de calidad aplicables en las distintas fases del ciclo de vida de un producto.
Estas normas se diferencian por el ámbito de aplicación, siendo la ISO 9001 aplicable cuando:
a) se requiere un diseño y los requerimientos del producto están expresados en términos
de desempeño, o bien es necesario establecerlos, y
b) es posible obtener confianza de conformidad del producto por adecuada demostración
de la capacidad de diseño, desarrollo, producción, instalación y servicio
mientras que la ISO 9002 debe aplicarse si:
a) los requerimientos del producto están especificados en términos de un diseño
establecido o de una especificación, y
b) puede obtenerse confianza en la conformidad del producto por demostración adecuada
de capacidad de producción, instalación y servicio
El conjunto de normas ISO 9000:1994 se adaptaba bien a un sistema productivo, y en
particular sus 20 elementos son la base para diseñar los manuales de calidad. Como su
extensión a otros sistemas no era tan directa, esto dio motivo a una nueva revisión orientada a
procesos. Esta última revisión corresponde a diciembre del 2000, estableciéndose diciembre
del 2003 como fecha limite para la transición a la nueva versión por parte de aquellas empresas
que hayan obtenido la certificación en base a la ISO 9000:1994.
Los beneficios mayores que aporta esta nueva revisión son:
• Aplicabilidad a todas las categorías de productos, en todos los sectores y para
organizaciones de todos los tamaños
• Una nueva estructura orientada al proceso, y una secuencia mas lógica del contenido,
buscando una mayor vinculación entre el sistema de gestión de calidad y los procesos
de la empresa
• Introducción del proceso de mejora continua
• Incremento del papel de la dirección de la empresa y de su compromiso para la
mejora, y establecimiento de objetivos medibles en todas las funciones importantes
• Mayor simplicidad y cambios en la terminología, buscando una mas fácil
interpretación
• Reducción de la documentación requerida

204
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 205

• Provisión de un traspaso mas natural hacia un mejor desempeño empresarial


• Orientación hacia la mejora continua y la satisfacción del cliente
• Compatibilidad con otros sistemas
• Provisión de una base consistente dirigida a las necesidades y el interés de sectores
específicos ( tales como el de la industrias de electromedicina, telecomunicaciones,
automotriz, etc )
• Mejor consistencia entre la ISO 9001 y la ISO9004, de modo de ir mas allá de los
requerimientos, buscando mejorar el desempeño de la empresa
• Aumento de la compatibilidad con el estándar de sistema de gestión ambiental
• Consideración de las necesidades y los beneficios de todas las partes interesadas
Mas
especifica

Parte

Producto

Empresa
entrada salida
Transformacion ISO/TR 16949 Sectorial

ISO 9001 Fundamental Mas


generica

Fig. 39 Fig.40

En la ISO se considera proceso a cualquier actividad que recibe entradas y las


convierte en salidas, figura 39. Por tanto, todas las actividades dedicadas a la fabricación de
productos o provisión de servicios son procesos. En su funcionamiento, una empresa requiere
de muchos procesos intervinculados, donde la salida de uno sirve de entrada a otro proceso.
Debido a la falta de especificidad de la familia ISO-9000:1987, en 1994 los tres
fabricantes más importantes de la industria automotriz de USA generaron la QS-9000
destinada a reemplazar todos los programas de calidad de sus proveedores. La ISO, viendo la
necesidad de una mayor orientación sectorial, decide también emitir otros tipos de documentos
normativos cuya finalidad es atender requerimientos particulares:
• Especificaciones publicas, las ISO/PAS (ISO Public Available Specification )
• Especificaciones técnicas, ISO/TS (ISO Technical Specification )
Por ejemplo, la ISO/TS 16949, de aplicación en el sector automotriz, requiere que
sean considerados en el diseño un conjunto de requerimientos globalmente definidos en la ISO
9001, figura 40, y que esta especificación pormenoriza, tales como:
• Satisfacción del cliente
• Mejora continua
• Plan de negocios
• Sistema de calidad
• Mejoramiento de procesos.
• Control del diseño
• Entradas del diseño
• Salidas del diseño
• Optimización del diseño
• Revisiones de Diseño
• Verificación del diseño
• Validación del diseño
• Cambios en el diseño
• Documentación

205
206 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Costos de Calidad
La falta de calidad se traduce en costos visibles y costos invisibles. Los costos visibles
se pueden clasificar en:
• Costos por fallas:
o Internos: originados en el proceso, que toman en cuenta los costos debidos a
desechos, retrabajos, controles adicionales, etc
o Externos: que ocurren después del proceso productivo, y en los cuales deben
considerarse los costos de garantía, servicio de atención al cliente, devoluciones,
contenciones, etc. Estos tienen mayor peso que los costos internos.
• Costos de prevención, que son inherentes a la estructura de calidad requerida para
reducir los costos anteriores, planeamiento de la calidad y desarrollo de proveedores
• Costos de evaluación, que son los que resultan de aquellas actividades destinadas a
evaluar componentes, proveedores, costos de homologación, validación, etc

$
definición Nivel en el cual
se detecta el beneficio
especificación defecto
desarrollo costo
Costos de
manufactura corrección

campo $
desarrollo de producto
arranque de
produccion

Fig41
Los costos invisibles resultan de la perdida de mercado, falta de aceptación y
desprestigio; estos son costos muy difíciles de evaluar.
La práctica de métodos preventivos para el aseguramiento de la calidad si bien se
traduce en mayores costos iniciales, estos se ven compensados por los beneficios posteriores,
figura 41, debido a elusión o reducción de costos que de otro modo aparecerían, a saber:
• costos de diseño, al eliminar costos de defectos debidos a errores del diseño
• costos de corridas de preproducción por estar mas cerca de la meta
• costos de interrupciones de proceso para la introducción de correcciones
• costos de imagen, al mejorar la percepción de calidad en relación a la competencia
Costo por defecto
100
Herramientas
de calidad FMEA SPC Causa Raiz

Desarrollo y Manufactura
planeamiento 10

Fig.42
Desarrollo Serie piloto Cliente

Un punto importante a tener en cuenta es que un error de diseño afecta a todas las
unidades, mientras que un problema de manufactura solo a unas pocas unidades. Este esquema,
viéndolo de otro modo, es planteado como la regla decimal, la cual sintéticamente expresa que
cambiar unas pocas líneas en la fase de diseño tiene un costo que se mide en monedas, pero se

206
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 207

incrementa notablemente si el mismo debe hacerse en la fase de producción, y peor aun si debe
hacerse cuando el producto esta en manos del usuario, figura 42.
Por mucho tiempo la calidad estuvo asociada al control, con un enfoque reactivo,
orientada básicamente a determinar los puntos de control y los limites de aceptabilidad del
proceso de manufactura. Actualmente se hace una evaluación global del costo de la calidad,
buscando determinar el sistema que lo minimice. Consideremos, por ejemplo, la conveniencia
de implementar un control de recepción. Este análisis debiera considerar:
1. Costos por inmovilización de materiales.
2. Diferencias de costo debidas a reparación en el campo y en la fábrica, cuando el
defecto no pueda ser detectado en fábrica; o costo inherente al nivel en que se detecta
la falla.

Mejoramiento de la calidad :Grafica de Pareto


Los controles no deben verse como un registro de resultados, sino más bien como una
base para la introducción de mejoras. Para ello es necesario reconocer cuales son los defectos
dominantes, y cuales sus consecuencias, y en función de esta clasificación proceder a priorizar
el factor sobre el que se va actuar para lograr la mejora. Esta es la finalidad de las graficas de
Pareto. Estas se basan en el axioma de que la mayoría de los problemas se concentran en muy
pocas causas. De esto resulta el siguiente corolario: con la solución de muy pocas causas es
posible lograr una mejora importante. Esto se resume en la siguiente regla: el 80% de los
defectos queda concentrado en el 20 % de los diferentes tipos de defectos, figura 43.
La grafica de Pareto se obtiene ordenando los defectos según su frecuencia de
aparición, lo cual da una distribución como la indicada, figura 44. El grafico evidencia los
factores que deben ser primeramente considerados. Este diagrama lleva a un proceso que no
tiene final: eliminados los problemas más importantes, van emergiendo otros que permanecían
enmascarados. Este diagrama permite a la vez tener en cada momento una medida del progreso
alcanzable, medida por la incidencia de los defectos dominantes.

% Defectos
80

20% 100%
Defectos dominantes Grupos

Fig. 43
Fig.44

La agrupación de los defectos puede hacerse en orden a su importancia,


considerándolos según la percepción del cliente, y categorizándolos y ponderándolos según
sean:
• sin consecuencias,
• con ligeras molestias,
• indispone ( predispone mal ),
• causa descontento y acarrea cargos de reparación,
• de gravedad, por afectar la seguridad

207
208 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

Mejoramiento de la calidad: Diagramas de covariación


El problema de la calidad gira alrededor de dos ejes:
• hallar los factores positivos, que determinan la bondad del producto
• hallar los factores negativos, que determinan los defectos del producto
y desarrollar las herramientas que ayuden a mantener ambos bajo control, para lo cual es
necesario conocer la causa que los origina. El camino, para ello, es la aplicación del método
científico basado en el ciclo hipotetizar-validar. Para hipotetizar, sin duda, lo más importante,
es la percepción del observador sobre el proceso. Las hipótesis se validan siempre mediante
pruebas experimentales cuidadosamente realizadas para evitar conclusiones erróneas.

Fig.45 Fig.46
Con los datos obtenidos de los ensayos, por regresión, se busca hallar la vinculación
de los diversos factores. Pero, a veces no es posible relacionar algunos efectos con una causa
específica; en tal caso se debe ver si estos tienen alguna vinculación con otra variable (no
necesariamente de causa-efecto), figura 45 y figura 46. Trabajando, con técnicas de diseño de
experimentos, DOE, es que se alcanzan diseños más robustos.
Recién cuando se conocen las relaciones causa-efecto y las covariaciones, se puede
decir que hay dominio tecnológico, dado que entonces se sabe que factores del proceso se
deben mantener bajo control, y cuales monitorear.

Mejoramiento de la calidad: Diagramas de causa-efecto


Con este diagrama se trata de establecer para cada defecto las posibles causas, y para
estas a su vez, hallar con que otras causas están vinculadas, con la finalidad obvia de
eliminarlas. Por su forma, esto lleva a un diagrama que se conoce como espina de pescado,
figura 47.
La ventaja de este proceso es que pone en evidencia todas las causas, no solo las mas
conocidas. Luego, cada una de ellas debe ser analizada, y eliminada del diagrama si no es un
factor importante de defectos.
C a u s a s S e c u n d a ria s

C a u s a s P rim a ria s

Fig.47 D e fe c to

En este análisis se debe diferenciar entre factores:


• causantes
• contribuidores
• facilitadores
buscando con ello, cuando no sea posible eliminar la causa, al menos reducir o eliminar estos
últimos factores.

208
Manufacturabilidad
En teoría, no hay diferencia entre la teoría y la práctica.
Pero en la práctica, si la hay
YOGI BERRA

La característica más importante de cualquier producto es su costo: Es lo que


determinara su inserción en el mercado. Cuando el producto esta orientado al mercado de
entretenimiento habrá en juego grandes volúmenes de producción, y en tal caso los costos no
recurrentes tendrán muy baja incidencia, importando mayormente el costo de manufactura,
figura 1. En los productos orientados al mercado profesional priman exigencias de calidad,
fiabilidad y disponibilidad, haciendo recaer en el diseño, y en especial en la validación, la
mayor parte de los costos. El mercado militar, más concentrado y de menor volumen, impone
condiciones de uso imprevisibles, importando la robustez y mantenibilidad, y su diseño se
orienta fundamentalmente a minimizar el costo dentro del ciclo de vida.

diseño manufactura mantenimiento diseño manufactura mantenimiento diseño manufactura mantenimiento


$ /u n id a d

$ /u n id a d
$ /u n id a d

Fig.1
tiempo tiempo tiempo
Entretenimiento Profesional Militar

Pero, independientemente del mercado al que este orientado el producto, el proyectista


electrónico debe siempre enfrentar los dos siguientes desafíos, figura 2:
• ciclos de vida cada vez mas cortos
• complejidad de los circuitos y equipos cada vez mayor
Lo primero implica que, para que el tiempo de vigencia en el mercado del producto
sea el mayor posible, figura 3, el tiempo de desarrollo debe ser cada vez más corto. Un modo
de acortar el tiempo de desarrollo es enfocando el diseño según cual sea el factor limitativo.
Esto llevo a acuñar el concepto del diseño orientado a X (DFX), donde X es cualquiera de los
factores que más inciden sobre el producto (demoras y costos): manufactura, distribución,
instalación, mantenimiento, etc. Términos tales como diseño para la manufactura (DFM),
diseño para el ensamblado (DFA), diseño orientado a la testeabilidad, diseño orientado a la
mantenibilidad, diseño orientado a la empaquetadura, etc. Llevaron a establecer modos de
diseño que permiten eliminar operaciones innecesarias, demoras, errores, y una mayor
eficiencia en la fabricación, la instalación, el mantenimiento, el despacho a plaza, etc.
ciclo de vida

complejidad Desarrollo de Vigencia del


producto y de la producto en el
manufactura mercado

tiempo
ciclo de vida
1960 1970 1980 1990 2000

Fig.2 Fig.3
210 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Las técnicas de diseño proactivas y el empleo de herramientas para el diseño ayudado


por computadora, que posibilitan la integración plena del proceso de diseño con el proceso de
manufactura, hacen posible acortar los tiempos de desarrollo. La computadora ayuda en las
primeras etapas del diseño: En la realización de simulaciones, diseño del circuito impreso,
realización de planos mecánicos, etc., y disminuye la necesidad de prototipado. En particular,
el diseño de circuitos impresos, y en especial la consideración de los efectos de las
interconexiones entre los componentes, han tomado tal importancia y nivel de complejidad que
ya no es suficiente basarse en algunas reglas básicas para su realización. Estas reglas, casi
todas ellas incorporadas actualmente en los paquetes de diseño, incluyen como restricciones
para el diseño las limitaciones propias de la fabricación de la placa (número de capas, anchos y
separación entre pistas, etc. ), limitaciones para la disposición de los elementos ( áreas
prohibidas, áreas con altura máxima de componentes, etc. ), limitaciones para el ensamblado
(mínima separación entre componentes, orientación, ubicación, etc.), restricciones para la
soldadura (tipo de tecnología, orientación de los componentes, etc. ) y requerimientos para la
verificación de las placas (disposición de puntos de prueba, con posibilidad de generarlos a
partir del esquemático ). Pero los diseños actuales requieren paquetes mucho más potentes,
integrados a herramientas que permitan realizar por simulación análisis vibratorios, térmicos,
de compatibilidad electromagnética y de integridad de señales, con la finalidad de abreviar los
pasos de refinamiento y prototipado, y reducir los tiempos de desarrollo.

Sistemas de manufactura
El diseño deberá considerar el tipo de manufactura, diferenciando a cual de los tres
tipos básicos corresponde el producto que se va a desarrollar:
• producto único, el proyecto termina con la construcción
• por lotes, ( normalmente se produce a pedido, comercial o ventas empuja a
producción )
• producción continua, se usa JIT (just-in-time) (normalmente se produce conforme a un
plan; producción empuja a ventas)
ya que esto influirá entre otras cosas en :
• la selección de componentes
• el tratamiento de las tolerancias
• la adaptación de los procesos
Si se tratara de una producción continua, basada en el JIT ( JAT, Justo a tiempo ), es
necesario cumplir la denominada regla de los cinco ceros:
• cero defectos de los procesos ejecutados
• cero averías para procesos a ejecutar
• cero inventario, produciendo solo lo que se necesita
• cero demoras, a través de manufactura flexible y una rápida capacidad de respuesta
• cero burocracia por eliminación de funciones innecesarias
y su cumplimiento estará influenciado por el diseño de producto.
Cuando la producción es por lotes o continua, la misma se basa en un plan maestro,
denominado a veces MPS ( Master Production Schedule), el cual se apoya en un plan de
requerimiento de materiales, el MRP ( Material Requirement Plan ). En el MRP se combinan
inventarios, el listado de materiales emitido por ingeniería, conocido como BOM ( Bill of
Materials ) y el plan de producción. Es decir, el MRP identifica el tipo de componente y la
cantidad necesaria para la manufactura de un producto, el proveedor, los costos, existencias de
inventario y fechas en las que se deben realizar los pedidos de compra para satisfacer el
requerimiento de producción. Su meta es evitar demoras y bajar costos de fabricación. Esto

210
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 211

requiere que los sectores de Ingeniería, Compras, y Manufactura operen con una base de datos
unificada, parte integrante de un sistema de fabricación ayudado por computadora ( CIM),
figura 4. Para ello es importante la integración del sistema de CAD para hacer posible que la
etapa de diseño genere todos los archivos que requieren los distintos sectores: Ingeniería,
Compras, Manufactura y Servicio Postventa.

Plan Maestro de Produccion Listado de Materiales


(MPS) (BOM) Inventarios
(Master Production Schedule) (Biill of Materials
)

Plan Requirimiento de Materiales


(MRP)
(Material Requirement Planning)

Fig.4 Manufactura Integrada por Computadora


(CIM)
(Computer Integrated Manufacturing )

La producción surge de un Plan Maestro, que establece el sector comercial. El listado


de materiales (BOM) surge del desarrollo del producto. Es por ello importante que para la
selección de un dado componente se consideren todos los aspectos que hacen a la manufactura
y a su compra, como ser :
• Basarse en proveedores seleccionados
• Basarse en componentes aprobados
• Tener en cuenta demoras en la entrega ( lead time),
• Considerar la reducción de costos por volumen,
• Considerar los costos de compra.
Seleccionar un dispositivo cuya disponibilidad no quede asegurada, o es de alto costo,
o poco adaptada a los procesos, o que sea nuevo, implicara retardos en el lanzamiento o la
imposibilidad de satisfacer objetivos de costo para el producto.

Diseño orientado a la Manufacturabilidad


Un producto se dice que es manufacturable cuando es realizable utilizando los
componentes, equipos, materiales y tecnología disponibles en el momento. La
manufacturabilidad en si misma es una cualidad que pretende dar una idea de la facilidad con
que un producto ha sido pensado y desarrollado para obtener la mayor productividad posible, y
que ello redunde en un mayor beneficio, visto de ambos lados: del productor y del consumidor.
La productividad es la relación entre lo ingresado en un proceso de fabricación
(insumos, mano de obra, materiales, componentes, tecnología) y lo que resulta al final del
mismo, pudiendo la evaluación considerar al conjunto o un grupo de factores, o limitarse a uno
solo. Para el análisis de productividad los aspectos fundamentales a tener en cuenta son:
• Concepción del equipo
• Componentes y/o materiales empleados.
• Procesos de armado o manufactura.
• Testeabilidad o sistema de control.
El diseño incide sobre todos los factores, bien sea para aumentar o para desmejorar la
productividad. Criterios generales que deben ser atendidos para mejorarla son:
• reducir al mínimo las partes requeridas ( menor costo de partes, de movimientos, y
menor costo de ensamblado, )
• minimización de la variedad de partes; esto llevara a un mayor volumen de algunos
tipos y consecuentemente puede implicar un menor costo de adquisición y
almacenamiento

211
212 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

• empleo de elementos preferidos, lo que implicara menores costos para la obtención y


menores demoras en la entrega
• reducir el número de proveedores, y trabajar estrechamente con los mismos; encontrar
y calificar un nuevo proveedor tiene un costo muy grande.
• diseño robusto con el cual se busca minimizar la sensibilidad frente a la variabilidad
de los componentes; esto implicara menores rechazos de proceso
• eliminar en lo posible la disposición de elementos ajustables (mayores tiempos,
errores y costos de manufactura )
• cuidar la especificación de los componentes a medida, buscando que esta sea
completa y precisa
• atender todas las limitaciones de los componentes empleados, no solo las que hacen a
su funcionalidad eléctrica, sino también lo que hace al manipuleo, almacenamiento,
transporte, inserción, ajuste, soldadura, etc.
• eliminar, o cuando menos reducir los cambios de ingeniería; cada cambio implica un
alto costo, que va más allá del costo de ingeniería, debido a que los cambios deben
desparramarse en todo el sistema (producción, compras, servicio, etc.); este aspecto
esta ligado a la validación del diseño y de los procesos.
Muchos problemas de manufactura ocurren debido a que el proyecto se organiza con
‘dueños’ o responsables por bloques. Debido a ello, la responsabilidad de diseño de las
distintas etapas recae en grupos diferentes, sin adecuada coordinación, con desconocimiento de
los elementos empleados en otras etapas, o bien resultan de reglas de diseño establecidas que
llevan rutinariamente a soluciones tipo para determinados bloques, sin realizar un análisis
previo de integración o valoración, con poca o nula efectividad en las revisiones de proyecto, y
ausencia de análisis de ingeniería del valor. Un diseño para la manufactura debe buscar
soluciones en las que los procesos sean:
• simples
• a prueba de errores
• repetibles, y por ende respondan totalmente a procedimientos documentados
• definidos de modo que los componentes soporten la carga que le imponen el proceso
• fáciles de controlar
• de fácil manipuleo, tanto de elementos como de los productos terminados
y podrán estar orientados al :
• proceso, definidos estos como de tipo producto genérico, especialmente aplicable en
producción por lotes
• producto, definidos los procesos como del tipo producto especifico, y aplicadas en
líneas de producción continuas
En el primer enfoque, los ingenieros de diseño del producto y de los procesos
cooperan con los operarios de montaje, técnicos de testeo, reparación y mantenimiento para
lograr productos fácilmente producibles y mantenibles, figura 5.

Proceso 1 Proceso N
Materiales y componentes

Si Si Si
P1 C1 P2 C2 P3 C3
Determinacion del atributo para el diseño Producto
No No No terminado

Retrabajos
Proceso de diseño

Fig.5 Fig.6

212
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 213

En electrónica, la manufactura involucra tareas de :


• Inserción de componentes
• Soldadura
• Armado de subconjuntos
• Control de proceso
• Calibraciones
• Verificación final ( Cargas y pruebas )
• Despacho ( empaquetado)
con una estructura de manufactura que responde al diagrama de la figura 6, donde los Pi
representan los procesos y Ci los controles del proceso. El control en cada proceso permite:
• evaluar si un proceso de manufactura esta bien adaptado al diseño, para lo cual se usa el
primer índice de calidad, conocido como FTQ (first time quality), que evalúa, a la
salida de cada proceso, la proporción de unidades que no requieren retrabajo
• segregar productos no aptos
• saber si el proceso se sale de control
El diseño puede y debe ayudar a lograr que el proceso de manufactura este bien
adaptado, seleccionando componentes que faciliten el montaje, la soldadura y el control,
haciendo posible obtener de entrada una baja cantidad de rechazos y desechos. Los
incumplimientos hallados en el control pueden deberse a:
• problemas de proceso: errores de montaje, malas soldaduras, ajustes deficientes, etc.
• problemas de componentes: componentes defectuosos, o de alta variabilidad causada
por inadecuada selección de la tolerancia de los componentes
Conseguir altos índices de FTQ requiere proceder en dos pasos:
1. Seleccionar los materiales y componentes.
2. Diseñar el proceso correspondiente en función de los componentes seleccionados.
La desventaja de este método, es que el proceso se ve atado a la selección de
componentes. La otra opción es invertir los pasos:
1. Seleccionar el proceso.
2. Elegir los componentes y materiales según el proceso adoptado.
En la práctica se utiliza una combinación de estos métodos, dándosele prioridad a uno
ú otro, según convenga, y esto implica coordinar el diseño de producto y el diseño de
manufactura. En cualquier caso, la incidencia del diseño en el primer índice de calidad es
directa. Mejorarlo implica orientar el diseño del circuito y de la placa de circuito impreso por el
lado de los procesos: el ensamblado, la soldadura, la testeabilidad, y la calibración, y
considerar además una apropiada selección de tolerancia para los componentes.

Diseño para el ensamblado


Un dispositivo poka-yoke es un mecanismo o método que previene errores,
básicamente de ensamblado. El termino poka-yoke proviene de las palabras japonesas "poka"
“error inadvertido”, que cualquiera pueda cometer, y "yoke", prevención. El concepto se debe
al ingeniero japonés Shigeo Shingo. Si bien el concepto se aplica para lograr procesos de
manufactura manuales libres de errores, de por si es un concepto de diseño amplio, dado que en
su mayoría los errores de ensamblado son consecuencia de un mal diseño del producto.
Muchos defectos son consecuencia de errores debido a que la tarea requiere cierto
grado de concentración, o de habilidad, o bien esta basada en instrucciones confusas, o
susceptibles de no ser bien interpretadas. Si el error es detectando al momento de producirse,
puede ser corregido, y en tal caso no se produce el defecto.

213
214 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Shingo identifica tres tipos de inspección:


• Inspección de criterio : Este es el método de inspección convencional de control de
calidad, (SQC), destinado a segregar productos y elementos fuera de especificación
• Inspección informativa : Recurre al control estadístico de proceso (SPC), posibilitando la
correcciones en línea, y de ese modo previene los defectos
• Inspección en la fuente: Es una técnica que reposa en el autocontrol; es conceptualmente
una acción previa al hecho. Las dos técnicas anteriores son siempre posteriores al hecho.
Con la inspección en la fuente y dispositivos poka-yoke se busca asegurar condiciones
apropiadas que impidan cometer errores, al extremo, incluso, de que si estas condiciones
no se dan no es posible realizar el proceso. Por ser una inspección que involucra al 100%,
resulta en un producto con cero defectos, y por ello a veces se le considera una
herramienta del ZQC (Zero Quality Control ).
Principios básicos para lograr cero defectos son:
• No producir errores de diseño (diseñando elementos poka-yoke )
• Usar los productos tan pronto sea posible (realizando inspección en línea )
• Usar sistemas de producción amigables (diseñando procesos simples )
Lograr lo primero requiere de acciones preventivas. Estas se basan en diseñar los
productos de forma tal que sea imposible cometer errores. Cuando es posible la prevención no
hay posibilidad de cometer errores, importante sobretodo cuando pueden derivar en
consecuencias catastróficas. Donde no sea posible aplicarlo, se debe recurrir a la detección,
proveyendo alguna señal que alerte sobre el error.
Muchos elementos responden al criterio de poka-yoke: Fichas, conectores, plaquetas y
componentes. Son características deseables de una solución poka-yoke:
• ser simples y baratas, para ser efectivas en cuanto a costo
• ser parte del producto ( preventivas )
• cuando sean parte del proceso, deben localizarse donde el problema ocurre
Un componente se dice pensado poka-yoke cuando admite una sola forma de
inserción. Esto, cuando se trata de componentes de mas de dos terminales, puede lograrse
mediante asimetrías, como ocurre por ejemplo con los terminales del encapsulado TO-92,
figura 7.
marca catodo
B

E C

Fig.7 Fig.8

Para componentes de dos terminales también es posible valerse de alguna asimetría


que tome en cuenta el comportamiento asimétrico del componente, como es el caso de
capacitores electrolíticos, diodos, etc. En este caso, se podría obtener una característica poka-
yoke si ambos terminales tuvieran diferente diámetro; lo usual, sin embargo, es proveer tan
solo una señalización que permita reconocer la mala inserción, por ejemplo con un encapsulado
asimétrico, encapsulado D0-7, o con diferente longitud de terminales, como es caso de
capacitores electrolíticos de tantalio, diodos leds (encapsulados opto-5 a opto-10), o
simplemente mediante marcas en el cuerpo (encapsulados DO-35), figura 8. La característica
poka-yoke se convierte así en un criterio adicional importante de selección. Cuando los
componentes deben ser montados de un modo único, pero admiten más de una forma de
inserción, se trata de que la forma correcta pueda ser reconocida visualmente. Una solución

214
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 215

poka-yoke simple, aunque limitada, de lograrlo sería, por ejemplo, implementando un


serigrafiado en la placa del circuito impreso, figura 9.
El concepto poka-yoke, aplicable sobre todo al ensamblado manual, permite además
de evitar errores, que es su función principal, disminuir los tiempos de armado. Si se trata de
piezas mecánicas, con la aplicación de este concepto se busca que las mismas admitan un solo
modo de encastre o posicionamiento.
La introducción de la inserción automática resolvió una de las mayores limitaciones
en la manufactura de equipos electrónicos, especialmente en el sector de entretenimiento,
donde el costo es fundamental, se manejan grandes volúmenes de producción, y por ello se
requieren tiempos cortos de proceso. Podría pensarse que, al automatizarse el proceso, el
rendimiento debería ser del 100% al desaparecer los errores propios de la operación manual. Si
bien la cantidad de errores se ve notablemente disminuida, igualmente puede haber problemas
debido a errores de carga, inversión de polaridad por poner en posición invertida el casete o
rollo de componentes, o por fallas de la propia maquina insertadora que termina doblando el
terminal del componente sobre la placa, en vez de insertarlo en el agujero. Esto se podría evitar
si los agujeros tuviesen una forma cónica que sirva de guiado, pero encarecería el agujereado.

serigrafia
A

odo
an
o
od
cat

Fig.9 Fig.10

La productividad también aumenta si el herramental realiza la menor cantidad de


movimientos en uno de sus ejes, digamos la dirección X, con solo movimientos por incremento
de Y. Esto implicará, para componentes axiales, tener en cuenta la orientación y su centro de
coordenadas, fijado normalmente por su centro de gravedad. Por ejemplo, los dos primeros
bloques de componentes de la figura 10, no cumplen dicha condición.

Diseño para la soldadura


El proceso de soldadura debe adaptarse a los componentes usados. Básicamente
las dos tecnologías utilizables son:
• Montaje superficial, o componentes de tecnología SMT (Surface Mount Technology )
• Montaje por inserción (agujero pasante), o tecnología THM (Through Hole Mount)
y dado que los componentes pueden ser montados sobre cualquiera de los dos lados de la placa
de impreso, esto da varias posibilidades de realización, figura 11.

Imprimir pasta Colocar Soldadura por


Limpiar Probar
de soldar componentes refusion

Fig.11 Fig.12

Cuando se combinan las dos tecnologías, aplicables e insertables, se aprovecha mejor


el espacio, pero requiere mejor precisión litográfica. Además reduce la necesidad de agujeros

215
216 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

pasantes, y ello acarrea, además de un menor costo, mas espacio libre para otros componentes.
Por otro lado, si bien es posible contar con dispositivos SMD para elementos que por su
volumen en la tecnología convencional parecieran poco aptos para la nueva tecnología, su uso
se ve limitado debido a que su altura queda restringida por la longitud de los terminales de los
componentes de inserción, que no pueden sobresalir del filo de la plaqueta más de 2 mm.
Cuando se mezclan tecnologías se debe adecuar el proceso de soldadura a los tipos de
componentes. Esto muestra la ventaja de operar con un solo tipo de tecnología, y usar una sola
cara para el montaje de componentes, figura 12 y figura 13.
d i r e c c io n d e l a p l a c a

Impresión de la Colocacion del Soldadura por


pasta de soldar componente refusion
m e n o s d e fe c to s m a s d e fe c to s

Fig.13 Fig.14
Cuando se colocan componentes en ambas caras, el proceso debe ser repetido sobre la
otra cara. Si los componentes SMT se colocan solo sobre la cara superior, se debe hacer una
soldadura por refusión, primero para los SMT, y luego soldadura por ola para los insertables.
El proceso de soldadura debe asegurar:
• Bajo castigo por choque térmico
• Buena conexión eléctrica
• Estar libre de defectos, sin residuos de soldadura ni cortocircuitos
No existe un método único de soldadura que sea óptimo para todos los encapsulados.
La soldadura por ola es adecuada cuando se tienen agujeros metalizados y componentes de
montaje superficial mezclados con componentes de inserción. Pero, la soldadura por ola no es
adecuada para la soldadura de integrados de montaje superficial, especialmente cuando se tiene
muy alta densidad de componentes de montaje superficial. En tales casos debe usarse soldadura
por refusión.
Para minimizar la cantidad de defectos de soldadura el diseño de los impresos debe
respetar distintas reglas, muchas de ellas dependientes del proceso de manufactura. Una de
estas reglas establece por ejemplo la orientación que deben tener los componentes según la
dirección del movimiento en el proceso de soldadura, figura 14. La regla exige que el mayor
eje de los componentes sea perpendicular a la dirección del movimiento, a fin de lograr que se
produzca la fusión simultánea en ambos contactos de la pastilla, y evitar que esta tienda a
levantar su otro extremo, impidiendo su soldadura, efecto conocido como defecto lápida.

Diseño para la calibración


Para reducir la variabilidad de una determinada característica, causada por la
dispersión de valor de los componentes, es común el empleo de elementos ajustables,
agregando una etapa de calibración en el proceso de manufactura.
Actualmente, la mayoría de los equipos están basados en un microcontrolador, lo cual
favorece el ajuste por software. Esto requiere usar circuitos integrados con registros de seteo
incorporados, a los cuales se accede por líneas de control internas del equipo, un bus I2C o
similar. Esto elimina el ajuste mecánico, sea este manual o automático, y permite una
importante reducción del costo de ajuste. El valor que resulta del ajuste en el paso de
calibración, en vez de prefijar la posición de un elemento mecánico variable, es un dato
guardado en una memoria EEPROM que es leída durante el proceso de inicialización del
equipo en el encendido del mismo.

216
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 217

Conceptualmente, el ajuste por software es siempre un ajuste por pasos, que se podrá
asimilar a un ajuste continuo solo si la magnitud de los pasos es muy baja. Su mayor ventaja es
que elimina la variabilidad debida al factor humano, y no esta sujeto a ninguno de los
problemas propios de los elementos de ajuste mecánicos: volumen, estabilidad, etc., y hace
posible además el ajuste a equipo cerrado. Para ello, se agregan puntos de acceso directo,
disponiendo pequeños agujeros en el chasis que permitan acceder a las líneas del bus de control
ubicadas en la placa de circuito impreso, o bien mediante acceso externo a través de un
conector. Su mayor desventaja es que limita la posibilidad de recalibración en campo.
Contrariamente a lo que podría pensarse, el ajuste manual no necesariamente lleva al
mejor cumplimiento de la especificación. Lograrlo, dependerá de que se reduzcan los errores
debidos:
• al elemento de ajuste
• al circuito y método de ajuste
• a limitaciones en el tiempo dedicado al ajuste
• precisión y exactitud de los instrumentos usados en la calibración
C C

R R1
e1
∆E
∆E x1 R2
R v
e2
Q x2

0 180 θ 0 180 θ

Fig.15 Fig.16 Fig.17 Fig.18

En la definición de un ajuste deberá considerarse:


1. Problemas de seguridad. Siempre que se dispone de un elemento de ajuste se debe analizar
que en cualquiera de sus condiciones extremas no lleve a daño o condición de sobrecarga de
otros elementos del circuito, como sucedería en el caso de la figura 15. Cuando exista
posibilidad de sobrecarga, deben definirse las condiciones para un ajuste seguro:
• Limitando la corriente
• Reduciendo la tensión de alimentación
• Reduciendo la excitación
• Reduciendo la carga
2. Problemas de discriminación y sensibilidad. Esto incide en el tiempo y en el error del
ajuste. Se evita fijando como rango de variación solo el necesario para llevar a especificación
la característica, considerando además de la tolerancia inicial las posibles derivas en el tiempo.
Las situaciones indicadas en las figuras 16 y 17 implican un ajuste problemático, que puede
resultar con una dispersión mayor que la que se tendría de usar elementos fijos.
3. Problemas de interacción entre ajustes. Si el ajuste de una característica dependiera del
ajuste de otra, se dificultaría lograr un correcto ajuste en ambas, como es el caso de la figura
18. En estos casos será necesario definir una secuencia de ajuste para lograr una rápida
convergencia.
4. Problemas de descalibración. La descalibración puede ocurrir en etapas de mantenimiento,
por error, o ser causada por vibración mecánica. La solución pasa por bloquear el ajuste,
mediante selladores, ceras, lacas o traba mecánica. Además, para evitar el uso indebido, solo
los ajustes frecuentes permitirán un acceso directo, usualmente escondido, y solo posible con el
uso de calibradores especiales.

217
218 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Diseño para la verificación ( DFT)


Todo proceso de manufactura debe ser controlado, y esto requiere que en el diseño se
incluyan requerimientos para la testeabilidad. La idea es que en esta etapa del diseño se
examine el espectro de defectos y se desarrollen estrategias apropiadas de inspección y testeo
para asegurar la funcionalidad de todos los componentes. Cuando se diseña el circuito impreso,
por lo general hay una gran resistencia a incorporar las exigencias impuestas para la
testeabilidad (pads y vías adicionales), porque esto requiere mas espacio, representa un
esfuerzo adicional de diseño, y además, impone restricciones adicionales tales como “Debido a
las restricciones de los rayos X, no se debe colocar un elemento en una cara del impreso, si hay
otro elemento en la misma ubicación en la otra cara”, que se suma a la ya muy larga lista de
restricciones a las que esta sujeto el diseño de la placa.
Las condiciones a cumplir en el diseño para la testeabilidad son:
• Tener accesibilidad completa, desde el punto de vista visual y eléctrico.
• Hacer que los circuitos sean mas controlables, de fácil estimulo, y con posibilidad de
estímulos locales
• Hacer que los circuitos sean mas observables, facilitando la comprobación de los
resultados de los estímulos
• Diseñar circuitos que permitan su partición en circuitos de mas simple control
Idealmente una accesibilidad completa implica poder realizar una inspección visual de
elementos y soldaduras, y comprobar eléctricamente todos los nodos del circuito. La
inspección visual juega un papel importante, especialmente en la búsqueda de condiciones
marginales: soldaduras frías, residuos de soldadura, microcortos, aperturas, componentes
desalineados, ralladuras, resquebrajaduras, suciedad, fijación errónea de componentes,
componentes faltantes, etc. Luego, para descubrir los defectos ocultos que resten, si se trata de
placas simples, puede ser suficiente hacer solo una verificación funcional, denominada FT
(functional-test), figura 19. Para esto se conecta la plaqueta a una maqueta que contiene los
restantes elementos del equipo, que se sabe funcionan, prueba que se conoce como hot
mockup. En las pruebas funcionales se suministran todas las entradas de la plaqueta, y se
miden las salidas correspondientes. Actualmente, este procedimiento de verificación es solo
usual en etapas avanzadas del proceso, y en etapas de servicio. La ventaja es que requiere
pocos puntos de prueba.

Empastado
Colocacion Soldadura Verificacion
y Refusion
manual por ola funcional
Colocacion

Fig.19

En la etapa de manufactura es necesario contar con métodos de prueba que permitan


detectar que componentes no están funcionando y la causa de ello, para poder corregir el
proceso, información que una FT no aporta. Es necesario para ello recurrir a los in-circuit-
tester (ICT). En estos se verifican los componentes y las conexiones del circuito en forma
independiente, normalmente por comparación: Se obtienen todos los parámetros básicos de
nodo de una placa terminada y totalmente operativa, contra los cuales se comparan las demás
placas. Por este medio se garantiza que todos los componentes estén funcionando
correctamente si satisfacen dicho criterio. La placa a probar se asienta sobre una cama de
agujas, que sensa todos los nodos del circuito. Los sistemas ICT imponen restricciones para la
ubicación y el espaciado de componentes, que deben ser tenidas en cuenta en el diseño de la
placa. Si la placa tiene componentes de ambos lados, conviene que los puntos de prueba estén
en uno solo de sus lados, con preferencia el lado de la soldadura; será necesario usar vías para
satisfacer esta exigencia si los SMD se montan del lado componentes.

218
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 219

Los circuitos impresos actuales y las tecnologías de encapsulado hacen que los
métodos tradicionales de prueba directa, basados en la cama de agujas, sean imposibles de
aplicar en plaquetas complejas. El mayor problema de los ICT es que exigen tener acceso a
todos los nodos. Esto, por variadas razones (tamaño de la placa, tipo de encapsulado de los
dispositivos, etc.), no siempre puede ser posible, lo cual reduce su efectividad. Por ello, y para
eliminar fallas definidas, se han desarrollado otras estrategias de testeo buscando además estar
mas en línea con el proceso, proveyendo un mejor control de los mismos y reduciendo los
retrabajos. Como complemento del ICT se recurre a la inspección óptica automática (AOI), o a
la inspección automática por rayos X (AXI), figura 20a, como ayuda en la captura de defectos.
El problema que presenta la testeabilidad AOI y la AXI es que, recurriendo a distintas fuentes
de aprovisionamiento, puede no mantenerse la geometría de los elementos.

a) Empastado Verificacion
AOI/AXI Colocacion Soldadura
y Refusion del circuito
manual por ola
Colocacion

Empastado
b) y Refusion AOI/AXI Colocacion Soldadura Verificacion Verificacion
manual por ola del circuito funcional
Colocacion

Fig.20

Para plaquetas complejas, lo usual es recurrir a una estrategia de testeo en la que se


combina el AXI, el ICT y el FT, figura 20b. Con la AXI se comprueba la integridad estructural
de las soldaduras, con el ICT la integridad de los componentes y del impreso, y con el FT las
características de la plaqueta. Normalmente, el 90% de los defectos son de proceso, y esta
comprobado que el AXI provee un 95% de cobertura de los mismos, y además permite su
exacta localización. Al eliminar los defectos estructurales, se simplifica la detección de los
demás defectos en los testeos ICT y FT.

Dispositivo Dispositivo Dispositivo


BScan/1 BScan/2 BScan/3
TDO TDI TDO TDI TDO TDI TDO
DATOS
Controlador
Microprocesador DIRECCIONES del Bus de TCK
testeo TMS
CONTROL
TDI

Fig.21
Cuando se requiere alta observabilidad con baja exigencia de accesibilidad se debe
recurrir a dispositivos integrados con boundary scan, lo cual debe ser considerado desde la
primera etapa del diseño. Con la exploración periférica (boundary scan) los dispositivos BScan
posibilitan la verificación externa de todo el dispositivo, reemplazando las agujas del ICT por
celdas BScan. Para ello los dispositivos Bscan agregan circuitos de testeo dentro del propio
componente, y lo que es mas importante, permiten el control de todos los dispositivos BScan a
través de un bus común de interfase especifico de 4 líneas, figura 21. La operación del testeo se
hace conforme a un protocolo de acceso establecido por el estándar IEEE 1149.1. Este define
unas pocas instrucciones públicas, con funcionalidad predefinida, y las demás son
instrucciones dedicadas (se denominan privadas) que permiten que el boundary scan haga el
testeo y la depuración especifica de cada dispositivo. La norma también define un lenguaje
descriptor, el BSDL, el cual, basándose en la descripción de los dispositivos BScan que sean
usados, facilita la implementación de la interfase de testeo del dispositivo con la placa.

219
220 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Diseño de tolerancias (DOT)


En electrónica, el proceso de manufactura engloba siempre tareas de armado,
soldadura, y control, figura 22. Si n es la cantidad de elementos fabricados y m la cantidad de
ellos que satisfacen los requerimientos, su relación define la productividad intrínseca del
proceso, su rendimiento primario o primer índice de calidad (FTQ, first time quality),
m
η = FTQ = (1)
n
Este rendimiento depende, además del proceso y del AQL, de la tolerancia de los
componentes, por lo cual la asignación de las tolerancias es una función importante del diseño.
R en d im ien to
1
n m b
Proceso Control
aprobados
a
rechazos

Fig.22 Fig.23 Ca co sto


Cb

En la selección de los elementos de un circuito hay normalmente muchas opciones:


aparte de diferencias tecnológicas y de encapsulado, hay diferencias de fiabilidad, calidad
(AQL) y de rendimiento de proceso, asociado este fundamentalmente con su tolerancia inicial.
El costo de la solución es suma de los costos de componentes y de la manufactura,
costos usualmente contrapuestos. Es que el costo de los componentes es sensible a su
tolerancia, y esta determina que más o menos circuitos pasen la etapa de control, por lo cual
cabe pensar que habrá una solución que optimiza el costo. La función del diseño es hallar dicha
solución. El problema es que si se pretendiera analizar todas las implementaciones que resultan
por combinación de los elementos, considerando todas las tolerancias en que están disponibles,
la cantidad seria tan grande que haría inabordable su análisis completo. Pese a ello,
supongamos haber realizado todas las implementaciones posibles, y determinado el
rendimiento de cada una y su costo, figura 23. Muchas de estas soluciones carecen de sentido:
Para igual rendimiento solo tiene sentido considerar las soluciones de menor costo. Luego,
entre dos soluciones que cumplen el requisito anterior, como la a y b, figura 23, con costos Ca
y Cb y rendimientos ηA y ηB, suponiendo que se desechan las plaquetas que no cumplen la
especificación, la mejor solución será aquella para la cual resulte el menor costo para obtener x
productos funcionando: Es decir, será la a si se verifica que
Ca Cb (2)
<
ηa ηb
y la b en caso contrario.
Surge claro entonces que la mejor alternativa no es necesariamente la que lleva a un
rendimiento del 100%. El que se acepte que del proceso resulten productos que no satisfacen la
especificación, no significa que al usuario van a llegar tales productos. La etapa de control es la
encargada de filtrar esos productos defectuosos. Como la etapa de control no puede ser
eliminada, porque además de los problemas de incumplimiento debidos a la tolerancia de los
componentes, existen errores y problemas de proceso, puede no existir ventaja en proyectar de
modo que la tolerancia de los componentes sea asignada para que el 100% de las
implementaciones cumpla la especificación.
Además, debe tenerse en cuenta que difícilmente se realice un control del 100% para
el 100% de las características. Mas bien la acción de control se restringe normalmente a
verificar solo las características mas importantes o criticas del producto, por lo cual el diseño
debería basarse en una asignación de tolerancias que permita satisfacer una dada capacidad de
proceso para todas aquellas características que no están sujetas a un plan de control del 100%.

220
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 221

Asignación de tolerancias
Todo equipo debe satisfacer un conjunto de especificaciones. Habiendo seleccionado
los circuitos, para los mismos se podrán establecer un conjunto de relaciones que vinculan las
características que debe cumplir con los valores de los distintos componentes
C i = f i ( x 1 , x 2 ......... x n ) (3)
Los cambios en los valores de los elementos se traducirán en una variación en el valor
de la característica
n
∂f i (4)
∆C i = ∑
i =1 ∂xi
.∆ x i

donde
Ci: es una característica que resulta impuesta por el circuito.
∆Ci: variación de la característica debida a la tolerancia de los componentes.
∆xi: indica la variación de un determinado componente, variación que esta relacionada
con su tolerancia ( apartamiento a su valor nominal ).
La derivada parcial ∂ f i ∂ x i es la sensibilidad de la especificación al componente Xi
y es dependiente del diseño, o sea, esta determinada por el circuito y el valor de los elementos
del circuito. Una definición de sensibilidad más apropiada, a los efectos de su tratamiento,
resulta de considerar los cambios relativos de la característica frente a un cambio relativo de
una variable, la cual será considerada más adelante1.
Vemos luego que la variabilidad de una característica es función de:
• el circuito, a través de la relación Ci=f(x1,…, xn)
• los grados de libertad disponibles para la determinación de los diversos elementos
• las variaciones ∆xi a las que están sujetos los componentes
El circuito seleccionado determinara la relación funcional que vincula la característica
con los valores de los elementos. Los grados de libertad surgen de la cantidad de ecuaciones o
inecuaciones independientes que deben ser satisfechos y el número de variables o elementos
independientes que pueden ser establecidos. Esto implica que muchos de estos elementos, si
hay grados de libertad, pueden ser elegidos de modo de minimizar algunos coeficientes de
sensibilidad. Esto hará más conveniente aquellas soluciones que provean un número mayor de
grados de libertad, por que esto permite:
1. si no hay una dependencia directa y simple entre una característica y un componente,
aprovechar los grados de libertad como para que resulte finalmente así
2. lograr mayor ortogonalidad entre las características, cuando estas dependen de
componentes comunes
y el proceso se llevara a cabo:
• Seleccionando primero los elementos mas caros y mas sensibles a la tolerancia
• Imponiendo coeficientes de sensibilidad bajos ( en base a los grados de libertad ) para
los componentes para los cuales es mas difícil de controlar o de mantener baja su
estabilidad, o bien porque son mas caros
La variabilidad de las características del circuito dependerá de la elección de
tolerancia de los componentes, el aprovechamiento de los grados de libertad en el diseño, de
que se incluyan componentes específicos de calibración, y del método de calibración.
Pero siempre, cualquiera sea el caso, la característica estará sujeta a una variación de
unidad a unidad de tipo aleatorio, con una función de distribución que tendera a la normal,
figura 24, suponiendo aplicables las condiciones del teorema del limite central. Esta dispersión
1
Ver pagina 229

221
222 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

se altera a lo largo del ciclo de vida del producto; para su análisis conviene descomponer la
tolerancia en varios factores:
∆X i = ∆X armado + ∆X var . op + ∆X tol . inicial + ∆X tiempo (5)
Esto muestra que, aun suponiendo que el producto entre en especificación en el
control final ( a la salida de fabrica, t=0 ), su condición puede ser marginal, por el poco margen
de variación que tolera por degradación, figura 25, y por cambios operativos.

p(X)
Dispersión debida a
tolerancia inicial

X
p(X)
p(C)
Dispersión despues
de proceso

Margen de variacion a Margen de variacion a X


consumir con el tiempo
consumir con el tiempo
Dispersión a p(X) a Tmin p(X) a Tmax
temperaturas
En C extremas
∆E
rango tolerado por la especificación X

Fig.24 Fig.25

En otras palabras: el diseño debe analizar el comportamiento del circuito no solo


frente a la tolerancia inicial, valida al momento de adquisición, sino que debe tomar en cuenta
como esa tolerancia se degrada a posteriori. Esto puede ocurrir por variaciones previas al
montaje, o a posteriori, pero en condición de almacenamiento. Por cargas de proceso, debidas a
la inserción, choques térmicos, acción de solventes, manipuleo, etc. Por cambios debidos a
cambios en la temperatura ambiente o por disipación propia, variaciones de tensión, etc. Esto
puede implicar que la tolerancia que debe ser considerada para el diseño deba ser más de 2 o 3
veces la tolerancia inicial del elemento.

Variabilidad debida a proceso


El termino ∆Xproceso dependerá de la manera en que se ensamblan y/ó sueldan los
componentes. Los procesos, si están descontrolados, pueden alterar de un modo irreversible las
características de los componentes debido a las cargas que tales procesos imponen.
Los dos procesos más importantes a los que están sujetos los componentes son el de
montaje y el de soldadura. En los componentes con terminales, componentes insertables, la
operación de montaje implica el doblado y corte de los terminales. Esto implica esfuerzos que
pueden alterar el valor de algunas características. Pero si duda, siempre la carga mayor se da en
el proceso de soldadura. El proceso de soldadura ideal debería asegurar:
• Bajo castigo por choque térmico
• Buena conexión eléctrica
Para asegurar lo primero, los componentes y la placa deben pasar de la temperatura
ambiente a la temperatura de soldadura de un modo controlado, y para lograr una buena
soldadura el material de soldadura y las partes a soldar deben estar a una temperatura próxima
a los 240-260ºC. Básicamente hay dos métodos de ensamblado y soldadura:
• Manual: normalmente este es un proceso muy descontrolado en todas sus variables
temperatura ( T ), tiempo ( t ), y distancia del cuerpo al punto de soldadura.
• Automático : totalmente controlado

222
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 223

En la soldadura manual, usada para aquellos componentes que no pueden ser soldados
en forma automática, se debiera evitar:
• posibilidad de soldadura fría, lo cual puede ocurrir cuando no esta bien balanceada la
potencia del soldador con las partes a soldar; en soldaduras recurrentes esto puede ocurrir
por insuficiente tiempo de recuperación de temperatura del soldador
• el choque térmico, el cual provoca cambios irreversibles de las características
• la corriente de fuga del soldador, que puede degradar severamente algunos componentes
Idealmente la temperatura de la punta debe estar 50ºC por encima de la temperatura de
fusión de la aleación, antes y durante la operación de soldadura, figura 26, para lograr una
soldadura instantánea, con bajo tiempo de soldadura, de 2 a 2.5 s; la situación indicada en la
figura 27 seria indeseable. Los fabricantes de componentes usualmente especifican la
temperatura máxima de soldadura, Tmax, en relación al tiempo de soldadura, tmax, figura 28.

Fig.26 Fig.27 Fig.28

Si bien existen varios métodos de soldadura automática, ninguno es óptimo para todos
los encapsulados. La soldadura por ola es adecuada cuando la placa tiene agujeros metalizados
y componentes de montaje superficial mezclados con componentes de inserción. Pero, en
general no es adecuada para la soldadura de integrados de montaje superficial, o para placas
con alta densidad de componentes de montaje superficial. Lo adecuado, en tal caso es usar
soldadura por refusión. Con soldadura automática, hay dos aspectos que deben cuidarse
especialmente:
• El ángulo determinado por el eje longitudinal del componente con respecto a la dirección
de transporte de la placa de circuito impreso. Esto evita defectos de soldadura o de rotura
(crack) por choque térmico. Si el encapsulado tiene patitas sobre los cuatro lados debe
montarse a 45º respecto a la dirección de transporte de la placa, y el eje longitudinal de
los dispositivos con encapsulados del tipo SO debiera quedar paralelo al flujo de la
soldadura.
• El perfil de variación de la temperatura con el tiempo, con etapas de precalentamiento
previo a la soldadura para reducir el choque térmico y el alabeo de la placa. Cada
componente tiene un perfil específico para cada tipo de soldadura, figura 29.

Fig.29

223
224 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Variaciones operativas
La variación ∆Xvar.op toma en cuenta las variables operativas tales como temperatura,
presión, humedad, tensión, etc., que resulten influyentes. La influencia de estas variables
operativas se mide a través de coeficientes específicos. Actualmente, la tensión no es un factor
a considerar en la mayoría de los casos, dada la facilidad y el bajo costo con que se
implementan reguladores de tensión, por lo cual mayormente los factores a considerar serán la
temperatura y la humedad.
Las variaciones operativas pueden ser tratadas por:
1. selección de componentes de baja sensibilidad frente al conjunto de variables operativas.
Esta es en la mayoría de los casos una solución cara.
2. reducción de la sensibilidad, imponiendo valores adecuados para otros componentes del
circuito, cuando existan grados de libertad que así lo permitan
3. aislamiento o estabilización frente a la variable operativa: tensión, humedad, temperatura,
vibración (generación de carga estática por roce entre partes), golpeteo (fuente de
microfonismo en receptores), etc. Si el elemento es función de la temperatura, entonces se
fuerza a que el sistema opere a una temperatura constante, por ejemplo poniéndolo dentro
de una cámara térmica. Si la característica del elemento es función de la humedad entonces
se debe implementar una buen aislamiento respecto al ambiente, usando módulos estancos
o por sellado o aplicación de un barniz aislante. De la misma forma se usaran reguladores,
para aislar de las variaciones de las fuentes de alimentación, especialmente las tensiones de
polarización de dispositivos activos. Si existe posibilidad de que el roce por movimiento de
cables de lugar a ruidos, debido a la generación de carga estática, se deberán trabar los
cables.
4. compensación de la variación, lo cual puede realizarse:
a. por hardware
i. compensación automática
1. seleccionando los otros componentes que participan en la
característica de modo que tengan comportamiento contrapuesto
2. agregando otros componentes o dispositivos con características
contrapuestas
ii. compensación manual, haciendo un ajuste o compensación previa al uso.
Esto es frecuente en instrumentación y podrá hacerse cuando se disponga de
elementos de referencia que sean muy estables, contra los cuales se hace el
ajuste.
b. por software, lo cual requiere contar con un sensor que responda a la variable de
incidencia y permita corregir la característica de interés
La incorporación de software en el control de muchos dispositivos analógicos permite
de un modo sencillo nuevas vías de compensación.

Estabilidad con el tiempo. Fallas paramétricas


Con el transcurso del tiempo se produce un corrimiento ∆Xtiempo que provoca una falla
paramétrica, consecuencia de la degradación paulatina del elemento, figura 30a. Esto la hace
previsible, a diferencia de las fallas catastróficas, que son repentinas, figura 30b.

X falla paramétrica falla catastrófica

Xlimite Xlimite

tfalla t tfalla t
Fig.30
a) b)

224
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 225

Por lo general los componentes con bajas tolerancias y bajos coeficientes de


temperatura tienen a su vez muy baja degradación con el tiempo. Este es un punto importante:
En una buena solución los diversos factores de tolerancias debieran estar equilibrados.
X X m a x a d m is ib le X
M e d ia

X m in a d m is ib le Variacion
admisible en X

t t
in s ta n te d e fa lla
tiempo de
asentamiento
Fig.31 Fig.32

Si la dispersión alrededor de su comportamiento medio es baja, la falla paramétrica se


podrá tratar en forma determinística, en base al comportamiento medio. Cabe distinguir dos
casos:
• la variación es gradual
• la variación sigue una ley logarítmica
Si la variación es gradual es posible anticipar el momento en que sobrevendrá la falla
y programar acciones de prevención para evitarla, figura 31.
La ley logarítmica se reconoce porque existe una gran variación al principio, para
luego estabilizarse una vez producidos reacomodamientos internos en el material, figura 32. En
un comportamiento de este tipo, la variación de la característica X sigue una ley del tipo
∆X t (6)
= k . log( )
X to

por lo cual el corrimiento entre los instantes t1 y t2 será el mismo mientras se mantenga la
relación t2/t1. Es decir, se tiene igual cambio en la característica entre la hora 0.1 y la hora 1,
que entre la hora 10000 y la hora100000.
Entre los componentes que tienen una ley de variación con el tiempo de tipo
logarítmica se cuentan mayormente algunos semiconductores, cristales piezoeléctricos, y
cerámicas magnéticas y dieléctricas. En este caso conviene hacer un envejecimiento prematuro,
un proceso de pre-asentamiento previo al uso.

X
X

Tolerancia
inicial X1
p(x)

T=0
a
T=H
X

H t F (Xi,H) 1 F(Xi)

Fig.33 Fig.34
Si la dispersión de los componentes alrededor del comportamiento medio es grande,
es necesario recurrir a un tratamiento probabilístico. Supongamos que se evalúa el corrimiento
a lo largo del tiempo de la característica X de un componente, y ello lleva a una curva como la
a de la figura 33. Si se repite la evaluación sobre otros componentes resultaran distintas curvas,
una por realización, figura 33. Con el conjunto de todas ellas se puede determinar el
comportamiento estadístico al cabo de H horas; es decir, hallar la función de distribución de la
característica X al cabo de H horas de uso, figura 34. Con esta curva, es posible hacer una
predicción de fiabilidad basándose en el método de simulación de Monte Carlo.

225
226 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Es decir, si Emin es el valor mínimo y Emax el valor máximo de la especificación


correspondiente a la característica Ci, entonces si se dispusiera de la función de distribución de
Ci a las H horas de uso, F(Ci ,H), figura 35, se podría determinar el valor de la fiabilidad
paramétrica como
R(H) = F(Emax, H) – F(Emin, H) (7)
Como la característica Ci es función del valor de los componentes X1,X2,...,Xn,
C i = f ( X 1, X 2 ,... X n) (8)
para obtener la función de distribución de Ci es suficiente conocer los valores que toman cada
una de las variables X1,X2,...,Xn en posibles realizaciones al cabo de H horas. Esto requiere
conocer la función de distribución de cada componente a efectos de simular posibles
realizaciones. Se asignan para ello valores aleatorios como argumento en las funciones de
distribución inversa correspondientes a cada componente, de las cuales resultan los valores
X1,X2,...,Xn de la realización. Conocido el valor de los componentes, la expresión (8) permite
determinar el valor de la característica Ci. Repitiendo el proceso un número elevado de veces,
con los valores de Ci obtenidos se puede hallar la distribución de la característica al cabo de H
horas, y conocida la misma, obtener la fiabilidad paramétrica, figura 35.

Técnicas para mejoramiento de la estabilidad


Cuando la dispersión es baja, la solución pasa por:
• Descarga de componentes, con lo cual se reducen las variaciones al cabo de H
horas
• Acciones de mantenimiento preventivo: lo cual se puede hacer
o cambiando los componentes antes que se manifieste la falla paramétrica,
o haciendo reajustes periódicos.
• Monitoreo2 de la variación, bien sea en forma automática o periódica. La acción de
monitoreo busca aprovechar al máximo el componente, evitando el cambio prematuro,
figura 36. El tiempo de monitoreo puede ser función de la tendencia de cambio del
componente con el tiempo, según resulta de las verificaciones pasadas. La primer
verificación, en el instante t1, dará pautas para determinar el momento de la
verificación siguiente, instante t2, de modo de anticiparse a la falla, y extender el uso
del elemento.
• Regulación automática, en base a un patrón o referencia, como es el caso del cabezal
lector láser de un reproductor de CD
F(Ci ,H)
X

limite para
R(H) la falla

t
Emin Emax Ci t1 t2

Fig.35 Fig.36

La descarga es siempre un medio efectivo para prolongar el tiempo para la falla,


especialmente si la reducción de carga no incrementa significativamente el costo,
comparándolo con los costos de una mayor frecuencia de recambio. Desafortunadamente son
pocos los fabricantes que suministran datos que permitan llevar el diseño en esta dirección.

2
ver pagina 162

226
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 227

Tolerancia inicial: Métodos de diseño


La forma en la que se combinen las tolerancias totales de los componentes del circuito
determinara que este siga cumpliendo la especificación. Como cada componente esta sujeto a
distintos factores de tolerancia, habrá que establecer por un lado la tolerancia de cada uno, y
por otro balancear los distintos efectos que la forman. Los distintos factores de tolerancia por lo
general están bastante equilibrados, dado que no tendría sentido por ejemplo tener un
componente de baja tolerancia inicial con pobre estabilidad. Tomando como ejemplo el caso de
resistores de película metálica, un fabricante ofrece una guía para la selección con valores de
tolerancia que varían según sea el coeficiente de temperatura, tabla I. Se observa, como se
muestra en la figura 37, que ambas características guardan cierta correlación entre si.
TABLA I
Coeficiente de Tolerancia
temperatura (%)
2
200 ppm
1
2
100 ppm 1
0.5
0.1
50 ppm 0.5
0.25
1
25 ppm 0.5
0.25
0.1 Fig.37

Es cierto que algunos de los factores de tolerancia pueden ser eliminados o


controlados fácilmente, como pueden ser los derivados de variaciones operativas o los de
proceso; pero eso tendrá sentido en la medida en que ello no incremente el costo. No es lo
mismo resolver el problema de la variación con la temperatura estabilizando el ambiente que
haciendo una compensación entre distintos elementos del circuito. Lo cierto es que el
proyectista puede y debe actuar sobre todos los factores de tolerancia: estabilizando,
reduciendo la carga, controlando el proceso, y por selección de la tolerancia inicial.
La tolerancia inicial de cada componente resultara de un balance entre la tolerancia
total permitida, y la que resulta de los demás factores,

∆X tolerancia inicial
= ∆X total
− ∆X( deg radacion
+ ∆X proceso
+ ∆X operativa
) (9)

haciendo jugar la cuestión económica en esta repartición.


X

p(X) p(X) p(X)

≡ +
p(X)

X X X 1 2 3 4 5 6
X

lotes

Fig.38 Fig.39

La tolerancia inicial es consecuencia del proceso de fabricación del componente, y


tiene carácter aleatorio. Cuando son muchos los factores incidentes y con influencia similar, la
función de distribución de la tolerancia inicial tendrá carácter gaussiano. Pero, puede haber un
factor sistemático, causa especial, que hace que la función de distribución sea arbitraria. Por
ejemplo porque se practico una preselección del lote original gaussiano, figura 38, o bien
debido al desgaste de una herramienta, que causa una variación continua del valor medio de
lote a lote, figura 39; con periódicos cambios o ajustes de la herramienta, resultara una función
de distribución uniforme para el conjunto de lotes.

227
228 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Método de peor caso: Intercambiabilidad Total


El diseño de circuitos electrónicos por muchos años se limitaba a calcular el valor
nominal de los componentes, o bien buscaba encontrar una solución para el peor de los
escenarios: que todos los componentes estén situados en su valor extremo, y que se combinen
siempre los extremos para ocasionar la mayor variación.
La primer posición de diseño parte de suponer que la función de densidad de
probabilidad responde a una función delta de Dirac, figura 40. La otra posición supone una
función doble delta de Dirac, figura 41, y no considera la distribución resultante de combinar
estas; solo contempla el caso extremo que provoca el mayor apartamiento, poniéndose en el
peor caso.
p(X)
p(X)=δ (X o) ½.δ (X o (1-t) ½.δ (X o (1+t)
. .

Xo X Xo(1-t) Xo Xo(1+t)

Fig.40 Fig.41

El método del peor caso tiene la ventaja de la simplicidad, y asegura además que todas
las realizaciones van a cumplir con la especificación, pero lleva a un gran desaprovechamiento
de los elementos. Esto no tiene importancia en casos bien definidos:
• se trata de pocas realizaciones, donde un tratamiento mas elaborado no redundaría en
beneficio alguno
• el circuito esta compuesto por pocos elementos
• el costo de los elementos no es muy sensible a la tolerancia de los mismos
• el circuito de por si es muy robusto frente a la variabilidad de los elementos
• las exigencias se restringen a pocos elementos, los que además son económicos
• las tolerancias exigidas a los elementos para que el circuito entre en especificación
son muy amplias
Alguna de las situaciones anteriores se da normalmente en las soluciones digitales, y
también en las soluciones analógicas que recurren a la realimentación como medio para
trasladar la alta exigencia de tolerancia solo a los elementos del lazo de realimentación.
La fuerza del método reside en el concepto de intercambiabilidad total, que asegura
siempre el funcionamiento con los recambios de mantenimiento, y simplifica notablemente la
manufactura, por no requerir ni acciones de control, para segregar los elementos que estén
fuera de especificación por diseño, ni acciones de ajuste para entrarlo en especificación.
El proceso de solución para una intercambiabilidad total comienza por asignar la
tolerancia a los componentes más caros y de mayor sensibilidad en el costo respecto a la
tolerancia. Luego, quedara impuesta la tolerancia de los otros elementos de modo de satisfacer
la especificación. El método en si, aunque no directo, requiere tan solo buscar la mejor
distribución de tolerancias para los diversos componentes y determinar el costo asociado a esa
solución, pero siempre satisfaciendo la especificación en el 100% de las realizaciones.
La asignación de la tolerancia de cada componente debiera hacerse buscando el
mínimo costo total, vale decir, el mínimo de
Costo = Costo ( X 1 , t X 1 ) + Costo ( X 2 , t X 2 ) + ...... + Costo ( X n , t Xn ) (10)
sujeto a las restricciones
E n = f 1 ( X 1 , X 2 ,...., X n ) (11)
t E = f 2 ( t X 1 , t X 2 ,........, t Xn ) (12)

228
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 229

Este método supone considerar para cada componente tan solo dos valores posibles:
Xn(1-t) y Xn(1+t), y que existe un espectro de tolerancias discreto dentro del cual se debe optar.
Pero aun así la solución no es tan directa como a simple vista parece. Solo lo será cuando se
trate de componentes de igual tipo y con igual sensibilidad sobre la especificación, o cuando el
número de componentes del circuito sea reducido, o bien, si el número de componentes
susceptibles de tomar distintos valores de tolerancia, que determinan el costo de la solución y
tienen una mayor sensibilidad costo/tolerancia, se limitan a unos pocos. De todos modos,
siempre el espectro de soluciones se ve reducido a los valores discretos de tolerancia que puede
tener cada componente, y a la sensibilidad costo/tolerancia.
En general se trata de que la tolerancia de los componentes menos críticos ( por su
disponibilidad, costo y sensibilidad costo/tolerancia) sean la variable de ajuste. Pero esta
condición no lleva sin embargo a una solución directa, salvo casos simples.
Para hacer la asignación de tolerancias conviene previamente determinar la
sensibilidad del circuito a los distintos parámetros. Para simplificar el análisis, supongamos que
la especificación E es función de solo tres parámetros del circuito: X1, X2, X3, o sea
E = f ( X 1, X 2, X 3) (13)
La sensibilidad del circuito a un componente mide la variabilidad relativa en la
especificación provocada por una variación relativa en el valor del componente. Este valor es
útil para asignar la tolerancia de cada componente. Para hallar la sensibilidad al componente i
se varía su valor desde Xio a un nuevo valor Xin, tal que
X = X + d . X = X .(1 + d ) (14)
in io io io

donde d mide un incremento diferencial suficientemente bajo, de modo que


Xi − Xio ∆ Xi (15)
= = d
Xio Xio

De (13) surge que si cada componente i tiene una tolerancia ti entonces


⎛ ∂E i ⎞
∆E E − Eo 1 ⎛ ∂E ⎞ ⎜ ⎟ ⎛ ∆ Xi ⎞
Eo
= n
Eo
=
Eo ∑ ⎜ ⎟ .∆ Xi =
⎝ dXi ⎠
∑ ⎜
⎜ d
Eo
⎟ .⎜
⎟ ⎝ Xio ⎠
⎟= ∑ SE Xi .ti (16)
⎝ ⎠
estando por tanto, para ese circuito, el coeficiente de sensibilidad al componente Xi dado por
∆E i
Eo (17)
SE Xi =
d

Esto implica que si los coeficientes de sensibilidad fueran conocidos, se podría


determinar el corrimiento de la especificación para un apartamiento cualquiera de las variables;
este conocimiento ayuda además a realizar la repartición de tolerancias.
La determinación de SE/Xi por medio analítico puede resultar una tarea compleja desde
el punto de vista del calculo, pero su determinación mediante una herramienta computacional,
como MatLab, es una tarea muy simple. Primero se determina Eo para el juego de variables,
X = [ X1o X2o X3o ] (18)
que corresponde a componentes con su valor nominal, y luego el nuevo valor que asume
cuando se varia solo X1, o solo X2, o solo X3 en un diferencial relativo. Es decir, el conjunto de
nuevos valores para los cuales se debe calcular la especificación si se variara X1 será,
X = [ X1o .(1+d) X2o X3o ] (19)
mientras que si fuera el componente 2 o el 3 el que se varia, serian los juegos de valores
X = [ X1o X2o.(1+d) X3o ] (20)

X = [ X1o X2o X3o .(1+d) ] (21)

229
230 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Esto define una matriz de variación Q, tal que

X n1 1+ d 1 1 X 1o X 1o
X n2 = 1 1+ d 1 .X 2o = Q. X 2o (22)
X n3 1 1 1+ d X 3o X 3o

En base a esta matriz Q se calculan los coeficientes de sensibilidad, obteniéndose así


el vector de sensibilidades
S = S E X1 S E X 2 S E X 3 (23)
1 E ( X 1 o .Q 11 , X 2 o .Q 12 , X 3 o .Q 13 ) E ( X 1o .Q 21 , X 2 o .Q 22 , X 3 o .Q 23 ) E ( X 1o .Q 31 , X 2 o .Q 32 , X 3 o .Q 33 )
= . −1 −1 −1
d E ( X 1o , X 2 o , X 3 o ) E ( X 1o , X 2 o , X 3 o ) E ( X 1o , X 2 o , X 3 o )

Estos valores de sensibilidad nos orientan en dos aspectos:


• Por su magnitud, a los efectos de asignar tolerancias mas estrechas cuando se tienen
sensibilidades mas altas,
• Por su signo, útil para determinar los valores que llevan la especificación a un valor
extremo para tolerancias asignadas
El máximo valor de la especificación se halla tomando la tolerancia de cada
componente con el signo que resulta de la sensibilidad, y el mínimo invirtiendo los signos de
todas las tolerancias respecto de la condición anterior.
El método de diseño del peor caso se remite a imponer una tolerancia criteriosa para
los componentes y comprobar que se satisface el rango admitido de variación; de no ser así,
habrá que estrechar la tolerancia de algunos componentes atendiendo a los criterios ya
mencionados.
Este método lleva a una capacidad de proceso que será función de la asignación de
tolerancias y de como sea la función de distribución de las mismas. Supóngase el caso de una
red serie de n resistores de igual valor y tolerancia, y supóngase que los componentes tienen
una función de distribución normal, con una capacidad de proceso Cp=4/3. Dado que
∆R 2 . R n .t R 4
C = = = (24)
6 .σ R 6 .σ R
p
3
de donde resulta
R n .t R (25)
σ R =
4
de modo que el desvío estándar de la red de resistores estará dado por
n . R n .t R (26)
σ = n .σ R =
4
Como el rango de la especificación para el peor caso debe ser
∆ R t = n . R n . 2 .t R (27)

de modo que por aplicación del método del peor caso se obtiene
∆Rt 2 . n . R n .t R 4
Cp = = = . n (28)
6 .σ 6 . n . R n .t R 3
4
que determina una capacidad de proceso superior a la capacidad de sus componentes. Además,
se ve que la capacidad de proceso mejora con el aumento de la cantidad de componentes. Estos
resultados son de validez general, y resultan al considerar como limites para la especificación
los que resultan de combinar los valores extremos de los componentes, lo cual siempre será un
evento raro, y consecuentemente redundara en un estrechamiento de la dispersión de la
especificación.

230
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 231

Diseño probabilístico: Intercambiabilidad Parcial


La técnica de intercambiabilidad parcial es un método probabilístico, y por tanto
aplicable a producciones masivas o seriadas. El objetivo es poder utilizar componentes de una
mayor tolerancia que la que resultaría de aplicar el método de íntercambiabilidad total,
logrando así un mayor rédito económico. El método supone que el circuito puede no satisfacer
la especificación, aun estando los componentes dentro de su especificación. Aceptar que de
proceso resulten plaquetas que no cumplen con la especificación no significa que el usuario
vaya a recibir plaquetas defectuosas: Las que no entren en especificación son rechazadas en el
proceso de comprobación, figura 42, para luego ser descartadas o retrabajadas.

p(C)
Si
rechazos rechazos
Proceso ¿Cumple?
FTQ
No
∆E/σc C
Fig.42 Fig.43
El método del peor caso supone para los componentes el valor extremo que
corresponde a su tolerancia, cuando en realidad muy pocos estarán en esas condiciones, y a la
vez, la probabilidad que se de la peor de las combinaciones será aun mas reducida. Frente a
este planteo caben las dos opciones siguientes:
• Hallar una solución que sea optima bajo el criterio económico, sin importar el
rendimiento de la implementación ( el primer índice de calidad, el FTQ )
• Satisfacer el criterio económico, sujeto a la restricción de una dada capacidad de
proceso
Supongamos conocido el valor del desvío estándar para cada uno de los parámetros
que participan en la característica de interés, por lo que
C = f ( x 1 , x 2 ........ x n ) (29)
∂f
∆C = ∑ .∆ x i (30)
∂xi
2
⎛ ∂f ⎞
σ 2
C = ( )
∑ ⎜⎜ ∂ x ⎟⎟ . σ x i
2 (31)
⎝ i ⎠

En virtud del teorema del límite central, la distribución resultante será de tipo
gaussiano. Por tanto, conocida la varianza de cada parámetro se puede calcular la varianza de
la característica, y en función de ∆ E / σ C se puede calcular el rendimiento de fabricación FTQ,
figura 43, suponiendo centrada la característica, por la relación entre las plaquetas que no
requieren retrabajo, finalizado el proceso de armado, respecto al total de plaquetas armadas.
En vez de buscar el menor costo de fabricación, sin otra restricción, el método puede
ser aplicado de modo que además la solución satisfaga un requerimiento de capacidad de
proceso. En este caso, determinado el costo resultante para una asignación de tolerancias, se
debe repetir el cálculo con otras asignaciones que cumplan con la capacidad de proceso
requerida, buscando la solución de costo mínimo. Estas opciones deben intentarse variando la
tolerancia de aquellos componentes con alta variación de costo con el cambio de tolerancia.
El tratamiento se puede simplificar teniendo en cuenta que de la expresión ( 16 ) se
deduce
∆X i

∆E = E o . S E Xi .
X io
(32)

de la cual resulta

231
232 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

2
σ Xi
σ ∆2E = E o2 . ∑ S E2
X io2
Xi .
(33)

Como se ha visto al tratar el tema de calidad, los fabricantes de componentes


trabajan con el criterio de los “α sigma”, donde α varia de 3 a 6, lo cual implica que en
general será
σ Xi = α . X oi .t i (34)
Si se adopta igual criterio de α sigma para la especificación, lo que implica
trabajar sobre la base de un criterio de capacidad de proceso, resulta

∆E = α .σ ∆E = E o . (∑ S 2 2 2 1/ 2
E Xi .α .t i ) (35)
de lo cual se deduce la tolerancia resultante de la especificación
∆E
Eo
= (∑ S 2
E Xi ..t i )
2 1/ 2
(36)

Veamos su aplicación al caso de la red de n resistores de igual valor y tolerancia


conectados en serie, suponiendo que tienen una capacidad de proceso Cp=4/3, o sea
∆R 2 . R n .t R 4
C = = = (37)
6 .σ R 6 .σ R
p
3
de la cual resulta
R n .t R (38)
σ R =
4
de modo que el desvío estándar de la red de resistores es
n . R n .t R
σ = n .σ R = (39)
4
En este caso, como se impone el valor de la capacidad de proceso,
∆Rt 4
Cp = = (40)
6 .σ 3
teniendo en cuenta (39), resulta un rango para la especificación
4
∆Rt = . 6 .σ = 2 n . R n .t R (41)
3
pero, como además el valor nominal de la resistencia total esta dado por
R tn = n . R n (42)
resulta
∆Rt t 2
= 2. R = .t R probabilis tico (43)
Rt n n
mientras que si se aplicara el método de intercambiabilidad total debería ser
∆Rt (44)
= 2 .t R peor caso
Rt
de modo que para igual especificación, si en el método de intercambiabilidad parcial se impone
mantener la capacidad de proceso, las tolerancias de los componentes están relacionados por
t R probabilis tico (45)
t R peor caso =
n
En el diseño se plantea el problema inverso: Fijado un rango para la especificación, se
trata de asignar una tolerancia para los componentes que sea óptima, jugando con los
coeficientes de sensibilidad y los costos relativos de los componentes. El método de solución
raramente será directo, porque debe contemplar la función de distribución de cada componente,
la cual, además de ser arbitraria, puede estar descentrada de su valor nominal.

232
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 233

El tratamiento probabilístico más general lo provee la simulación de Monte Carlo, con


la cual se puede determinar el rendimiento para una asignación dada de tolerancias. Para ello es
necesario conocer la función de distribución de todos los componentes que participan en la
característica. Luego simulando valores para cada uno de estos, obtenidos a través de la
generación de números aleatorios, se determina el valor de la característica de una posible
realización, haciendo el reemplazo en la expresión correspondiente, expresión (29).
Repitiendo el proceso un número suficientemente elevado de veces, se puede obtener
la distribución a la cual responde la característica, figura 44, y su rendimiento, proporción de
simulaciones que cumplen con la especificación, o sea tales que
E min < C < E max (46)

Obtenido el rendimiento, se puede determinar el costo de la solución. En el caso en


que las plaquetas rechazadas se retrabajen, el costo de cada plaqueta será
Costo_plaqueta = Costo_proceso + ( 1 - η ) . Costo_reproceso (47)
Si en cambio las que no cumplen la especificación se desechan, el costo de cada
plaqueta estará dada por
Costo_plaqueta =
1 . Costo_proceso (48)
η
Variando la tolerancia de los componentes que tienen mayor sensibilidad de costo
frente a la tolerancia, se podrá obtener el costo de otra solución. Si este resultase superior, se
deberá realizar otro intento en sentido opuesto, y continuar hasta encontrar la solución de
mínimo costo, figura 45.

F(C)
1 C o s to
to ta l

η = FTQ

O p tim o

Emin Emax C T o le r a n c ia d e l
c o m p o n e n te i

Fig.44 Fig.45

El método de simulación de Monte Carlo es útil también cuando se debe hallar una
solución que debe además cumplir con una dada capacidad de proceso. Simplemente, se
verifica la capacidad de proceso por la relación entre el rango admitido para la especificación y
el desvío estándar de la característica obtenido con los valores de la simulación. La solución
óptima será en este caso aquella que al menor costo satisface la exigencia de capacidad de
proceso.

Método de selección por grupos


Otra técnica que permite reducir la variabilidad debida a la tolerancia inicial consiste
en preclasificar los componentes en subgrupos, de modo que si t es la tolerancia inicial, los
componentes clasificados en cada uno de los subgrupos pasan a tener una tolerancia t/n. Es
decir, el rango de dispersión inicial pasa de ser
∆X i m = ti .X i (49)
a ser
ti (50)
∆xim = .X i
n

233
234 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Supongamos en principio que la característica dependa de solo dos variables X1 y X2,


C = f (X 1, X 2 ) (51)
entonces
∂f ∂f
∆C = ∆X 1 + ∆X 2 (52)
∂X 1 ∂X 2

Esta expresión muestra que para obtener una compensación exacta debería ser
∂f ∂f
∆X 1 + ∆X 2 = 0 (53)
∂X 1 ∂X 2

lo cual no es posible si ∆X1 y ∆X2 son variables aleatorias independientes.


Supongamos clasificados los componentes en 2n+1 grupos, de modo que el valor X1
de un componente del subgrupo j satisface la relación
(54)
X 1 = X o + ∆X j = X o + x j + ∆x
donde xj mide el apartamiento de la media de los componentes de ese subgrupo con respecto al
valor que debiera tener X1 para cumplir con la especificación, Xo, figura 46.
2 ∆xm ∆x

∆ xm
x -k -1 1 k subgrupo
Xo X1
xj X1
+ ∆Xj x- k x -1 Xo x1 xk

+ ∆ Xm

Fig.46 Fig.47

A cada subgrupo k le corresponderá un subgrupo –k, ubicado simétricamente con


respecto al valor nominal, que se supone centrado, figura 47. Si ahora se combina cualquier
elemento del subgrupo j del componente X1 con otro elemento del subgrupo k del componente
X2, habrá un corrimiento en la característica dado por
∂f ∂f
∆C = .( x 1 j + ∆ x 1 s ) + .( x 2 k + ∆ x 2 s ) (55)
∂X 1 ∂X 2
que dependerá del valor de las nuevas variables aleatorias ∆x, y los valores prefijados de j y k.
Si los elementos del grupo j se combinan exclusivamente con los elementos del grupo
k, la variabilidad de este conjunto se reduce n veces con respecto a la que se tendría sin
clasificar, pero su valor medio podrá estar desplazado con respecto al valor nominal de la
especificación. Para que esto no ocurra, los subgrupos a combinar deben ser elegidos para
lograr que
∂f ∂f
.x1 j + .x 2k = 0 (56)
∂X 1 ∂X 2
de modo que fijado el subgrupo j de X1, el subgrupo k de X2 debe elegirse para satisfacer
∂f
x1 j = − ∂ X 2 .x 2 k
∂f (57)
∂X 1
lo cual implica que a un subgrupo de X1 que esta por encima de su valor nominal le
corresponderá un subgrupo de X2 ubicado por debajo de su valor nominal, figura 48.

234
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 235

∆x1m p(x)
-k -1 1 k subgrupo

X1
x1- k x1-1 X1 o x11 x1 k X

∆x2m a)
-k -1 1 k subgrupo p(C)

X2
x2- k x2-1 X2 o x21 x2 k C

b)
Fig.48 Fig.49

En particular, al subgrupo de X1 cuya media es la más apartada del valor nominal


(x1m), le corresponderá un subgrupo de X2 que será también el más apartado, (x2m), pero en
sentido opuesto; es decir
∂f ∂f (58)
.∆ x 1 m = − .∆ x 2 m
∂X 1 ∂X 2
de lo cual resulta
∂f ∂f
. X 1 o .t 1 = . X 2 o .t 2 (59)
∂X 1 ∂X 2
expresión que requiere que las tolerancias verifiquen la relación
∂f
t1 X 2 o ∂X 2 (60)
= .
t2 X 1o ∂f
∂X 1

Como la cantidad de subgrupos debe asegurar la variabilidad impuesta para la


especificación,
∂f ∂f
∆ x1 + ∆x2 ≤ ∆E o (61)
∂X 1
m
∂X 2
m

y como además debe ser


∆ x1m =
∆ X 1m
=
2 .t 1 . X 1 o (62)
2n + 1 2n + 1
∆X 2m 2 .t 2 . X 2
∆ x 2m = = o
(63)
2n + 1 2n + 1

resulta, en el limite, de la expresión (61)


⎛ ⎞⎡ ∂f ∂f (64)

2
⎟⎢ . (t 1 . X 1 o )+ . (t 2 . X 2 )⎤⎥ = ∆E
⎝ 2n + 1 ⎠⎣∂X 1 ∂X 2
o o

expresión que permite calcular el numero de subgrupos g,


(65)
g = 2 .n + 1
y con ello el rango, o máxima variabilidad, de cada subgrupo,
∆ x1 =
∆ X 1 m (66)
m
g

Si la cantidad de subgrupos es grande, prácticamente puede asumirse que cada


subgrupo responderá a una distribución uniforme, figura 49a. Como consecuencia, la
característica que resulta de combinar los distintos subgrupos tendera a una distribución
triangular, figura 49b, en todos los casos con igual valor medio y rango.
Cuando la característica relaciona dos variables X1 y X2 en la forma
C = X .X (67)
1 2

235
236 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

ó
X1
C = (68)
X 2
como seria el caso de una constante de tiempo, de la frecuencia de oscilación de un circuito
resonante, de la ganancia de un circuito realimentado, etc., si la clasificación se hiciera de
modo que todos los grupos tuvieran igual rango, en tal caso no se mantendrían los limites de
variación de los distintos subgrupos; es decir, para que los rangos que resultan para la
característica en los distintos subgrupos sean iguales es necesario que el valor máximo de cada
subgrupo este relacionado con el menor valor de ese subgrupo por igual razón; obviamente,
además, el máximo de un subgrupo debe ser igual al mínimo del siguiente. Esto si bien
mantiene el rango de variabilidad de la característica de los distintos subgrupos, acarrea un
rango de variación para los subgrupos distinto, y por consecuencia, si las distribuciones son
simétricas, quedaran elementos sobrantes, sin posibilidad de combinarse.
Las ventajas del método de selección por grupos se ven limitadas cuando los
componentes responden a distribuciones normales, con alta capacidad de proceso. En estas
condiciones, la población que toma los valores extremos es muy baja, resultando más ventajoso
el método de intercambiabilidad parcial, figura 50, porque se evita el costo de preclasificación.
Solo si la característica depende de un número reducido de elementos, y se usan componentes
con baja capacidad de proceso, conviene el método de selección por grupos, figura 51.

p( ) p(τ ) seleccion intercambiabilidad


por grupos parcial
Fig.50 Dispersion
componentes

τ
R, C
∆x
p( ) p( τ ) seleccion
por grupos

Fig.51
intercambiabilidad
parcial

R, C τ

El método de selección por grupos lleva a generar subpoblaciones con distinta


distribución, y por tanto de distinta capacidad de proceso, la peor corresponde a los subgrupos
centrales, figura 52. Estrechando los límites de clasificación de los grupos centrales, y
aumentando los correspondientes a los grupos ubicados en las colas, es posible obtener similar
capacidad de proceso para todos los subgrupos, y satisfacer una capacidad superior a 4/3,
figura 53, y mejor a la que se tendría con intercambiabilidad parcial.
Rango de dispersion sin clasificar
Rango especificacion para
p(τ ) colas
igual capacidad de proceso

p( τ ) Rango especificacion
para igual tolerancia

centros

τ
τ
Fig.52 Fig.53

236
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 237

Aunque simple, el método de selección por grupos no esta exento de problemas:


• es necesario realizar el esfuerzo de clasificación, lo cual agrega necesariamente un costo
• es solo aplicable a producción seriada, o cuando menos a lotes
• la característica a cumplir debe depender de elementos que permitan el balanceo
• los demás factores de tolerancia deben ser compatibles con la tolerancia inicial; de poco
serviría por ejemplo tener componentes con tolerancia inicial del 1% si por efecto de la
temperatura pueden ocurrir corrimientos del orden del 5%
• si la característica depende de muchas variables, el método pierde eficiencia
• deben poder formarse grupos que permitan el aprovechamiento de todos los elementos
• provee baja capacidad de proceso, y menor a medida que se incrementan los subgrupos
• requiere que en el mantenimiento se usen elementos preclasificados o una recalibración

Método de ajuste por pasos


El método de ajuste por pasos, a diferencia de los anteriores, es una acción a posteriori
del armado. En los métodos previamente desarrollados, la variabilidad del producto queda
impuesta una vez completada la etapa de armado de la plaqueta, figura 54a, mientras que en el
ajuste por pasos a la etapa de armado (que puede o no incluir los componentes ajustables) le
sigue una o dos etapas de ajuste, figura 54b,c, destinadas a bajar la variabilidad, y reducir el
apartamiento de la característica respecto a su valor nominal. Como se vale de elementos
estándar fijos resulta una solución económica, fiable, estable, y poco susceptible a variaciones
operativas.
El método trata de acomodar la variación que resulta de una característica ∆C dentro
del rango de variación impuesto para la especificación, ∆E, valiéndose de un ajuste en pasos
discretos. Esto puede lograrse :
• por hardware, eliminando o agregando componentes dentro de un conjunto dado
• por software, variando el registro de un circuito integrado
El método es adecuado cuando son muchos los componentes que inciden en la
característica, y de tolerancias muy amplias, pues permite controlar la dispersión de todos ellos
seleccionando el valor apropiado Xa de otro (o un grupo de otros componentes).
variabilidad del variabilidad del
componentes X Proceso componentes X Proceso
producto Proceso de producto
de de ajuste
armado armado
a) b)
componentes X Proceso Proceso de Proceso de variabilidad
producto
del
de ajuste ajuste
c) armado etapa 1 etapa 2
ajuste de ajuste de
media varianza

Fig.54
El valor del componente ajustable Xa dependerá del valor que tomen los demás
componentes Xp, cuya incidencia en la característica es conocida, por estar prearmados al
momento de realizar el ajuste. Si al inicio del ajuste se impone para Xa su valor nominal Xao,
como
C = f ( Xp ,......, Xp ,.... Xp , Xa ) (69)
1 j n

bajo el supuesto de que Xa=Xao, resulta que ∆Xa = 0, y por tanto


n
∂f ∂f n
∂f
∆C = ∑1 ∂ Xp
. ∆ Xp j +
∂ Xa
. ∆ Xa = ∑ 1 ∂ Xp
. ∆ Xp j
(70)
j j

de modo que para compensar el corrimiento ∆C debido a los componentes Xp bastaría con fijar
para Xa un nuevo valor dado por,

237
238 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

⎡ n
∂f ⎤ ∂f
Xa = Xa o + ∆ Xa = Xa o + ⎢∆ C − ∑ ∂ X pj
∆X pj ⎥
∂ Xa
(71)
⎣⎢ 1 ⎦⎥
La expresión (69) permite, por cálculo, o simulación de Monte Carlo, obtener los
valores extremos de Xa, Xamax y Xamin, necesarios para cumplir exactamente con la
especificación nominal, Co, habiendo seleccionado los componentes Xp, con su tolerancia. Si
se recurre a la simulación, es posible además conocer la distribución de valores de Xa para
satisfacer la especificación, figura 55a, y en particular que proporción de implementaciones
requerirán valores comprendidos entre dos valores cualesquiera Xa1 y Xa2.
p(Xa) dispersión del componente de
p(Xa) ajuste de valor nominal Xajo

Xa1 Xa2 Xamax Xa Xa1 Xa2 Xa


Xamin Xamin Xa max
Xac Xajo
a) b)
Xajo
Fig.55

El efecto de los componentes Xp es desparramar la característica en un amplio rango,


por lo que el rango de Xa también será amplio. Prefijada una tolerancia para Xa, ta, la cantidad
de valores estándar comprendidos dentro de ese rango estará dada por
log( Xa max / Xa min
n ≈
log( 1 + 2 .t a ) (72)
y el ajuste busca definir cual de ellos es el apropiado para una dada realización. El método
lleva a dos fuentes de apartamiento: Por un lado la diferencia entre el verdadero valor de ajuste
y el valor nominal Xajo, valor que es conocido al momento del ajuste, y por otro la diferencia
entre el valor nominal seleccionado en el ajuste y el valor del componente que sea colocado a
posteriori como resultado del ajuste, y su valor, por tanto, al momento del ajuste es aleatorio. Si
Xar es el valor efectivamente colocado y Xac el que provee compensación exacta, será
∂f ∂f
∆C = .( Xa − Xa )= .(( Xa − Xaj ) − ( Xa − Xaj )) (73)
∂ Xa ∂ Xa
r c r o c o

y en el peor caso, si Xac cae en el limite de la tolerancia, cercano a Xa1, y el valor Xar esta en
el limite opuesto, esto daría el máximo apartamiento,
∂f
∆C = . 2 . t a . Xajo (74)
∂ Xa
con la cual se calcula la tolerancia ta del elemento de ajuste en base al desajuste ∆C tolerado.
Cuando se tienen muchos pasos, puede suponerse que los valores Xac se distribuyen
en forma uniforme dentro del rango de cada paso, y si además los componentes de ajuste son
de alta capacidad de proceso, entonces la característica responderá a una distribución uniforme,
figura 56, y consecuentemente significará una baja capacidad de proceso.
Ahora bien, como (Xac-Xajo) es conocido al momento del ajuste, bastaría agregar un
componente xa de valor
x a = Xa c − Xa jo (75)

para compensar dicho corrimiento, disponiéndolo en una posición, bien sea en serie o paralelo,
según corresponda al signo. Al disponer de dos componentes para el ajuste se reduce el rango
de dispersión y se mejora la capacidad de proceso, figura56.
Es posible también recurrir a otra variante del método, en la cual todos los

238
INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad 239

componentes, incluido el de ajuste sean de igual tolerancia, bajando al mismo tiempo la gama
de valores requeridos para el ajuste, recurriendo a un ajuste en varias etapas. Para n etapas, se
agregaran n componentes adicionales, de un valor
x a = x 1 + x 2 + x 3 + x 4 + .... + x n (76)
donde el valor del componente xj se selecciona en función de los componentes previamente
colocados x1, x2, ..., xj-1, en las j-1 etapas de ajuste previas. En este caso, solo quedara como
valor aleatorio el colocado en la última etapa, que causara una variabilidad muy reducida de
Xa, figura 57, y por tanto de la especificación.
p( ) distribuccion
p( )
con ajuste por distribuccion
pasos sin ajustar

∆Xa /Xa ∆Xa /Xa

Fig.56 Fig.57 Fig.58


El método ideal debiera requerir una gama reducida de componentes, de alta
tolerancia, y posibilitar además el ajuste en una sola etapa. Esto es posible si todos los
componentes son colocados antes del ajuste, y el ajuste elimina los que resulten innecesarios.
Supongamos que 2.∆Xo sea el rango permitido para Xa para satisfacer la especificación, y que
los 2n componentes de ajuste se eligen de modo que el valor xa este dado por
x a = ∆ X o . (− a − n . 2 n − .... − a − 1 . 2 + a 1 . 2 + a 2 . 2 2 + .... + a n . 2 n ) (77)
donde
0 implica que se debe eliminar el componente de valor xi=2i.∆Xo
ai =
1 implica que se deja el componente de valor xi=2i.∆Xo

y su valor se determina de modo que (77) verifique con el menor error posible la
especificación. Con 2n elementos de ajuste se pueden obtener
p = 2 n +1 (78)
pasos de control, lo que permite estrechar el rango inicial en igual medida, figura 58. Los
componentes xi y x-j deben ser elegidos apropiadamente conforme a cada circuito, figura 59.
Luego, basándose en el valor de la característica al momento del ajuste se determina que
componentes deben ser eliminados, figura 60.
8
Eo 6 680K
4 360k
R1 2
180k

- x1 xn
+ R1

Er R2
Tensionantesdeajustar
x -1 x-n
18 18.2 18.4 18.6 18.8 19 19.2

Fig.59 Fig.60
El método tiene dos desventajas:
• en cada realización se usan todos los componentes
• da origen a una distribución uniforme, de baja capacidad de proceso

239
240 INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

Realmente, como el concepto de capacidad de proceso supone una distribución


gaussiana, el mismo no seria aplicable. Sin embargo, su extensión a una distribución uniforme
es consistente con la función de pérdidas de Taguchi. Es que, si la distribución fuera gaussiana,
y la capacidad de proceso superior a 1, muy pocas implementaciones estarán alejadas de la
meta ( es mas, la mayoría estará muy cercana a la meta), mientras que con la uniforme se tiene
igual chance de estar próximos como alejados de la meta, por lo cual la función de pérdidas
será mayor. Su única ventaja es que sus valores extremos están acotados, no así en la
distribución gaussiana. Visto de otro modo, también podría decirse que incrementando el
número de subgrupos, el método tiende a la distribución ideal, que es una función de densidad
delta de Dirac ubicada exactamente en la meta.
Actualmente, mayormente el método se instrumenta por software, prefijando el valor
en un registro, valor que es capturado en el ajuste y guardado en una EEPROM, para luego ser
cargado en la etapa de inicialización, con cada arranque del equipo. Su instrumentación
dependerá de cada circuito; por caso, para el circuito de la figura 59 seria fijando el valor de Er.

Método de ajuste continuo


El método de ajuste continuo es posiblemente uno de los más usuales, pero no es
siempre la mejor solución: El método recurre a elementos más caros, mas voluminosos, menos
fiables, y además en su gran mayoría los elementos ajustables son mas sensibles a la
temperatura, la humedad y a la descalibración. En la medida en que estos factores se quieran
minimizar, aumentan los costos, dado que la solución pasara sin duda por elegir elementos
sellados, de alta estabilidad y con posibilidad de bloqueo mecánico.
En los métodos de ajuste se busca compensar la variabilidad en el valor de los
componentes Xi y la de otras variables Vi que están fuera de control, pero cuya incidencia es
conocida al momento del ajuste, como es el caso de las variaciones debidas a proceso y
tolerancia inicial de componentes, utilizando una variable de ajuste Xa. Es decir, dado que
C = f ( X 1 , X 2 ,.... Xn , V 1 , V 2 ,.. Vm ) (79)
resulta
∂f ∂f ∂f
∆C = ∑ ∂ Xi
. ∆ Xi + ∑ ∂V
. ∆ Vi +
∂ Xa
. ∆ Xa (80)
y si al momento del ajuste se fuerza el corrimiento de Xa en
1 ⎛ ∂f ∂f ⎞
∆ Xa = − . ⎜⎜ ∑ . ∆ Xi + ∑ . ∆ Vi ⎟⎟ (81)
∂f ⎝ ∂ Xi ∂V ⎠
∂ Xa
se compensaran las variaciones de los componentes, tomando en cuenta inclusive el valor que
tomen las variables operativas al momento del ajuste.
Como ventaja del método, un ajuste continuo hace posible que las variaciones debidas
a la inestabilidad de los elementos, variación en el valor de los componentes con el transcurso
del tiempo, puedan corregirse mediante reajustes periódicos; no es este el caso de las
variaciones operativas, que serán por tanto las que, juntamente con los errores debidos a la
instrumentación del ajuste, definirán la variabilidad última de la característica.
El ajuste deberá satisfacer criterios de seguridad, resolución, estabilidad, interacción
con otros ajustes, y demandar bajo tiempo de ajuste, exigencias a veces contrapuestas.
Supóngase que el rango del ángulo de ajuste se limite a 180º, asumiendo un ángulo de incerteza
de αº, compatible con un tiempo de ajuste, y que sea ∆Xar el rango admisible para cumplir la
especificación y ∆Xa la dispersión que resulta de (81), entonces debiera cumplirse
∆ Xa r (82)
α ≤ 180 .
∆ Xa
para validar dicho ajuste.

240
Documentación
Un boceto vale más que mil palabras

Transferencia de Tecnología
La conclusión natural del proyecto de ingeniería es la transferencia de tecnología,
entendiendo como tal al conjunto de actos, documentos y otros elementos (maquetas,
prototipos, etc..), por los que un componente, equipo, o sistema, puede ser "conocido",
utilizado, reparado, fabricado por otra/s persona/s o entidad/es distintas a las que originalmente
poseían estas capacidades técnicas.
La transferencia de tecnología tiene como razón ser un vehículo de formalización de
las relaciones entre el proveedor ( poseedor ) de tecnología y su cliente; y además, permite
poner límites a dichas relaciones, tanto temporalmente como cuantitativamente
En toda transferencia de tecnología están presentes los siguientes componentes:

ƒ DOCUMENTOS:
• Técnicos
• Contractuales ( contratos, compromisos )
ƒ ELEMENTOS:
• Prototipos
• Maquetas
ƒ ACTOS:
• Jurídico-contractuales
• Técnicos (p ejemplo de seguimiento)

El documento técnico
La misión del documento técnico tiene como objetivo servir de transmisor de
información técnica, figura 1. Durante la realización del documento es “clave” tener siempre
presente a QUIEN va dirigido.

Documento
Poseedor Técnico Receptor
de de
Fig.1 información información

Es por tanto importante que en la elaboración de un Documento Técnico se tenga


presente que el mismo reúna las siguientes condiciones:

• Ser capaz de transmitir información técnica


• Facilitar el acceso y localización de la información
• Ser atrayente.
• Ser cómodo.
• Ser transparente.
• Ser directo.
• No ser ambiguo
242 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

y a la vez debe contar con ciertos atributos:


• Estructuración (índice, apartados, ordenación)
• Cuantificación (valoración numérica)
• Precisión (numérica, instrucciones, recomendaciones)
• Complitud (exhaustividad del contenido)
• No redundancia (innecesaria)
• Objetividad (no incluir opiniones sino elementos contrastables)

Como ejemplo de documentos técnicos típicos se pueden citar:


• Oferta de Proyecto (Propuestas)
• Proyecto y Memoria Técnica
• Procedimientos
• Ordenes de cambio de ingenieria (ECO)
• Manuales
• Informes de Finalización (Completion report)
• Informes de Actividad (Progress report)
• Actas de reuniones (Minutes)
• Comunicados (Memorándum)
• Cartas
• Presentaciones orales

El primer paso en la formulación de un documento técnico es definir su estructura.


Una primera jerarquía deberá desglosar en las siguientes partes:
• Identificación:
• Resumen:
• Introducción:
• Descripción:
• Elementos contractuales o vinculantes:
• Conclusiones:
• Anexos:

En esta estructura se debe diferenciar entre los componentes preliminares:

• Identificación: (en portada o similar) Título, compañía, autores, año, versión,


registros
• Prefacio: Introducción general (se omite a veces)
• Resumen: En función de la extensión y naturaleza del documento
• Introducción: Planteamiento general. Objeto del documento. Alcance. Historia.
Antecedentes. Justificación.

de aquellos que son el núcleo del documento técnico, a saber:

• Descripciones:
– Técnica: del “Problema” y de la “Solución”
– Organizativa: Descomposición. Asignación
– Económica: Valoración de elementos
• Elementos contractuales: Plazos, prestaciones, elementos entregables, protocolos,
etc.
• Conclusiones: (Revisión/resumen de los aspectos más notables)
• Anexos: Técnicos. Justificativos. Descriptivos. Documentales

242
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 243

El cuaderno de diseño
Ha sido práctica común por muchos años volcar los resultados de avance del
proyecto en un cuaderno diario de trabajo, denominado cuaderno de ingeniería o cuaderno de
diseño. Este cuaderno, en el cual se asientan todos los trabajos desarrollados, sirve para
generar la documentación técnica del proyecto, y es tal su importancia, que el mismo ha sido
usado para dirimir casos de litigiosidad, sirviendo como prueba legal en conflictos sobre
derechos de patentes.
En el cuaderno se vuelcan las ideas que surgen, los esquemas sobre los que se
trabaja, los circuitos propuestos, los supuestos en que se basan los cálculos, la forma en que se
realizan las pruebas, los resultados de estas, y las conclusiones que se derivan de ellas. El
cuaderno representa el historial completo, y su consulta posterior permite saber porque se han
tomado ciertas decisiones, o cuales son los valores de ciertas características, etc.
En el cuaderno se deben anotar los trabajos desarrollados con los resultados
hallados, tanto los positivos como los negativos. Los resultados que no salen como se predice
en la teoría o no están de acuerdo con algún experimento previo, pueden ser la luz hacia un
nuevo hallazgo. Cuando algo no resulta como se espera, hay una tendencia a excluirlo de la
documentación del trabajo realizado, sin dedicar el menor esfuerzo al análisis de las causas que
motivaron el fracaso del mismo. Pero, por malo que sea el resultado, por el solo hecho de que
haya sido considerado como una idea a probar, merece que sea registrado con todo detalle; al
menos de este modo se sabrá un modo de no lograr el objetivo para el que fue propuesto. En
ciertos casos, en una etapa posterior del proyecto, aparecen dudas sobre aspectos que en su
momento se piensa que no fueron considerados y que parecieran explicar discrepancias. La
respuesta a estas dudas surge de la consulta de los registros que detallan la forma en que se
realizo la prueba, y los supuestos que dieron base a la idea. Obviamente, para que esto sea
efectivo no basta con realizar unas pocas notas. Cuando se procede así, el resultado es que la
consulta arroja mas dudas que luces, resultando ininteligible o bien requiere un gran esfuerzo
para entender anotaciones y resultados, y en casos extremos obliga a rehacer todo el trabajo. Se
ha dicho que un buen cuaderno de trabajo permite reconstruir el proyecto muchos años después
de haberse completado. Esa es la cualidad deseada.
El cuaderno no solo debe registrar los resultados de los trabajos efectuados, debiera
incluir también las ideas que surgen a lo largo del desarrollo y que no son estudiadas en ese
momento. Un buen cuaderno de diseño debiera seguir las siguientes reglas:
• Usar hojas numeradas
• Mantener un índice en las primeras hojas, como referencia de los trabajos
• Realizar las anotaciones en el momento en que se ejecuta el trabajo, en orden
cronológico
• Anotar los resultados favorables y desfavorables, incluyendo las cosas que parecieran
no tener una explicación.
• Si se comete un error, debe cruzarse con una línea, no tacharse o borrarse
• No deben arrancarse hojas
• No deben dejarse hojas en blanco
• Todos los datos deben mantenerse en su forma original: gráficos, fotos, esquemas. Si
hubiera necesidad de replantear algún tratamiento se incluirá respetando el orden
cronológico.
• Los gráficos dibujados a mano alzada, sirven solo para marcar tendencias
• Se debe hacer referencia a los libros, manuales, revistas, notas de aplicación, hojas de
datos, patentes y cualquier otra información que sea usada
• Las anotaciones deben hacerse con tinta, y ser legibles. No se debe escatimar espacio
a las anotaciones. Se debe buscar la mayor claridad posible
• Firmar y fechar cada entrada el mismo día en que se realiza

243
244 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

Por años a los ingenieros de desarrollo llevar el cuaderno de trabajo les insumía un
tiempo importante, especialmente cuando se debían volcar muchos datos, procesarlos y luego
construir gráficas para interpretarlos. Actualmente, hay disponibles paquetes específicos
dedicados a la administración de proyectos, con los cuales se lleva un registro de archivos
electrónicos, combinando los diversos paquetes de CAD, siendo el cuaderno solo un asiento de
las ideas que se manejan, los conceptos principales, y los bosquejos o esquemas básicos. El uso
de asientos electrónicos facilita el intercambio de información entre todos los integrantes de un
equipo de desarrollo de modo rápido y seguro. Es tal la potencialidad actual que muchos
proyectos son llevados a cabo por un equipo de trabajo cuyos integrantes se encuentran
físicamente dispersos en distintos países, actuando peso a ello como si todos trabajaran en un
mismo recinto.
Con CAD incrustados dentro de un sistema de administración de proyectos, es
posible llevar a su estado final la documentación final del proyecto. Es decir, el esquemático
del circuito podrá existir en el cuaderno de ingeniería en la forma de boceto, mientras se esta
elaborando, pero luego debe ser llevado a formato electrónico con un CAD apropiado ( Protel
(Altium) , Orcad (Cadence), Mentor, Cadstar, etc), con lo cual se facilitan las simulaciones,
verificaciones y posteriores correcciones, garantizando su consistencia. Esta documentación
integrara la Documentación Técnica del proyecto ( el como ), mientras que el cuaderno de
ingeniería servirá de apoyo para elaborar la memoria final del proyecto ( el porque ), y será
además un registro que marcara la evolución del proyecto.

Ayudamemorías
Cuando se trabaja en un área específica de diseño con frecuencia se debe enfrentar un
mismo tipo de problemas, como es el caso de equipos para la industria automotriz, equipos
para electromedicina, equipos de comunicaciones, etc, y en tales casos suele ser de ayuda
contar con una ayudamemoria.
Una ayudamemoría es un listado de puntos que deben ser considerados cuando se
esta trabajando sobre un problema particular. Cuando para estos puntos se ha establecido y
consolidado una solución, la misma pasa a integrar una regla de diseño, o un listado de
verificaciones.
La ayudamemoría, es además, una ayuda importante para la tarea de planeamiento, y
es usada en forma rutinaria en muchas áreas. De no existir, puede ser de gran utilidad armar
una, la cual se ira engrosando con el tiempo. Esto ocurrirá, cuando en el desarrollo de un
proyecto se encuentra algún problema imprevisto, lo cual es una buena oportunidad para pensar
si el mismo debe ser incluido en la ayudamemoría.

La oferta de proyecto
La Oferta de Proyecto puede surgir como respuesta a una petición, o bien ser una
propuesta no solicitada. Cualquiera sea el caso debe siempre:
• Ser un documento para convencer (ganar un proyecto).
• Describir los "retos" (problemas) a afrontar (resolver).
• Proponer objetivos, soluciones y metodología, y
• tener un tamaño en relación con la complejidad (y presupuesto)
La Oferta de Proyecto debe separar el contenido conceptual:
• Objetivos del proyecto ¿Para qué? ¿Por qué?
• Descripción y especificaciones ¿Qué es lo que se hace?

244
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 245

• Organización y planificación ¿Quién?.¿Como?.¿Cuando?.¿Donde?.¿Con qué


medios?.
• Estimación de costos
– de diseño (Diseño + Ingeniería) ¿Cuanto?
– de fabricación (Fabricación + Control + Empaque). ¿Cuanto?
del contenido de detalle:
• Antecedentes y Justificación
• Descripción Técnica
• Planificación
• Oferta económica (Presupuesto)
• Propuesta de Contrato: descriptores con vinculación contractual

Son elementos descriptores de la vinculación contractual:


• Elementos de (entrada) partida
• Elementos de salida (a entregar).
• Protocolo (pruebas) de aceptación.
• Hitos: Técnicos y Económicos
• Condiciones de pago
• Condiciones de comienzo
• Condiciones de finalización.
• Otros: penalizaciones, rescisión, discrepancias .....
En resumen, la oferta de proyecto responde a la siguiente estructura:
• Identificación: (Portada) Título, Compañía, Fecha, (Versión)
• Resumen
• Introducción: - Generalidades. Alcance. Objeto del proyecto.
- Historia. Antecedentes.
- Justificación del proyecto.
• Descripción Técnica: del Problema y de la Solución.
• Descripción Organizativa: Descomposición. Asignación.
• Propuesta Económica: Desarrollo/Ingeniería y Construcción
• Elementos Contractuales: Plazos. Hitos. Protocolos. (Precontrato)
• Conclusiones: (Recapitulación final)
• Anexos: Técnicos. Justificativos. Descriptivos. Documentales
La documentación asociada al Proyecto Final de Carrera (P.F.C.) es un ejemplo de
documento técnico. Esta documentación normalmente se ajustara a una estructura similar a la
siguiente:
• Identificación. (Título. Autor. etc.)
• Prefacio, agradecimientos... (opcional).
• Índice detallado (1 a 2 páginas, 30 a 60 entradas con número de página).
• Resumen (opcional).
• Introducción. (5-10%)
– Historia. Antecedentes.
– Definiciones. Glosario de términos.
– Justificación del proyecto.
• Objetivos. (Propuesta técnica). (5-15%)
– Planteamiento del problema a resolver.
• Requerimientos.

245
246 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

• Especificaciones funcionales y de diseño.


– Diseño sistemático.
• Propuesta de alternativas de diseño.
• Elección de una solución
• Anteproyecto. Estudios de factibilidad técnica
• Estudios de Factibilidad
– Factibilidad de tiempos. Planeamiento y programación
– Factibilidad económica
– Factibilidad legal y responsabilidad civil
ƒ Descripción (Técnica).(20-25%)
– Diagrama de bloques (hard). Descripción detallada de cada bloque, y
detalle de cálculo de sus elementos.
– Diagrama de estados, o flujo, (soft). Descripción de subrutinas. Listados
comentados del código
ƒ Medidas. Evaluación. Resultados. (5-10%)
ƒ Estudios de fiabilidad de hard y de soft (5-10%)
ƒ Conclusiones. (5-10%)
– Excelencias. Objetivos alcanzados.
– Fallos. Recomendaciones para futuros diseños
ƒ Anexos. (40-60%) Técnicos. Justificativos. Descriptivos. Documentales
– A1.- Título + índice
– A2.- Título + índice etc..
ƒ Bibliografía
– LIBROS.- Autor. Título. Editorial. Fecha
– REVISTAS.- Autor. Título. Nombre de la revista. Fecha-Volumen. Páginas

Gestión de la documentación del proyecto


En la realización de los proyectos se maneja gran cantidad de información y
documentación. Cuando el hallar, organizar y administrar la documentación no se ajusta a un
procedimiento, o este es inadecuado, no solo esto acarreara mayores costos, sino que también
se incrementa la posibilidad de generar errores y de retrasar la conclusión del proyecto.
Una forma de lograr un sistema eficiente para el manejo de la información es
recurriendo a un sistema centralizado y único. Esto, sin embargo no es suficiente. Es necesario
que exista una estructura de directorio y subdirectorios que permita ir almacenando de un modo
consistente la documentación a medida que es generada, evitando duplicaciones y reduciendo
los tiempos de búsqueda de la información. Idealmente debería existir un método para acceder
( logearse ) con posibilidad de realizar hyperlinks hacia los diversos documentos. Además,
debería poder aprovechar la estructura de muchos documentos generados en proyectos
anteriores, y acceder a una biblioteca que contenga todos los documentos o procedimientos
generales propios de la organización.
Un sistema de gestión de la información debiera contemplar, entre otras cosas:
ƒ Responsable o coordinador
ƒ Medio y modo de almacenamiento
ƒ Codificación y otras convenciones de numeración y codificación
ƒ Ciclo de revisión
ƒ Formas de implementación
ƒ Sistema de distribución
ƒ Autorizaciones de acceso
ƒ Registro de los accesos

246
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 247

Será necesario disponer de un sistema de gestión de documentos cuando:


ƒ La empresa esta o pretende estar dentro la ISO9000
ƒ Alguno de los clientes, o una regulación gubernamental, así lo exigen
ƒ El propio departamento calidad así lo requiere
ƒ El coordinador del proyecto lo requiere
ƒ Los usuarios del producto lo requieren
La documentación deberá guardarse definiendo una estructura de directorios y
subdirectorios, figura 2, de tal modo que la misma:
ƒ sirva para identificar cada paso del proceso del proyecto
ƒ aclare que tareas deben realizarse y cuales no
ƒ evite la superposición de documentos
ƒ fuerce a que los mismos se realicen en el orden correcto
ƒ sea consistente con el resto de la información de todo el proyecto
ƒ ayude en la introducción de los cambios de ingeniería
ƒ sirva como medida para evaluar el esfuerzo del diseño, útil tanto para la
dirección de la empresa como para mostrar a los clientes

Fig.2

247
248 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

Los tipos de documentación que se manejan en un proyecto son muy variados,


derivándose de muy diversos programas de ayuda en el diseño: paquetes de CAD, procesadores
de texto, planillas de cálculo, bases de datos, etc. Estos documentos se refieren a:
ƒ Planos, dibujos, esquemas
ƒ Listado de Partes y componentes
ƒ Reglas de diseño
ƒ Inventarios
ƒ Estudios de ingeniería
ƒ Ordenes de cambio de ingeniería
ƒ Control de cambios
ƒ Descripción de procesos de manufactura
ƒ Planes de entrenamiento y capacitación
ƒ Descripción de tareas
ƒ Protocolos y planes de ensayo
ƒ Informes de ensayos
ƒ Análisis de desvíos
ƒ Análisis de causa raíz
ƒ Manual de mantenimiento
ƒ Manual de operación
ƒ Etc.
El primer documento será sin duda un Pedido de Cotizacion (Request for Quotation,
RFQ) o un Requerimiento de Propuesta (Request for Proposal, RFP), a partir de los cuales se
derivara el PDD (Product Definition Document ). A estos documentos se agregara e integrara
el Plan de Gestión del Proyecto (Project Management Plan, PMP). El plan, además de
identificar a las personas responsables del diseño, define que persona ( o personas ) serán
responsables de la verificación de la salida del diseño y de la aprobación de cada uno de los
documentos, e incluye otros detalles referidos a las tareas a ejecutar, tales como que diagramas,
análisis y estudios que deben realizarse, y los derechos de acceso que tiene cada integrante del
grupo de desarrollo, tanto sea para ver como para cambiar la documentación que integra el
proyecto.
Todos los documentos integrados al sistema de documentación del proyecto deben
contar con la correspondiente aprobación, pudiendo esta aprobación realizarse mediante firma
electrónica, un registro de las cuales puede también ser parte de los archivos del proyecto.
Además, cada documento debe tener el circuito de distribución; es decir, toda vez que se
agrega o cambia un documento, el cambio sea comunicado a todos los involucrados.

Orden de cambio de Ingeniería ( ECO )


Para poder rastrear las diferentes versiones de un hardware es necesario que los
diferentes planos emitidos tengan un número, con su nivel de revisión, y referencia a las
órdenes de cambio (ECOs) y documentos de control relacionados. Aunque esto pareciera sin
importancia en pequeños proyectos, es siempre útil porque reduce posibles errores futuros, y
no agrega mayor costo.
Es decir, para identificar un plano no basta con un titulo, es conveniente asignar un
número, con cierto criterio de asignación. Es decir, un esquemático del circuito tendrá un
numero que en parte es común con otros planos, a fin de facilitar su vinculación con los otros
documentos relacionados con el mismo, como es caso por ejemplo de los diversos planos
asociados a un circuito impreso ( planos del cobre, de mecanizado, agujeros, puntos de prueba,
plano de pasta, ensamblando, antisoldante, serigrafía, etc), lista de partes. La placa de impreso
misma debe tener impresa dicha identificación. El número de revisión usualmente es un
número independiente del número de parte, dado que esto permite que los diferentes planos

248
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 249

puedan diferir solo en el número de versión. Es decir, si el cambio es solo por ejemplo el valor
de un resistor, esto solo afectara la versión del esquemático.
También es posible que se rehaga el circuito impreso sin cambio en el esquemático, si
solo se afecta una característica propia de este ( por caso, la holgura al cobre de la mascara
antisoldante, el desplazamiento de un componente, o el retoque de una pista de impreso por
razones de interferencia, etc ).
Cuando es necesario introducir una modificación en un equipo que ya ha sido despachado
o que esta fuera del alcance del equipo de diseño, entonces debe emitirse una Orden de Cambio
de Ingeniería, una ECO (Engineering Change Order). La ECO es una instrucción de cambio,
en la cual se describe el equipo y la parte que debe ser modificada ( con referencia al número y
versión vigente ), el tipo de modificación, la razón del cambio ( que cosas mejora o remedia), y
su aplicabilidad ( si a todos, o solo a algunos ). La aplicabilidad determina a partir de cuando y
quienes están involucrados, es decir si es:
• Mandataria para la actual y futuras producciones
• Mandataria para todas las unidades en predespacho
• Mandataria para las unidades ya despachadas
• Opcional para las unidades ya despachadas , sujeto a la aparición de síntomas
• Mandataria solo para la actual producción
• No aplicable a producciones futuras, debido a que se va a realizar un cambio mayor
El número de ECOs no necesariamente reflejan la calidad del diseño, sino más bien la
capacidad de adaptación y mejora.
La documentación emitida en un desarrollo se diferencia en documentos controlados y no
controlados. Toda documentación que este sujeta a un circuito de distribución debe ser
controlada, y debiendo llevarse un registro de todos los documentos emitidos que han sido
distribuidos, lo cual integrara un archivo de Documentos Controlados, en el cual constara su
nivel de actualización y el circuito de distribución. Cada vez que se produce un cambio todos
los documentos controlados deben actualizarse.
Cualquier copia de un documento controlado pasa a ser un documento no controlado.
Obviamente, el uso de las mismas debiera evitarse.

Documentación de Equipo Final


Es común que acompañe a los equipos una documentación básica, en la cual se
incluye:
• Garantía, con indicación del numero de serie
• Manual de Usuario ( Resumen de características y detalles de operación)
• Manual Técnico o de Servicio, dependiendo del equipo ( con recomendaciones
para la instalación y el mantenimiento, esquemas circuitales, con detalles de cada
modulo, condiciones de prueba, etc )
Un manual es un documento que sirve como fuente continua de referencia, y es
necesario en aquellos productos en los que deba describirse particularidades de su operación ó
necesidades referidas a su mantenimiento (conservación). Es imprescindible en productos
complejos, donde la necesidad de información, de uso y técnica, debe permitir entender las
limitaciones de uso del equipo, evitando su mal uso o abuso, y a la vez servir como guía para
aprovechar toda su potencialidad operativa.
Sintéticamente, las ventajas que resultan de emitir un manual son:
• personal ( del fabricante y del distribuidor)
• Fomenta las ventas (informa al comprador)
• Resuelve problemas (pequeños y virtuales)

249
250 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

• Exime de responsabilidad por mal uso


teniendo como únicos inconvenientes los costes de “diseño” y producción. En muchos casos el
costo puede reducirse significativamente recurriendo a la edición electrónica, apoyándose en
modernos y potentes paquetes de CAD y cámaras digitales, realizando, además, una emisión
en formato electrónico, por ejemplo en archivo con extensión .pdf, y empleando como soporte
un CDROM. La ventaja que provee el soporte electrónico es que facilita enormemente la
búsqueda temática. Esto puede verse facilitado además con la posibilidad de contar con
actualizaciones periódicas del manual, bajadas desde la página de Internet del producto. Esto
es mayormente aplicado cuando se trata de elementos para OEM (original equipment
manufacturer,) pero no cuando el elemento esta destinado al usuario final. No debemos olvidar
que el manual es una parte integrante del producto, por lo que debiera acompañar siempre al
mismo.
Los objetivos básicos que deben considerarse cuando se diseña un manual habrán de
tomar en cuenta que el mismo :
ƒ Sea útil
ƒ Contenga un texto básico para atender la reparación y el mantenimiento del equipo
ƒ Sea una referencia “completa” para la utilización
ƒ No debe dar mas información que la necesaria
ƒ Debe dar imagen de marca
actuando como condicionantes de diseño:
ƒ Tipo de equipo (a quien va dirigido, quien será el lector del manual)
ƒ Usos y aplicaciones del equipo: donde, cuando, como, ....)
ƒ Manuales de la competencia
ƒ “Formato” del manual y “número de equipos”
ƒ Estilo: Formato. Tamaño. etc.
Los manuales pueden ser diferenciados o clasificados según:
• mercado del producto
- Comercial
- Industrial
- Militar
• contenido de la información
- Operación
- Mantenimiento

Ejemplo: Manual de Operación de un Producto Industrial

• Avance: Título. Índices de contenido, ilustraciones y tablas."Frontal del equipo".


Prefacio: símbolos. gráficos.
• Introducción: Breve y atractiva. Naturaleza del producto. Propósito del manual.
Mantenimiento elemental, verificaciones básicas.
• Descripción general: Que es el equipo. Especificaciones.
• Teoría de la operación: Utilización a partir del diseño y funcionamiento interno.
• Instalación: Elementos necesarios. Proceso. Verificación
• Controles de operación: Mandos . Carátula.
• Operación propiamente dicha: (incluye ejemplos)
• Problemas y anomalías de funcionamiento: Guía de diagnosis. Corrección de defectos
• Mantenimiento: Operaciones elementales
• Índices alfabético y temático:

250
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 251

En la mayoría de los casos la realización del manual es una de las últimas etapas del
proyecto, pero no necesariamente siempre es así. A veces es una de las primeras etapas,
pudiendo incluso ocurrir que el manual este concluido aun antes de empezar el desarrollo del
producto. En estos casos, prácticamente el manual es parte integrante de la definición del
producto.
En la planificación de un manual se reconocen las siguientes etapas :
– Recopilación de la información.
– Selección de datos y organización interna
– Redacción :(Bocetos. Revisiones)
– Edición
– Distribución
y por lo general será necesario prever subcontrataciones, con su cronología asociada a la
impresión, sesiones fotográficas, etc. Actualmente, la disponibilidad de paquetes de CAD, y
cámaras digitales hacen que sea posible el trabajo dentro de la propia empresa. En la redacción
del manual intervendrán:
– Ingenieros.
– Escritores especializados.
– Correctores idiomáticos
En los casos en que sea necesario la confección en idiomas múltiples ( por ejemplo
español y portugués para el MERCOSUR, o de múltiples idiomas, como es el caso de la
Comunidad Económica Europea ), deberá cuidarse que la traducción sea técnica y no
simplemente idiomática. El punto débil de muchas traducciones técnicas resulta por el uso de
expresiones, giros, o terminología que hacen que el documento se vuelva ininteligible.
Como conclusión final, debemos tener siempre presente que :
– El manual es parte integrante del equipo.
– Todos los productos que se usan o se reparan, requieren manual
– Los manuales se hacen para ser usados
Este último punto es sumamente importante. Frente a un nuevo equipo, la mayoría de
los usuarios tiene un apresuramiento desmedido para conectar y empezar a usar o a evaluar sin
antes leer el manual; no es necesario decir que esta es una posición equivocada y riesgosa. La
primer tarea debe ser siempre la lectura del manual, viendo antes que nada las condiciones
para desempaquetar, luego las recomendaciones de instalación y finalmente las referidas a la
puesta en marcha del equipo.

Presentación con transparencias


La presentación con transparencias es una forma de comunicación en la cual se
combinan textos, gráficos y la expresión oral con la idea de concitar la atención, sin que ello
resulte pesado para al auditorio, y tratando de que se retenga la esencia del mensaje. Los
métodos visuales han demostrados ser mucho mas efectivos que la presentación oral o visual
independiente, si lo que se busca es la mayor retención del mensaje. Las reglas que deben
seguirse para el diseño de transparencias deben tomar en cuenta que con las mismas se busca:
• Mejorar y simplificar la comunicación de ideas
• Suscitar la atención en un punto o aspecto importante por vez, evitando
la distracción de los detalles
• Lograr un mejor entendimiento a través del impacto visual de las ideas
desarrolladas, combinando esquemas simples, graficaciones y texto
• Facilitar la exposición ( sirve de guía )

251
252 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

La transparencia no tiene por finalidad reemplazar la comunicación oral. Es decir, el


expositor debe complementar la limitada información contenida en la transparencia. Dicho de
otro modo: No tiene sentido que el expositor se limite a leer el texto de la transparencia a la
audiencia.

APERTURA
Concitar la atencion
Identiticar el problema

NUCLEO
Tratamiento del tema
1. punto 1
2.punto 2
........
.......
hasta 5 puntos
Fig.3
CIERRE
Resumen y conclusiones

El primer paso para armar una sesión basada en transparencias será definir la
estructura de la presentación basándose en un esquema como el que indica la figura 3; otro
posible delineamiento seria el siguiente:

• Introducción (visión general)


• Objetivos
• Logros conseguidos
• Descripción / Modelo ( obviar detalles )
• Ventajas y desventajas
• Conclusiones

Para cada punto habrá que seleccionar el texto, los esquemas o dibujos y los gráficos
que se consideran importantes, diseñando su distribución, tamaño de las letras, el armado de
los esquemas o dibujos y la composición de los gráficos. Usualmente conviene trazar un primer
boceto o plan de la presentación, delineando el trabajo que se quiere presentar, escribiendo los
textos, haciendo luego correcciones y modificaciones, y rescribiendo nuevamente si fuera
necesario. Como regla general, deberá:

ƒ Manejarse solo un concepto principal en cada transparencia


ƒ Dejar espacio en blanco abundante
ƒ Usar un tipo de letra simple
ƒ Buscar claridad de conceptos
ƒ Evitar las frases o sentencias demasiado largas
ƒ Usar “Negritas”
ƒ Dejar márgenes anchos
ƒ No utilizar solo letras mayúsculas
ƒ Rotular las partes importantes de los dibujos
ƒ Numerar todas las transparencias
ƒ No abusar de los colores
El tipo de letra debe estar en relación con el nivel de detalle, teniendo en cuenta que 1
mm = 3 “Puntos”, es decir

252
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 253

• Título (de 36 a 44 Puntos) j


• Subtítulos (de 24 a 28 Puntos) j
• Texto (de18 a 20 Puntos) j

Un ejemplo de BUENA transparencia, con una esquemática clara, y dibujos bien


identificados, es la siguiente :

y ejemplo de una MALA transparencia seria el siguiente:

253
254 INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

La idea de concentrar mucha información en una sola transparencia, hace que la


misma se vea confusa, y no permita destacar los puntos importantes. Otro ejemplo de MALA
transparencia seria la siguiente:

en la cual se abusa de texto distractivo, seguramente con la idea de mostrar el desarrollo de


una demostración.
Una transparencia puede considerarse BUENA en la medida en que el texto sea el
necesario, en lo posible autoexplicativo, y en la cual las figuras tengan apropiada rotulación. La
siguiente transparencia podría considerarse buena, salvo por la falta de rotulación de ambos
ejes.

Las pautas siguientes son algunos consejos a tener en cuenta para una presentación
oral con transparencias :

254
INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica 255

• Limítese el número de transparencias “solo texto”


• Utilice frases mejor que definiciones.
• Deje espacio en blanco para permitir leer bien
• Use tamaño de letra grande.
• Limite al mínimo la cantidad de información ( una idea por transparencia )
• Rotule las partes importantes de los dibujos
• Limite la cantidad de transparencias, no más de una por minuto
• Transparencias con mas de 3 curvas por grafico o mas de 20 palabras resultan
demasiado complejos
• Si se necesita usar la misma transparencia mas de una vez en la exposición,
recurra a dos copias (evita la distracción de la audiencia )
• Terminada la exposición basada en una transparencia, se debe evitar la
proyección innecesaria de la misma.

255
Índice alfabético

ACWP 47 Búsqueda
Aislantes, ley de 113 secuencial 68
aleatoriedad de factores 16 uniforme 68
Altshuller 99
AMFE 24 CAD 12,97,211
Análisis Cadstar 97
competitividad 13 Calidad 177
diseño, fases A y B 130 aseguramiento de la 4,204
fiabilidad 130 casa de 13
fortalezas y debilidades 11 control estadístico 201
rentabilidad 55 costos 206
riesgo 57 de diseño 178
sensibilidad 58 de proceso 180
varianza 21 Despliegue de la función 13
odal de fallas y efectos 24 verificación de la 198
morfológico 99 Camino critico 34
ANOM 18 Caminos semicríticos 42
ANOVA 21 Canon 93
AOI 219 Capacidad de proceso 181,230,
AQL 12,201 233,236,
ARIZ 100 238,240
Arrhenius, ley de 112 Capacitación 172
Aseguramiento de la calidad 4 casa de calidad 13
AXI 219 causas
Ayudamemoria 244 asignables 180
Barker, J.A. 81 especiales 180
comunes 180,199
BCWP 47 ciclo de vida 51
BCWS 47 CIM 211
Bell 91 Cmk 187
Bellcore 128 Complejidad ciclomática 147
Benchmarking 98 Conceptualización 10
bloquizacion 16 concesión 198
BOM 210 contención 198
Boundary scan 219 Contradicciones, 99
Búsqueda Control del proyecto 46
de Fibonacci 70 Correlación 102
de intervalo 68 Costo
dicotómica 70 fijo 52
por gradiente 79 variable 52
por relación áurea 77 marginal 52
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Costo medio total 52 Diseño


Costos no recurrentes 49 experimental 16
Costo objetivo 48 optimización 192
Costos por fallas orientado 209
de evaluación 206 para el ensamblado 213
de garantía 118,206 para el peor caso 228
de prevención 206 para la calibración 216
externas 206 para la manufacturabilidad 3,209
internas 206 para la soldadura 215
Cpk 182 para la verificación 218
CPM 33 por evolución 92
Creatividad 80,85 preliminar 11
Creatividad técnicas 97 probabilístico 231
Crecimiento de la fiabilidad 142 revisión del 4
criterio 59 robusto 194
Cuaderno de diseño 243 salidas de 2
curva de aprendizaje 4 validación 2
curva de operación 201 verificación 2
Diseños ortogonales de Taguchi 20
DEC 92 Disponibilidad 117,166
defecto tasa de 179 efectiva 171
defecto 178 intrínseca 171
defectuosidad 179 operativa 171
Definición de Producto 6 distribución
documento de 7 beta 36
Del Buono 82 de Fisher 22
Delfos 39,100,101 documentación 2,3,9,145,241
Demanda 50 Documentación del proyecto 246
Depuración del diseño 142 Documentación de software 145
Desarrollo, metodología 3 documento
detección, tasa de 25 de definición de producto 7
DFA 209 de equipo final 245
DFM 209 técnico 241
DFT 218 DOE 2, 17,178,208
Diagnosticabilidad 176 DOT 2,220
Diagrama 17
arbol de fallas 17,208 ECO 248
causa efecto 43 Ecodiseño 26
de barras 98 Edison 85,87,93,101
de bloques 208 Elasticidad 50
de covariación 98 Ensayos
de espina de pescado 33 acelerados 111
de flechas 43 censurados 109
de Gantt 33,36, de aceptación 133
39,43,47 de caracterización 19
PERT 96 de fiabilidad 132
Diseño, El cuaderno de 243 de optimización 19

258
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Ensayos Fiabilidad
exploratorios 19 expresión general 113
fraccionarios 20 extrapolada 106,115
progresivos 133 mejora de la 130
repetidos 16 metas 118
replicados 16 observada 106
truncados 109 predicción de la 120
Ergonómico, aspecto 9 Fink 86
Ericsson 93 FLEX 58
Escenarios definición de 101 Flujo de caja descontado 55
Especificación contenidos 8 FMEA 24,174,178
Estabilidad 224 FT 218
tratamiento para la 226 FTA 2,24
Estimación de tiempos 40 FTQ 213,220,231
Ética, códigos 30 función
Experiencia 172 de mantenibilidad 165
Experimentos factoriales completos 19 de mérito 61
Eyring, modelo de 113 de prestación 61
de restricción 61
Factibilidad objetivo 61
económica 48 objetivo aumentada 65
tecnológica 27
Fallas Gantt, diagrama de 43
aleatorias 108 Gompertz, modelo de 104
catastróficas 106 grados de libertad 59
infantiles 108 gráficas
inseguras 124 de caja 23
paramétricas 106,224 de Pareto 98,207
parciales 106 de Shewart 185
por degradación 108 Hadamard, 84
por solicitación 114 matriz de 18,20
primarias 105 HDBK-217 119,128
relevantes 106,133 HDBK-259 58
secundarias 105 HDBK-472 176
seguras 124 Hilbert 89
Fiabilidad Hot mockup 218
análisis de 130 IBM 50,93,101
crecimiento de la 142 ICT 218
de componentes 130,144 IEC 8,28,29,39
de software 130,145 IEC 140,177
ensayos de 133 Ingeniería de valor 15
estimada 106 Ingeniería concurrente 4

259
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Ingeniería simultanea 4 Manufacturabilidad 209


Ingreso marginal 53 diseño orientado a la 211
Innovación 81,91 Margen de tareas 34
Innovación independiente 35
incremental 91 libre 35
radical 91 total 34
Inspección 198 Markov, cadenas de 124
de proceso 198 Masushita 93
en línea 200 Matlab 19,22,23,
especial 203 63,68,80,
general 203 102,116,
postproceso 200 126,133,
Interacción, efectos de 19 169,183,
Internet 28 186,229
Invención 87 McCabe 147
Investigación Mentor 97
aplicada 83 Mercado objetivo 50
pura 83 Mercado potencial 50
Ishikawa 17, Método
ISO 9000 204 de ajuste continuo 240
ISO 1,27,28,31 de ajuste por pasos 237
39,204 de avance retroceso 99
de intercambiabilidad
JAT 210 parcial 231
de intercambiabilidad
JIT 210 total 228
de las cadenas de
Juran 177 Markov 124
kaizen 190 de las cargas 129
Kano 13 de las cero fallas 150
Lagrange 65 de programación lineal 80
Lagrangiano 67 de provocación 99
Legal, responsabilidad 29 de redes 121
LTPD 201 de selección por grupos 233
Mantenibilidad 131,153 del árbol de fallas 122
estimación de la 176 del camino critico 33
Mantenimiento del peor caso 228
correctivo 164 Metodología de desarrollo 3
curativo 164 Métodos de optimación 62
Para la prueba de
pasivo 163 software 152
predictivo 162 Microsoft 93
preventivo 155 Microsoft Project 36
preventivo imperfecto 160 Minitab 116
primario 164 Modelo
proactivo 154 de Duane 143
secundario 164 de Gompertz 104
Manufactura, sistemas de 210 de Pearl 104

260
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Modelo físico de fallas 120 Pensamiento lateral 97


industrial 95 Pfleeger 150
Modelo de Shooman 149 Philips 86,93
Modelos plan de acción 32
de crecimiento 102 Plan de proyecto 31
de crecimiento de fiabilidad 142 Planificación 31
De fiabilidad de software 148 poka-yoke 213
de fallas 115 Ppk 183
en S 103,104 Precio de venta 52
Monte Carlo, simulación de 41,58,122,225 Presentación con trasparencias 247
233,238 Primavera Project 36
Moore, Ley de 101,102 Proceso
Motorola 196 Capacidad de 182,187,195
MPS 210 control estadístico de 184
MRD 8 Grafica de control de 185
MRP 210 Optimización de 186
MTBF 114 variabilidad debida a 222
MTBM 171 Programación lineal 43
MTTR 172 Programación cuadrática 43
muestreo Propiedad industrial 94
doble 203 Propiedad intelectual 94
múltiple 203 Prospección tecnológica 101
simple 203 Protel 97
Multiplicadores de Lagrange 65 Proyecto, concepto de 1
La oferta de 244
Nichos de mercado 6 QCC 185
no conforme 178 QFD 2,13
no conformes, índice de 179 QS-9000 205
Normas 9,28,29 RCA 86,93
Regresión 102
OEM 2,7,27,201,245 Relación costo beneficio 56
Optimización Responsabilidad profesional 29
del cálculo diferencial 64 Revisión del diseño 4
del diseño 192 RFQ 248
métodos 62 Ringii 100
metidos tabulares 63 Roberts 85
por programación lineal 80 RPN 25
Orcad 97
Orden de cambio de ingeniería 248 Seguridad 8,9,123
Seis sigma 196
Papel probabilístico 116 Serendipidad 91
Paradigma 3 serviciabilidad 153,174
Pareto, graficas de 98,207 Severidad, índice de 25
Patentes 94 Shewart 185
PDD 7,177 Shooman 146,149
eral, modelo de 104 Siemens 4,93,144
PERT 33,36,39,43,47 Simulación de Monte Carlo 40,42,121,225

261
INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Simulación de Monte Carlo 233,238 Tiempo


Sinergético, método entre calibraciones 161
Sistemas 100 mas probable 36
con carga compartida 125 medio entre fallas 114
con reserva 126 optimista 36
con reserva y mantenibilidad 127 pesimista 36
SMT 215 de retorno de inversión 56
Software TIR 56
fiabilidad de 145 Tolerancia
métricas de complejidad 146 asignación 221
modelos de fiabilidad 148 en el diseño 220
protección de 95 métodos de diseño 227
Sony 86,93 Torbellino de ideas 100
SPC 178,184 TQM 178
SQC 178,201 TRI 56
Strowger 88 TRIZ 99

Taguchi 65 UL 8
diseño ortogonal de 20 Validacion 131
Diseño robusto de 194 Valor actualizado neto 55
Función de perdidas de 189,195,240 valor agregado 10, 48
Tasa de detección 25 VAN 55
Tasa de fallas 107 Variaciones operativas 224
estimación 109 Varianza
requerimientos 108 dentro de grupo 21
Tasa interna de retorno 56 entre grupos 21
Técnica de evaluación y revisión de programas 33,36 VDA 4
Tecnología transferencia de 241 VDI 4
Teoría de la invención 99
THM 215 VE 2,178
Tiempo Viabilidad 11
de mantenimiento medio 170 Weibull 115
de reposición de servicio 172 Williams, J. 84
entre acciones de conservación 161 Xerox 93
entre acciones de mantenimiento 171 ZQC 214

262

También podría gustarte