Está en la página 1de 50

INSTITUTO TECNOLÓGICO DE CELAYA

Medición de rugosidad por medio de un Sistema


de Visión Artificial

Ana Luisa Guerrero Martínez

MAESTRÍA EN INGENIERÍA INDUSTRIAL

Asesor de Tesis:
Dr. José Antonio Vázquez López

Mayo 2015, Celaya, Guanajuato, México


Introducción

El acabado superficial es uno de los aspectos más importantes en fabricación de piezas


mecánicas, el acabado superficial se cuantifica de forma objetiva mediante la medida de
diversos parámetros de rugosidad establecidos en la normativa internacional, que evalúan la
altura de los picos y valles, su promedio y distancia entre ellos. La creciente demanda en la
calidad de los productos y la necesidad de que las piezas tengan un mejor acabado, los comités
de normalización han tenido que seguir trabajado en la propuesta y definición de nuevos
parámetros y métodos de medición de la rugosidad. La calidad de las piezas queda determinada
por los procesos de fabricación y los materiales utilizados. El mecanizado es uno de estos
procesos, ya que por medio de él se da forma y dimensiones a una pieza mediante la eliminación
de material. (Suarez, Alegre, Barreiro, González, 2010)

Uno de los problemas a los que se enfrenta la industria es el detectar todas las piezas
fuera de parámetros de rugosidad, ya que en la actualidad no se realiza la medición del 100%
de las piezas. Normalmente este parámetro es calculado con métodos tradicionales de contacto
como el rugosímetro de palpador, que presenta ciertas limitaciones.

En los últimos años se han ido introduciendo nuevas técnicas para mejorar la calidad de
las piezas y caracterizar la rugosidad de una forma más eficiente, en este trabajo se ha propuesto
un sistema basado en visión artificial el cual permitirá determinar la rugosidad por medio del
procesamiento de imágenes, utilizando la transformada wavelet y un perceptrón multicapa para
realizar la cuantificación de rugosidad.
Antecedentes
Al inicio de las máquinas y herramientas se requería de la medición del acabado superficial
(rugosidad) pero debido a que no existía el equipo adecuado se realizaba la medición por tacto
y se hacía una comparación por apreciación u opinión, pero esto provocaba errores en la
interpretación ya que dependía del sentido del tacto y como esto es personal, por consecuencia
las opiniones del cliente y proveedor casi siempre eran diferentes.
Una superficie perfecta es una abstracción matemática, ya que cualquier superficie real, por
perfecta que parezca, presentará irregularidades que se originan durante el proceso de
fabricación.
El acabado superficial de los cuerpos puede presentar errores de forma macro geométricos
y micro geométricos. Las irregularidades menores (micro geométricas) son la ondulación y la
rugosidad. La primera pueden ocasionarla la flexión de la pieza durante el maquinado, falta de
homogeneidad del material, libración de esfuerzos residuales, deformaciones por tratamiento
térmico, vibraciones, etcétera; la segunda la provoca el elemento utilizado para realizar el
maquinado, por ejemplo, la herramienta de corte o la piedra de rectificado.
La rugosidad (es la huella digital de una pieza) son irregularidades provocadas por la
herramienta de corte o elemento utilizado en su proceso de producción, corte, arranque y fatiga
superficial.
La visión artificial consiste en la captación de imágenes en línea mediante cámaras
CCD(dispositivo de acoplamiento de carga), y su posterior tratamiento a través de técnicas de
procesamiento avanzadas, permitiendo así poder intervenir sobre un proceso (modificación de
variables del mismo) o producto (detección de unidades defectuosas), para el control de calidad
y seguridad de toda la producción.
1.1 Planteamiento del problema

La creciente demanda en la calidad de los productos y la necesidad de que las piezas tengan
cada vez más un mejor acabado ha supuesto que los comités de normalización hayan tenido que
seguir trabajado en la propuesta y definición de nuevos parámetros y métodos de medición de
la rugosidad. Los métodos de medida para caracterizar las superficies han variado mucho a lo
largo de las últimas décadas. Inicialmente se utilizaron palpadores de contacto muy sencillos.

Posteriormente se introdujeron técnicas digitales que conllevaron el desarrollo y uso de


métodos sofisticados para el análisis de señal. Sin embargo, las técnicas de medición sin
contacto han experimentado un amplio desarrollo en los últimos años y se están implementando
en numerosas aplicaciones industriales. El progresivo aumento de la precisión de los sistemas
sin contacto y la reducción en su precio ha llevado a que su uso se haya generalizado.

1.2 Objetivo

Desarrollar un sistema basado en visión artificial para la medición de la rugosidad.

1.2.1 Objetivos Particulares

• Determinar los parámetros de la rugosidad de piezas metálicas y su impacto en los


sistemas de medición de calidad.
• Identificar cada elemento que se requiere para formar un sistema que permita medir la
rugosidad por medio de la visión artificial.
• Desarrollar el sistema de medición de rugosidad por visión artificial
• Comparar la medición de rugosidad con rugosímetro contra visión artificial.

1.3 Justificación

En este trabajo se presenta una técnica de visión artificial basadas en el análisis de imágenes
aplicadas para la predicción y evaluación de la rugosidad de una superficie en los procesos de
fabricación de piezas de contacto y rozamiento, para evitar el desgaste y deterioro se debe de
cumplir ciertos estándares de calidad.
El método de visión para medición de rugosidad es más rápido y menos costoso que la
medición con rugosímetro además que este presenta algunas limitaciones, como una precisión
reducida ya que sólo miden una línea de la superficie, poca eficiencia debido a la baja velocidad
y la difícil exploración en zonas de tamaño reducido, la punta palpadora puede rayar en mayor
o menor medida la superficie a evaluar, la medida de la rugosidad superficial tiende a ser
dependiente de la resolución del instrumento utilizado. Para mejorar el control de calidad y
evaluar la rugosidad, se necesitan técnicas más adecuadas que permitan obtener el valor de
forma rápida y precisa.

1.4 Preguntas de Investigación

1. ¿Qué elementos se requieren para la captura de una imagen y por medio de esta
obtener la medición de rugosidad?
2. ¿Sera igualmente efectivo el medir con un rugosímetro que con un sistema de visión
artificial?

1.5 Hipótesis

El sistema de visión artificial determina la medición de la rugosidad igualando los valores


del rugosímetro actual.

El tiempo ciclo de medición de rugosidad es menor si se determina por medio de visión


artificial que con un rugosímetro tradicional.

1.6 Método de investigación


1. Recolección de información General
a) Consulta de libros relacionados con la medición de rugosidad
b) Consulta de artículos que proponen el uso de sistemas de visión.
2. Montaje de sistema de Visión Artificial
a) Instalación de cámara CCD
b) Instalación de Led de iluminación
c) Selección de Equipo de cómputo “ordenador”
d) Instalación Software Matlab.
3. Medición de piezas con rugosímetro tradicional
a) Selección de pieza sujeto a estudio
b) Establecer parámetros
c) Medir piezas
4. Medición de piezas por Visión artificial
a) Captura de imagen
b) Procesamiento de imagen por medio del Software Matlab
 Transformar imagen a escala de grises
 Aplicación de un nivel haar de la transformada wavelet para seccionar la
imagen y obtener características.
c) Clasificación de rugosidad por medio de una red neuronal utilizando un perceptrón
multicapa
 Realizar pruebas y definir parámetros de rugosidad en un algoritmo.
 Definir capas de entrada y salida.
5. Validación del sistema de Visión
a) Se realizarán una serie de experimentos utilizando un diseño factorial 2𝐾 .
b) Realizar comparación y determinar errores que presente el sistema en comparación
con el rugosímetro tradicional.

1.7 Resultados esperados

1. Desarrollo de un sistema de visión artificial que igualara la medición con


rugosímetro.
2. Determinar las ventajas que tiene el sistema de visión artificial contra el
rugosímetro.
3. Un sistema visión artificial robusto que cuantifique diferentes grados de rugosidad.

1.8 Alcances

1. El desarrollo de un sistema para la medición de rugosidad por medio de visión


artificial.
2. Aplicación de técnicas que permitan obtener el valor de la rugosidad en piezas
metálicas mediante el análisis de imágenes digitales después de ser mecanizadas.
3. Solo se hará la validación interna sobre el sistema de medición de rugosidad por
visión artificial.
4. Reducción del tiempo ciclo de la medición de rugosidad.

1.9 Limitaciones

1. Existe poca información sobre la medición de rugosidad por medio de visión


artificial.
2. Condiciones de iluminación que el laboratorio de investigación tiene.
Marco Teórico
En el presente capítulo se describen los conceptos teóricos relacionados con la presente
investigación; dichos conceptos incluyen el acabado superficial y los componentes que
conforman un sistema de visión artificial, como cámara, iluminación, procesamiento de
imágenes y software. Dichos elementos tienen como objetivo la medición de la rugosidad de
cualquier pieza maquinada por diferentes procesos de fabricación.

2.1 Características que definen el estado de una superficie


Todas las superficies de las piezas fabricadas presentan irregularidades que son una función
del material y del proceso de maquinado. Independiente de como las características de una
superficie son obtenidas, su representación se hace amplificando el trazo de la superficie sobre
un plano de intersección normal a la misma.

Los perfiles obtenidos consisten en una serie de picos y valles que se separan de manera
más o menos irregular sobre la intersección del plano de corte y la superficie geométrica teórica.
(Villanueva & Ramos, 1989).

2.1.1 Análisis de una superficie

Si se corta una superficie por un plano, se obtiene una curva llamada perfil de la superficie.
Es a partir de este perfil que se analizan los diferentes defectos. Estos se clasifican en cuatro
órdenes (Rodríguez, 2009):

Defecto de primer orden

Son los defectos de forma como son, desviaciones de rectitud, de circularidad, etc.
 Defectos de segundo orden
Se caracterizan por una línea ondulada. Se obtiene trazando la línea envolvente superior
que pasa por la mayoría de las crestas.
 Defectos de tercer orden
Caracterizan la rugosidad de la superficie, son defectos constituidos por crestas o valles.
 Defectos de cuarto orden
Son aquellos constituidos por arrancamientos, fracturas, etc.

2.1.2 Medición del acabado superficial

Para la medición del acabado superficial se requiere primero de la descripción básica de lo


que sucede en la superficie del material maquinado, una vez realizado el paso de la herramienta
de corte sobre el material, deja huellas o marcas sobre la superficie, que da como resultado una
topografía como muestra la figura 2.1 tomada de la norma ANSI/ ASME B 46.1’1995
(Rodríguez, 2009).

Figura 2-1 Topografía de una superficie, Norma ANSI/ ASME B 46.1’1995


2.1.3 Métodos de producción de superficies

La creación de las superficies en las piezas se consigue utilizando distintos medios de


producción entre los que distinguimos (Rodríguez, 2009):

• Moldeo
• Forja
• Estampación
• Laminado
• Extruido
• Máquinas herramientas de arranque de viruta
• Máquinas herramientas sin arranque de virutas
• Máquinas herramientas que utilizan abrasivos
• Bruñido
• Chorro de arena
• Barrilado
• Chorro de perdigones (Shot Peening)

2.1.4 Rugosidad

Consecuencia de la fragmentación del material por la acción de las herramientas de corte.


Su magnitud se puede controlar actuando sobre la geometría de la propia herramienta, el avance,
profundidad y velocidad de corte y naturalmente sobre el propio material (Gonzalez & Zeleny,
1995).

2.1.5 Parámetros de rugosidad

Como parámetros más significativos en la valoración de la rugosidad se consideran

 Valores de rugosidad media Ra


Es el valor media aritmética de los valores absolutos de las distancias “y” del perfil de
rugosidad a la línea media dentro del tramo de medición. Esto es equivalente a la altura de un
rectángulo cuya longitud es igual al tramo de medición total lm y cuya área es igual a la suma
de las superficies encerradas entre el perfil de rugosidad y la línea media (véase la figura 2)
(Gonzalez & Zeleny, 1995).

Figura 2-2 Grafico rugosidad media (Gonzalez & Zeleny, 1995)

 Altura máxima del perfil, 𝑹𝒚

Distancia entre el pico de cresta más alto y el fondo del valle más profundo dentro de la
longitud básica.

Figura 2-3 Grafico altura máxima Ry (Gonzalez & Zeleny, 1995)

 Altura de las irregularidades en diez puntos, 𝑅𝑧

Media de los valores absolutos de las alturas de las cinco crestas yp más altas y los cinco valles
más profundos yv dentro de la longitud básica.
2

Figura 2-4 Grafico altura irregularidades Rz (Gonzalez & Zeleny, 1995)

 Longitud portante del perfil µp


Suma de las longitudes de segmentos obtenidos cortando las crestas por una línea
paralela a la línea media, dentro de la longitud básica y a un nivel de corte dado.
µp =𝑏1 + 𝑏2 + 𝑏3 … + 𝑏𝑛

Figura 2-5 Longitud portante (Gonzalez & Zeleny, 1995)

 Tasa de longitud portante del perfil 𝑡𝑝


Relación entre la longitud portante y la longitud básica
𝜇𝑝
𝑡𝑝 3
1
2.1.5.1 Símbolos con indicación del criterio principal de rugosidad Ra

Tabla 1 Símbolos de Rugosidad (Poveda, 2001)

Los valores de rugosidad Ra pueden indicarse bien por su valor normalizado o por su
número de clase indicados en la tabla.
Tabla 2 Clases de rugosidades. Aplicaciones (Poveda, 2001)

Es de suma importancia conocer las clases de rugosidad para poder determinar cuál es
aplicable para un acabado en específico y tener en cuenta cual es el Ra que se debe obtener de
acuerdo a la tabla 2 que muestra las clases asignado una letra mayúscula N, tomando en cuenta
la clase se indica que grado de rugosidad debe de tener con respecto a la clase, se indica Ra en
(µm).

En la tabla 3 se presentan los valores de rugosidad que se obtienen en la fabricación de


piezas con diferentes máquinas y herramientas.
Tabla 3 Valores de Rugosidad que se obtienen con las distintas máquinas y herramientas. (Poveda, 2001)
2.2 Visión Artificial

La visión artificial trata de simular el proceso del sentido de la visión de los seres vivos,
según el cual un objeto es captado mediante los receptores de la retina y es transformado en
impulsos nerviosos que son procesados por el cerebro.

La visión artificial consiste en la captación de imágenes en línea mediante cámaras


basadas en matrices de sensores sensibles a la luz (CCD o CMOS), el posterior tratamiento
de las mismas mediante técnicas de análisis de imagen y la actuación sobre el proceso
(control de producto) o el producto (control de calidad) (Márquez, 2007).

2.2.1 Elementos de un Sistema de Visión Artificial

Los principales elementos son los siguientes (Márquez, 2007):

 El sistema de iluminación (fluorescente, LED, polarizada, backligth, láser)

 El sensor o cámara de captura de imagen (CMOS), CCD, InGaAs)

 Tarjeta de captura de elevado ancho de banda (Firewire, CameraLINK, GbEthernet)

 Procesamiento de imagen (Procesador y algoritmos de pretratamiento y filtrado de la


imagen, de segmentación y reconocimiento de formas, de extracción de descriptores
y de clasificación)

 Sincronía con el proceso, para adquirir la imagen en el momento adecuado y para


actuar con el proceso o separar unidades defectuosas.

2.2.2 Iluminación
(Cortázar, 2006) Plantea que la iluminación es considerada como la parte más crítica
dentro de un sistema de visión artificial. Las cámaras, de momento, son mucho menos
sensibles y versátiles que la visión humana y las condiciones de iluminación deben
optimizarse al máximo para que una cámara pueda capturar una imagen que el ojo humano
podría distinguir sin necesidad de una iluminación tan especializada.
El propósito del sistema de iluminación utilizado en las aplicaciones de visión es
controlar la forma en que la cámara va a ver el objeto. La luz del sistema de visión artificial
refleja de forma distinta si se ilumina una bola de acero, que si se ilumina una hoja de papel
blanco y el sistema de iluminación por tanto debe ajustarse al objeto a iluminar.

Si se utiliza una iluminación adecuada, el sistema de visión resolverá la aplicación más


fácilmente, mientras que si la misma aplicación recibe una iluminación incorrecta puede que
sea imposible de resolver.

2.2.2.1 Consideraciones a tener en cuenta para determinar la mejor iluminación para


una aplicación de visión artificial (Cortázar, 2006)

 ¿Es en color o en monocromo

 ¿Es de alta velocidad o no?

 ¿Cuál es el campo de visión a iluminar?

 ¿El objeto presenta superficies con reflejos?

 ¿Qué fondo presenta la aplicación: color, geometría?

 ¿Cuál es la característica a resaltar?

 ¿Qué duración debe tener el sistema de iluminación?

 ¿Qué requisitos mecánicos, ambientales, deben considerarse? Depende de la


respuesta a estas preguntas se debe aplicar un tipo u otro de iluminación.

2.2.2.2 Iluminación por leds

Un led (lidht’Emitting Diode), es un dispositivo semiconductor que emite luz


incoherente de espectro reducido cuando se polariza de forma directa la unión p-n del mismo
y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia.
El color (longitud de onda), depende del material semiconductor empleado en la construcción
del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo
(Infaimon, 2015).
Anillos de leds (Iluminación difusa)

Estos anillos incorporan un difusor para eliminar los brillos en superficies


reflectantes, además, el ángulo de incidencia de la luz sobre el objeto no es vertical, sino que
toma una orientación ligeramente inclinada, facilitando aún más la eliminación de los
posibles brillos de la muestra.

Existen cuatro modelos de anillos con iluminación difusa: los LFR que presentan una
estructura plana, como si se tratara de un disco, con cierta inclinación en los modelos LFR-
K, los modelos LKR que tienen una estructura cónica produciendo una luz difusa homogénea
focalizada y libre de reflejos y los modelos HPR de alta potencia, alto brillo y máxima
uniformidad (Infaimon, 2015).

Led angular difuso de bajo ángulo Este tipo de iluminación permite resaltar los relieves,
pero a la vez elimina los reflejos en elementos especialmente reflectantes como, metal,
plástico, o cristal.

Domo de leds

Son sistemas de iluminación en semiesferas, ideales para la obtención de una iluminación


difusa y homogénea en aplicaciones con objetos muy reflejantes. Utilizan un reflector
semiesférico que proporciona iluminación omnidireccional, muy útil cuando se requiere luz
difusa por un precio muy ajustado. Proporciona soluciones efectivas rentables para iluminar
superficies brillantes y rugosas.

2.2.3 Cámaras

La función de las cámaras en visión es capturar la imagen proyectada en el sensor, vía las
ópticas, para poder transferirla a un sistema electrónico y que pueda procesar, interpretar,
almacenar y/o visualizar la información. Este sistema puede ser un monitor para visualizar la
imagen, o un PC para visualizar, almacenar, procesar y medir (Infaimon, 2015).
Las cámaras de video han tenido una rápida evolución en los últimos años, desde las
primeras cámaras de video que estaban equipadas con tubos Vidicón hasta las más modernas
cámaras provistas de sensores CCD (Charge Coupled Devide).

2.2.3.1 Cámaras Matriciales

El termino cámara matricial se refiere a que un sensor de la cámara cubre un área o que
está formando por una matriz de píxeles. Una cámara matricial produce una imagen de área,
normalmente con una relación de aspecto de 4 a 3. Esta relación viene de los tiempos de las
cámaras Vidicón y de los formatos de cine y televisión. Actualmente existen muchas cámaras
que ya no siguen los formatos de televisión, o se adaptan a los nuevos formatos alta
definición 16:9.

Los sensores de cámaras modernos son mayoritariamente CCD que utilizan material
sensible a la luz para convertir los fotones en carga eléctrica. Miles de diodos sensibles se
posicionan de forma muy precisa en una matriz y los registros de desplazamiento transfieren
la carga de cada píxel para formar la señal de video (Infaimon, 2015).

Figura 2-6 Sensor de Cámara CCD

2.2.4 Procesamiento de imagen

El procesamiento de una imagen consiste en la adquisición que se realiza por medio de


una cámara digitales basada en sensores CCD, una vez adquirida la imagen se procede a el
procesamiento digital usando un software en el cual estructura un algoritmo que permite
extraer las características de la imagen, para la toma de decisiones en un proceso productivo.

2.2.4.1 Terminología de procesamiento digital de Imágenes

Puesto que no todas las imágenes son aptas para su análisis, es importante mencionar
algunos de los términos más comunes (Cortázar, 2006).

Imagen: Es una representación, o imitación de un objeto o cosa. Una imagen contiene


información descriptiva acerca del objeto que representa, muestra su información de manera
que permita al observador visualizar su subjetividad.

Digital: Esto se relaciona al cálculo por método numérico o unidades discretas.

Imagen digital: Se define como la representación numérica de un objeto, los pixeles son
unidades discretas y la escala de grises cuantificada suple la componente numérica.

Procesamiento: Es el acto de someter algo a proceso. Un proceso son series de acciones u


operaciones para obtener un resultado deseado.

Procesamiento digital de imagen: es una representación numérica de un objeto a una serie


de operaciones en orden de mantener el resultado deseado. Produciendo un versión
modificada de una imagen.

Gráficas computacionales: Se refiere al procesado y despliegue de imágenes de cosas que


existen conceptualmente o de descripciones matemáticas. El aspecto principal es siempre la
generación de una imagen a partir de un modelo que describe a algo.

Visión computacional: Se refiere al desarrollo de sistemas que pueden interpretar el


contenido de imágenes.

Digitalización: El proceso de convertir una imagen de forma original a su forma digital.

Display: Es la generación de una imagen visible a una digital.

Escaneo: Esto es la dirección selectiva de localizaciones especificas en el dominio de


imagen.
Píxel: Llamado también elemento de la imagen, se refiere a cada una de las subimagenes de
dirección en el proceso de escaneo.

Figura 2-7 Etapas fundamentales del procesamiento digital de una imagen (Cortázar, 2006).

2.2.4.2 Elementos principales del procesamiento de imágenes.

El tratamiento digital de imágenes se comprende varias etapas fundamentales para


realizar el procesamiento digital de una imagen (Cortázar, 2006).

Adquisición de imágenes: Para la adquisición se requiere de un sensor de imágenes y la


posibilidad de digitalizar la señal producida por el sensor.

Procesamiento: La función básica de procesamiento es la de mejorar la imagen de forma


que se aumenten las posibilidades de éxito en los procesos posteriores, para eliminar el
contraste y ruido.

Segmentación: Consiste en partir una imagen de entrada en sus partes constituyentes u


objetos. Esto se refiere al reconocimiento de caracteres, extrayendo los caracteres
individuales.
Representación: A la salida de segmentación se obtienen datos de píxel en bruto. Por lo que
se deben convertir los datos a una forma adecuada para el procesamiento de la imagen en la
computadora. Primero se debe observar si los datos pertenecen a un contorno o una región
completa.

Descripción: También llamada selección de rasgos, consiste en extraer rasgos con alguna
información cuantitativa de interés o que se fundamental para diferenciar una clase u objeto.

Reconocimiento: Es el proceso que asigna una etiqueta a un objeto basándose en la


información proporcionada.

Interpretación: Es asignar significado a un conjunto de objetos reconocidos.

2.3 Transformada Wavelets (ondeletas)


Permite identificar las señales no estacionarias, que presentan tendencias, cambios
bruscos, y comienzos y terminaciones de eventos, esto cambios no los puede identificar el
análisis de Fourier porque, al transformar al dominio de frecuencias, la información temporal
se pierde.


𝐶(𝑠𝑐𝑎𝑙𝑒, 𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛) = ∫ 𝑓(𝑡)Ѱ(𝑠𝑐𝑎𝑙𝑒, 𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛)𝑑𝑡
−∞

Figura 2-8 Transformada Wavelet

C es la suma sobre toda la señal multiplicada por versiones móviles, escaladas, de la


función wavelet ψ. La C se llama transformada continua de wavelet (CWT). Nótese que el
análisis de wavelet no utiliza una región de tiempo-frecuencia, sino una de tiempo-escala
(Cortázar, 2006).
2.3.1 Análisis de wavelets

La más grande ventaja es su habilidad para realizar análisis local—es decir, analizar un
área localizada de una señal más grande. Veamos un ejemplo:

Sinusoid con una pequeña discontinuidad

Figura 2-9 Señal discontinua

Una gráfica de los coeficientes de Fourier muestra sólo un espectro plano con dos picos
que representan una sola frecuencia. Sin embargo, una gráfica de los coeficientes de wavelets
muestran claramente la localización exacta, en el tiempo, de la discontinuidad (Cortázar,
2006).

2.3.2 Transformada de Wavelet Haar

Permite la descomponer una imagen a partir de algoritmos, descompone a imagen


(matriz) en coeficientes de aproximación y coeficientes de detalle vertical, horizontal y
diagonal usando teoremas importantes de integración que son: teorema fundamental del
cálculo y el teorema del valor medio para integrales (Márquez, 2007).

Ecuación de dilatación Φ(t)=Φ(2t)+Φ(2t-1) la función real Φ(t) que cumple la ecuación



∫−∞ Φ(t)dt = 1. 4

1 𝑐𝑢𝑎𝑛𝑑𝑜 𝑡 ∈ [0,1)
Φ(t) = {
0 𝑠𝑖 𝑡 ∈ 𝑅 − [0,1)
Figura 2-10 Grafica de la función Φ (Márquez, 2007)

Los segmentos de línea recta dirigida se toman a partir de cada número en la


respectiva matriz, representando gráficamente estos puntos de la siguiente forma:

Figura 2-11 Arreglo rectangular de números (Márquez, 2007)

El primer número en la matriz original 𝐶11 es la ordenación que corresponde al cero

en la abscisa, el segundo número 𝐶12 corresponde a la segunda ordenada que le corresponde


al uno y es la segunda abscisa con estas dos coordenadas, podemos calcular la pendiente y
con la ecuación punto-pendiente, se obtiene la ecuación de la recta para calcular la integral
definida.

Aplicando la definición del valor medio de la recta que dice: Si f es integrable en


1 𝑏
[a,b], entonces el valor medio de f en este intervalo se define como 𝑏−𝑎 ∫𝑎 𝑓(𝑥)𝑑𝑥 y el primer

teorema fundamental del cálculo, que dice: Sea f una función continua en el intervalo [a,b],
𝑏
entonces ∫𝑎 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑥)|𝑏𝑎 =F(b)-F(a), donde F es cualquier función tal que F´(x)=f(x)
para todo x en [a,b] (Márquez, 2007).
2.3.3 Transformada Wavelet dos niveles

La transformada wavelet de Haar se puede expresar en forma matricial como el producto


T = H ·F ·H ·T, siendo F la imagen de entrada de tamaño N x N, H la matriz de transformación
de N x N y T el resultado de la transformación. La matriz de transformación H de 2x2 es:

1 1 1
𝐻2 = [ ] 5
√2 1 −1

Esta base de funciones define el banco de 2 filtros FIR (Finite Impulse Response) que
satisface las condiciones de los QMF (Quadrature Mirror Filters). Los coeficientes de los
filtros QMF de análisis h0(n) y g0(n) son los elementos de la primera y segunda fila de la
matriz H2 respectivamente (Márquez, 2007).

De igual manera se definen las funciones scaling de Haar de nivel 1 cuyos coeficientes
son los de la primera fila de la matriz H y donde el orden o desplazamiento de los coeficientes
en la wavelet varía entre 1 y la mitad de la dimensión N o dimensión de la señal de partida:

Tanto las funciones wavelet como scaling de Haar a nivel 1 cumplen cinco propiedades
básicas:

a) Tienen energía igual a 1, es decir, tienen norma unitaria.

b) El soporte de todas las funciones, scaling o wavelet de orden m es el mismo.

c) Las funciones wavelet tienen una media igual a 0 y las scaling igual a 1/√2.

d) Cada scaling se obtiene a partir de la primera scaling desplazando los coeficientes no


nulos a la derecha 2m posiciones, siendo m el orden de la función (o traslación).

e) La familia de funciones wavelet y scaling forman una base ortonormal de RN, ya que
todas tienen norma unitaria y el producto interno entre ellas dos a dos es igual a 0.
2.4 Perceptrón Multicapa

El interés por la investigación en redes multicapa parte de los trabajos de Rosenblatt


(1962) sobre perceptrones y los de Widrow y sus alumnos sobre Madalines (1962). Los
Madalines estaban constituidos por varias unidades de entrada y varios elementos Adalides
en la primera capa, y con varios dispositivos lógicos (AND, OR,…) en la segunda capa.

El Perceptrón simple es capaz de resolver problemas de clasificación e implementar


funciones lógicas, como por ejemplo, la función OR, pero es incapaz de implementar
funciones como la función lógica XOR (función de paridad).

Las limitaciones de las redes de una sola capa hicieron que se plantease la necesidad de
implementar redes en las que se aumentase el número de capas, es decir, introducir capas
intermediarias o capas ocultas entre la capa de entrada y la capa de salida de manera que se
pudiese implementar cualquier función con el grado de precisión deseado, es decir, que las
redes multicapa fuesen aproximadores universales. Por ejemplo, con un Perceptrón con dos
capas se puede implementar la función lógica XOR.

De manera general, se puede ver que cualquier función Booleana de {0,1} N → {0,1} se
puede implementar con un perceptrón multicapa utilizando una sola capa intermedia de
unidades de proceso bipolares. Las entradas y las salidas también van a ser valores bipolares
(-1 ó 1). Para implementar una función Booleana vamos diseñar una red neuronal con tantas
unidades de proceso en la capa intermedia como argumentos de la función Booleana a los
que le asigna el valor 1 (salida verdadera). Por lo tanto, a cada patrón de entrada que tenga
salida igual a uno le asignamos una unidad de proceso cuyos pesos sinápticos van a ser los
mismos valores de la entrada y el umbral o sesgo va a ser igual a N. Finalmente, utilizando
una unidad de salida bipolar con sus pesos sinápticos iguales a 1 y un umbral o sesgo también
igual a 1 conseguimos la representación deseada. (Cowan & Hishar, 1988)

Para entender el perceptrón multicapa tenemos que responder primero a la siguiente


pregunta: ¿Qué papel desempeña la capa intermedia? La capa intermedia realiza una
proyección de los patrones de entrada en un cubo cuya dimensión viene dada por el número
de unidades de la capa oculta. Se trata de realizar una proyección en la que resulten separables
linealmente los patrones de entrada de manera que la unidad de salida se pueda realizar una
clasificación correcta. En el ejemplo anterior la capa intermedia ha realizado la siguiente
transformación:

Al patrón de entrada (1, -1) le asigna la salida (1, 0); al patrón de entrada (-1, 1) le
asigna la salida (0, 1); al patrón de entrada (1, 1) le asigna la salida (0,0) y al patrón de entrada
(-1,-1) le asigna la salida (0,0), como se muestra en la figura 8. Los patrones de entrada no
son separables linealmente pero una vez transformados por las neuronas de la capa intermedia
sí son ya separables linealmente (Cowan & Hishar, 1988).

Figura 2-12 Transformación que realiza la capa intermedia. (Cowan & Hishar, 1988)

Al tener estas redes una topología más complicada, también se complica la forma para
encontrar los pesos correctos, ya que el proceso de aprendizaje es el que decide qué
características de los patrones de entrada son representadas por la capa oculta de neuronas.
Se ha observado que se puede implementar cualquier función Booleana mediante un
perceptrón

2.4.1 Estructura de la red MLP

(Karayel, 2009) Un perceptrón multicapa (MLP) es una red de alimentación hacia


adelante que consiste de neuronas en una capa de entrada, una o más capas ocultas y una capa
de salida. Las diferentes capas están totalmente interconectados de tal manera que cada
neurona en una capa está conectada a todas las neuronas en la capa siguiente. Sin embargo,
las conexiones entre las neuronas en las mismas conexiones de la capa y de retroalimentación
no están permitidas.

La capa de entrada, que también se llama la capa de "amortiguador", no realiza ningún


procesamiento de la información. Cada una de sus neuronas sólo tiene una entrada, y
simplemente transmite el valor en su entrada a su salida. El procesamiento de la información
real se lleva a cabo por las neuronas en las capas ocultas y de salida. Las señales se transmiten
unidireccionalmente desde la capa de entrada a través de las capas ocultas a la capa de salida.

La información se almacena en las conexiones entre neuronas. El aprendizaje consiste


en la adaptación de los puntos fuertes (o pesos) de las conexiones de modo que la red deseada
produce patrones de salida correspondiente a patrones de entrada dados. En otras palabras,
podemos entrenar una red neural para realizar una función particular, mediante el ajuste de
los valores de las conexiones (pesos) entre las neuronas. A medida que se aplica cada entrada
a la red, la salida de la red se compara con el objetivo.

El error se calcula como la diferencia entre el objetivo de la salida y la salida de la


red. Queremos minimizar la media de la suma de estos errores. Cada neurona oculta o de
salida recibe un número de señales de entrada ponderados de cada una de las unidades de la
capa anterior y genera sólo un valor de salida.

El diagrama para una red con una sola neurona se muestra en la Fig. 9. Aquí, la entrada
escalar (xi) se transmite a través de una conexión que multiplica su fuerza por el peso-escalar
(w) para formar el producto (wx), de nuevo un escalar. Las entradas a la neurona pueden ser
desde el entorno real o de las otras neuronas. Su salida se puede introducir en otras neuronas
o directamente en el medio ambiente. Además, esta neurona tiene un sesgo escalar (bj). La
salida (yi) es producido por una función de activación y la red es entrenada mediante el ajuste
de los pesos (w) y el sesgo (b) para lograr el fin deseado.

Los pesos de la red se ajustan iterativamente para capturar la relación entre los
patrones de entrada y de salida.

Entradas Pesos Función Adicción Función Activación Salidas

𝒙𝟏 𝒘𝟏𝒋
𝑹𝒆𝒅𝒋
𝒘𝟐𝒋
𝒙𝟐 ∑𝒘𝒊𝒋 𝒙𝒊 +𝒃𝒋 f(activación) 𝒚𝒊
......

𝒘𝟑𝒋

𝒙𝟑

𝒃𝒋 Sesgo

Figura 2-13 Estructura de una Neurona Artificial (Karayel, 2009)


2.5 MATLAB

MATLAB es un software comercial de The Mathwork, este consiste de un “motor”


principal para realizar cálculos, y varias (opciones), extensas-bibliotecas de funciones
“llamadas cajas de herramientas” para aplicaciones con propósitos especiales.

La característica principal de MATLAB es que tiene muchas funciones matemáticas


robustas construidas dentro. Este lenguaje es interpretado lo que quiere decir que cada
recurso es analizado, (analizado y convertido) en forma de texto, sin convertirlo en un código
de máquina nativo ejecutable. Esto quiere decir que puede ser más lento ejecutar el código
dado en muchas circunstancias que el código equivalente escrito para un procesador
específico (Rosenberg, Hunt, & Lipsman, 2001).

La sintaxis de MATLAB es parecida a la de lenguaje C, más sin embargo el MATLAB


provee un medio más fácil para diseñar y probar algoritmos. Este lenguaje se puede usar de
forma interactiva en diversos sistemas computacionales. Solo se debe elegir “ayuda” y un
comando te proporciona asistencia de varias funciones. MATLAB te genera gráficos y
reportes de los datos procesados.

2.5.1 Procesamiento de señales utilizando MATLAB

Una vez que una señal es probada (en forma digital), puede ser manipulada usando
métodos matemáticos. Para ilustración suponga que se generan un grupo de muestras al azar
de N en MATLAB como sigue (Rosenberg, Hunt, & Lipsman, 2001):

Se considera la manipulación simple de una imagen en MATLAB. Se genera una NxM


imagen de pixeles aleatorios como sigue. Se debe tener en cuenta que una imagen se suele
considerar como altura y anchura, mientras que una matriz se conforma por filas y columnas
que lo denota x=rand(NxM).

El tamaño de la imagen en la pantalla corresponde al tamaño de la matriz, con los


pixeles de la imagen dimensionados apareciendo en el rango 0 a 255. La orden para establecer la
proporción dimensional asegura que los pixeles son cuadrados, en vez de deformados para satisfacer las
restricciones de tamaño del área disponible.
Ahora la imagen se convertirá a escala de grises donde 0 representa el negro y 255 el
representa el blanco. Para que sea conveniente, los marcadores del eje deben estar apagados
usando axis (‘off’). El resultado de la imagen se observa en la figura 2-12.

Figura 2-14 Imagen convertida a escala de grises de tamaño 128 x64 (que es 64 filas y 128 columnas) (Rosenberg, Hunt,
& Lipsman, 2001).

2.5.2 Almacenamiento de imágenes

Las imágenes son probadas espacialmente, en un patrón cuadriculado. Una matriz de


muestras es la representación matemática ideal para estas muestras, "pixeles" llamados o
"exposiciones permisibles" (imagen elementos). Por supuesto hay una relación temporal
(tiempo) para la posición de cada imágenes de pixel que generalmente se escanean de
izquierda a derecha de arriba abajo (Rosenberg, Hunt, & Lipsman, 2001).

Dado que el espacio de memoria es lineal, los mismos píxeles que forman la matriz de la
imagen X (m, n) se asignan en el orden de exploración. Esto se representa en la Figura 2-13
Figura 2-15 Mapeo del video de memoria. Imagen proyectada a dos – dimensional, sobre una memoria de uno
–dimensional (Rosenberg, Hunt, & Lipsman, 2001).

Las secuencias son efectivamente una concatenación de cuadros-sucesivos de la imagen,


reproducida en la velocidad de fotogramas adecuada. Para la k-ésima trama, los píxeles
pueden denotarse X k (m, n). Teniendo en cuenta que esto ilustra una fila - sabio
ordenamiento de los píxeles. Alternativamente, los píxeles pueden ser almacenados por
columnas. Esto, de hecho, se devuelve la representación si usamos el operador "dos puntos"
en MATLAB (Rajaram, Gowri, & Murali, 2007).

2.6 Diseño de Experimentos


La experimentación puede considerarse parte del proceso científico y uno de los medios
para conocer el funcionamiento de sistemas o procesos. Un experimento consiste en una
prueba o serie de pruebas en las que se realizan cambios intencionados a las variables de
entrada de un proceso o sistema para que se pueda observar e identificar las razones de
cambios que podrían ser observadas en la variable de respuesta.

El aprendizaje ocurre a través de una serie de actividades en las que se hacen


conjeturas acerca de un proceso, se lleva a cabo experimentos para poder generar datos de un
proceso y se usa la información del experimento para establecer nuevas conjeturas que lleva
a nuevos experimento. En particular un experimento se realiza para validar un proceso, y
evaluar todas las alternativas posibles para que el producto tenga un buen funcionamiento.
(Montgomery, 2014)
2.6.1 Diseño factorial 𝟐𝒌

El diseño factorial se usa ampliamente en experimentos que incluyen varios factores


cuando es necesario estudiar el efecto conjunto de los factores sobre una respuesta. Existen
varios casos especiales del diseño factorial general que son importantes debido a su uso
generalizado en el trabajo de investigación y porque forman las bases de otros diseños de
considerable valor práctico.

El más importante de estos casos especiales es el que contiene k factores, con cada
uno a dos niveles. Estos niveles pueden ser cuantitativos, como dos niveles de temperatura,
presión o tiempo, o podrían ser cualitativos, como dos máquinas, dos operadores o tal vez la
presencia o ausencia de un factor. Una réplica completa de un diseño 2k requiere 2  2  ……..
 2 = 2k observaciones y es llamado diseño factorial 2k.
El diseño 2k es de particular utilidad en las etapas iniciales del trabajo experimental,
cuando hay muchos factores a ser investigados. Este diseño proporciona el menor número de
corridas con las que pueden estudiarse k factores en un diseño factorial completo. Por
consecuencia estos diseños son ampliamente usados en experimentos de filtrado de factores.
Dado que hay solo dos niveles para cada factor, nosotros asumimos que la respuesta
es aproximadamente lineal sobre el rango de los factores escogidos. En muchos experimentos
de filtrado de factores, cuando estamos en un punto inicial en el estudio del procesos o
sistema, esto es usualmente una suposición razonable (Montgomery, 2014).

2.6.1.1 El diseño 22

El primer diseño en la serie 2k es que contiene solo dos factores, digamos A y B, cada
uno a dos niveles. Este diseño es llamado diseño factorial 22. Los niveles de los factores
pueden ser llamados de forma arbitraria como ‘’bajo’’ y ‘’alto’’.
Tabla 4 de un diseño 22 efecto (Montgomery, 2014)

Factor Combinación de
A B tratamientos
- - A bajo, B bajo
+ - A alto, B bajo
- + A bajo, B alto
+ + A alto, B alto
El efecto de un factor se denota con una letra mayúscula latina. Por lo cual “A” se refiere
al efecto del factor A, “B” al efecto del factor B y “AB” a la interacción de AB. En el diseño
22 los niveles bajo y alto de A y B se denotan por “-” y “+”, respectivamente en los ejes A y
B.

Figura 2-16 combinaciones de los tratamientos en el diseño 2 2 (Montgomery, 2014)

Los cuatro niveles de tratamiento se representan en letras minúsculas como lo muestra la


figura 2-14. El nivel alto de cualquier de los factores se denota por la letra minúscula
correspondiente y que el nivel bajo de un factor en una combinación de un tratamiento se
denota por su ausencia de la letra respectiva como se puede observar en la figura. Por tanto,
a representa la combinación de tratamientos con A en el nivel alto y B el nivel bajo, b
representa A en nivel bajo y B en el nivel alto y ab representa ambos factores en el nivel alto.
Por convención se usa (1) para denotar que ambos factores están en el nivel bajo. Esta
notación se utiliza en toda la series 2𝑘 (Montgomery, 2014).

En un diseño factorial con dos niveles, el efecto promedio puede definirse como el
cambio en la respuesta producido por un cambio en el nivel de ese factor promedio para los
niveles de otro factor (Montgomery, 2014).

2.6.2 El diseño general 𝟐𝒌

El modelo estadístico para para un diseño 2𝑘 incluye K efectos principales, (𝑘2 )


interacciones de dos factores, (𝑘3 ) interacciones de tres factores, …, y una interacción de k
factores. Es decir, para un diseño 2𝑘 el modelo completo contendría 2𝑘 − 1 efectos. Si se
toma un diseño 25 , abd denota la combinación de tratamientos con los factores A, B y D en
el nivel alto y los factores C y E en el nivel bajo. Las combinaciones de los tratamientos
pueden escribirse en orden estándar introduciendo los factores uno a la vez y combinando
sucesivamente cada nuevo factor con los que le preceden.

El enfoque general para el análisis estadístico del diseño 2𝑘 se resume en la tabla


siguiente (Montgomery, 2014).

Tabla 5 Procedimiento de análisis para un diseño 2k

1. Estimar los efectos de los factores


2. Formar el modelo inicial
3. Realizar las pruebas estadísticas
4. Refinar el modelo
5. Analizar los residuales
6. Interpretar los resultados

El primer paso es estimar los efectos de los factores y examinar sus signos y
magnitudes. De este modo el experimentador obtiene información preliminar respecto a los
factores y a las interacciones que pueden ser importantes, y en qué dirección deberán
ajustarse estos factores para mejorar la respuesta.

Para formar el modelo inicial del experimento, por lo general se usa el modelo
completo, es decir, todos los efectos principales y las interacciones, siempre que se haya
hecho una réplica de al menos uno de los puntos del diseño.

En el paso 3 se realiza el análisis de varianza para probar formalmente la significación


de los efectos principales y las interacciones. En la Tabla 2.6 se presenta la forma general de
un análisis de varianza para un diseño factorial 2𝑘 con n réplicas (Montgomery, 2014).

El paso 4, refinar el modelo, suele consistir en la eliminación de las variables no


significativas del modelo completo. El paso 5 es el análisis residual, si se encuentra que el
modelo es inadecuado o que hay violaciones seria de los supuestos. El último paso consiste
generalmente en el análisis gráfico: graficas de los efectos principales o las interacciones, o
superficies de respuesta y graficas de contornos.

Aun cuando los cálculos descritos se realizan por lo general con una computadora, en
ocasiones es necesario calcular manualmente la estimación de un efecto o la suma de
cuadrados de un efecto. Para estimar un efecto primero debe calcularse el contraste del efecto.
Para valores grandes de k, puede usarse un método alternativo. En general el contraste del
efecto AB…K se determina expandiendo el miembro derecho (Montgomery, 2014).

𝐶𝑜𝑛𝑡𝑟𝑎𝑠𝑡𝑒𝐴𝐵…𝐾=(𝑎±1)(𝑏±1)…(𝑘±1)
𝐾
Tabla 6 Análisis de varianza de un diseño 2

Grados
Fuentes de Suma de de
variación cuadrados libertad
k efectos principales
A 𝑆𝑆𝐴 1
B 𝑆𝑆𝐵 1
. . .
. . .
. .
𝑆𝑆
.
𝐾
K 1
(𝑘2 ) interacciones de dos factores
AB 𝑆𝑆𝐴𝐵 1
AC 𝑆𝑆𝐴𝐶 1
. . .
. . .
. . .
JK 𝑆𝑆𝐽𝐾 1
𝑘 interacciones de tres factores
(3 )
ABC 𝑆𝑆𝐴𝐵𝐷 1
ABD 𝑆𝑆𝐴𝐵𝐶 1
. . .
. . .
. . .
IJK 𝑆𝑆𝐼𝐽𝐾 1
. . .
. . .
. . .
(𝑘𝑘 ) =1 interacciones de k
factores
ABC….K 𝑆𝑆𝐴𝐵𝐶…𝐾 1
Error 𝑆𝑆𝐸 2𝐾 (n − 1)
Total 𝑆𝑆𝑇 𝑛2𝐾 − 1
2.6.3 Diseños factoriales fraccionados

Montgomery (2014) menciona lo siguiente: En un diseño clásico, cuando el número


de factores de un diseño factorial 2k se incrementa, el número de corridas necesarias para
realizar una réplica completa del diseño rebasa con rapidez los recursos de los
experimentadores, por ejemplo, si se tuviera un diseño 26 implicara correr 64 corridas, que
corresponden al número de tratamientos del diseño.

Si el experimentador puede suponer razonablemente que ciertas interacciones de


orden superior son insignificantes, es posible obtener información de los efectos principales
y las interacciones de orden inferior corriendo únicamente una fracción del experimento
factorial completo. Estos diseños factoriales fraccionados se encuentran entre los tipos de
diseños de uso más generalizado en el diseño de productos, desarrollo industrial y en el
mejoramiento de procesos.

Una de las principales aplicaciones de los diseños factoriales fraccionados es en los


experimentos de tamizado o exploración. Se trata de experimentos en los que se consideran
muchos factores y el objetico es identificar aquellos factores (en caso de haberlos) los
experimentos de tamizado suelen realizarse en las etapas iniciales de un proyecto, cuando es
posible que muchos de los factores que se identifican como importantes se investigan con
mayor detalle en experimentos subsecuentes.

El uso exitoso de los diseños factoriales fraccionados se basan en tres ideas clave:

1. Principio de escases de efectos: Cuando hay varias variables el sistema o proceso es


probablemente influenciado principalmente por algunos de los efectos principales e
interacciones de bajo orden
2. La propiedad de proyección: Los diseños factoriales fraccionados pueden ser
proyectados en un diseño más grande usando el subgrupo de factores significativos
3. Experimentación secuencial: Es posible combinar la corridas de dos o más
fracciones para formar un diseño más grande que sea capaz de estimar efectos
principales e interacciones de interés
Aplicación de los diseños factoriales fraccionados

A continuación se presentan algunas de las aplicaciones de los diseños factoriales


fraccionados en los campos de la investigación y de la industria:

 Mejora en el rendimiento de procesos.


 Reducción de la variabilidad y desempeño más cercano a los requerimientos objetivos
o nominales.
 Reducción del tiempo de desarrollo.
 Reducción de costos generales.
 Evaluación y comparación de configuraciones básicas de diseño
 Evaluación de alternativas de materiales.
 Selección de parámetros de diseño de tal forma que el proceso trabaje bien bajo una
amplia variedad de condiciones, es decir, que sea robusto.
 Determinación de parámetros clave de diseño del producto que impacten el
desempeño del mismo.
 El uso del diseño experimental en estas áreas puede resultar en productos que son
más fáciles de manufacturar, productos que tienen un desempeño y confiabilidad
superiores, costos más bajos de producción y tiempos de desarrollo y diseño del
producto más corto.

(Montgomery, 2014) señala que en la práctica, los diseños factoriales fraccionados 2k-p con
N=4, 8, 16, y 32 corridas son muy útiles.

Objetivos principales

De acuerdo con Montgomery (2014) se tienen como mínimo dos objetivos principales en
los diseños factoriales fraccionados:

 Proporcionar al experimentador conjeturas y resultados sobre los efectos principales.


 Optimizar los recursos del experimentador.
Desventajas

Montgomery (20014) menciona lo siguiente: A mayor valor de k, será mayor el grado


de fraccionamiento.

Como consecuencia de correr sólo una fracción del diseño factorial completo se tienen como
consecuencias algunas desventajas entre las que destacan:

 La perdida de información, ya que habrá efectos que no puedan estimarse y se tienen


menos grados de libertad disponibles para el error.
 El diseño se comienza a correlacionar.
 Se genera una estructura de alias. El que un efecto sea alias de otro significa que en
realidad son el mismo efecto con nombres distintos.
Ventajas

Con el uso de diseños factoriales fraccionados también se obtienen ventajas en las que
destacan:

 La pérdida de información proporcionada por las interacciones de orden superior es


usualmente justificada por los ahorros en dinero, tiempo y recursos que se generan,
es decir, se obtiene una reducción significativa de costo debido a un menor número
de corridas, además de ser más rápido que un diseño completo.
 No debe de perderse de vista el costo del muestreo y tiempo del experimentador, así
como equipo en uso, los cuales también se reducen con el uso de esta estrategia.

Estructura de alias

La estructura de alias es un arregló que muestra la forma en que los términos del diseño
quedan confundidos unos con otros. La estructura de alias se obtiene al multiplicar cada
término del diseño por cada termino o ‘‘palabra’’ de la relación definidora. Por ejemplo, si
se multiplica A por ABC se genera A*ABC = A2*BC = I*BC = BC, esto significa que el
factor A esta correlacionado con la interacción BC (Montgomery, 2014).

La fracción resultante es una mitad de un diseño factorial 23 y se conoce como un diseño


fraccionado 23-1 con relación definidora I = ABC. Si el experimentador hubiese decidido usar
la fracción alternativa (con signos negativos en ABC) el diseño resultante hubiese sido un 23-
1
con relación definidora I = -ABC (Montgomery, 2014).
2.6.3.1 Incremento de corridas en los diseños factoriales

Los experimentadores a menudo utilizan diseños factoriales de 2 niveles para


investigar el efecto de varios factores simultáneamente. El número total de corridas
requeridas por un diseño factorial completo 2k se incrementa geométricamente a medida que
el número de k factores se incrementan, esto hace más deseable el uso de diseños factoriales
fraccionados para reducir el número de corridas, la tabla 2.2 muestra el número de corridas
necesarias de acuerdo al número de factores, así como el orden y número de
interacciones(Montgomery, 2014)..

Tabla 7 Corridas necesarias en los diseños factoriales (Mongomery, 2014).

Un diseño factorial 23 se muestra en la tabla 2.3 en el que los signos positivos y negativos de
la interacción ABC son agrupados y dividen el diseño original en dos fracciones.

Tabla 8 Signos positivos y negativos del diseño factorial 23 (Montgomery, 2014).


Generadores

La fracción 2 o complementaria mostrada en la tabla 8, se genera con I=-ABC, la letra


I surge porque este efecto generado hace las veces de identidad o neutro multiplicativo, de
aquí que el efecto no estimable se llama generador de la fracción, puesto que su contraste es
la base para construir las dos fracciones (Montgomery, 2014).

Se puede observar que las corridas que forman ambas fracciones en la tabla 2.4 todos los
factores están dos veces en nivel alto (+) y dos veces en nivel bajo (-), además en las
corridas en que un factor tiene los mismos signos, los otros factores tienen un signo más y
uno menos. Lo anterior se desprende de la propiedad de ortogonalidad. Al correr alguna de
las fracciones que se muestra en la tabla 8 no se podrá estimar el efecto ABC, puesto que no
tiene contraste: por ejemplo, para la fracción 1, el contraste ABC tiene sólo signos +, por lo
que no existe tal contraste.

Debido a que el “contraste ABC” sólo tiene signos positivos, se dice que se confunde o se
alía con el total de los datos, o dicho de otro modo, el efecto ABC se confunde con la media
global.

Relación definidora

En la estructura de alias del diseño 23-1 con I = ABC, (Montgomery, 2014), señala que
al estimar los efectos potencialmente importantes con cualquiera de las fracciones dadas en
la tabla 8, resulta que cada efecto estimado tiene un alias. Se considera por ejemplo, la
fracción 1 de la misma tabla 8. En este diseño se generó con I= +ABC, que en este caso
también es la relación definidora, ya que define totalmente la estructura del alias del diseño,
la cual consiste en escribir de manera explícita cuáles son los alias de cada efecto, y esta
estructura se deduce fácilmente del generador de la fracción, considerando el signo utilizado,
por ejemplo en la tabla 8, el contraste del efecto A está dado por:

Contraste A  a  abc  b  c
Estructura de alias
Contraste A  a  abc  b  c

Mientras que al multiplicar las columnas B x C se obtiene,

Contraste BC  a  abc  b  c 
Se puede observar que el contraste A= contraste BC, lo cual significa que los efectos
A y BC son alias, al estimar el efecto A también se estima el efecto BC. Así que, en realidad
se estima la suma de A+ BC de ambos efectos y no se sabe con certeza cuál es el que
predomina o si ambos afectan. En resumen la estructura de alias para el diseño factorial
fraccionado 23-1 está dada por:

A  BC

B  AC

C  AB

Relación definidora: está dada por los generadores de una fracción, más todos sus posibles
productos entre sí, si hay un generador éste también es la relación definidora.

2.6.3.2 Resolución en el diseño factorial fraccionado

En cuanto a la resolución de un diseño factorial fraccionado (Montgomery, 2014), Al


correr un diseño factorial fraccionado los efectos no pueden estimarse de manera aislada,
sino que se estiman las sumas (o restas) de efectos alias. La interpretación de aliados que se
suman se hace fácilmente si puede suponerse que todos los sumandos, excepto uno, no son
importantes. Así, el efecto total se puede atribuir a este único efecto que se considera
relevante. Entonces, la estrategia es elegir, siempre que sea posible, diseños fraccionados en
los cuales los efectos potencialmente importantes sean alias de efectos que sea razonable
suponer que son poco importantes. Esto se logra con diseños factoriales fraccionados que
tengan alta resolución. La resolución es una característica de un factorial fraccionado, que
indica qué tan bien pueden estudiarse los efectos potencialmente importantes mediante tal
diseño.

Una definición de resolución es la siguiente: Un diseño factorial fraccionado es de


resolución R si los efectos formados por la interacción de P factores, no son alias de efectos
de interacción que tengan menos de R-P factores.

En general, en los diseños factoriales fraccionados en dos niveles, la resolución está dada
por la “palabra o efecto” de la relación definidora con el menor número de letras. Por ejemplo,
k-1
en los diseños 2 la resolución es igual al número de letras del 23-1,24-1 y 25-1 tienen
resolución III, IV y V, respectivamente, porque sus generadores correspondientes se
componen de 3, 4 y 5 letras.

2.7 Estado del Arte

Existen muchos métodos para obtener la rugosidad superficial de piezas metálicas, varias
investigaciones han demostrado que la medición con visión es una buena herramienta para
determinar los parámetros de rugosidad, en la universidad de León España (Alegre, Mórala
Argüello, & Barreiro, 2012) implementan un método de multi-resolución basado en el
procesamiento de imágenes de una superficie para la inspección automática de la calidad
visual y la obtención de la rugosidad superficial en el proceso de transformación.

La metodología propuesta se basa en la extracción de características de textura de


imágenes obtenidas de la superficie de una pieza en un dominio de frecuencia utilizando
transformada wavelet.
Aplicando un nivel Haar de transformada wavelet en la imagen de la superficie
original y se obtuvieron cuatro replicas o sub-imágenes, esta replica se utiliza para la
extracción de caracteres de forma horizontal, y otra para los caracteres de forma vertical, y
una para caracteres diagonales.
Evaluación de superficie fue lograda por medio del análisis de niveles de gris en sub-
imagen del detalle vertical. Por último, se realizó una clasificación de la textura por medio
de un perceptrón multicapa artificial de una red neuronal.
Los resultados experimentales mostraron que el enfoque propuesto alcanza tasas de error
entre 2,59% y 4,17%.
(Jeyapoovan & Murugan, 2013) Presentan un método basado en sistemas de visión,
para la caracterización de las superficies mecanizadas. Las distancias euclidianas y Hamming
de las imágenes de la superficie se utilizan para el reconocimiento de superficie. Utilizando
una cámara CCD y fuente de luz policromática, se capturaron las imágenes de baja incidencia
del ángulo de las superficies mecanizadas con diferentes valores de rugosidad superficial.

Un vector de la señal se genera a partir de la intensidad de píxel de la imagen y se


procesó utilizando el software MATLAB. Se estableció una base de datos de imágenes de
referencia con valores de rugosidad superficial conocida. Las distancias euclidianas y de
Hamming entre cualquier nueva superficie de prueba y las imágenes de referencia en la base
de datos fueron utilizados para predecir la rugosidad superficial de la superficie de ensayo.

(Grzndaa & Bustillo, 2013) En esta investigación se desarrolla un modelo de


predicción utilizando redes neuronales artificiales, para la transformación de datos iniciales
y su efecto en la predicción de la rugosidad superficial en las operaciones de fresado frontal
de alto esfuerzo.

Se obtienen un amplio conjunto de datos a partir de experimentos realizados en


condiciones industriales. El conjunto de datos incluye un conjunto muy amplio de diferentes
parámetros que influyen en la rugosidad de la superficie: propiedades de la herramienta de
corte, parámetros de mecanizado y fenómenos de corte.

Algunos de estos parámetros potencialmente pueden estar relacionados o sólo tener


una influencia menor en el modelo de predicción. Además, dependiendo del número de
registros disponibles, los modelos de aprendizaje de máquina pueden o no ser capaz de
modelar datos de dependencias subyacentes.

Se propone un algoritmo híbrido que combina un algoritmo genético con redes


neuronales, con el fin de hacer frente a la selección de los parámetros pertinentes y su
transformación apropiada. El algoritmo fue probado realizando una serie de experimentos
bajo condiciones de taller, comparando el modelo con un perceptrón multicapa estándar
entrenado, demostrando mejoras significativas en la calidad de los modelos.

(Pontes, Paulo de Paiva, & Balestras, 2012) En esta investigación se llevó a cabo un
estudio sobre la aplicabilidad de la función de base radial (RBF) en redes neuronales para la
predicción de rugosidad media (Ra) en el proceso de giro de SAE 52100 de acero endurecido,
con el uso de matrices ortogonales de Taguchi como una herramienta para el diseño de los
parámetros de la red.

Los experimentos se llevaron a cabo con conjuntos de formación de diferentes


tamaños para hacer posible comparar el desempeño de la mejor red obtenido de cada
experimento. Se consideraron los siguientes factores de diseño: (i) el número de unidades
radiales, (ii) el algoritmo para la selección de los centros radiales y (iii) algoritmo para la
selección del factor de propagación de la función radial.
El modelo que se obtuvo en esta investigación utilizando redes neuronales artificiales
(RNA) demostró ser capaz de predecir la rugosidad superficial de forma exacta y precisa. El
resultado señalo factores importantes para el diseño de redes teniendo una influencia
significativa en el rendimiento de la red. La metodología (DOE) diseño de experimentos
constituye un mejor enfoque para el diseño en redes RBF, utilizando el método de prueba y
error.

(Suarez, Alegre, & González, 2010) Proponen un nuevo descriptor basado en Laws
que permite cuantificar el valor de la rugosidad superficial de piezas metálicas que han sido
mecanizadas mediante operaciones de torneado. La solución que se presenta se basa en un
sistema de visión que analiza la rugosidad de las piezas a partir de la textura de las imágenes.
Se han realizado operaciones de torneado utilizando la aleación AISI 6150. El kernel
desarrollado para cuantificar la rugosidad es una variación del R5R5 presentado por Laws.
Los resultados demuestran que el kernel propuesto R5SR5S permite cuantificar mejor la
rugosidad, logrando una tasa de acierto en la clasificación de 95,87%, 97,3% y 100% con
LDA, QDA y K-NN respectivamente.

(Karayel, 2009) En este trabajo, el tipo de propagación hacia atrás es el algoritmo del
gradiente conjugado escalado (SCGA) y la función de activación es una función sigmoidal.
Los pesos son cuasi-aleatorios para los valores iniciales y luego se actualizan de forma
iterativa hasta que convergen a ciertos valores utilizando el algoritmo de entrenamiento, dos
arquitecturas de redes neuronales diferentes, uno de ellos se refiere a Ra y los otros se refiere
a Rz y Rm, se han utilizado en este estudio. Ambas arquitecturas constan de tres capas: una
capa de entrada, una capa oculta y una capa de salida. Pero Ra, Rz y Rm se han evaluado de
forma individual.
El número de neuronas en las capas de entrada y de salida se basa en la geometría del
problema. Así la capa de entrada recibe el patrón a ser identificada tiene tres neuronas. La
capa de salida, que procesa características extraídas para obtener la clase de modelo, tiene
una neurona. Sin embargo, no existe una regla general para la selección del número de
neuronas en una capa oculta y el número de capas ocultas (Pala et al., 2008). Por lo tanto, el
número de capas y neuronas ocultas en la capa oculta se han determinado por ensayo y están
basados en el error menos eficaz y la arquitectura óptima red neuronal ha sido diseñada
utilizando la Red Caja de herramientas MATLAB Neural.
No se utilizó ningún factor de suavizado. Los valores estimados de la rugosidad
superficial obtenidos por diversas estructuras de redes neuronales. Las neuronas en la capa
de entrada tienen la activación de la unidad (o función de transferencia). Es decir, que
simplemente transmiten los valores (a escala) del dibujo señala directamente a la capa oculta.
Metodología
La metodología propuesta es, usar un sistema de visión artificial para la medición de
rugosidad, utilizando una cámara CCD para la captura de imágenes de piezas mecanizadas,
y se realizara la adecuación del lugar instalando un led de iluminación difusa y homogénea
para evitar el reflejo del material al momento de la captura de la imagen, para el
procesamiento de la información se requiere del uso del software MATLAB instalado en un
ordenador.

Se pretende obtener una rugosidad estimada que iguale la medición de la rugosidad


obtenida con un rugosímetro tradicional, por tanto se determinara la rugosidad de las piezas
con un rugosímetro tradicional para realizar la comparación con el sistema de visión, se
definirán los parámetros y se clasificaran las piezas. Para la validación del sistema se
realizara una serie de pruebas utilizando diseño de experimentos con un diseño factorial 2𝐾 .

La Metodología a seguir se estructura en etapas y pasos las cuales se presentan a


continuación:

1) Recolección de información General


c) Consulta de libros relacionados con la medición de rugosidad
d) Consulta de artículos que proponen el uso de sistemas de visión.
2) Montaje de sistema de Visión Artificial
e) Instalación de cámara CCD
f) Instalación de Led de iluminación
g) Selección de Equipo de cómputo “ordenador”
h) Instalación Software Matlab.
3) Medición de piezas con rugosimetro tradicional
d) Selección de pieza sujeto a estudio
e) Establecer parámetros
f) Medir piezas
4) Medición de piezas por Visión artificial
d) Captura de imagen
e) Procesamiento de imagen por medio del Software Matlab
 Transformar imagen a escala de grises
 Aplicación de un nivel haar de la transformada wavelet para seccionar la
imagen y obtener características.
5) Clasificación de rugosidad por medio de una red neuronal utilizando un perceptrón
multicapa
 Realizar pruebas y definir parámetros de rugosidad en un algoritmo.
 Definir capas de entrada y salida.
6) Validación del sistema de Visión
c) Se realizarán una serie de experimentos utilizando un diseño factorial 2𝐾 .
d) Realizar comparación y determinar errores que presente el sistema en comparación
con el rugosimetro tradicional.
Inicio

Consulta de fuentes
bibliográficas

Montaje de sistema
VA

Pieza sujeta a
estudio

No
Determinar Ra
con rugosimetro

Si

Captura de imagen

Procesamiento de
imagen

No Clasificación
ANN

Si

Validación de
sistema Fin

Figura 3-1 Diagrama de flujo del sistema de visión


3.1 Montaje de Visión Artificial

Se selecciona los componentes que integra el sistema de visión artificial, como son la
cámara CCD que permite la captura de imágenes para su posterior procesamiento, se requiere
de una led de luz difusa y homogénea que evite el reflejo al momento de capturar la imagen,
se requiere de un ordenador en el cual se instala el software MATLAB para el tratamiento de
la información obtenida por medio de imágenes.

3.2 Medición de piezas con rugosímetro tradicional


Selección de piezas sujetas a estudio y determinación de rugosímetro a utilizar para la
obtención de la rugosidad de las piezas, se definen los parámetros y se establecen rangos que
se mantenga la pieza con una calidad aceptable. Se realiza la medición de las piezas y se
almacena información para su posterior tratamiento.

3.3 Medición de pieza por visión artificial

Se realiza la captura de la imagen y se determina si el sistema de iluminación es el


adecuado al momento de la captura y se hacen los ajustes necesarios, una vez que el sistema
está funcionando adecuadamente, se analiza la imagen obtenida usando el software Matlab y
programando cada función, se transforma la imagen a escala de grises utilizando un comando
en Matlab.

Una vez que la imagen se ha convertido a escala de grises se debe aplicar un nivel haar
de wavelet que permite la descomponer de la imagen a partir de algoritmos, descompone a
la imagen (matriz) en coeficientes de aproximación y coeficientes de detalle vertical,
horizontal y diagonal, una vez obtenidos los coeficiente se procede a caracterizar cada
sección y así analizar la imagen por sección y obtener la medida de rugosidad.
3.3 Clasificación de rugosidad por medio de una red neuronal

Generar un algoritmo estableciendo los parámetros de rugosidad aceptable ya definida


con el rugosimetro tradicional, utilizando un perceptor multicapa determinando los pesos de
entrada y salida, y la acción que debe realizar la capa oculta es la que por medio de los
parámetros ya definidos debe clasificar la información y arrogar la información a la capa de
salida, se debe minimizar el error.

3.4 Validación del sistema de visión artificial


Para validar el sistema se utiliza diseño de experimentos, utilizando un diseño factorial
2k, se determinan los factores adecuados para el sistema y la resolución adecuada para hacer
las corridas, una vez definiendo esto se procede a realizar pruebas y analizar el
comportamiento del sistema, cambiando los diferentes factores ver que corrida nos da
mejores resultados y con el perceptor multicapa verificar que se esté realizando una
clasificación precisa y si no es así realizar modificaciones al algoritmo.

Se realiza una comparación de los resultados obtenidos por medio de visión artificial
contra los obtenidos con rugosímetro tradicional, para verificar que tan confiable es el
sismeta.
Referencias
Alegre, E., Morala, P., & Barreiro, J. (2012). A evaluation of Surface roughness classes by
computer vision using wavelet transform in the frecuency domain. The internacional
Journal of Advanced Manufacturig Technology, 59, 10.

Azorín, L. J. (Julio de 2007). Modelado de Sistemas para Vision de Objetos Especulares.


Inspección Visual Automática en Produccion Industrial. Alicate.

Cortazar Martínez, O. (Junio de 2006). Procesamiento digital de imagenes usando wavelets.


Hidalgo, Mexico.

Cowan, J. D., & Hishar, D. (Marzo de 1988). Neural and Artificial Intelligen. Obtenido de
JSTOR: http://www.jstor.org/stable/20025140

Gadelmawala, E. (2004). A vision system for surface roughness characterization using the
gray level co-occurrence matrix. NDT&E International 37, 12.

Ghassan, A., Kindi, A., & Shirinzade, B. (2007). An evaluation of surface roughness
parameters measurement using vision-based data. International Journal of Machine
Tools & Manufacture, 12.

Gonzalez, C., & Zeleny, R. (1995). Metrologá Superficial Rugosidad. En Metrología (págs.
427-461). México D.F.: McGraw Hill.

Grzndaa, M., & Bustillo, A. (2013). The evolutionary development of roughness prediction
models. Applied Soft Computing, 10. Obtenido de Elsevier:
www.elsevier.com/locate/asoc

Infaimon. (Febrero de 2015). IFAIMON. Obtenido de http://www.infaimon.com

Jeyapoovan, T., & Murugan, M. (2013). Surface roughness classification using image
processing. Measurement, 8.

Karayel, D. (2009). Prediction and control of surface roughness in CNC lathe using artificial
neural network. Jornal of Material Technology 209, 13.

Lee, B., & Yu, S. (2002). The model of surface roughness inspection by vision system in
turning. Mechatronics, 13.
Márquez Belzunce, P. (2007). Estudio de Técnicas Basadas en la Transformada Wavelet y
Optimización de sus Parámetros para la Clasificación por Texturas de Imágenes
Digitales. Valencia.

Montgomery, D. C. (2014). Diseño factorial 2^k. En Diseño y analisis de experimentos (págs.


218-227). México: Limusa Wiley.

Pontes, F. J., Paulo de Paiva, A., & Balestras, P. P. (2012). Optimitation de Radial Basis
Fuction neural network employed for prediction of surface rughness in hard turning
process using Taguchi's orthogonal arrays. Expert Systems with Applications, 12.

Poveda, S. (2001). Acabado Superficial. Madrid: VGG.

Rajaram Narayanan, M., Gowri, S., & Murali Krishna, M. (2 de July de 2007). On Line
Surface Roghnes Measurement Using Image Processing and Machine Vision. 1, 3.
London, U. K.

Rodriguez Tirado, J. A. (Mayo de 2009). Inspección del Acabado Superficial para Procesos
de Rectificado y Fresado Mediante un Esparcimiento de Luz Láser. Santiago de
Queretaro, México.

Rosenberg, J. M., Hunt, B. R., & Lipsman, R. L. (2001). A guide to MATLAB for beginners
and experienced users. Cambridge.

Suarez Castllón, S., Alegre, E., Barreiro García, J., & González castro, V. (2010).
Cuantificacion de la rugosidad superficial de piezas mecanizadas,. Dpto. Ing.
Eléctrica y de Sistemas y Automática, Univ. de León, León, España.

Villanueva Pruneda, S. A., & Ramos Watanave, J. (1989). Rugosidad. En Manual de


Metodos de Fabricación Metalmecanica (págs. 89-102). D.F., México : AGT Editor,
S.A.

Wenming, Y., Zhang, X., Chap, L., & Qingmin, L. (2007). Evaluating Surface Roughnees of
Castings Using K-Means Clustering and Watershed Transform. Tsigua University
Shenzhen, China.

También podría gustarte