Está en la página 1de 112

Metodología para el análisis de

velocimetría de partículas por medio del


tratamiento de imágenes

Michelle Maceas Henao

Universidad Nacional de Colombia


Facultad de Minas, Departamento de eléctrica y control
Medellín, Colombia
2017
Metodología para el análisis de
velocimetría de partículas por medio del
tratamiento de imágenes

Michelle Maceas Henao

Tesis o trabajo de investigación presentada(o) como requisito parcial para optar al título de:
Magíster en Ingeniería – énfasis automatización industrial

Director:
Ph.D. Freddy Bolaños Martínez
Codirector (a):
Ph.D. Andrés Fernando Osorio Arias

Línea de Investigación:
Procesamiento digital de imágenes
Grupo de Investigación:
Grupo en oceanografía e ingeniería costera OCEANICOS

Universidad Nacional de Colombia


Facultad de Minas, Departamento Eléctrica y control
Medellín, Colombia
2017
“Hay una fuerza motriz más poderosa que el vapor,
la electricidad y la energía atómica: la voluntad”
Albert Einstein

Dedico esta tesis especialmente a mi mami, por la


paciencia, el amor y la entrega en todos mis años
de estudio.

A mi amiga María Fernanda Cardona por


escucharme y tratar de entender un tema totalmente
ajeno a su profesión.
Agradecimientos
Agradezco a mi director Freddy Bolaños Martínez por su incondicional ayuda, por su tiempo
y por los aportes académicos que me transmitió. Sin él no hubiera sido posible. También
quiero agradecer a mi codirector Andrés Fernando Osorio por aportar con sus ideas a esta
tesis y tenerme en cuenta para hacer parte del equipo de trabajo del grupo OCEANICOS.

Agradezco a COLCIENCIAS y al proyecto “Estudio de la disipación de oleaje en estructuras


naturales y su respuesta ante eventos extremos” número 111866044690 por el apoyo
financiero y a la Universidad Nacional de Colombia por la beca de grado de honor de la cual
fui beneficiada cuya resolución es la CS-012 acta N° 05 del 17 de abril de 2015.

Por último quiero agradecer a mis compañeros del grupo OCEANICOS. En especial a David
Quintero y Cesar Jaramillo por su apoyo emocional y académico. Gracias por preguntar a
diario ¿Qué es PIV?
Resumen
La velocimetría por imágenes de partículas es una técnica de medición de velocidad no
intrusiva al medio, basada en procesamiento digital de imágenes, la cual permite obtener el
campo de velocidades de un fluido en movimiento. Esta técnica se basa fundamentalmente
en la adquisición de imágenes de partículas neutralmente boyantes sumergidas en un flujo
durante un instante de tiempo conocido, con el fin de cuantificar el desplazamiento de las
mismas. La obtención de resultados correctos depende en gran medida de la configuración
experimental y del método de procesamiento de imágenes utilizado. Típicamente se utilizan
algoritmos de correlación cruzada basados en la transformada rápida de Fourier debido a su
fácil implementación y a su buen desempeño computacional en comparación con la
correlación cruzada directa. Sin embargo, al utilizar una medición estadística se presentan
datos sesgados. Adicionalmente, cuando las bases de datos tienen imágenes de alta
resolución y gran volumen, el almacenamiento físico se ve afectado y los tiempos de
procesamiento computacional empiezan a ser muy altos. Teniendo en cuenta esto, se
propone una metodología que utiliza transformaciones de filtros no lineales aplicados a la
correlación cruzada generalizada. Esto con el fin de extraer información de fase de la señal
en el plano de frecuencias, dicha técnica se conoce como correlación de fase, combinado
con un algoritmo de compresión de imágenes Wavelet para aumentar los rendimientos
computacionales y disminuir el almacenamiento de las imágenes.

Palabras clave: Correlación de fase, Transformada Wavelet, compresión de imágenes, PIV,


criterio de mínima divergencia, multiplicadores de LaGrange, optimización lineal.
Abstract
Particle imaging velocimetry is a non-intrusive speed measurement technique based on
digital image processing, which allows obtaining the velocity field of a fluid in motion. This
technique is based on the acquisition of images of neutrally buoyant particles submerged in
a flow during a known time, in order to quantify their displacement. Obtaining correct results
depends to a large extent on the experimental configuration and the image processing
method used, cross-correlation algorithms based on the fast Fourier transform are typically
used due to their easy implementation and good computational performance compared to
the direct cross correlation. However, when using a statistical measurement, biased data are
presented. Additional when the databases have high resolution images and large volume, the
physical storage is affected and the computational processing times start to be very high.
Given this, this paper proposes a methodology that uses non-linear filter transformations
applied to generalized cross-correlation. This in order to extract phase information from the
signal in the plane of frequencies, this technique is known as phase correlation, combined
with a Wavelet image compression algorithm to increase computational performances and
decrease the storage of images.

Keywords: Phase correlation, Wavelet transform, image compression, minimum divergence


criterion, LaGrange multipliers, non-linear optimization.
Contenido
1. Introducción ........................................................................................................... 13
1.1 Planteamiento del problema ................................................................................. 14
1.2 Objetivos .............................................................................................................. 17
1.2.1 Objetivo general ............................................................................................ 17
1.2.2 Objetivos específicos ..................................................................................... 17

2. Técnicas de análisis de imágenes en sistemas PIV................................................. 19


2.1 Procesamiento ...................................................................................................... 19
2.2 Post – procesamiento ............................................................................................ 31

3. Paper 1 .................................................................................................................... 35
4. Paper 2 .................................................................................................................... 77
5. Conclusiones y recomendaciones ........................................................................... 96
5.1 Conclusiones ........................................................................................................ 96
5.2 Recomendaciones ................................................................................................. 97

6. Anexo 1 - Montaje experimental ............................................................................ 99


6.1 Elección de los parámetros del montaje físico de PIV ......................................... 99
6.2 Casos de estudio ................................................................................................. 103
6.2.1 Flujo en Fondo plano ................................................................................... 103
6.2.2 Flujo con estructura rectangular sumergida .................................................. 104
6.2.3 Flujo con estructura ilustrativa sumergida .................................................... 105

7. Bibliografía ........................................................................................................... 108


8

Lista de figuras
Figura 1. Montaje típico de sistema PIV. ............................................................................. 14
Figura 2. Vectores divergentes en un campo de velocidades. .................................................. 15
Figura 3. Imágenes de PIV divididas en zonas de interrogación. ............................................. 19
Figura 4. Campo de velocidad obtenido con un algoritmo de procesamiento de imágenes para PIV.
Fuente propia. .................................................................................................................. 21
Figura 5. Diagrama de proceso correlación cruzada en PIV. Fuente propia. .............................. 22
Figura 6. Vórtice de Rankine con diferentes ventanas de interrogación: (a) 64x64 pixeles, (b)
32x32 pixeles, (c) 16x16 pixeles y (d) 8x8 pixeles. Fuente propia. .......................................... 23
Figura 7. Técnica multigrid, reducción iterativa de las ventanas de interrogación. Fuente propia. 24
Figura 8. Superposición de ventanas de interrogación en técnica offset. Fuente propia. .............. 24
Figura 9. Método de deformación de imagen multigrid. Arriba a la izquierda: cuadrícula de
interrogación y resultado de la correlación cruzada en la cuadrícula gruesa; arriba a la derecha:
deformación de la imagen a la resolución de la rejilla gruesa; abajo a la izquierda: deformación de
la imagen a la resolución de la cuadrícula refinada; abajo a la derecha: cuadrícula de interrogación
y resultado de la correlación cruzada en la cuadrícula refinada. Tomado de (Scarano, 2002) ...... 27
Figura 10. Técnica para mejorar la resolución de grandes gradientes de velocidad propuesta por
(Susset et al., 2006). Fuente propia. ..................................................................................... 28
Figura 11. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado. Fuente propia .............................................................. 29
Figura 12. Procedimiento estándar de métodos no iterativos para la corrección de errores de PIV.
....................................................................................................................................... 31
Figura 13. Eliminación de las anomalías de correlación multiplicando las tablas de correlación de
las regiones adyacentes. Los valores de correlación que no aparecen en ambas tablas se eliminan,
permitiendo determinar el desplazamiento de partículas. Tomado de (Hart, 1998c). .................. 32
Figura 14. Diagrama de proceso del algoritmo de correlación cruzada en imágenes de PIV. ....... 37
Figura 15. Diagrama del proceso transformada wavelet de 2 dimensiones. ............................... 43
Figura 16. Resultado de la descomposición Wavelet. Cuadro del medio (descomposición de un
solo nivel) y Cuadro de la izquierda (descomposición de segundo nivel).................................. 43
Figura 17. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado. ................................................................................... 45
Figura 18. Diagrama de flujo del algoritmo hibrido transformada wavelet con correlación de fase.
....................................................................................................................................... 49
Figura 19. Imágenes de prueba, grabadas por en el DNW-LLF por el DLR. ............................. 50
9

Figura 20. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del vórtice fuerte utilizando una ventana de interrogación con densidad de
partículas baja. ................................................................................................................. 51
Figura 21. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del vórtice fuerte utilizando una ventana de interrogación con densidad de
partículas alta. .................................................................................................................. 52
Figura 22. Imágenes reconstruidas con diferente tasas de compresión utilizando la base Coifle 2:
Tasa de compresión del 25% de los coeficientes Wavelet., 6.25%, 1.56% y 0.39% de los
coeficientes Wavelets. ....................................................................................................... 53
Figura 23. (a) Campo de velocidad sin realizar compresión con ventana de interrogación de 32x32,
(b) Campo de velocidad de reconstruida con el 25% de los coeficientes Wavelets con ventanas de
interrogación de 16x16pixeles y (c) reconstruida con el 6.25% de los coeficientes Wavelets del
vórtice fuerte con ventana de interrogación de 8x8. ............................................................... 53
Figura 24. Comparación de los perfiles de velocidad U (izquierda) y V (derecha) a lo largo de
Y=512 y X variable utilizando diferentes niveles de descomposición Wavelets para la base Coifle
2 en el caso del vórtice fuerte. ............................................................................................ 54
Figura 25. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X
variable del campo original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando
la base Coifle 2 en el caso del vórtice fuerte. ........................................................................ 54
Figura 26. Comparación de los perfiles de velocidad U y V a lo largo de X=512 y Y variable
utilizando diferentes niveles de descomposición Wavelets para la base Coifle de orden 2, en el caso
del vórtice fuerte con interpolación subpixel......................................................................... 55
Figura 27. Histograma de errores de los perfiles de velocidad U y V a lo largo de X=512 y Y
variable del campo original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando
la base Coifle de orden 2, en el caso del vórtice fuerte con interpolación subpixel. .................... 55
Figura 28. Error del campo de velocidades entre el algoritmo clásico de correlación cruzada y el
algoritmo de compresión de imágenes con correlación e interpolación subpixel utilizando 25% de
los coeficientes Wavelets totales en el caso del vórtice fuerte. ................................................ 56
Figura 29. Error del campo de velocidades entre algoritmo clásico de correlación cruzada y el
algoritmo de compresión de imágenes con correlación e interpolación subpixel utilizando 6,25 %
de los coeficientes Wavelets totales en el caso del vórtice fuerte. ............................................ 56
Figura 30. Imágenes Flujo jet. ............................................................................................ 57
Figura 31. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del flujo Jet en una ventana de interrogación con velocidades cercanas a cero. ... 57
Figura 32. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del flujo Jet en una ventana de interrogación al interior del chorro turbulento. .... 58
Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con ventanas de
interrogación de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes
Wavelets con ventanas de interrogación de 16x16 pixeles(derecha). ........................................ 59
Figura 34. Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable
utilizando diferentes niveles de descomposición Wavelets para la base Coifle 2 en el caso del flujo
jet con interpolación subpixel en los picos de correlación. ...................................................... 59
10

Figura 35. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X


variable del campo original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando
la base Coifle 1 en el caso del vórtice fuerte ......................................................................... 60
Figura 36. Campo de velocidades flujo con velocidad constante de 5 px/frame. ........................ 62
Figura 37. Campo de velocidades vórtice de Rankine generado utilizando el algoritmo clásico de
correlación cruzada (azul) y el algoritmo hibrido de correlación de fase con transformada Wavelet
(Rojo) con ventanas de 32x32 pixeles. ................................................................................. 64
Figura 38. Perfil de velocidad U (izquierda) y perfil de velocidad V (derecha) a lo largo de Y
variable y X=176 del vórtice de Rankine utilizando diferentes algoritmos de procesamiento de
imágenes de PIV. .............................................................................................................. 65
Figura 39. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de
correlación de fase con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y
variable y X=176 del vórtice de Rankine.............................................................................. 65
Figura 40. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab
y el algoritmo de correlación de fase con imagen comprimida del caso de estudio del vórtice de
Rankine. .......................................................................................................................... 66
Figura 41. Campo de velocidades del vórtice fuerte utilizando el algoritmo de correlación cruzada
con imagen original (azul) y el algoritmo de correlación de fase con imagen comprimida (rojo). 67
Figura 42. Perfiles de velocidad U y V a lo largo de y variable y X=512 del vórtice fuerte
utilizando diferentes algoritmos de procesamiento de imágenes de PIV. .................................. 67
Figura 43. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de
correlación de fase con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y
variable y X=176 del vórtice fuerte. .................................................................................... 68
Figura 44. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab
y el algoritmo de correlación de fase con imagen comprimida del caso de estudio del vórtice fuerte.
....................................................................................................................................... 69
Figura 45.Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable en el caso
del flujo jet con interpolación subpixel en los picos de correlación utilizando diferentes algoritmos
de procesamiento de imágenes de PIV. ................................................................................ 70
Figura 46. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de
correlación de fase con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y
variable y X=176 del flujo jet. ............................................................................................ 70
Figura 47. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab
y el algoritmo de correlación de fase con imagen comprimida del caso de estudio del vórtice fuerte.
....................................................................................................................................... 71
Figura 48. Montaje experimental del sistema PIV de bajo costo ubicado en el Laboratorio de
Hidráulica de la Universidad Nacional de Colombia. ............................................................. 72
Figura 49. Campos de velocidades obtenido con técnica de correlación cruzada en imagen original
(roja) y correlación de fase en imagen comprimida (Amarilla). ............................................... 73
Figura 50. Montaje típico de sistemas PIV. .......................................................................... 78
Figura 51. Diagrama de flujo algoritmo para corrección de vectores con criterio de mínima
divergencia....................................................................................................................... 82
Figura 52 . Imágenes de prueba, grabadas por en el DNW-LLF por el DLR. ............................ 83
Figura 53. Campo de velocidades original vórtice fuerte. ....................................................... 84
11

Figura 54. Campo de velocidades en el núcleo del vórtice. ..................................................... 84


Figura 55. Campo de vectores corregido vórtice fuerte. ......................................................... 85
Figura 56. Campo de vectores en el núcleo del vórtice después de corregir vectores erróneos. .... 85
Figura 57. Vectores del campo de velocidad con datos erróneos del vórtice fuerte..................... 86
Figura 58. Campo de velocidades después de corregir vectores erróneos del vórtice fuerte. ........ 86
Figura 59. Comparación Componente U en el campo de velocidad original vs el campo de
velocidades después de corregir vectores incorrectos del vórtice fuerte. ................................... 88
Figura 60. Comparación Componente V en el campo de velocidad original vs el campo de
velocidades después de corregir vectores incorrectos del vórtice fuerte. ................................... 88
Figura 61. Error del perfil de desplazamiento horizontal (izq.) a lo largo de X y Y=490 del vórtice
fuerte. .............................................................................................................................. 89
Figura 62. Histograma del error asociado a la componente de velocidad U del campo de velocidad
del vórtice fuerte. .............................................................................................................. 89
Figura 63. Histograma del error asociado a la componente de velocidad V del campo de velocidad
del vórtice fuerte. .............................................................................................................. 90
Figura 64. Imágenes de prueba flujo turbulento. Tomado de (Stanislas et al., 2005) .................. 90
Figura 65. Vectores del campo de velocidad con datos erróneo del flujo turbulento. .................. 91
Figura 66. Perfil de velocidad después de corregir datos erróneos del flujo turbulento. .............. 92
Figura 67. Comparación Componente U en el campo de velocidad original vs el campo de
velocidades después de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo
turbulento. ....................................................................................................................... 92
Figura 68. Comparación componente V en el campo de velocidad original vs el campo de
velocidades después de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo
turbulento. ....................................................................................................................... 93
Figura 69. Error del perfil de desplazamiento horizontal (izq.) y perfil de desplazamiento vertical
(der) a lo largo de X y Y=490 del caso de flujo turbulento. .................................................... 93
Figura 70. Histograma del error asociado a la componente de velocidad U del campo de velocidad
del flujo turbulento. ........................................................................................................... 94
Figura 71. Histograma del error asociado a la componente de velocidad V del campo de velocidad
del flujo turbulento. ........................................................................................................... 94
Figura 72. Partículas de seguimiento de flujo. Fuente propia. ................................................100
Figura 73. Cámara utilizada en el sistema PIV del Laboratorio de Hidráulica de la Facultad de
Minas. Fuente propia. .......................................................................................................101
Figura 74. Configuración para generar hoja de luz láser (1), laser 1000 mW (2) y lente cilíndrico
(3). Fuente propia.............................................................................................................102
Figura 75. Campos de velocidades distintas velocidades. (a) velocidad ensayo 1, (b) velocidad
ensayo 2, (c) velocidad ensayo 3 y (d) velocidad ensayo 4. Fuente propia. ..............................104
Figura 76. Montaje experimental caso de estudio de flujo con estructura rectangular sumergida.
Fuente propia. .................................................................................................................105
Figura 77. Secuencia de imágenes de los campos de velocidades alrededor de una estructura
rectangular inmersa utilizando un sistema de PIV. Fuente propia. ..........................................106
Figura 78. Secuencia de imágenes de los campos de velocidades alrededor de una cuchara inmersa
utilizando un sistema de PIV. Fuente propia. .......................................................................107
12

Lista de tablas
Pág.

Tabla 1. Comparación de resultados del flujo con velocidad constante utilizando tres algoritmos de
PIV diferentes. ................................................................................................................................. 63
Tabla 2. Comparación de las velocidades medias utilizando distintas técnicas de medición para el
caso de estudio propio. ..................................................................................................................... 72
Tabla 3. Comparación del desempeño computacional de los diferentes casos de estudio utilizando
la técnica clásica de correlación y la metodología propuesta de correlación de fase con imagen
comprimida por transformada Wavelet. ........................................................................................... 74
Tabla 4. Comparación rendimiento computacional de las técnicas de correlación de fase y
correlación cruzada en imagen comprimida al realizar tres variaciones del tamaño de la ventana de
interrogación en el caso del vórtice de Rankine. .............................................................................. 75
Tabla 5. Errores campo de velocidades vórtice fuerte. .................................................................... 88
Tabla 6. Errores campo de velocidad del flujo turbulento. .............................................................. 91
Tabla 7. Comparación de mediciones de velocidad U obtenidas con ADV y PIV. ....................... 103
13

1. Introducción
La medición de la velocidad de flujos es de gran importancia en aplicaciones de
hidrodinámica. Para el entendimiento de procesos físicos e hidrodinámicos alrededor de
sistemas como manglares y arrecifes de coral, es fundamental contar con mediciones de
velocidad que permitan cuantificar el impacto de estas, como estructuras de disipación y
protección costera. Por ejemplo, Colombia cuenta con ecosistemas insulares y continentales
con un gran potencial pesquero, turístico y de conservación. Sin embargo, en las últimas
décadas han sido sometidos a una fuerte presión antrópica y a eventos naturales extremos
(Bernal et al., 2016). Por lo anterior, se han venido adelantando estudios para cuantificar la
disipación de energía de las estructuras naturales con la interacción del oleaje a partir de
modelación física (Vanegas, Osorio, & Urrego, 2017)(J.D. Osorio-Cano, 2017).

Existen diferentes técnicas para medir la variable de velocidad. Sobresalen enfoques como
el de velocimetría por imágenes de partículas (PIV por sus siglas en inglés), debido a que es
una herramienta de visualización de flujo cuantitativa, no intrusiva al medio, que presenta
una serie de ventajas como obtener un campo de velocidades en múltiples direcciones (2D
y 3D) (Westerweel, 1997), respecto a técnicas tradicionales como la anemometría de hilo
caliente y la velocimetría láser Doppler, que generan mediciones de velocidad en un solo
punto del espacio (Foreman, George, & Jetton, 1966).

Un sistema de velocimetría por imágenes de partículas permite determinar simultáneamente


la velocidad de flujo en varias posiciones en un plano. En un flujo se introducen partículas
neutralmente boyantes dispersoras de luz, típicamente iluminadas con un haz de luz
generado por un láser en conjunto con unos lentes cilíndricos y esféricos, con una cámara
de alta resolución se registran los movimientos de dichas partículas en un intervalo de
14

tiempo conocido. Posteriormente las imágenes obtenidas son llevadas a un software de


procesamiento de imágenes que permite estimar el campo de velocidades asociado. En la

Figura 1, se observa una ilustración del montaje típico de sistemas de velocimetría por
imágenes de partículas.

Figura 1. Montaje típico de sistema PIV.

Para el procesamiento de imágenes de PIV, se han implementado diferentes tipos de


algoritmos. En las referencias (Jambunathan, Ju, Dobbins, & Ashforth-Frost, 1995) (Bulnes,
Amapá, Kubitschek, & Zero, 2013) se explican detalladamente las técnicas tradicionalmente
utilizadas.

1.1 Planteamiento del problema

En la actualidad se han venido realizando estudios de los servicios ecosistémicos de


protección costera que proporcionan los ambientes naturales tales como arrecifes, corales y
manglares, en cuanto a la interacción de estas con el oleaje, y su respuesta frente a eventos
extremos. Para este análisis es fundamental observar las propiedades físicas e
hidrodinámicas alrededor de las estructuras naturales, por ende, se deben tener datos de
variables como fuerza, presión, nivel y velocidad.

En cuanto a la velocidad, se debe utilizar un método de medición que permita obtener un


campo de velocidades alrededor de la estructura. Adicionalmente, se debe garantizar que el
sensor genere el menor número de resultados erróneos posibles y que la resolución espacial
15

sea adecuada para mostrar el fenómeno de interés. Los sistemas de velocimetría por
imágenes de partículas son una buena alternativa para este tipo de mediciones. Desde sus
inicios se han venido desarrollando distintos algoritmos de procesamiento de imágenes que
permitan obtener datos confiables con el mejor rendimiento computacional posible. Sin
embargo, en las referencias consultadas hasta el momento, se han obtenido vectores erróneos
debidos a condiciones experimentales inadecuadas (Huang, Dabiri, & Gharib, 1997) (Hart,
1998b) (Adrian, 2005) y el procesamiento de las imágenes utilizando técnicas basadas en
medidas estadísticas (Raffel, Willert, & Kompenhans, 1998). Estos vectores se caracterizan
por ser datos con direcciones y magnitudes diferentes a los de sus vecinos. En la Figura 2 ,
se resalta en gris punteado una zona que posee dos vectores espurios y en la zona resaltada
con gris continua, vectores no divergentes.

Figura 2. Vectores divergentes en un campo de velocidades.

En cuanto a la adquisición de las imágenes, (Bugg & Rezkallah, 1998) indican que la
utilización de cámaras fotográficas induce aberraciones, distorsiones, fenómenos de
difracción e incertidumbre en el posicionamiento de las partículas. Adicional a estos errores,
en la configuración experimental se debe tener precaución a la hora de realizar la
sincronización del láser puesto que se pueden generar errores de temporización entre los
pulsos generados por este y la cámara. De igual manera, hay que ser riguroso con la
ubicación de las lentes que generan el plano de luz puesto que una configuración inadecuada
hace que determinadas trayectorias de partículas no puedan cuantificarse (Hart, 2000). Por
último se debe introducir al flujo una densidad de partículas adecuadas, de tal manera que
al aplicar el algoritmo de correlación cruzada, la cantidad de vectores erróneos sea mínima.
16

Este algoritmo es uno de los métodos más utilizados en el procesamiento de imágenes de


PIV. Su implementación se realiza utilizando la transformada rápida de Fourier (FFT), tal
que se mejora el desempeño, pero se sacrifica precisión de los datos. Los efectos generados
por la incorrecta configuración del montaje experimental de un sistema PIV son discutidos
con detalle en el más reciente libro de Adrian y Westerweel (2011).

La configuración de parámetros de hardware no solo genera vectores erróneos, sino que


limita la resolución espacial (Bugg & Rezkallah, 1998). Especialmente influyen los
parámetros como el tamaño de la partícula, la magnificación y las aberraciones ópticas. Un
estudio demostró que la magnificación óptima que da como resultado la mejor resolución
espacial posible se puede estimar a partir del tamaño de partícula, las propiedades de la lente
y el tamaño de píxel de la cámara. Además, se discute en detalle la posibilidad de aumentar
la resolución espacial por medio de la velocimetría de seguimiento de partículas (PTV)
(Kähler, Scharnowski, & Cierpka, 2012).

Otro tipo de limitaciones de los sistemas PIV, se deben al software de procesamiento de


imágenes. Puesto que PIV se basa en una medición estadística del desplazamiento utilizando
la correlación entre dos ventanas de interrogación diferentes. De esta manera, es probable
que un gradiente de desplazamiento produzca datos sesgados, debido al truncamiento de
partículas en los bordes de las ventanas de interrogación (Raffel et al., 1998).Se cuantifica
el efecto en la determinación de los desplazamientos, dada una deformación de los patrones
de las imágenes de partículas por altos gradientes de velocidad (Huang,Fiedler, 1993). Se
demostró que los gradientes de desplazamiento están ligados al tamaño de la ventana de
interrogación y a la densidad de partículas (menores tamaños de ventanas y tamaños de
partículas grandes fueron los que soportaron gradiente de mayor desplazamiento) (Raffel et
al., 1998).

Por último, otro tema de interés en el desarrollo de algoritmos de procesamiento de PIV, es


el coste computacional, puesto que el análisis de bases de datos de imágenes de alta
resolución tiene una gran demanda computacional tal que se requiere gran cantidad de
tiempo para transferir y procesar imágenes, adicional a la capacidad de almacenamiento
físico requerido en la computadora. Se han venido realizando desarrollos para mejorar los
17

desempeños computacionales. Algunos autores han utilizado diferentes técnicas de


compresión de imágenes, inicialmente se utilizaban métodos de compresión que eliminaban
únicamente los pixeles de baja densidad, puesto que estos brindan poca información acerca
de los desplazamientos de partículas (Hart, 1998a). Sin embargo este tipo de compresión
tiene un bajo efecto en la precisión de PIV. Otros autores han utilizado diferentes
metodologías de compresión de imágenes como JPEG y transformada Wavelet (Freek,
Sousa, Hentschel, & Merzkirch, 1999)(Hui Li, 2000)(Hui Li, 2003) , que a pesar de ser
exitosas en la compresión, siguen utilizando el algoritmo clásico de análisis de imágenes de
PIV utilizando correlación cruzada. Por ende la precisión de los datos obtenidos puede verse
comprometida.

Dado lo anterior, en este documento se propone un algoritmo de procesamiento de imágenes


para sistemas PIV capaz de mejorar la precisión de los datos del campo de velocidades. De
manera adicional, al realizar procesamiento de un volumen considerable de datos, se desea
mejorar el desempeño de los algoritmos para disminuir el tiempo de cálculo del software de
procesamiento y lograr una reducción en el almacenamiento físico de estas imágenes.

1.2 Objetivos

1.2.1 Objetivo general

Desarrollar un algoritmo de procesamiento de imágenes para sistemas de velocimetría por


imágenes de partículas, que permita obtener datos precisos con un menor desempeño
computacional con respecto a las técnicas clásicas.

1.2.2 Objetivos específicos

 Plantear un algoritmo para minimizar el número de datos incorrectos en sistemas de


velocimetría por imágenes de partículas.
 Proponer una metodología para compresión de imágenes de PIV.
 Validar la solución propuesta por medio de la comparación con respecto a las
técnicas tradicionalmente aceptadas.
18

Estructura de la Tesis
La presente Tesis se divide en 5 capítulos:

Capítulo 1 (actual): Introducción general al trabajo.

Capítulo 2: Se presentan el estado del arte de las técnicas de procesamiento y post


procesamiento de sistemas PIV.

Capítulo 3: Contiene un artículo titulado como “Desarrollo de la técnica de compresión de


imágenes Wavelet y correlación de fase para mejorar el procesamiento de imágenes de PIV”.

Capítulo 4: Presenta un artículo titulado como “Minimización del error divergente para la
determinación de vectores incorrectos en sistemas de velocimetría por imágenes”.
Actualmente este artículo se encuentra sometido en la revista “Flow Measurement and
Instrumentation”.

Capítulo 5: Se presentan las conclusiones y recomendaciones.

Capítulo 6 - Anexo 1: Se exponen los resultados experimentales obtenidos después de


desarrollar un PIV de bajo costo.

Capítulo 7: Referencias.
19

2. Técnicas de análisis de imágenes en sistemas PIV

2.1 Procesamiento

Para la evaluación de imágenes de sistemas PIV, tradicionalmente se utilizan algoritmos


basados en la correlación cruzada. En el procesamiento de imágenes, la correlación cruzada ha
sido utilizada para encontrar la posición de máxima similitud entre dos señales. Para aplicar
este concepto en velocimetría por imágenes de partículas es necesario dividir las imágenes en
ventanas de interrogación como se muestra en la Figura 3. Teniendo en cuenta que todas las
partículas que estén dentro de esta región se mueven de manera uniforme. A continuación, se
correlaciona una de las zonas de interrogación de la imagen 1 con la respectiva zona de la
imagen 2, ambas ventanas deben ser del mismo tamaño y con la misma ubicada dentro de la
imagen (Jambunathan et al., 1995) (Bulnes et al., 2013).

Figura 3. Imágenes de PIV divididas en zonas de interrogación.


Tomada de (Lee, Yang, & Yin, 2016)

La correlación cruzada puede calcularse de un modo directo o de un modo normalizado, donde


el caso normalizado posee mayor complejidad computacional. Sin embargo, es más robusto en
20

situaciones donde la distribución espacial de las partículas no es homogénea. La correlación


cruzada de dos áreas de interrogación se define en (1).

𝑀 𝑁

𝐶(𝑚, 𝑛) = ∑ ∑ 𝐼1 (𝑥, 𝑦) ∗ 𝐼2 (𝑥 − 𝑚, y − 𝑛) (1)


𝑥=1 𝑦=1

𝑇𝑎𝑙 𝑞𝑢𝑒 𝑚 = 0, … , 𝑀 𝑛 = 0, … , N , donde la Imagen 1 tiene dimensión MxN.

Donde 𝐼1 (𝑥, 𝑦) y 𝐼2 (𝑥, 𝑦) representan las intensidades de los píxeles de las ventanas de
interrogación en las posiciones de los píxeles (𝑥, 𝑦) en las imágenes 1 y 2, respectivamente.
La función 𝐶(𝑚, 𝑛) mide la correlación de las funciones discretas 𝐼1 (𝑥, 𝑦) y 𝐼2 (𝑥, 𝑦) cuando
son relativamente desplazadas por (m, n) píxeles. La ecuación (1) se puede calcular
directamente en el dominio espacial o en el dominio de la frecuencia utilizando la transformada
rápida de Fourier (FFT) (Bulnes et al., 2013). La FFT tiene un excelente comportamiento
cuando las máscaras A y B son del mismo tamaño, garantizando que el costo computacional
sea bajo. Sin embargo, si el desplazamiento de las partículas aumenta de tal manera que no
todas sean captadas en ambas imágenes, la incertidumbre en la localización del pico de la
correlación cruzada aumenta.

Tras obtenerse el plano de correlación cruzada se pueden observar las posiciones de los
máximos donde hubo una mayor similitud entre las imágenes, dichas posiciones representan el
desplazamiento promedio que tuvieron las partículas (Lopez Hinojoza, González Santos, &
Gusmán Arenas, 2006). Es importante resaltar que dicho proceso se repite para todas las zonas
de interrogación. Finalmente, con la matriz de desplazamiento y el intervalo de tiempo entre
las imágenes, se puede hallar el campo de velocidades asociado a la imagen donde cada zona
de interrogación se representa con un vector, como se muestra en la Figura 4.
21

100

200

300

400

500
Y

600

700

800

900

1000
X: 1280 Y: 1024
200 400 600 800 1000 1200 Index: 1
RGB: 0, 0, 0
X
Figura 4. Campo de velocidad obtenido con un algoritmo de procesamiento de imágenes para PIV. Fuente
propia.

En la Figura 5, se observa el diagrama de proceso típico de procesamiento de imágenes PIV


analizadas con la correlación cruzada basada en la FFT, la cual consiste en llevar las imágenes
𝐼1 (𝑥, 𝑦) e 𝐼2 (𝑥, 𝑦) de la ecuación (1) al dominio de la frecuencia utilizando la transformada
rápida de Fourier (FFT), posteriormente las representaciones en el dominio de la frecuencia de
la imagen 1 ( 𝐼1 (𝑝, 𝑞) ) y el complejo conjugado de la imagen 2 ( 𝐼2 (𝑝, 𝑞)∗ ). Se multiplican
para encontrar el plano de correlación de las distintas regiones de interrogación. Este
procedimiento se realiza puesto que la ecuación 1 posee una gran similitud con el cálculo de la
convolución en el tiempo, la única excepción es la operación de reflexión de una de las señales
en el caso de la convolución. Cuando se lleva al dominio de la frecuencia esta operación se
convierte en una multiplicación de los espectros de las imágenes. Después se le aplica un
ventaneo W, cuya finalidad es minimizar los efectos de la FFT en cuanto a las discontinuidades
artificiales que se generan, para esto se multiplica la señal por una ventana de longitud finita
con una amplitud que varía poco a poco hacia cero en los extremos, tal que se obtenga una
señal continua, sin transiciones bruscas. Finalmente se regresa al dominio del tiempo mediante
la implementación de la transformada inversa de Fourier para extraer la ubicación del máximo
pico de correlación detectado.

A pesar de las ventajas de los algoritmos basados en correlación cruzada, se presentan una serie
de errores como el truncamientos de partículas en los bordes de las ventanas de interrogación
22

que a su vez genera limitaciones para detectar zonas de altos gradientes de velocidad, se afirma
que estos poseen una dependencia tanto del tamaño de la ventana de interrogación como de la
densidad de partículas (Raffel et al., 1998). Además de las limitaciones de la metodología para
trabajar casos de estudio que demandan resoluciones espaciales pequeñas (inferiores a los
16x16 pixeles). Dado esto se han venido desarrollando técnicas para optimizar la resolución,
exactitud, robustez y detección de gradientes.

Figura 5. Diagrama de proceso correlación cruzada en PIV. Fuente propia.

Como se dijo anteriormente una de las grandes problemáticas de la correlación cruzada en


sistemas de PIV, es la resolución espacial. Puesto que a medida que se reduce el tamaño de las
ventanas de interrogación incrementa el número de vectores erróneos, inclusive se llega a un
punto en el que la cantidad de vectores erróneos es superior a los correctos. En la Figura 6, se
observa los campos de velocidad asociados a una imagen de PIV calculados con distintas
ventanas de interrogación, allí se evidencia la limitación general de algoritmos tradicionales de
PIV para calcular vectores con áreas de interrogación menores a 32X32 pixeles. (Adrian &
Westerweel, 2011)
23

Figura 6. Vórtice de Rankine con diferentes ventanas de interrogación: (a) 64x64 pixeles, (b) 32x32 pixeles, (c)
16x16 pixeles y (d) 8x8 pixeles. Fuente propia.

En caso de requerir resoluciones espaciales altas es necesario utilizar otros algoritmos de


análisis de imágenes de PIV. Uno de los algoritmos desarrollados para mejorar la resolución
de los datos en sistemas de velocimetría es el algoritmo multigrid (Lopez Hinojoza et al., 2006).
Este realiza una reducción iterativa del tamaño de las ventanas de interrogación, y utiliza la
información del campo vectorial obtenido para predecir la posición de las ventanas de análisis
de la siguiente iteración. En la Figura 7 se observa gráficamente el proceso iterativo que se
lleva a cabo. Dicha técnica permite aumentar la resolución espacial. A pesar de esto, el coste
computacional incrementa considerablemente en comparación con el algoritmo clásico basado
en la correlación cruzada. Adicionalmente se debe tener precaución al elegir las dimensiones
de las ventanas de interrogación puesto que el fenómeno de estudio puede no observarse con
una resolución apropiada. De esta manera se pueden obtener resultados erróneos debido a los
bajos valores de correlación entre zonas. También existen técnicas jerárquicas inversas, tal que
24

el algoritmo comienza en la escala más pequeña y va realizando un aumento de ventana de


interrogación si y solo si es necesario, Florio, Felice, & Romano (2002) explican
detalladamente dicho procedimiento.

Figura 7. Técnica multigrid, reducción iterativa de las ventanas de interrogación. Fuente propia.

Otro de los métodos para mejorar la resolución de los datos, es el algoritmo offset el cual es
una modificación del algoritmo clásico basado en la FFT (Scarano & Riethmuller, 1999). Este
aumenta la resolución espacial sin disminuir el tamaño de la ventana de interrogación. Se
caracteriza por realizar una superposición parcial de ventanas de manera iterativa donde se
realizan translaciones de la zona de interrogación iguales al offset del desplazamiento
inmediatamente anterior calculado. Este procedimiento se realiza hasta que la diferencia de
los desplazamientos entre iteraciones sucesivas sea inferior a un pixel. En la Figura 8 se observa
gráficamente una superposición de ventanas de interrogación. Al igual que el algoritmo
multigrid, se aumenta el coste computacional con respecto al algoritmo tradicional, y se debe
tener cuidado al elegir el tamaño de las ventanas de interrogación.

Figura 8. Superposición de ventanas de interrogación en técnica offset. Fuente propia.

Los algoritmos multigrid y offset no son los únicos que utilizan técnicas iterativas para mejorar
la resolución espacial de los campos de velocidades, varios autores han dedicado sus esfuerzos
25

a este tema, se destacan trabajos como el de Astarita (2009), donde se propone una técnica de
adaptación de la resolución espacial, que busca realizar procesamiento solo cuando las
partículas estén densamente distribuidas y las estructuras de pequeña escala de alta energía no
estén uniformemente distribuidas. Por tanto la resolución se varia localmente teniendo en
cuenta la intensidad de la señal y la intensidad de las variaciones locales del campo de
desplazamiento, de tal forma que sea posible elegir automáticamente el mejor tamaño de la
ventana de filtrado. Esta metodología demostró un aumento de resolución espacial en casos de
estudio de chorro en flujo cruzado, donde había presencia de gradientes fuertes. También se
logró una mejora en el filtrado de zonas no perturbadas. No obstante, utilizar esta técnica
aumenta el coste computacional en comparación con el método tradicional de análisis de
imágenes de PIV.

En cuanto a los métodos para aumentar eficiencia computacional, se han venido realizando
desarrollos como el de Roth & Katz (2001) , donde se utiliza una multiplicación truncada en
paralelo para reducir el tiempo computacional de la correlación cruzada directa, y a su vez
mejorar la precisión de los datos. Se consiguió un desempeño computacional comparable con
el de los algoritmos de correlación cruzada basados en FFT. Sin embargo solo consiguen un
menor tiempo computacional con respecto a metodologías tradicionales cuando se incluyen
algoritmos iterativos para aumentar la resolución espacial.

Para realizar un aumento en la eficiencia computacional no solo se han propuesto alteraciones


a los algoritmos de procesamiento de imágenes de PIV típicos , autores como Hui Li (1998)
proponen la utilización de la transformada Wavelet para realizar una compresión de imágenes,
que a su vez disminuye el coste computacional y el requerimiento de almacenamiento físico.
La Wavelet es un tipo de transformada que brinda información tanto de la frecuencia de las
señales como del tiempo correspondiente, es capaz de concentrarse en fenómenos transitorios
y de alta frecuencia mejor que la transformada de Fourier con ventana, con esta última una vez
que el tamaño de la ventana es elegido todas las frecuencias son analizadas con la misma
resolución de tiempo y frecuencia, distinto a la Wavelet que tiene un tamaño de ventana
adaptado a las frecuencias.

Con respecto a imágenes, la transformada de Fourier F(k) de una función f(x) de soporte finito
se extiende entre [−∞,+∞]. Luego de aplicar cualquier algoritmo de análisis a F(k) se pierde
información al realizarse la transformada inversa en un intervalo finito. En cambio, en el caso
26

de la Transformada Wavelet la función y su transformada se encuentran en un intervalo finito


y, por lo tanto, no hay pérdida de información al realizar la transformada inversa.

A diferencia de la transformada de Fourier, la transformada Wavelet se puede implementar


sobre numerosas bases. Las diferentes categorías de wavelets (continuas, discretas,
ortogonales, etc.) y los varios tipos de funciones wavelets dentro de cada categoría proveen una
gran cantidad de opciones para analizar una señal de interés. Esto permite elegir la base de
funciones cuya forma se aproxime mejor a las características de la señal que se desea
representar o analizar.

En cuanto el uso de la Wavelet para la compresión de imágenes se han utilizado distintas bases
Wavelets tales como las familias Daubechies, Coifman y Baylkin, con el fin de evaluar el efecto
que genera la elección de estas (H Li, Takei, Ochi, Saito, & Horii, 1999). Se concluye que las
bases Wavelet de menor orden proporcionan un buen rendimiento debido a la localización
física. Al realizar un aumento de la relación de compresión sin pérdida de información de flujo
significativa en el procesamiento de PIV, se realiza corrección de los vectores del campo
analizado. Adicional a la compresión y la disminución de ruido utilizando transformada
wavelet, se han venido desarrollando métodos de resolución múltiple para mejorar la resolución
espacial de campos de velocidad (Hui Li, 2003).

Existen otras técnicas de procesamiento de imágenes de PIV que buscan disminuir los
resultados erróneos debidos al truncamiento de partículas en bordes de las ventanas de
interrogación de los algoritmos basados en FFT, se destacan algoritmos como el de
deformación de ventanas, propuesto por Scarano (2002). Este es un algoritmo iterativo que
consiste en un aumento de la densidad espacial de interrogación y un refinamiento del tamaño
local de ventana de interrogación de acuerdo al flujo, para asegurar la coincidencia de partículas
entre imágenes. En Figura 9 se ilustra el procedimiento de deformación iterativo. Con la
implementación de esta técnica se reducen errores inducidos por la presencia de gradientes
elevados y su respuesta espacial obtiene una mejora significativa que demuestra un menor
efecto de modulación. Se comprueba su desempeño en imágenes de flujo turbulento donde
demostró mayor robustez ante ruido y fluctuaciones de escala pequeña. Sin embargo, presenta
inestabilidades asociadas con la alta frecuencia espacial(Shi & Zhang, 2015).
27

Figura 9. Método de deformación de imagen multigrid. Arriba a la izquierda: cuadrícula de interrogación y


resultado de la correlación cruzada en la cuadrícula gruesa; arriba a la derecha: deformación de la imagen a la
resolución de la rejilla gruesa; abajo a la izquierda: deformación de la imagen a la resolución de la cuadrícula
refinada; abajo a la derecha: cuadrícula de interrogación y resultado de la correlación cruzada en la cuadrícula
refinada. Tomado de (Scarano, 2002)

Para solucionar los problemas de inestabilidad de los algoritmos de deformación típicos, se


diseñó un algoritmo llamado Local Field Correction (Nogueira, Lecuona, & Rodríguez, 2001).
En este caso el costo de evitar la inestabilidad, es una restricción al campo de aplicación del
sistema.

Mejorar la precisión es uno de los temas a los que se les ha dedicado mayores esfuerzos en
sistemas de PIV. Por ejemplo, Susset, Most, y Honore (2006) plantean una técnica para mejorar
la resolución de grandes gradientes de velocidad, que incluye cálculos de correlación directa
con una nueva estructura, que permite disminuir el número de multiplicaciones entre ventanas
de interrogación. De tal manera que el desempeño computacional puede ser comparado con los
de la FFT. También utiliza la técnica multigrid para aumentar la resolución espacial y
finalmente desarrolla un algoritmo de súper resolución heurístico para aumentar aún más la
resolución espacial de la medición, para esto hace uso de la velocimetría por seguimiento de
partículas (PTV), técnica que calcula desplazamientos de partículas individuales. La técnica de
súper resolución soluciona las desventajas inherentes a PTV puesto que sus estimaciones
fueron contempladas para una baja densidad de partículas, y las imágenes típicas de PIV
utilizan alta densidad. Por último los autores optimizan el tiempo de procesamiento mediante
28

la implementación de almacenamiento de datos en árboles de partición espaciales binarios. En


Figura 10, se muestran los pasos fundamentales para implementar la metodología descrita. Los
resultados de esta técnica fueron probados en casos de estudio reales, donde se comprueba el
aumento de resolución espacial y la precisión de los datos al utilizar esta metodología. Sin
embargo, se limitó el rendimiento computacional dado la implementación de algoritmos
iterativos, el proceso de identificación de partículas y la localización de las mismas.
Adicionalmente, no es un enfoque universal puesto que en ocasiones será necesario adaptar los
parámetros de detección a características específicas de experimentos.

Figura 10. Técnica para mejorar la resolución de grandes gradientes de velocidad propuesta por (Susset et al.,
2006). Fuente propia.

En algunas investigaciones se ha propuesto utilizar la correlación cruzada como técnica de


evaluación de imágenes de PIV, pero en vez de implementarse con la FFT, han surgido otras
ideas de transformadas para su reemplazo. La transformada Hartley es una de ellas, es un tipo
de transformada integral similar a la FFT, es libre de la necesidad de procesar números
complejos, y evita redundancia en el proceso, lo que permite ahorrar en espacio de memoria.
Se destaca el trabajo de Heng y Qiongshuia (2013) donde comparando la transformada Hartley
y la FFT para procesamiento de imágenes por lotes, la primera puede mejorar la eficiencia
computacional considerablemente. Adicionalmente se puede llevar a cabo la convolución
directamente sin el cálculo de las partes real e imaginaria. Se debe resaltar que, en términos de
rendimiento, la transformada Hartley es similar a los algoritmos basados en la FFT. (Cozzella
& Spagnolo, 2014)

Aunque ha habido una amplia mejora en las técnicas de procesamiento digital, la exactitud
sigue estando obstaculizada por errores inherentes al método de correlación. Por ende
diferentes trabajos han sido dedicados a buscar opciones para realizar el procesamiento de las
imágenes diferentes a la metodología tradicional. Por ejemplo Falchi, Querzoli y Romano
(2006) proponen la utilización de las estadísticas robustas para la evaluación de campo de
velocidad de PIV. Por ello se desarrolló la velocimetría de imagen robusta (RIV), una medida
de disimilitud entre ventanas de interrogación basada en un estimador Loretziano en lugar de
29

la correlación cruzada. Allí se comprueba que el RIV tiene un mayor rendimiento cuando
existen mayores niveles de ruido y turbulencia. Utilizar esta metodología aumenta la precisión
de los datos y disminuye el rendimiento computacional comparado con las técnicas clásicas de
evaluación.

También la optimización heurística ha sido empleada en la evaluación de imágenes de PIV.


Estos son métodos basados en algoritmos genéticos que se han utilizado para realizar
seguimiento de partículas (Meng, Li, & Du, 2010) , estimación de la posición de partículas
(Padilla, Funes, Berriel, Guerrero, & Moreno, 2005), así como la identificación de los errores
(Boonlong, Maneeratana, & Chaiyaratana, 2006). Con estos algoritmos se ha obtenido una
buena precisión de los datos, pero a un coste computacional muy alto.

Otra de las metodologías que ha sido planteada para disminuir los errores inherentes a la
correlación, se basa en correlatores ópticos, estos utilizan técnicas de filtración análogas al
proceso estándar de análisis de imágenes de PIV basados en correlación cruzada. Para
optimizar los rendimientos de los correlatores se desarrolló una variedad de filtros de fase,
dichos filtros también pueden ser implementados en PIV (Lugt, 1964). Sin embargo, el
diagrama de proceso típico del análisis de imágenes basados en FFT debe ser modificado para
su implementación como una técnica de filtrado espacial adaptado, en la Figura 11 se muestra
dicha modificación.

Figura 11. Diagrama de proceso de correlación cruzada modificado para su implementación como técnica de
filtrado espacial adaptado. Fuente propia

La técnica que utiliza transformaciones de filtros no lineales aplicados a la correlación cruzada


generalizada (GCC) se conoce como correlación de fase. Este método se introduce para
30

amplificar la relación señal a ruido de tal manera que se produzcan estimaciones de velocidad
más precisas y robustas. Este tipo de algoritmos tiene capacidad de recuperación contra el ruido
aditivo, iluminación de fondo no uniforme, reducción de error de sesgo en presencia de mayor
cizallamiento y movimiento rotacional. Se basan fundamentalmente en una descomposición
analítica de la señal a ruido y se aplica como un filtro espectral a GCC (Eckstein, Charonko, &
Vlachos, 2008). Adicional a este filtro sugieren utilizar funciones de ventanas que permitan
disminuir el aliasing, que es el resultado de la periodicidad de la transformada discreta de
Fourier para señales finitas, lo que supone que la señal es periódica sobre su longitud L, las
repeticiones fuera de este dominio pueden superponerse con las regiones validas de la señal
generando un alias en la correlación, pueden ser vistas como la correlación de las partículas
que salen de la ventana de imagen 1 con partículas que entran en la ventana de imagen 2.

Uno de los métodos de correlación de fase incluye una transformación gaussiana (GTPC).
Fundamentalmente esta técnica incluye enmascaramiento de las imágenes en el dominio
espacial para eliminar efectos de bordes, realiza filtrado de fase de la correlación cruzada para
suavizar, y utiliza transformaciones gaussianas de la correlación de fase para garantizar una
precisión subpixel mediante la implementación de estimaciones gaussianas de tres
puntos.(Eckstein et al., 2008)

Se han implementado otras técnicas de correlación de fase robusta (RPC) capaces de reducir
sustancialmente los errores. El RPC también utiliza avanzadas técnicas de enventanado para
atenuar los errores basados en Fourier. Se diferencia de la técnica de correlación de fase con
transformada gaussiana fundamentalmente porque GTPC incorpora un filtro de suavizado
adicional para optimizar el estimador subpixel. En cambio en RPC se enmascara la correlación
utilizando un modelo analítico de la relación señal a ruido (Eckstein & Vlachos, 2009). Al
combinar el uso de filtros espectrales con técnicas avanzadas de ventanas, el estimador RPC
elimina todo el contenido energético del espectro cruzado generando un pico de correlación
muy fuerte que aumenta la exactitud de medición de PIV.

El análisis de la transformada de Fourier ha demostrado que la porción de amplitud de la señal


de plano de frecuencia contiene información más relevante para el tamaño y la forma del objeto.
La porción de fase de la señal de plano de frecuencia contiene la información de posición de
los objetos en la escena de entrada y cierta información con respecto a su tamaño y forma
(Wernet, 2006).
31

Finalmente se concluye que las técnicas consultadas hasta el momento continúan teniendo
problemas para procesar imágenes de PIV, ya sea por coste computacional, resolución espacial
inadecuada, baja precisión o dificultades para correlacionar imágenes ante la presencia de ruido
aditivo. Por ende en este documento se pretende implementar una metodología para el
tratamiento de imágenes de PIV basada en la transformada Wavelet y la correlación de fase,
de tal manera que se obtengan datos de alta precisión con el menor coste computacional.

2.2 Post – procesamiento


El campo de velocidades obtenido en el procesamiento de imágenes de PIV puede contener
vectores atípicos debido a inadecuadas condiciones experimentales o incapacidad del algoritmo
de procesamiento para cuantificar algunos desplazamientos. Por ende es necesario incluir una
etapa de post procesamiento donde se realice una validación de los datos y se sustituyan los
vectores erróneos.

Los métodos de post procesamiento de sistemas de PIV se clasifican en iterativos y no


iterativos. Típicamente los métodos no iterativos son los más utilizados. El procedimiento
clásico de esta metodología se basa en detección de valores erróneos, sustitución de valores
incorrectos y suavización de datos (Lee et al., 2016), como se muestra en la Figura 12. A
continuación se citan los trabajos más importantes en esta área de estudio.

Figura 12. Procedimiento estándar de métodos no iterativos para la corrección de errores de PIV.
Fuente propia.

Para la detección de valores atípicos en PIV el método más utilizado ha sido “la prueba de la
mediana” (Westerweel, 1994). Se basa en la comparación de los vectores con sus vecinos. Esta
metodología se aplicó para una homogeneidad y una perturbación típica, por lo que se podía
32

plantear un único umbral de detección para vectores atípicos. Adicional se desarrolla una
técnica para detección de vectores erróneos en flujos turbulentos, pero la técnica es robusta y
requiere información a priori del flujo.

El método de umbral, aunque es eficaz en la eliminación de vectores espurios puede resultar


en la pérdida de vectores válidos puesto que se basa en el supuesto que los vectores erróneos
están muy alejados en magnitud y dirección de los vectores correctos, de tal manera que solo
aborda el error de correlación más evidente y no los problemas más sutiles. Teniendo en cuenta
las limitaciones del algoritmo típico de la mediana, Hart (1998) propone una metodología más
robusta que realiza la eliminación de vectores espurios a la par con el procesamiento de las
imágenes. Esto se consigue mediante la multiplicación de tablas de correlación generadas de
las regiones adyacentes, tal que el pico de correlación resultante de las tablas de correlación
combinadas se puede comparar con los picos de cada una de las tablas. Si el pico en la tabla
combinada existe como un pico en al menos una de las otras tablas, es probable que este
represente un desplazamiento. Esta metodología se ilustra en la Figura 13.

Figura 13. Eliminación de las anomalías de correlación multiplicando las tablas de correlación de las regiones
adyacentes. Los valores de correlación que no aparecen en ambas tablas se eliminan, permitiendo determinar el
desplazamiento de partículas. Tomado de (Hart, 1998c).

Los autores Westerweel y Scarano (2005) proponen una adaptación de “la prueba mediana”
original, esta se basa en la normalización de la mediana residual con respecto a la estimación
de la variación local de la velocidad. Este residuo produce una función de densidad de
probabilidad más o menos “universal”, que permite elegir un único valor umbral de detección
33

de datos vectoriales espurios, específico de cada experimento o diferentes regiones de flujo


dentro de un dominio de medición.

Adicional a las técnicas que han sido citadas hasta el momento, se ha recurrido a metodologías
alternativas basadas en optimización heurística, como lo son las redes neuronales (Liang, Jiang,
& Li, 2003), los algoritmos genéticos utilizando similitud de vectores adyacentes (Boonlong et
al., 2006) y similitud morfología para descartar los errores en el campo vectorial (Sheng &
Meng, 1998). Pero dado sus altos costes computacionales no son muy usados en la práctica.

En general los métodos no iterativos de post procesamiento eligen de manera arbitraria el valor
de umbralización, por lo cual puede elegirse valores inapropiados que generan eliminación de
vectores correctos o una detección inadecuada de vectores erróneos. Con el fin de superar las
limitaciones de los algoritmos de post procesamiento con métodos no iterativos, se desarrollan
los métodos iterativos. Los cuales repiten las fases de validación y reconstrucción hasta que se
cumplan las condiciones de terminación. En el trabajo desarrollado por Foucaut, Carlier y
Stanislas (2000), se propuso un metodología automática para eliminar datos basados en
comparaciones entre vectores brutos y su respectiva estimación. Este estimador es un filtro
mediano aplicado al campo de velocidad. Este procedimiento utiliza interpolación adaptable e
iterativa basada en filtro de interpolación de 5X5 ventanas. Aunque se mejora la suavidad del
campo de velocidad, si existen dos o más vectores continuos, los vectores erróneos no son
corregidos en su totalidad.

Otros autores han diseñado técnicas más eficientes que los métodos tradicionales, en los casos
que existen varios vectores atípicos en una misma vecindad. Para esto se han formulado
algoritmos de post procesamiento de imágenes de PIV que realizan en simultáneo los pasos
fundamentales de la corrección de vectores erróneos (detección, sustitución y suavización de
datos). Esta metodología se fundamenta en la teoría de mínimos cuadrados penalizados
combinada con la trasformada discreta del coseno (DCT), y puede manejar simultáneamente
ruido experimental, valores atípicos y datos faltantes. En general, se corrigieron de manera
adecuada los vectores de velocidad. Sin embargo en presencia de velocidades discontinuas
como las de los flujos supersónicos presentan inconvenientes (Garcia, 2010). Así mismo otros
autores basados en la fundamentación de “la prueba de la mediana” han realizado algoritmos
de post procesamiento utilizando otras metodologías, por ejemplo corrección de campos
vectoriales utilizando modelos estadísticos de la señal de PIV (Lee et al., 2016), emulaciones
34

de visión humana para ampliar las zonas de validación de vectores (Masullo & Theunissen,
2016), métodos de variación que realizan suavización del campo circundante para reducir el
efecto de los vectores espurios que no pudieron ser eliminados (Adanasyec; Demirov, 2005),
entre otros.

Para concluir, resulta pertinente aclarar que la prueba de la mediana ha sido la más utilizada en
la corrección de vectores erróneos, dada su fácil implementación. Sin embargo cuando las
ventanas de interrogación vecinas poseen una cantidad considerable de vectores erróneos o
cuando los datos incorrectos no están muy alejados en magnitud y dirección de los vectores
correctos, no se realiza la debida sustitución de los vectores de velocidad. Así mismo otras
técnicas han tenido limitaciones debido a elecciones incorrectas de valores umbrales y altos
desempeños computacionales. Por ende, se propone una técnica de corrección de vectores
basados en que los flujos incompresibles deben cumplir el criterio de mínima divergencia, tal
que se garantice el menor error de divergencia posible en todo el campo de velocidades. Para
implementar el método, se hace uso de un algoritmo de optimización no lineal, cuya función
objetivo es minimizar el error entre la velocidad estimada con PIV y la velocidad real utilizando
como restricción la ecuación de continuidad.
35

3. Paper 1
Desarrollo de la técnica de compresión de imágenes Wavelet y correlación de fase para
mejorar el procesamiento de imágenes de PIV

Maceas,M.1, Bolaños.F,2Osorio.A.F.1.
1
Grupo de oceanografía e ingeniería costera, OCEANICOS, Departamento de geociencia y
medio ambiente, Universidad Nacional de Colombia sede Medellín, Colombia, 2 Grupo de
automática de la Universidad Nacional, Departamento de energía eléctrica y automática,
Universidad Nacional de Colombia sede Medellín, Colombia.

Resumen

La velocimetría por imágenes de partículas (PIV) es una técnica de visualización de flujo en


múltiples direcciones, no intrusiva al medio. Para realizar el procesamiento de datos de PIV se
ha utilizado típicamente la correlación cruzada basada en la transformada rápida de Fourier
(FFT). Esta técnica es utilizada para extraer la ubicación del máximo pico de correlación
detectado, de tal manera que se estime el movimiento de las partículas entre dos imágenes
consecutivas. Presenta limitaciones para detectar zonas de altos gradientes de velocidad y
truncamientos de partículas en los bordes de las ventanas de interrogación. Debido a esto se
propone la implementación de una técnica llamada correlación de fase, que utiliza
transformación de filtros no lineales aplicados a la correlación cruzada generalizada. Esto con
el fin de extraer información de fase de la señal en el plano de frecuencias, puesto que allí está
contenida la información de posición de los objetos en la escena de entrada y cierta información
con respecto a su tamaño y forma, los cuales son datos de interés a la hora de determinar el
desplazamiento de las partículas. Adicionalmente se implementa un algoritmo híbrido que
utiliza la correlación de fase y la transformada Wavelet. Esta última tiene como finalidad
realizar la compresión de imágenes para mejorar el coste computacional de los algoritmos de
36

PIV y disminuir el almacenamiento físico de las imágenes. Se analizan cinco casos de estudio,
se utilizaron imágenes sintéticas y experimentales.

Palabras claves: Correlación de fase, Transformada wavelet, compresión de imágenes.

1. Introducción

La velocimetría por imágenes de partículas se define como la medición cuantitativa de vectores


de velocidad de flujo en un número simultaneo de puntos. Ha sido utilizada en el análisis de
flujo turbulento, puesto que dadas las distintas escalas físicas y la aleatoriedad asociada a estos
flujos, es necesario contar con una técnica capaz de medir un amplio rango dinámico de escalas
tanto en longitud como en velocidad. De manera adicional, dicha técnica debe permitir la
detección de flujo en todas las direcciones. Por tanto, los sistemas PIV se han vuelto
fundamentales en los estudios de hidrodinámica. Sus características no solo son útiles para
fluidos turbulentos, también son aplicables a una amplia gama de problemas en fluidos. El
montaje de estos sistemas fundamentalmente se basa en incorporar partículas neutralmente
boyantes a un fluido, usualmente iluminadas con un plano de luz láser. Se registran los
movimientos de dichas partículas en un lapso de tiempo conocido con una cámara de alta
resolución temporal. Finalmente se obtienen unas fotografías que son llevadas a un software
de procesamiento de imágenes, con el fin de cuantificar las velocidades asociadas al campo de
visión elegido.

El procesamiento de imágenes de PIV, se ha llevado a cabo en los últimos años utilizando el


concepto de correlación cruzada basado en la transformada rápida de Fourier. Esta técnica
permite identificar la dirección del desplazamiento de un pequeño grupo de partículas
registradas en la imagen, para cuantificar el campo de velocidades asociado al fluido. En la
Figura 14 se observa el diagrama de proceso de esta metodología que consiste en llevar las
imágenes 𝐼1 (𝑥, 𝑦) e 𝐼2 (𝑥, 𝑦) al dominio de la frecuencia utilizando la transformada rápida de
Fourier (FFT), posteriormente las representaciones en el dominio de la frecuencia de la imagen
1 ( 𝐼1 (𝑝, 𝑞) ) y el complejo conjugado de la imagen 2 ( 𝐼2 (𝑝, 𝑞)∗ ), se multiplican para encontrar
el plano de correlación de las distintas regiones de interrogación. Después se le aplica un
ventaneo W, cuya finalidad es minimizar los efectos de la FFT en cuanto a las discontinuidades
artificiales que se generan, para esto multiplica la señal por una ventana de longitud finita con
37

una amplitud que varía poco a poco hacia cero en los extremos, tal que se obtenga una señal
continua, sin transiciones bruscas. Finalmente se regresa al dominio del tiempo mediante la
implementación de la transformada inversa de Fourier (FFT-1) para extraer la ubicación del
máximo pico de correlación detectado.

Este método se utiliza con frecuencia debido a que el coste computacional de la correlación
cruzada directa es bastante ineficiente en comparación con el desempeño computacional de la
correlación cruzada basada en FFT. Sin embargo utilizar esta técnica tiene una serie de
limitaciones como lo son la detección de altos gradientes de velocidad y el truncamiento de
partículas en los bordes de las ventanas de interrogación. H.T.Huang y H.E.Fiedler (1993)
cuantificaron el efecto en la determinación de los desplazamientos, dada una deformación de
los patrones de las imágenes de partículas por altos gradientes de velocidad.

Figura 14. Diagrama de proceso del algoritmo de correlación cruzada en imágenes de PIV.

Aparte de las limitaciones de la técnica de correlación cruzada basada en FFT, existen otros
tipos de errores que afectan la precisión de los datos de PIV. En gran medida dichos errores se
deben a las condiciones de adquisición de las imágenes, por ejemplo Bugg y Rezkallah (1998)
indican que la utilización de cámaras fotográficas induce en las imágenes: aberraciones,
distorsiones, fenómenos de difracción e incertidumbre en el posicionamiento de las partículas.
También Hart (2000) afirma que una inadecuada densidad de partículas, incorrecta
temporización entre los pulsos del láser y la cámara, configuración óptica y ruido en los fondos
de la imagen, son indeseables a la hora de procesar datos de PIV, puesto que generan gran
cantidad de vectores erróneos . Es importante resaltar que la precisión de los datos no es la
única variable afectada por las limitaciones que han sido descritas. Uno de los temas más
38

importantes al hablar de mejoras de algoritmos de PIV es el desempeño de computacional y el


almacenamiento físico, puesto que las bases de datos de imágenes analizadas son de gran
tamaño. De igual manera al obtenerse vectores espurios se deben realizar tareas de post
procesamiento que generan costes computacionales más altos.

Aunque ha habido una amplia mejora en las técnicas de procesamiento digital de PIV, la
precisión de los datos sigue estando limitada por errores inherentes al método de correlación
cruzada. Se han desarrollado técnicas orientadas a obtener resultados más precisos y robustos.
Algunas metodologías se basan en algoritmos iterativos, por ejemplo el algoritmo multigrid
propuesto por Scarano y Riethmuller (2000) se basa en una reducción iterativa del tamaño de
las ventanas de interrogación, utiliza la información del campo vectorial obtenido para predecir
la posición de las ventanas de análisis de la siguiente iteración. Esta técnica también ha sido
planteada de manera inversa, incrementando el tamaño de la ventana de interrogación (Florio
et al., 2002). Otro método iterativo propuesto es el algoritmo offset que se basa en la
superposición parcial de las ventanas de interrogación, hasta que la diferencia de los
desplazamientos entre iteraciones sucesivas sea inferior a un pixel (Scarano & Riethmuller,
1999). Cabe aclarar que estas técnicas mejoran la resolución espacial del campo de velocidades
aumentando el costo computacional. De igual manera, se continúan generando errores en la
estimación PIV debido a la fuga de partículas en los bordes de las ventanas de interrogación.

Con el fin de disminuir el truncamiento de partículas en los bordes de las ventanas de


interrogación , Scarano (2002) propone mejorar su técnica multigrid refinando el tamaño local
de las ventanas de interrogación de acuerdo al flujo, para asegurar una mayor coincidencia de
partículas. Dicho algoritmo se conoce como deformación de ventanas. Por medio de dicha
deformación, se reducen los errores inducidos por la presencia de gradientes elevados y su
respuesta espacial obtiene una mejora significativa que demuestra un menor efecto de
modulación. Se comprueba su desempeño en imágenes de flujo turbulento donde demostró
mayor robustez ante ruido y fluctuaciones de escala pequeña. Sin embargo, presenta
inestabilidades asociadas con la alta frecuencia espacial (Shi & Zhang, 2015). Para solucionar
los problemas de inestabilidad de los algoritmos de deformación típicos, se diseñó un algoritmo
llamado Local Field Correction (Nogueira et al., 2001). En este caso el costo de evitar la
inestabilidad, es una restricción al campo de aplicación del sistema.
39

Otras técnicas propuestas para mejorar la precisión PIV han sido planteadas en la literatura.
Susset, Most, & Honore (2006) propone una técnica para mejorar la resolución de grandes
gradientes de velocidad haciendo uso de la correlación cruzada directa con una nueva estructura
para que computacionalmente sea equivalente a la FFT, un algoritmo multigrid para mejorar
resolución espacial, y desarrolla un algoritmo de súper resolución heurístico para aumentar aún
más la resolución espacial, para esto utiliza la velocimetría por seguimientos de partículas
(PTV). Por último los autores optimizan el tiempo de procesamiento mediante la
implementación de almacenamiento de datos en árboles de partición espaciales binarios. Se
comprueba el aumento de resolución espacial y la precisión de los datos al utilizar esta
metodología en diferentes casos de estudio. Sin embargo, se limitó el rendimiento
computacional dados los algoritmos iterativos, el proceso de identificación de partículas y la
localización de las mismas.

Otra de las metodologías que ha sido planteada para disminuir los errores inherentes a la
correlación, se basa en correlatores ópticos. Dichos dispositivos utilizan técnicas de filtración
análogas al proceso estándar de análisis de imágenes de PIV basados en correlación cruzada.
Para optimizar los rendimientos de los correlatores se condujeron al desarrollo de una variedad
de filtros de fase, dichos filtros también pueden ser implementados en PIV (Lugt, 1964). Las
ventajas de utilizar filtros de fase se basa en que el análisis de la transformada de Fourier ha
demostrado que la porción de amplitud de la señal de plano de frecuencia contiene información
más relevante para el tamaño y la forma del objeto, a diferencia de la porción de fase que
contiene la información de posición de los objetos en la escena de entrada y cierta información
con respecto a su tamaño y forma (Wernet, 2006). La técnica que utiliza transformaciones de
filtros no lineales aplicados a la correlación cruzada generalizada (GCC) se conoce como
correlación de fase. Este método se introduce para amplificar la relación señal a ruido de tal
manera que se produzcan estimaciones de velocidad más precisas y robustas (Wernet, 2005a).

Metodologías alternativas han sido desarrolladas con el fin de dejar la dependencia del
procesamiento de imágenes de PIV utilizando correlación cruzada. M.Falchi, G.Querzoli, &
G.P.Romano (2006) proponen una técnica de velocimetría de imagen robusta (RIV), que
consiste en una medida de disimilitud entre ventanas de interrogación basada en un estimador
Loretziano en lugar de la correlación cruzada. Los autores probaron que el RIV tiene un mayor
rendimiento cuando existen mayores niveles de ruido y turbulencia. También se han realizado
40

propuestas de evaluación de imágenes basadas en optimización heurística. Estos son métodos


basados en algoritmos genéticos que se han utilizado para realizar seguimiento de partículas
(Meng et al., 2010), estimación de la posición de partículas(Padilla et al., 2005) así como la
identificación de los errores (Boonlong et al., 2006) Con estos algoritmos se ha obtenido una
buena precisión de los datos, pero con un desempeño computacional deficiente.

Teniendo claro las limitaciones de las propuestas reportadas en la literatura, orientadas al


procesamiento de imágenes de PIV, en cuanto a garantizar precisión a un bajo coste
computacional, se propone en este artículo una metodología de procesamiento de PIV basada
en dos técnicas: la transformada Wavelet y la correlación de fase. Fundamentalmente con la
Wavelet se busca realizar una compresión de las imágenes. Esta técnica fue implementada por
Li (2000) en diferentes casos de estudio con el fin de obtener una disminución del coste
computacional, el almacenamiento físico de los datos y la reducción de ruido en las imágenes.
También se pretende realizar una comparación de diferentes filtros de descomposición Wavelet
en imágenes de partículas, para determinar cual genera los picos de correlación más altos en
las ventanas de interrogación. Finalmente se realiza el procesamiento de los datos utilizando la
correlación de fase, para amplificar la relación señal a ruido y producir estimaciones de
velocidad más precisas y robustas. Este tipo de algoritmos tiene capacidad de recuperación
contra el ruido aditivo, iluminación de fondo no uniforme, reducción de error de sesgo en
presencia de mayor cizallamiento y movimiento rotacional. Wernet (2005b), Eckstein y
Vlachos (2009) demostraron que este sistema supera las capacidades de las técnicas de
procesamiento basadas en Fourier a través de la detección de vectores válidos y la robustez
contra el ruido de fondo en las imágenes .

El presente artículo está estructurado de la siguiente manera: en la sección II se expone la


metodología planteada, posteriormente en la sección III se muestran los resultados de la técnica
hibrida en imágenes sintéticas y experimentales, se realiza un análisis comparativo de esta
metodología y el algoritmo clásico de imágenes de PIV con correlación cruzada. Finalmente
en IV se concluye acerca de los resultados obtenidos.

2. Metodología propuesta

Como se dijo anteriormente las técnicas tradicionales de PIV pueden entregar datos erróneos e
imprecisos ante la presencia de gradientes fuertes de velocidad, ruidos aditivos en la imagen,
41

fuga de partículas en los bordes de las ventanas de interrogación, entre otros. Por ende en este
capítulo se describe una técnica de análisis de imágenes PIV, que permita obtener datos de
velocidad con mayor precisión, a un menor coste computacional. La metodología propuesta se
basa en los conceptos de la transformada wavelet en compresión de imágenes y la correlación
de fase para el procesamiento de imágenes de PIV.

2.1 La transformada wavelet en procesamientos de imágenes PIV


a. Transformada Wavelet de dos dimensiones
La Wavelet es un tipo de transformada que brinda información tanto de la frecuencia de las
señales como del tiempo correspondiente, es capaz de concentrarse en fenómenos transitorios
y de alta frecuencia mejor que la transformada de Fourier con ventana, en la que una vez que
el tamaño de la ventana es elegido todas las frecuencias son analizadas con la misma resolución
de tiempo y frecuencia. En el caso de la transformada Wavelet, el tamaño de la ventana es
adaptado a las diferentes frecuencias de interés.

Para hallar la transformada Wavelet de una función de dos dimensiones es necesario definir las
funciones de escalamiento de dos dimensiones φ(𝑥, 𝑦) y tres Wavelet de dos dimensiones
asociada, denotadas ψ𝐻 , ψ𝑉 𝑦 ψ𝐷 . . Cada una de las funciones wavelet representa el producto
de una función φy su correspondiente Wavelet ψ. En las ecuaciones (1) a (4) se muestran los
productos obtenidos.

φ(𝑥, 𝑦) = φ(𝑥)φ(𝑦) (1)

ψ𝐻 (𝑥, 𝑦) = ψ(𝑥)φ(𝑦) (2)

ψ𝑉 (𝑥, 𝑦) = φ(𝑥)ψ(𝑦) (3)

ψ𝐷 (𝑥, 𝑦) = ψ(𝑥)ψ(𝑦) (4)

Estas Wavelet miden las variaciones de los niveles de grises a lo largo de diferentes
direcciones: ψ𝐻 Variación a lo largo de las columnas, ψ𝑉 variación a lo largo de las filas y
ψ𝐷 variación a lo largo de la diagonal.

Dadas las funciones wavelet y escalamiento en dos dimensiones, se puede definir la


transformada Wavelet discreta (DWT) en dos dimensiones. Para esto primero se define las
42

funciones bases de escalado y traslación como se muestra en las ecuaciones (5) y (6). (Gonzalez
& Woods, 2008)

𝑗
ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) = 22 𝛹(2𝑗 𝑥 − 𝑚, 2𝑗 𝑦 − 𝑛), 𝑖 = {𝐻, 𝑉, 𝐷} (5)

𝑗
φ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) = 22 φ(2𝑗 𝑥 − 𝑚, 2𝑗 𝑦 − 𝑛). (6)

Donde i identifica la dirección de la wavelet descritas en las ecuaciones (2) a (4). De esta
manera la transformada wavelet discreta de la función 𝑓(𝑥, 𝑦) de tamaño MxN es la mostrada
en las ecuaciones (7) y (8).
𝑀−1 𝑁−1
1
𝑊φ (𝑗0 , 𝑚, 𝑛) = ∑ ∑ 𝑓(𝑥, 𝑦) φ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) (7)
√𝑀𝑁 𝑥=0 𝑦=0

𝑀−1 𝑁−1
1
Wψ𝑖 (𝑗, 𝑚, 𝑛) = ∑ ∑ 𝑓(𝑥, 𝑦) ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) , 𝑖 = {𝐻, 𝑉, 𝐷} (8)
√𝑀𝑁 𝑥=0 𝑦=0

Tal que 𝑗0 es una escala inicial arbitraria y los coeficientes 𝑊φ (𝑗0 , 𝑚, 𝑛) definen una
aproximación de 𝑓(𝑥, 𝑦) a escala 𝑗0 . Los coeficientes Wψ𝑖 (𝑗, 𝑚, 𝑛) agregan detalles
horizontales, verticales y diagonales para escalas 𝑗 ≥ 𝑗0 . Normalmente 𝑗0 = 0 y se selecciona
𝑁 = 𝑀 = 2𝑗 tal que 𝑗 = 0,1,2, … , 𝐽 − 1 y 𝑚, 𝑛 = 0,1,2, … , 2𝑗 − 1. Dado 𝑊φy Wψ𝑖 , 𝑓(𝑥, 𝑦) se
obtiene vía transformada Wavelet discreta inversa, se muestra en (9):

𝑀−1 𝑁−1
1
𝑓(𝑥, 𝑦) = ∑ ∑ 𝑊φ (𝑗0 , 𝑚, 𝑛) φ𝑗0,𝑚,𝑛 (𝑥, 𝑦)
√𝑀𝑁 𝑚=0 𝑛=0

1
+ ∑ ∑ ∑ ∑Wψ𝑖 (𝑗, 𝑚, 𝑛) ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) (9)
√𝑀𝑁 𝑖=𝐻,𝑉𝐷 𝑗=𝐽0 𝑚 𝑛

La DWT bidimensional mostrada en (9), puede ser implementada usando filtros digitales y
decimadores. Con funciones de escalamiento y wavelet bidimensionales separables, se toma la
DWT unidimensional de las filas de 𝑓(𝑥, 𝑦) seguido por la DWT unidimensional de las
columnas. En la Figura 15, se puede observar el diagrama de proceso que utiliza la
transformada Wavelet en señales de dos dimensiones. La convolución de las filas con los filtros
ℎψ (−𝑛) y ℎφ (−𝑛) (pasa alto y pasa bajo respectivamente) con decimación de las columnas
43

genera dos subimágenes con resolución horizontal reducida en un factor de 2. El filtro pasa alto
o componente de detalle caracteriza la información de alta frecuencia de la imagen con
orientación vertical y el pasa bajo aproxima componentes con bajas frecuencias en la
componente vertical. Posteriormente ambas sub imágenes se filtran en forma de columnas y se
muestrean de forma descendente para obtener sub imágenes de salida de cuatro cuartos de
tamaño. Es importante aclarar que este procedimiento se puede realizar de manera iterativa
hasta que el diseñador considere un tamaño pertinente. En la Figura 16 se puede observar dos
iteraciones del proceso de filtrado, de esta manera se obtiene una descomposición Wavelet de
segundo nivel. En la literatura se conoce el recuadro blanco 𝑊φ como el coeficiente de
aproximación y ψ𝐻 , ψ𝑉 𝑦 ψ𝐷 como los coeficientes de detalle horizontal, vertical y diagonal,
respectivamente.

Figura 15. Diagrama del proceso transformada wavelet de 2 dimensiones.

Figura 16. Resultado de la descomposición Wavelet. Cuadro del medio (descomposición de un solo nivel) y
Cuadro de la izquierda (descomposición de segundo nivel)
44

La elección de los filtros de descomposición Wavelet es de gran importancia en la compresión


de imágenes. Estos se conocen con el nombre de bases Wavelets, existen diferentes familias
de Wavelets que cuenta con diferentes cantidades de coeficientes para su representación, aun
no existe un criterio definido para evaluar su calidad, debido a que depende en gran medida de
la aplicación de interés. Las más conocidas son: Haar, Daubechies, Coiflets, Symlets,
Biortogonales, Meyer, Shannon, entre otras.

El autor Li (2003) ha demostrado que las bases de onda alta (alto número de coeficientes
Wavelet) proporcionan buen rendimiento para la compresión, ya que tienen una buena
localización de frecuencia que a su vez aumenta la compactación de energía. En particular, las
bases Wavelet Daubechies son muy utilizadas, debido a su propiedad de formar bases
ortonormales (Weng, et al., 2001). Dada esta condición, se asegura la independencia de la
representación de la señal en los diferentes niveles, de tal manera que se evita la aparición de
información falsa. Además, las bases Daubechies permiten calcular la transformada Wavelet
mediante un algoritmo menos complejo, con un bajo costo computacional y numéricamente
estable, lo cual las hace eficientes frente a las bases no ortonormales.

b. Técnica de compresión de imágenes con transformada Wavelet

La transformada Wavelet se utiliza en los procesos de compresión de imágenes con el fin de


reducir el rango dinámico de la señales, de esta manera se elimina información redundante. Por
ende, la energía de la imagen transformada se compacta en el menor número posible de
coeficientes, cuya energía sea cercana a cero. A continuación se describe el procedimiento
típico para compresión con transformada Wavelet (Hui Li, 2003).

1. Calcular coeficientes Wavelets que representen la imagen en bases ortonormales.


2. Establecer el número de coeficientes Wavelets M a retener, es decir fijar la relación de
compresión M/N, tal que N es el número total de coeficientes.
3. Reconstruir la imagen a partir de coeficientes Wavelets.

Por último para la implementación de la transformada Wavelet en compresión de imágenes los


filtros utilizados deben ser de respuesta finita al impulso (FIR) para garantizar soporte finito.
En cuanto a la longitud del filtro se debe tener un balance entre esta y la suavidad, puesto que
son inversamente proporcionales, si la Wavelet no es suave el error será fácil de detectar
45

visualmente. Finalmente los coeficientes serán racionales para evitar operaciones de punto
flotante.(Fournier & Castro, 1997)

2.2 Correlación de fase

La técnica que utiliza transformaciones de filtros no lineales aplicados a la correlación cruzada


generalizada (GCC) se conoce como correlación de fase, su diagrama de proceso se ilustra en
la Figura 11, como se observa este proceso es bastante similar al diagrama de análisis de
imágenes de PIV con correlación cruzada, solo tiene una variación y es la ubicación del proceso
de ventaneo W, que en este caso se multiplica por la entrada de la segunda imagen. Este método
se introduce para amplificar la relación señal a ruido de tal manera que se produzcan
estimaciones de velocidad más precisas y robustas. Eckstein, Charonko, & Vlachos(2008)
demostraron que este tipo de algoritmos tiene capacidad de recuperación contra el ruido aditivo,
iluminación de fondo no uniforme, reducción de error de sesgo en presencia de mayor
cizallamiento y movimiento rotacional. Se basan fundamentalmente en una descomposición
analítica de la señal a ruido y se aplica como un filtro espectral a GCC. Aparte de este filtro se
sugiere utilizar funciones de ventanas que permitan disminuir el aliasing por las condiciones
de contorno. El alias se refiere al resultado de la periodicidad de la transformada discreta de
Fourier para señales finitas, lo que supone que la señal es periódica sobre su longitud L, las
repeticiones fuera de este dominio pueden superponerse con las regiones validas de la señal
generando un alias en la correlación, pueden ser vistas como la correlación de las partículas
que salen de la ventana de imagen 1 con partículas que entran en la ventana de imagen 2.

Figura 17. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado.
46

Uno de los métodos de correlación de fase incluye una transformación gaussiana (GTPC).
Fundamentalmente esta técnica incluye enmascaramiento de las imágenes en el dominio
espacial para eliminar efectos de bordes, realiza filtrado de fase de la correlación cruzada para
suavizar y utiliza transformaciones gaussianas de la correlación de fase para garantizar
precisión subpixel mediante la implementación de estimaciones gaussianas de tres
puntos.(Eckstein et al., 2008)

Se han implementado otras técnicas de correlación de fase robusta (RPC) capaces de reducir
sustancialmente los errores. El RPC también utiliza avanzadas técnicas de ventaneo para
atenuar los errores basados en Fourier. Se diferencia de la técnica de correlación de fase con
transformada gaussiana fundamentalmente porque GTPC incorpora un filtro de suavizado
adicional para optimizar el estimador subpixel. En cambio en RPC se enmascara la correlación
utilizando un modelo analítico de la relación señal a ruido (Eckstein & Vlachos, 2009). Al
combinar el uso de filtros espectrales con técnicas avanzadas de ventanas, el estimador RPC
elimina todo el contenido energético del espectro cruzado generando un pico de correlación
muy fuerte que aumenta la exactitud de medición de PIV.

El análisis de la transformada de Fourier ha demostrado que la porción de fase de la señal de


plano de frecuencia contiene la información de posición de los objetos en la escena de entrada
y cierta información con respecto a su tamaño y forma (Wernet, 2006). Por ende, en el caso de
PIV es más relevante la información suministrada por la fase. En la ecuación (10), se presenta
la ventana de filtrado de fase (POF) utilizada en RPC.

1
𝑊𝑃𝑂𝐹 (𝑝, 𝑞) = (10)
|𝐼2 (𝑝,𝑞)|

Al introducir la ventana 𝑊𝑃𝑂𝐹 en el proceso de correlación cruzada se introduce una fase pura
con amplitud unitaria, esta tiene una respuesta similar a un filtro pasa alto, el cual tiende a
enfatizar la información de los bordes. El énfasis en alta frecuencia lo hace más sensible a los
cambios de escala y rotación. La respuesta de la amplitud unitaria en la imagen se refleja en un
aumento del nivel de ruido en el plano de correlación. Sin embargo, un aumento del nivel de
ruido en el fondo es aceptable siempre y cuando la relación entre el pico de correlación y el
pico de ruido más alto permanezca alta.
47

Para reducir los niveles de ruido generados en el plano de correlación, se propuso el filtro de
fase simétrica (SPOF), que aplica la raíz cuadrada del filtro POF a la correlación cruzada
(Wernet, 2005b). Como resultado, los componentes de frecuencias ruidosas más altas fueron
atenuados, reduciendo al mismo tiempo los efectos del ruido aditivo de fondo en la PIV. En la
ecuación (11) se muestra la ventana asociada al SPOF.

1
𝑊𝑆𝑃𝑂𝐹 (𝑝, 𝑞) = (11)
√|𝐼1 (𝑝,𝑞)||𝐼2 (𝑝,𝑞)|

El SPOF aplica una ponderación de filtro inverso que se equilibra de acuerdo al contenido de
amplitud de señal tanto en 𝐼1 como en 𝐼2 . Al igual que en el caso POF donde solo se utiliza la
función de filtro para generar una función ventana W, se obtienen buenos resultados si la escena
de entrada y la función filtro tienen magnitudes similares. El objetivo de SPOF es aplicar una
cantidad suficiente de normalización tanto al espectro de escena de entrada como al filtro de
tal manera que el contenido de alta frecuencia en cada uno se incremente junto con una
reducción del alto ruido de fondo.

A pesar de sus buenos rendimientos cuando hay objetos estacionarios, existen momentos en
los que el rendimiento de la relación señal a ruido (SNR) del SPOF es menor que la correlación
cruzada estándar para datos de buena calidad. Por ende, se propuso en (Wernet, 2006) una
técnica llamada filtro de fase simétrico automático el cual es un procesamiento óptimo que
permite determinar cuándo se requiera realmente la implementación del SPOF. Si las regiones
de interrogación contienen solo imágenes de partículas es conveniente utilizar la técnica de
procesamiento de imágenes de PIV clásica, en cambio sí existe presencia de ruido se
recomienda el SPOF.

Para reducir los efectos del ruido aditivo, se propone utilizar un término de peso SNR, este se
halla con una descomposición analítica de las señales de PIV. Este término puede ser conocido
como el radio del espectro de potencia de las señales de imágenes de partículas y los espectros
de potencia de las señales ruido (Eckstein & Vlachos, 2009). Es importante aclarar que para
utilizar este término de peso es fundamental conocer el proceso de grabación de las imágenes.
El SNR es computado como se muestra en la ecuación (12).

𝑑2 𝑘2

𝑆𝑁𝑅(𝑘) = 𝑒 16 (12)
48

Tal que d es el diámetro efectivo de la imagen de la partícula y k es el número de onda


normalizado [−π, π] basado en la cuantificación de la señal espacial.

2.3 Algoritmo híbrido utilizando transformada Wavelet y correlación de fase.

El algoritmo híbrido basado en transformada Wavelet y correlación de fase es una nueva


metodología que se propone en este artículo para mejorar dos problemas típicos en aplicaciones
de PIV, como lo son la precisión de los datos y el desempeño computacional del algoritmo.

Inicialmente se realiza la compresión de las imágenes originales de PIV utilizando el


procedimiento descrito en la sección 2.1. Posteriormente dichos datos son almacenados y
procesados utilizando la correlación de fase. Para este caso se propone utilizar el filtro de fase
simétrica (SPOF), que aplica la raíz cuadrada del filtro POF a la correlación cruzada como se
muestra en (11). De esta manera se atenúan las frecuencias ruidosas altas y se eliminan los
efectos del ruido en el fondo de las imágenes. Con el fin de mejorar los datos obtenidos y
disminuir la incertidumbre que genera la transformada Wavelet se utiliza una interpolación
subpixel. La ubicación del pico de correlación se asocia directamente al desplazamiento de las
partículas. El punto máximo de los datos en una correlación de fase es un pico de valor entero.
Sin embargo, la correlación cruzada es una medida estadística, por lo que los valores obtenidos
también tienen información útil y es gracias a esto que se puede mejorar la exactitud de la
estimación PIV, utilizando un método de precisión sub-pixel. El método consiste en ajustar los
datos de la correlación con una función, siempre y cuando el pico sea estrecho. Para este caso
se utiliza un ajuste gaussiano debido a que las imágenes de partículas son descritas por las
funciones de Airy que a su vez se aproximan por la distribución gaussiana (Weng et al., 2001).
En las ecuaciones (13) y (14) se describen los estimadores utilizados. En la Figura 18 se observa
el diagrama de flujo del algoritmo propuesto en esta sección basado en la transformada Wavelet
y la correlación de fase. Este procedimiento consiste en que el usuario ingrese las imágenes de
PIV, especifique el nivel de descomposición wavelet y la base wavelet a utilizar para realizar
la compresión de las imágenes, posteriormente se utiliza la FFT para obtener la representación
en el dominio de frecuencia de las imágenes comprimidas que permitan realizar el cálculo de
correlación cruzada. El producto de ambas representaciones pasa por un proceso de filtrado W,
donde únicamente se tiene en cuenta la información que brinda la fase. Después se utiliza la
FFT-1 para encontrar la representación de los picos de correlación en el tiempo, y de esta manera
49

hallar el pico máximo de correlación de cada ventana de interrogación. Finalmente se utiliza


un estimador subpixel que permita obtener los picos de correlación con mayor precisión.

(𝑙𝑜𝑔 𝑅(𝑥0 − 1, 𝑦0 ) − log 𝑅(𝑥0 + 1, 𝑦0 ))


𝑥 = 𝑥0 + (13)
2 log 𝑅(𝑥0 − 1, 𝑦0 ) + log 𝑅(𝑥0 + 1, 𝑦0 ) − 2𝑙𝑜𝑔𝑅(𝑥0 , 𝑦0 )

(𝑙𝑜𝑔 𝑅(𝑥0 , 𝑦0 − 1) − log 𝑅(𝑥0 , 𝑦0 + 1))


𝑦 = 𝑦0 + (14)
2 log 𝑅(𝑥0 , 𝑦0 − 1) + log 𝑅(𝑥0 , 𝑦0 + 1) − 2𝑙𝑜𝑔𝑅(𝑥0 , 𝑦0 )

Tal que 𝑅(𝑥0 , 𝑦0 ) hace referencia al pico de correlación más alto ubicado en las coordenadas (𝑥0 , 𝑦0 ).

Figura 18. Diagrama de flujo del algoritmo hibrido transformada wavelet con correlación de fase.

3. Resultados

A continuación se discuten los resultados obtenidos al implementar la metodología propuesta


en la sección 2. Inicialmente se hace uso de la transformada Wavelet para realizar compresión
de imágenes de PIV. Esto se realiza con el fin de disminuir tanto el tamaño del almacenamiento
físico como el coste computacional del procesamiento de las imágenes. Se realiza un análisis
con dos casos de estudio experimentales, que permitan definir qué base de descomposición
Wavelet produce los picos de correlación más altos y se comprueba que aun con imágenes de
PIV comprimidas se pueden obtener resultados de velocidad válidos. Finalmente se utiliza la
correlación de fase como una técnica para mejorar la precisión de los datos de PIV. Se propone
un algoritmo que integre el algoritmo basado en transformada Wavelet con el algoritmo de
correlación de fase. Finalmente se corrobora el comportamiento del algoritmo hibrido en cinco
50

casos de estudio, dos con bases de datos de imágenes sintéticas y tres bases de datos de
imágenes experimentales.

3.1 Resultados transformada Wavelet

Como se dijo anteriormente, la transformada Wavelet es utilizada frecuentemente en


compresión de imágenes. Por ende, en este artículo se decide analizar el desempeño de esta
transformada en compresión de imágenes de PIV. Para esto se utilizan dos casos de estudio
experimentales: vórtice fuerte y un flujo jet (Stanislas et al, 2005).

Inicialmente, se decide realizar un análisis de los datos al variar la tasa de compresión, tal que
se reconstruyen las imágenes de PIV con un nivel de descomposición (25% de los coeficientes
totales), dos niveles de descomposición (6.25% de los coeficientes totales) y tres niveles de
descomposición (1.32% de los coeficientes totales). Adicionalmente se utilizan diferentes
funciones bases para realizar la descomposición de la transformada Wavelet, de tal manera que
se pueda concluir qué base genera los resultados de correlación más precisos.

 Vórtice fuerte

En la Figura 19, se muestran las imágenes de prueba utilizadas. Estas fueron grabadas en el
túnel de viento Alemán-Holandés DNW-LLF por el centro aeroespacial alemán (DLR), con el
fin de estudiar experimentalmente la formación de vórtices de estela detrás de un avión de
transporte (Stanislas, Okamoto, & Kähler, 2003). La imagen tiene un tamaño de 1280x1018
pixeles. Presenta gradientes fuertes, perdida de densidad de imagen y tamaños de imagen de
partículas variables.

Figura 19. Imágenes de prueba, grabadas por en el DNW-LLF por el DLR.


Tomado de (Stanislas et al., 2003)

A continuación se observan unas gráficas comparativas del comportamiento del máximo


coeficiente de correlación en dos ventanas de interrogación diferentes, al modificar tanto la
tasa de compresión de la imagen como los filtros ortogonales utilizados para realizar la
51

descomposición Wavelet. En el caso de las ventanas de interrogación con baja densidad de


partículas, se observó que cuando la tasa de compresión utiliza mayor cantidad de coeficientes
Wavelet, los picos de correlación se hacen más grandes, este comportamiento se muestra en la
Figura 20. Además se evidenció que las bases de menor orden son las que generan los picos de
correlación más altos. Sin embargo los resultados del análisis realizado a ventanas de
interrogación con alta densidad de partículas, demostraron lo contrario, que las bases Wavelet
de orden alto son las que generan los picos de correlación más elevados, como se observa en
la Figura 21. Por tanto se concluye que la calidad de la imagen es fundamental a la hora de
elegir la base ortogonal a utilizar en la descomposición wavelet. En el caso del vórtice fuerte
al interior del núcleo es donde se presentan los vectores de velocidad más difíciles de estimar.
Por ende se decide utilizar bases wavelet de menor orden en la compresión de imágenes de
PIV.

6
x 10
5
db2
Maximo coeficiente de correlación para una

4.5 db4
db10
db20
4 db30
ventana de interrogación

db45
3.5 coif1
coif2
3 coif4
sym2
sym4
2.5
bior 1.1
bior 2.2
2 bior 6.8

1.5

0.5

0
5 10 15 0 20 25
Porcentaje coeficientes Wavelet
Figura 20. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del vórtice fuerte utilizando una ventana de interrogación con densidad de partículas baja.
52

6
x 10
9
db2

Maximo coeficiente de correlación para una


8 db4
db10
db20
7 db30

ventana de interrogación
db45
coif1
6 coif2
coif4
5 sym2
sym4
bior 1.1
4 bior 2.2
bior 6.8
3

0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 21. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del vórtice fuerte utilizando una ventana de interrogación con densidad de partículas alta.

En Figura 22, se observa la imagen de PIV reconstruida con cuatro niveles diferentes de
descomposición: 25%, 6.25%,1.56% y 0.39% del total de coeficientes Wavelet de la imagen
original, respectivamente. Como es de esperarse, al disminuir la cantidad de coeficientes
Wavelet, las imágenes reconstruidas poseen menor calidad. También se muestra en la Figura
23 los respectivos campos vectoriales de las imágenes de PIV cuando se varía la tasa de
compresión de las imágenes. De manera cualitativa se puede observar que al disminuir el
porcentaje de coeficientes Wavelet, se aumenta la cantidad de vectores espurios. Para realizar
un análisis cuantitativo de los vectores erróneos generados, se comparan los perfiles de
velocidad en U y V a lo largo de Y=512 y X variable, del campo de velocidad original vs el
campo de la imagen comprimida con dos niveles de descomposición Wavelet diferentes. En la
Figura 24, se muestra que los pixeles asociados al interior del vórtice presentan diferencias
considerables entre el perfil de velocidad de la imagen original y los perfiles asociados a las
imágenes reconstruidas con 25% y 6,25% de los coeficientes totales. Además se presenta en la
Figura 25 el histograma del error asociado al perfil de velocidad para Y=512 y X variable, tanto
para U como para V, siendo más significativos los errores del perfil vertical. Se observa que
los perfiles del vórtice fuerte utilizando compresión de imágenes siempre se aproximan a la
magnitud par más cercana del valor original, esto se debe a que la transformada Wavelet se
basa en una descomposición en potencias de dos. Dado este comportamiento se decide
53

implementar el algoritmo de compresión de imágenes con una interpolación subpixel en los


picos de correlación, tal que se mejore la precisión de los datos.

Coeficientes de aproximación para un nivel Coeficientes de aproximación para nivel 2


50
100 50
Y (pixeles)

Y (pixeles)
150

200 100

250
300 150

350
400 200

450

500 250

100 200 300 400 500 600 50 100 150 200 250 300

X (pixeles) X (pixeles)
Coeficientes de aproximación para nivel 3 Coeficientes de aproximación para nivel 4

20 10

20
Y (pixeles)

Y (pixeles)

40

30
60

40
80
50
100
60
120
70

20 40 60 80 100 120 140 160 10 20 30 40 50 60 70 80 90

X (pixeles) X (pixeles)
Figura 22. Imágenes reconstruidas con diferente tasas de compresión utilizando la base Coifle 2: Tasa de
compresión del 25% de los coeficientes Wavelet., 6.25%, 1.56% y 0.39% de los coeficientes Wavelets.

Figura 23. (a) Campo de velocidad sin realizar compresión con ventana de interrogación de 32x32, (b) Campo
de velocidad de reconstruida con el 25% de los coeficientes Wavelets con ventanas de interrogación de
16x16pixeles y (c) reconstruida con el 6.25% de los coeficientes Wavelets del vórtice fuerte con ventana de
interrogación de 8x8.
54

Figura 24. Comparación de los perfiles de velocidad U (izquierda) y V (derecha) a lo largo de Y=512 y X
variable utilizando diferentes niveles de descomposición Wavelets para la base Coifle 2 en el caso del vórtice
fuerte.

14 16

12 14

12
10
10
Frecuencia

Frecuencia

8
8
6
6
4
4

2 2

0 0
0 2 4 6 8 0 2 4 6 8
Error U (pixel/frame) Error V (pixel/frame)
Figura 25. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle 2 en el caso del
vórtice fuerte.

En la Figura 26 y Figura 27 se muestran los perfiles de velocidad y los histogramas de los


errores obtenidos al implementar una interpolación subpixel en los picos de correlación del
algoritmo de procesamiento de imágenes de PIV comprimidas. Se evidencia que los resultados
obtenidos mejoran considerablemente en comparación con los datos de velocidad del algoritmo
de la transformada Wavelet sin interpolación. De manera adicional, se presenta el error del
campo de velocidad del vórtice fuerte entre la técnica clásica de correlación cruzada y el
algoritmo de compresión de imágenes para dos niveles de descomposición diferentes, estos se
muestran en la Figura 28 y la Figura 29. Al interior del núcleo del vórtice se presentan errores
55

grandes, comportamiento esperable si se tiene en cuenta que el algoritmo de compresión de


imágenes se está comparando con un algoritmo clásico de correlación cruzada que no cuenta
con una etapa de post procesamiento de los vectores y que poseen gran cantidad de vectores
incorrectos debido a la baja densidad de partículas en esta zona. En el caso de descomposición
de segundo nivel (6,25% del total de coeficientes Wavelets) se presentan unos datos erróneos
en las fronteras del campo de velocidad, adicional a los errores en el núcleo del vórtice. Estos
errores son de fácil corrección implementando una técnica de post procesamiento de imágenes.
Finalmente se concluye que es viable utilizar la compresión de imágenes hasta en un 6,25% de
los coeficientes Wavelet totales para estimar los desplazamientos de las partículas de interés.

Figura 26. Comparación de los perfiles de velocidad U y V a lo largo de X=512 y Y variable utilizando
diferentes niveles de descomposición Wavelets para la base Coifle de orden 2, en el caso del vórtice fuerte con
interpolación subpixel.
18 14

16
12
14
10
12
Frecuencia

Frecuencia

10 8

8 6

6
4
4
2
2

0 0
0 2 4 6 8 0 2 4 6 8
Error U (pixel/frame) Error V (pixel/frame)
Figura 27. Histograma de errores de los perfiles de velocidad U y V a lo largo de X=512 y Y variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle de orden 2, en el
caso del vórtice fuerte con interpolación subpixel.
56

30 15
Error U (pixel/frame)

Error V (pixel/frame)
20 10

10 5

0 0
1500 1500
1000 1000 1000 1000

500 500 500 500


Y 0 0 X Y 0 0 X
Figura 28. Error del campo de velocidades entre el algoritmo clásico de correlación cruzada y el algoritmo de
compresión de imágenes con correlación e interpolación subpixel utilizando 25% de los coeficientes Wavelets
totales en el caso del vórtice fuerte.

25 40
Error U (pixel/frame)

Error V (pixel/frame)

20
30
15
20
10
10
5

0 0
1500 1500
1000 1000 1000 1000

500 500 500 500


Y 0 0 X Y 0 0 X
Figura 29. Error del campo de velocidades entre algoritmo clásico de correlación cruzada y el algoritmo de
compresión de imágenes con correlación e interpolación subpixel utilizando 6,25 % de los coeficientes Wavelets
totales en el caso del vórtice fuerte.

 Flujo jet
El segundo caso de estudio utiliza las imágenes de la Figura 30, tomadas de Stanislas et al.
(2005) , las cuales hacen parte de un experimento real en el que las partículas no son mono-
dispersas, ni perfectamente gaussianas. Los perfiles de intensidad de los dos pulsos láser no
son idénticos y las imágenes contienen componentes de ruido aleatorio y de fondo.
57

Figura 30. Imágenes Flujo jet.


Tomado de (Stanislas et al., 2005)

En las Figura 31 y Figura 32, se observan unas gráficas similares a las del caso del vórtice
fuerte, donde se valida el comportamiento de la correlación cruzada al utilizar distintas tasas
de compresión y bases Wavelets en el caso del flujo turbulento. Se analizaron los máximos
coeficientes de correlación de dos ventanas de interrogación, una de las zonas está ubicada en
la esquina superior de la imagen donde las velocidades son cercanas a cero y otra al interior del
chorro turbulento. Las gráficas analizadas muestran que las bases de menor orden son las que
generan los picos de correlación más altos. En este caso la base coifle 1 y symlets 2 fueron las
que generaron los mejores resultados.

5
x 10
12
db2
Maximo coeficiente de correlación para una

db4
db10
10 db20
db30
db45
ventana de interrogación

coif1
8 coif2
coif4
sym2
sym4
6 bior 1.1
bior 2.2
bior 6.8
4

0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 31. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del flujo Jet en una ventana de interrogación con velocidades cercanas a cero.
58

6
x 10
3.5
db2
db4

Maximo coeficiente de correlación para


db10
3 db20
db30
una ventana de interrogación db45
2.5 coif1
coif2
coif4
2 sym2
sym4
bior 1.1
bior 2.2
1.5
bior 6.8

0.5

0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 32. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del flujo Jet en una ventana de interrogación al interior del chorro turbulento.

Se presenta en la Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con
ventanas de interrogación de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes
Wavelets con ventanas de interrogación de 16x16 pixeles(derecha).

el campo de velocidades asociado al flujo jet calculado con la imagen original y con la imagen
comprimida en un 25%. Se evidencia visualmente que el campo de velocidades calculado con
el algoritmo de la transformada Wavelet es capaz de corregir errores sin recurrir a métodos de
post procesamiento. Adicionalmente la dinámica del fluido es más clara en este caso que en el
campo vectorial de la imagen original. También se presentan las comparaciones de los perfiles
de velocidad y sus histogramas, en las Figura 34 y Figura 35, respectivamente. Las
estimaciones de los perfiles U y V presentan en general errores inferiores a los 0,4 px/frame y
la estimación de la componente V en el caso de la descomposición Wavelet de orden 2 (6.25%
de los coeficientes Wavelet) es la que presenta mayores discrepancias con la metodología
clásica.
59

Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con ventanas de interrogación
de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes Wavelets con ventanas de
interrogación de 16x16 pixeles(derecha).

Figura 34. Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable utilizando diferentes
niveles de descomposición Wavelets para la base Coifle 2 en el caso del flujo jet con interpolación subpixel en
los picos de correlación.
60

16 14

14 12

12
10
10
Frecuencia

Frecuencia
8
8
6
6
4
4

2 2

0 0
0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5
Error U (pixel/frame) Error V (pixel/frame)
Figura 35. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle 1 en el caso del
vórtice fuerte

Es importante resaltar que para obtener unos datos precisos utilizando imágenes comprimidas
por transformada Wavelet es necesario utilizar un estimador de interpolación subpixel en el
cálculo de la correlación, esto con el fin de disminuir la incertidumbre de los vectores de
velocidad cuando sus magnitudes son impares. Después de analizar estos dos casos de estudio
se decide realizar las compresiones Wavelet con bases ortogonales de órdenes pequeños. Por
tanto los casos de estudio utilizados para analizar el desempeño de la metodología basada en
compresión de imágenes de PIV y correlación de fase, se trabajarán con la base Coifle de orden
uno y se utilizará una descomposición de un solo nivel para garantizar una mayor precisión de
los datos.

3.2 Resultados Algoritmo hibrido Wavelet con correlación de fase

En este apartado se muestran los resultados asociados a la implementación de una metodología


híbrida entre el algoritmo de compresión de imágenes basado en transformada Wavelet y el
algoritmo de correlación de fase. Se utilizarán cinco casos de estudio, tres con bases de datos
de imágenes sintéticas y dos con imágenes experimentales. Las imágenes sintéticas fueron
generadas con el software PIVlab desarrollado por Thielicke (2014) y las imágenes asociadas
a los casos de estudio experimentales fueron tomados de (Stanislas et al., 2003). Adicional de
un caso de estudio experimental propio. A continuación se listan los casos analizados:
61

 Flujo con velocidad constante impar.


 Vórtice de Rankine.
 Vórtice fuerte.
 Flujo jet.
 Caso de estudio propio experimental.

 Flujo lineal con velocidad constante de magnitud impar

En la Figura 36, se observa el campo de velocidades asociado a un flujo lineal con velocidad
constante. Se decide asignar una magnitud impar a los vectores de velocidad, para verificar la
precisión de los datos al utilizar algoritmos de compresión basados en descomposición
Wavelet. Se generaron las imágenes sintéticas de un tamaño de 600 x 800 pixeles, velocidad
máxima de 5 px/frame utilizando diferentes parámetros: Tres casos de estudio con 2.000.000
partículas por imagen y variación del nivel del ruido (0.001,0.01 y 0.1). Adicionalmente se
generaron otros tres casos, variando la densidad de partículas (1.000.000,2.000.000 y 3.000.000
partículas por imagen) y dejando constante el nivel de ruido. Se realiza el comparativo entre el
algoritmo de correlación cruzada sobre la imagen original (DCC imagen original), el algoritmo
de correlación cruzada en imagen comprimida en un 25% (DCC + TW 25%) y el algoritmo
híbrido de correlación de fase con imagen comprimida en una cuarta parte del tamaño original
(GTPC + TW 25%). Para esto se hizo un análisis del ancho máximo de los picos de correlación,
la relación señal a ruido (SNR) y la localización de los máximos picos de correlación en el caso
de una ventana de interrogación.
62

100

200
Y (pixeles)

300

400

500

600
100 200 300 400 500 600 700 800
X (pixeles)
Figura 36. Campo de velocidades flujo con velocidad constante de 5 px/frame.

En la Tabla 1 se muestran los resultados del análisis realizado. Se observa que la SNR de los
datos obtenidos con el algoritmo híbrido de correlación de fase y compresión de imágenes,
presentan en general los valores más altos de SNR (4 casos de 6). También presenta los anchos
del pico de correlación más pequeños. En general, el algoritmo propuesto realiza una buena
estimación de la localización del máximo pico de correlación, solo en el caso de la variación
del nivel de ruido al 0.1 % se presenta una diferencia entre el valor real de la componente de
velocidad U y el valor estimado con la técnica de transformada wavelet con correlación de fase
de 0.4 px/frame.
63

Tabla 1. Comparación de resultados del flujo con velocidad constante utilizando tres algoritmos de PIV
diferentes.

Ancho del Ancho del


Localización del
máximo máximo Localización del
máximo pico de
pico de pico de máximo pico de
Casos de estudio flujo con velocidad constante SNR correlación para
correlación correlación correlación para
V
en x en Y U (px/frame)
(px/frame)
(px) (px)
DCC original 2.0 14 10 -5,0 0,02
Caso 1.1
Ruido=0.001 DCC + TW 25% 1.3 12 8 -4,9 0,08
Caso 1
GTPC + TW 25% 2,3 6 8 -4,9 0,08
Variación DCC original 2,0 7 6 -5,0 0,00
del nivel de
Caso 1.2
ruido. DCC + TW 25% 1,1 8 8 -5,0 -0,06
Ruido=0.01
Cantidad GTPC + TW 25% 2,0 8 8 -5,0 -0,08
partículas DCC original 1,1 5 10 -4,9 0,03
2.000.000 Caso 1.3 DCC + TW 25% 0,9 6 14 -4,6 -0,12
Ruido=0.1
GTPC + TW 25% 1,0 6 6 -4,6 -0,09

DCC original 2,4 7 8 -5,0 0,01


Caso 2.1
Partículas DCC + TW 25% 1,5 14 8 -4,9 0,08
1.000.000
Caso 2 GTPC + TW 25% 2,0 6 8 -4,9 0,08

Variación de DCC original 2,0 8 10 -5,0 0,02


la cantidad Caso 2.2
Partículas DCC + TW 25% 1,3 6 8 -4,9 0,08
de
partículas. 2.000.000
GTPC + TW 25% 2,3 6 8 -4,9 0,08

Ruido 0.001 DCC original 2,0 8 10 -5,0 0,01


Caso 2.3
Partículas DCC + TW 25% 1,2 6 8 -5,0 -0,01
3.000.000
GTPC + TW 25% 2,0 6 8 -5,0 -0,01

 Vórtice de Rankine

Este caso de estudio se basa en un vórtice de Rankine generado con imágenes de partículas
sintéticas del software PIVlab. Las imágenes tienen un tamaño de 800x600 pixeles,
contiene 2.000.000 de partículas con un diámetro de 3 pixeles. Representa un vórtice simple
cuyo desplazamiento máximo será de 5 pixeles, su núcleo está ubicado en la coordenada
(200,300 pixeles) y su radio principal es de 100 pixeles.

En la Figura 37 se observa el campo de velocidades del vórtice de Rankine asociado a los


métodos de correlación cruzada clásica en la imagen original y correlación de fase en
imagen comprimida al 25%. Se evidencia que el comportamiento aparente de la dirección
de los vectores es similar. Sin embargo existen unas diferencias en magnitud, para
64

cuantificarlas se realiza un análisis de los perfiles de velocidad a lo largo de x=176 y Y


variable. En Figura 38 se muestran ambos perfiles de velocidad, se observa que el cálculo
de la componente V con los diferentes algoritmos es la que posee mayor variabilidad. Según
el histograma del error mostrado en la Figura 39, el error máximo entre la estimación de
los perfiles de velocidad con PIVlab y la correlación de fase con imagen comprimida es de
0,55 px/frame. Sin embargo se debe resaltar que la mayoría de los errores tanto para la
componente U y V no superan los 0.3 px/frame. Por último se realiza un análisis de los
errores de todo el campo de velocidades. En general los errores para las velocidades U y V
no superan los 0,2 px/frame, y como es de esperarse, al interior del vórtice es donde existe
una mayor incertidumbre en la medición puesto que al igual que el vórtice fuerte descrito
anteriormente, se está comparando con métodos que aun poseen vectores erróneos, esto
puede observarse en Figura 40.

100

200
Y (pixeles)

300

400

500

600
100 200 300 400 500 600 700 800
X (pixeles)
Figura 37. Campo de velocidades vórtice de Rankine generado utilizando el algoritmo clásico de correlación
cruzada (azul) y el algoritmo hibrido de correlación de fase con transformada Wavelet (Rojo) con ventanas de
32x32 pixeles.
65

Figura 38. Perfil de velocidad U (izquierda) y perfil de velocidad V (derecha) a lo largo de Y variable y X=176
del vórtice de Rankine utilizando diferentes algoritmos de procesamiento de imágenes de PIV.

8 9

7 8

7
6
6
5
Frecuencia

Frecuencia

5
4
4
3
3
2
2

1 1

0 0
0 0.1 0.2 0.3 0.4 0 0.2 0.4 0.6 0.8
Error U (pixel/frame) Error V (pixel/frame)
Figura 39. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del vórtice de
Rankine.
66

0.8 0.8
Error U (pixel/frame)

Error V (pixel/frame)
0.6 0.6

0.4 0.4

0.2 0.2

0 0
1000 1000
600 600
500 400 500 400
200 200
0 0 Y X Y 0 0 X
Figura 40. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab y el algoritmo
de correlación de fase con imagen comprimida del caso de estudio del vórtice de Rankine.

 Vórtice fuerte

Este caso de estudio vuelve a utilizar el vórtice fuerte descrito en la Figura 19, anteriormente
fue utilizado para analizar el comportamiento del algoritmo de correlación cruzada cuando se
varían los niveles de descomposición Wavelet. En este caso se comparan los resultados
obtenidos al procesar dichas imágenes tanto con el software PIVlab como con los algoritmos
de correlación cruzada y de fase con imagen comprimida al 25%. En la Figura 41 se muestra
el campo de velocidades obtenido con ambas metodologías.

Al igual que en el caso del vórtice de Rankine se realiza un análisis de los perfiles de velocidad
U y V en una poli línea del campo de velocidades. En este caso se traza en Y variable y X=512,
como puede verse en la Figura 42. Se evidencia que tanto el perfil horizontal como el vertical
estimados con las diferentes técnicas poseen magnitudes similares, a excepción del algoritmo
de correlación cruzada con imagen comprimida al 25% que presenta vectores erróneos al
interior del vórtice.
67

100

200

300

400
Y (pixeles)

500

600

700

800

900

1000
200 400 600 800 1000 1200
X (pixeles)
Figura 41. Campo de velocidades del vórtice fuerte utilizando el algoritmo de correlación cruzada con imagen
original (azul) y el algoritmo de correlación de fase con imagen comprimida (rojo).

Figura 42. Perfiles de velocidad U y V a lo largo de y variable y X=512 del vórtice fuerte utilizando diferentes
algoritmos de procesamiento de imágenes de PIV.
68

8 12

7
10
6
8
5
Frecuencia

Frecuencia
4 6

3
4
2
2
1

0 0
0 0.2 0.4 0.6 0.8 1 0 0.5 1 1.5
Error U (pixel/frame) Error V (pixel/frame)
Figura 43. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del vórtice
fuerte.

En la Figura 43 se observa el histograma de las diferencias entre los resultados de velocidad


obtenidos con el software PIVlab y el algoritmo híbrido de correlación de fase con
transformada Wavelet. Aquí se comprueba que en general los datos del campo de velocidades
son similares, en su gran mayoría las diferencias son inferiores a los 0,5 px/frame.
Complementario a los histogramas de los perfiles de velocidad, se realiza un análisis de los
errores totales del campo de velocidades entre ambas metodologías. En la Figura 44 se
muestran los resultados, y se aprecia que las estimaciones de todo el campo de velocidades son
bastante buenas, solo se difiere en los resultados en el núcleo del vórtice.
69

15 40
Error U (pixel/frame)

Error V (pixel/frame)
30
10

20

5
10

0 0
1500 1500
1000 1000 1000 1000

500 500 500 500


Y 0 0 X Y 0 0 X
Figura 44. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab y el algoritmo
de correlación de fase con imagen comprimida del caso de estudio del vórtice fuerte.

 Flujo jet

Para este caso se utilizan las imágenes de la Figura 30. Se realiza el mismo análisis que los
casos de estudio anteriores, si comparamos los resultados de las Figura 45 y Figura 46 con los
resultados mostrados en Figura 34, se observa que con la implementación de la técnica de
correlación de fase en vez de la correlación cruzada en imagen comprimida al 25%, se generan
datos más parecidos a los entregados por la técnica de correlación cruzada con imagen original,
los errores tanto para la componente U como V en general no superan los 0,4 px/frame.
También se muestra en la Figura 47 los errores de las componentes U y V en toda la imagen,
las mayores diferencias se encuentran en posiciones donde el algoritmo clásico tiene vectores
erróneos cuyas magnitudes difieren mucho de las de sus vecinos, a diferencia de los datos
entregados por la nueva metodología que presenta una menor cantidad de vectores espurios
evidentes.
70

Figura 45.Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable en el caso del flujo jet
con interpolación subpixel en los picos de correlación utilizando diferentes algoritmos de procesamiento de
imágenes de PIV.

14 15

12

10
10
Frecuencia

Frecuencia

5
4

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.2 0.4 0.6 0.8 1
Error U (pixel/frame) Error V (pixel/frame)
Figura 46. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del flujo jet.

.
71

15 25
Error U (pixel/frame)

Error V (pixel/frame)
20
10
15

10
5
5

0 0
1000 1000
1000 1000
500 500
500 500
Y 0 0 X Y 0 0 X

Figura 47. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab y el algoritmo
de correlación de fase con imagen comprimida del caso de estudio del vórtice fuerte.

 Caso de estudio propio experimental

El último caso de estudio utilizado para validar la precisión y el desempeño de la metodología


de correlación de fase en imágenes comprimidas, se basa en un montaje experimental
desarrollado en el Laboratorio de Hidráulica de la Facultad de Minas, Universidad Nacional de
Colombia. Allí se implementó un PIV de bajo costo en un canal recto que cuenta con un
sistema de recirculación autónomo de aguas y partículas. En la Figura 48 se observa una parte
de la configuración del sistema PIV, allí se muestra el posicionamiento de la cámara en una
región de interés del canal recto que está siendo iluminado por un láser desde la parte inferior.
Se validan las mediciones de velocidad obtenidas por el sistema PIV utilizando otros
instrumentos de medición, como el Velocímetro Doppler Acústico y un Medidor de Flujo
Doppler Ultrasónico (DFM) que entrega datos de caudal para calcular la velocidad de manera
indirecta utilizando la ecuación de continuidad.
72

Figura 48. Montaje experimental del sistema PIV de bajo costo ubicado en el Laboratorio de Hidráulica de la
Universidad Nacional de Colombia.

Se propone analizar la velocidad del fluido en fondo plano, para este caso las mediciones del
ADV y el DFM fueron de alrededor de 18 cm/s para la componente U. En el caso del PIV se
tomaron fotografías a una tasa de 400 FPS y se analizan 984 frames. En la Tabla 2, se observa
un comparativo entre las velocidades medias y el valor RMS obtenido entre el algoritmo clásico
de correlación cruzada y la nueva metodología basada en correlación de fase en imágenes
comprimidas. Se observa que la metodología de correlación de fase en imágenes comprimidas
presenta los valores de velocidad media más parecidos a los datos entregados por el ADV y el
DFM, con errores absolutos de 3,3 y 0,08 cm/s. En la Figura 49 se muestra el campo de
velocidades obtenido con ambas metodologías.

Tabla 2. Comparación de las velocidades medias utilizando distintas técnicas de medición para el caso de
estudio propio.

Velocidad U U Error absoluto U Velocidad V V Error absoluto V


Técnica de
media RMS media media RMS media
medición
(cm/s) (cm/s) (cm/s) (cm/s) (cm/s) (cm/s)
ADV 18 - - 0 - -
PIV DCC 22 7,4 4 -1 2,25 -1
PIV GTPC 21,3 8,3 3,3 0,08 2 0,08
73

Figura 49. Campos de velocidades obtenido con técnica de correlación cruzada en imagen original (roja) y
correlación de fase en imagen comprimida (Amarilla).

Para finalizar este capítulo, en la Tabla 3 se comparan los desempeños computacionales


obtenidos en los cinco casos de estudios, al utilizar tanto la metodología estándar de la
correlación cruzada en imagen original como la metodología basada en correlación de fase en
imagen comprimida al 25%. Con el fin de realizar una comparación acertada, en el caso del
algoritmo de correlación de fase se incluye tanto el tiempo de análisis de las imágenes de PIV
como el tiempo que tarda el código en realizar la compresión de las imágenes con transformada
Wavelet.

Se observa que los menores tiempos computacionales obtenidos con la metodología propuesta
en comparación con el algoritmo clásico, fueron los de los casos del flujo jet con base de datos
de 200 imágenes y el caso propio con 984 imágenes, tal que se redujo en un 56% y 41% el
tiempo computacional respectivamente. Sin embargo en los casos de estudio donde se utilizó
solo un par de imágenes de análisis, el rendimiento computacional promedio con el algoritmo
basado en correlación de fase fue igual o superior al tiempo de la metodología estándar, esto
se debe fundamentalmente al coste computacional del algoritmo de compresión de imágenes.
Es importante resaltar que este análisis se realizó únicamente con un tamaño de ventana de
interrogación, pero típicamente cuando se realiza experimentación con sistemas PIV se realizan
pruebas con distinto tamaño de resolución espacial (64x64 ,32x32 y 16x16 pixeles). En la

Tabla 4, se observa los desempeños computacionales obtenidos al variar el tamaño de la


ventana de interrogación para el caso del vórtice de Rankine. Al realizar la experimentación
74

tres veces , solo se requiere realizar el procedimiento de compresión de imágenes una vez, por
tanto los tiempos computacionales obtenidos al utilizar la metodología de correlación de fase
en imagen comprimida se reducen alrededor de un 42% en comparación con la correlación
cruzada. De esta manera se comprueba que la implementación del algoritmo híbrido propuesto
garantiza un mayor rendimiento computacional que la técnica clásica.

Tabla 3. Comparación del desempeño computacional de los diferentes casos de estudio utilizando la técnica
clásica de correlación y la metodología propuesta de correlación de fase con imagen comprimida por
transformada Wavelet.

Tiempo total
Número Tiempo
Tiempo DCC en Tiempo GTPC + Descomposición
Caso de estudio Caso de descomposición
imagen original TW 25% Wavelet +
Estudio Wavelet
GTPC+TW 25%
0,9 0,6 0,4 1,0
0,6 0,7 0,4 1,0
1.1
0,7 0,7 0,4 1,1
Flujo constante con 0,6 0,6 0,4 1,0
magnitud impar 1,1 1,3 0,4 1,7
0,7 1,3 0,4 1,7
2.3
0,6 1,0 0,5 1,5
0,6 0,6 0,4 1,0
Desempeño promedio 0,6 0,7 0,4 1,1
1,7 0,6 0,8 1,5
1,7 0,6 0,8 1,4
Vórtice de Rankine 1
1,6 0,6 0,9 1,5
2,1 0,6 0,9 1,4
Desempeño promedio 1,8 0,6 0,9 1,5
1,8 1,0 1,1 2,1
1,8 1,0 1,0 2,1
Vórtice fuerte 1
1,6 1,1 1,0 2,0
1,7 1,0 1,3 2,3
Desempeño promedio 1,7 1,0 1,1 2,1
1,9 1,0 0,8 1,8
1,9 0,9 0,7 1,6
Flujo jet 1
1,9 1,0 0,8 1,9
2,3 0,9 0,7 1,6
Desempeño promedio 2,0 0,9 0,8 1,7
867,7 174,6 192,6 367,2
764,0 147,0 193,4 340,4
Flujo jet con 200 imágenes 1
540,0 93,9 157,5 251,4
499,0 70,4 145,2 215,6
Desempeño promedio 2670,7 485,9 688,7 1174,6
176,6 15,8 90,3 106,1
Caso de estudio propio con 180,0 16,6 86,0 102,6
1
984 imágenes 193,7 18,4 91,9 110,3
190,0 15,9 98,6 114,5
Desempeño promedio 185,1 16,7 91,7 108,4
75

Tabla 4. Comparación rendimiento computacional de las técnicas de correlación de fase y correlación cruzada
en imagen comprimida al realizar tres variaciones del tamaño de la ventana de interrogación en el caso del
vórtice de Rankine.

Tiempo total
Tiempo
Tamaño ventana de Tiempo DCC en imagen Tiempo GTPC + Descomposición
descomposición
interrogación original TW 25% Wavelet +
Wavelet
GTPC+TW 25%
64x64 0,97 0,6 0,25 0,9
32x32 1,09 0 0,33 0,3
16x16 1,6 0 0,86 0,9
Tiempo Total 3,64 - - 2,1

Se concluye que la metodología propuesta de un algoritmo que utilice la correlación de fase


para procesar imágenes de PIV comprimidas a un 25% utilizando la transformada Wavelet,
permite obtener en bases de datos de imágenes de alta resolución, mejoras en desempeño ente
el 40% y 55%, en comparación con la técnica de correlación cruzada clásica de imágenes
originales. También permite disminuir el almacenamiento físico de las imágenes, puesto que
están reducen su tamaño en una cuarta parte con la utilización del algoritmo de compresión de
imágenes basado en la transformada Wavelet con un nivel de descomposición.

4. Discusión y conclusiones

Aunque (Hui Li, 2003) afirma que las bases Wavelet de ondas altas son las que generan los
resultados de PIV más precisos, en este artículo se verifica que esto depende de la calidad de
las imágenes. En el caso de imágenes de PIV donde se cuenta con una baja densidad de
partículas se concluyó que las bases Wavelet de menor orden generan los picos de correlación
más altos, al igual que en flujos turbulentos. Aunque en ventanas de interrogación con alta
densidad de partículas, las bases Wavelet de orden alto fueron las que entregaron los mejores
resultados. De igual manera al realizar un análisis de las bases de descomposición Wavelet en
dos casos de estudio, se determinó que las bases Coifle de menor orden son una de las mejores
opciones para garantizar buenos resultados de correlación en sistemas PIV. También se
comprobó que los resultados de PIV en imágenes comprimidas, son más precisos cuando se
utiliza la correlación de fase que la correlación cruzada.

Una de las características más importantes de la correlación de fase se vio en el caso de estudio
sintético del flujo de magnitud constante impar, en donde las comparaciones del ancho de pico
76

de correlación, dieron como resultado picos de correlación más nítidos que los de la correlación
cruzada, sin necesidad de introducir el bloqueo de picos.

Después de realizar un análisis comparativo entre las técnicas de correlación cruzada en imagen
original y correlación de fase en imagen comprimida, se concluye que la técnica tradicional
obtiene datos más precisos en imágenes sintéticas que la nueva metodología. Sin embargo en
presencia de ruido de fondo y objetos, se recomienda utilizar la correlación de fase puesto que
los picos de correlación en dichos casos son más nítidos. Adicionalmente se realiza corrección
de algunos vectores espurios sin la necesidad de utilizar técnicas de post procesamiento.

En la literatura se reportan diferentes técnicas basados en correlación cruzada que utilizan


algoritmos iterativos como el offset (Scarano, 1999), multigrid (Scarano, 2002), multigrid con
PTV (Susset ,2006) entre otros, para mejorar la precisión de los datos de velocidad obtenidos.
Sin embargo la utilización de algoritmos iterativos genera un aumento considerable en el coste
computacional. A diferencia de la metodología propuesta en este artículo que permite obtener
datos más precisos que los de la metodología clásica disminuyendo el coste computacional
entre el 40 % y un 55%, sumado a la disminución en almacenamiento físico que esto representa,
puesto que el tamaño de las imágenes se disminuyen en una cuarta parte utilizando la
descomposición Wavelet de un solo nivel. También se verifico que la metodología propuesta
basada en correlación de fase permite obtener vectores más precisos que la técnica planteada
por Hui Li (2003) donde se utiliza la correlación cruzada clásica para analizar las imágenes
comprimidas con transformada Wavelet.

5. Agradecimientos

Los autores agradecen a COLCIENCIAS y al Proyecto “Estudio de la disipación de energía en


estructuras naturales y su respuesta a eventos extremos, cuyo código es 111866044690 por su
apoyo financiero. Tambien los autores agradecen a la universidad Nacional de Colombia por
otorgar la beca por grado de honor a la autora Michelle Maceas Henao.

6. Referencias

Ir a la sección 7 de la tesis para ver la bibliografía.


77

4. Paper 2

En la siguiente sección se presenta la versión en español de un artículo que actualmente está


siendo sometido en la revista “Flow Measurement and Instrumentation”.

Minimización del error divergente para la determinación de vectores incorrectos en

sistemas de velocimetria por imágenes

Maceas,M.1, Bolaños.F2 ,Osorio.A.F.1,.


1
Grupo de oceanografía e ingeniería costera, OCEANICOS, Departamento de geociencia y
medio ambiente, Universidad Nacional de Colombia sede Medellín, Colombia, 2 Grupo de
automática de la Universidad Nacional, Departamento de energía eléctrica y automática,
Universidad Nacional de Colombia sede Medellín, Colombia.

Resumen

Los campos de velocidad obtenidos mediante el procesamiento de imágenes de sistemas


de velocimetría (PIV) poseen vectores de velocidad incorrectos debido a la incertidumbre
experimental, la complejidad de los cálculos necesarios para el análisis de imágenes de
partículas y los altos gradientes de velocidad. Por tanto, se pretende implementar una técnica
para corregir perfiles de velocidad basados en el criterio de mínima divergencia mediante el
planteamiento de un problema de optimización no lineal con restricciones. En este artículo se
exponen dos casos de estudio, un vórtice fuerte y un flujo turbulento. En ambos casos, se
modifica el 5% de los vectores del campo original para evaluar el desempeño del método de
detección de errores. Los resultados obtenidos son prometedores, en general tanto en los
perfiles de velocidad U como V, los errores entre el campo original y modificado no superan
los 0.5 pixeles/frame demostrando que es posible la corrección de errores en los vectores de
velocidad con el método propuesto.
78

Palabras claves— PIV, condiciones de LaGrange, optimización no lineal, correlación


cruzada, divergencia.

1. Introducción
La medición de la velocidad de flujos es de gran importancia. Existen diferentes técnicas para
medir dicha variable. Se destacan metodologías como la de los sistemas PIV, debido a que es
una herramienta de visualización de flujo cuantitativa, no intrusiva al medio, que permite
obtener campos de velocidades en múltiples direcciones (2D y 3D).

En un sistema PIV se introducen partículas neutralmente boyantes dispersoras de luz,


típicamente iluminadas con un haz de luz generado por un láser en conjunto con unos lentes
cilíndricos y esféricos. Se registran los movimientos de dichas partículas en un lapso de
tiempo conocido con una cámara de alta resolución. Posteriormente las fotografías obtenidas
son llevadas a un software de procesamiento de imágenes que permite estimar el campo de
velocidades asociado. En la Figura 50, se observa una ilustración del montaje típico de
sistemas de velocimetría por imágenes de partículas.

Para la evaluación de imágenes de sistemas PIV, tradicionalmente se realiza el procesamiento


utilizando algoritmos basados en la correlación cruzada (Jambunathan et al., 1995). Esta
técnica permite identificar la dirección del desplazamiento de un pequeño grupo de partículas
registradas en la imagen para cuantificar el campo de velocidades asociado al fluido, y es muy
utilizada puesto que garantiza un coste computacional bajo para el análisis de las imágenes.
A pesar de las ventajas de este método, se presentan una serie de errores para detectar zonas
de altos gradientes de velocidad y truncamientos de partículas en los bordes de las ventanas
de interrogación (Bulnes et al., 2013).

Laser

Óptica

Fluido

Cámara
Partículas
Figura 50. Montaje típico de sistemas PIV.

Adicional a los errores ya mencionados, se pueden presentar otro tipo de errores debido a la
inadecuada configuración del montaje físico, como la mala distribución espacial de partículas,
79

errores de temporización, inadecuada configuración óptica y visualización de reflejos de


iluminación como objetos de interés. ( Hart, 2000)

Debido a lo anterior, el filtrado de vectores erróneos es un proceso indispensable en el


análisis de datos de PIV. Se han venido utilizando diferentes técnicas de post procesamiento
entre las que se destacan técnicas clásicas de búsqueda como la comparación entre vecinos.
Esta se basa en el supuesto que los vectores erróneos resultantes de correlación, están muy
alejados en magnitud y dirección, por ende, se eliminan y reemplazan por el valor de
interpolación de las ventanas de interrogación vecinas. (Hart, 1998b). Otra técnica de post
procesamiento es la prueba de la mediana , en la cual se elige un valor umbral de detección
de datos vectoriales espurios, específico de cada experimento o diferentes regiones de flujo
dentro de un dominio de medición (Westerweel & Scarano, 2005). Existen métodos menos
comunes como las redes neuronales (Kimura.I, 1999) y los algoritmos genéticos que utilizan
la similitud de vectores adyacentes (Nakami, Words, & Electro, 1995) y la similitud
morfológica (Sheng & Meng, 1998) para descartar los errores en el campo vectorial .

Los vectores espurios no solo pueden ser eliminados después de realizar la etapa de
procesamiento de las imágenes. Dentro del análisis de las imágenes también es posible
efectuar esta tarea. Esto se logra mediante la multiplicación de las tablas de correlación
generadas de las regiones adyacentes, de tal manera que los valores que no aparecen en dicha
tabla se eliminan. Este método de corrección corresponde esencialmente al cálculo de la
correlación de la correlación, de modo que se reducen errores de sesgo que mejoran la
resolución espacial (Hart, 1998c).

Teniendo en cuenta la importancia de la eliminación de vectores espurios, se propone una


técnica de corrección de vectores basados en que los flujos incompresibles deben cumplir el
criterio de mínima divergencia, tal que se garantice el menor error de divergencia posible en
todo el campo de velocidades. Para implementar el método, se hace uso de un algoritmo de
optimización no lineal, cuya función objetivo es minimizar el error de corrección utilizando
como restricción la ecuación de continuidad.

El presente artículo está estructurado de la siguiente manera: en la sección II se expone el


planteamiento del problema de optimización, posteriormente en la sección III se muestran los
resultados experimentales de dos casos de estudio a los que se les aplico la metodología
diseñada finalmente en IV se concluye acerca de los resultados obtenidos.
80

2. Planteamiento problema de optimización


Para realizar un montaje experimental de un sistema de velocimetría, es necesario utilizar
partículas neutralmente boyantes que sigan fielmente el movimiento del flujo donde fueron
introducidas. Por tanto, el campo de velocidades obtenido debe satisfacer la ecuación de
continuidad. En flujos incomprensibles, la ecuación de continuidad debe ser igual a cero,
como se muestra en (15) (Pasinato, 2008). Sin embargo, debido a los errores experimentales
y a los errores de los cálculos de análisis de imágenes de PIV, los desplazamientos de
partículas en un solo punto no suelen ser exactamente cero. Por lo tanto, se pretende encontrar
un esquema de solución que encuentre la mínima divergencia de todos los posibles vectores
de velocidad.

∇ ∙ 𝑉 = 0 (15)

De acuerdo al criterio de mínima divergencia es posible plantear un problema de optimización


para determinar los errores de los vectores del campo de desplazamientos respecto al
movimiento del fluido. De esta manera se conocen los vectores incorrectos y se corrige su
dirección y magnitud. Dicho problema se describe en (16) -(21).

𝑚+1 𝑛+1

𝑚𝑖𝑛 ∑ ∑ ||𝜀_𝑢𝑖,𝑗 ||2 (16)


𝜀_𝑢
𝑗=𝑚−1 𝑖=𝑛−1

𝑇𝑎𝑙 𝑞𝑢𝑒 𝑚 = 1,2, … , 𝑀 𝑛 = 1,2, … , 𝑁

Sujeto a

𝑢𝑛,𝑚 + 𝜀_𝑢𝑛,𝑚 − 𝑢̂𝑛,𝑚 = 0 (17)

𝑚+1 𝑛+1
1
𝑢̂𝑚,𝑛 = (( ∑ ∑ (𝑢𝑖,𝑗 + 𝜀_𝑢
̂ 𝑖,𝑗 ) ) − 𝑢𝑛,𝑚 − 𝜀_𝑢
̂ 𝑛,𝑚 ) (18)
𝐿
𝑗=𝑚−1 𝑖=𝑛−1

𝑚+1 𝑛+1

𝑚𝑖𝑛 ∑ ∑ ||𝜀_𝑣𝑖,𝑗 ||2 (19)


𝜀_𝑣
𝑗=𝑚−1 𝑖=𝑛−1

𝑇𝑎𝑙 𝑞𝑢𝑒 𝑚 = 1,2, … , 𝑀 𝑛 = 1,2, … , 𝑁

Sujeto a
81

𝑣𝑛,𝑚 + 𝜀𝑣 𝑛,𝑚 − 𝑣̂𝑛,𝑚 = 0 (20)

𝑚+1 𝑛+1
1
𝑣̂𝑛,𝑚 = (( ∑ ∑ (𝑣𝑖,𝑗 + 𝜀_𝑣
̂ 𝑖,𝑗 ) ) − 𝑣𝑛,𝑚 − 𝜀_𝑣
̂ 𝑛,𝑚 ) (21)
𝐿
𝑗=𝑚−1 𝑖=𝑛−1

Donde

𝑢 ∈ ℝ𝑛𝑥𝑚 , Componente de la velocidad 𝑢 estimada con PIV.

𝑣 ∈ ℝ𝑛𝑥𝑚 , Componente de la velocidad 𝑣 estimada con PIV.

𝑢̂ ∈ ℝ𝑛𝑥𝑚 , Componente de la velocidad 𝑢 real.

𝑣̂ ∈ ℝ𝑛𝑥𝑚 , Componente de la velocidad 𝑣 real.

𝜀𝑢 ∈ ℝ𝑛𝑥𝑚 , Corrección de la estimación de la componente de velocidad 𝑢 respecto al valor


real.

𝜀𝑣 ∈ ℝ𝑛𝑥𝑚 , Corrección de la estimación de la componente de velocidad 𝑣 respecto al valor


real.

𝜀𝑢 ∈ ℝ𝑛𝑥𝑚 , Corrección del valor real de la componente de velocidad 𝑢 respecto a sus vecinos.
̂

𝜀̂𝑣 ∈ ℝ𝑛𝑥𝑚 , Corrección del valor real de la componente de velocidad 𝑣 respecto a sus vecinos.

M ∈ ℤ, Coordenada x máxima de la ubicación de la ventana de interrogación a evaluar.

N ∈ ℤ, Coordenada y máxima de la ubicación de la ventana de interrogación a evaluar.

L ∈ ℤ, Número de ventanas de interrogación vecinas sin incluir la ventana de interrogación


central.
Se observa que el problema descrito en las ecuaciones (16)-(21) está compuesto por funciones
de costo no lineales con restricción de igualdad lineales. Por ende, se decide solucionar el
problema mediante la implementación de los multiplicadores de LaGrange para encontrar el
mínimo error de los vectores de velocidad. En las ecuaciones (22) y (23), se muestran las
condiciones de LaGrange que debe cumplir el problema propuesto.(Griva, Nash, & Sofer,
2009)

∇𝑓(𝑥) + ∇ℎ(𝑥)𝜆 = 0 (22)

ℎ(𝑥) = 0 (23)

Tal que 𝑓(𝑥) es la función objetivo y ℎ(𝑥) la restricción de igualdad.


82

En la Figura 51, se observa el diagrama de flujo del algoritmo diseñado para encontrar la
mínima divergencia de los vectores de velocidad y a su vez para corregir los vectores erróneos
del campo de velocidades obtenido.

Figura 51. Diagrama de flujo algoritmo para corrección de vectores con criterio de mínima divergencia.

3. Casos de estudio

A. Caso de estudio vórtice fuerte


Para evaluar la metodología desarrollada se utilizaron como imágenes de prueba mostradas
en Figura 52, grabadas en el túnel de viento Alemán-Holandés DNW-LLF por el centro
aeroespacial alemán (DLR), con el fin de estudiar experimentalmente la formación de vórtices
de estela detrás de un avión de transporte (Stanislas et al., 2003). La imagen tiene un tamaño
de 1280x1018 pixeles. Presenta gradientes fuertes, perdida de densidad de imagen y tamaños
de imagen de partículas variables.
83

Figura 52 . Imágenes de prueba, grabadas por en el DNW-LLF por el DLR.

Tomado de (Stanislas et al., 2003)

Para analizar el desempeño del algoritmo de minimización del error de divergencia, se


analizan dos escenarios: Primero se post procesan las imágenes originales mostradas en las
Figura 52. En segunda instancia, se agrega error de forma artificial a los datos de velocimetría
luego del post procesamiento, con el objeto de validar la efectividad de la técnica de
optimización propuesta, se alteran la dirección y la magnitud de 52 vectores del campo de
velocidades post procesado, esta metodología para el análisis del error fue propuesta en
(Boonlong et al., 2006).

1) Caso de estudio original


Las imágenes del vórtice fuerte presentan vectores divergentes en el núcleo del mismo, tal
como se observa en Figura 53 y Figura 54. Los errores se deben a que las partículas de interés
en dicha área no se logran distinguir del fondo. Por ende, se implementa el algoritmo basado
en los multiplicadores de LaGrange para realizar el post procesamiento de las imagenes. Se
obtiene el campo de velocidades descrito en Figura 55 y Figura 56, en donde se evidencia que
las direcciones de los vectores son corregidos satisfactoriamente.
84

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800 1000 1200
X
Figura 53. Campo de velocidades original vórtice fuerte.

400

450

500

550
Y

600

650

700
400 450 500 550 600 650 700 750 800
X
Figura 54. Campo de velocidades en el núcleo del vórtice.
85

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800 1000 1200
X
Figura 55. Campo de vectores corregido vórtice fuerte.

400

450

500

550
Y

600

650

700
400 450 500 550 600 650 700 750 800
X
Figura 56. Campo de vectores en el núcleo del vórtice después de corregir vectores erróneos.

2) Caso de estudio campo de velocidades post procesado con vectores modificados.


En Figura 57, se puede apreciar el campo de velocidades con los datos erróneos incorporados.
En total se modificaron 52 vectores, realizando cambios tanto de magnitud como de dirección.
Posteriormente en Figura 58, se muestra el campo con los vectores corregidos y se evidencia
86

que el algoritmo diseñado es capaz de modificar adecuadamente la dirección de los vectores


de velocidad.

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800 1000 1200
X
Figura 57. Vectores del campo de velocidad con datos erróneos del vórtice fuerte.

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800 1000 1200
X
Figura 58. Campo de velocidades después de corregir vectores erróneos del vórtice fuerte.
87

Para realizar un analisis de los datos obtenidos, se comparan los perfiles de desplazamiento
horizontal y vertical del campo de velocidad original vs los perfiles de la distribución de
velocidades post procesada, para X variable y Y=512. Se elige esta línea de ubicación porque
en el núcleo de vórtice es donde existe mayor ambigüedad en los datos, por la inadecuada
distribución de las partículas en esta zona. En las Figura 59 y Figura 60, se muestra la
comparación de las componentes reales vs corregidas, la componente U del vórtice presenta
en general un desfase entre los datos comparados de 0.5 pixeles/frame. Es importante resaltar
que a pesar de que solo se incorporaron algunos vectores aleatorios, todo el campo de
velocidades puede experimentar algún tipo de corrección debido a la recursividad del método.
Respecto a la componente V post procesada se tiene un perfil bastante similar al perfil de los
datos originales. Sin embargo, presenta una diferencia entre el perfil original y post procesado
de 4 pixeles/frame al interior del núcleo.

Estos resultados se corroboran en Figura 61, donde se observan los errores de las componentes
de velocidad punto a punto obtenidas para la polilinea propuesta. Estos se calcularon de
acuerdo a las ecuaciones (24) y (25). Tambien se evidencia que en la componente del centro
del vórtice es donde se obtienen los errores más alto de todo el campo de velocidades.

𝑒𝑟𝑟𝑜𝑟𝑢 (𝑖, 𝑗) = 𝑢(𝑖, 𝑗) − 𝑢𝑝𝑜𝑠𝑡−𝑝𝑟𝑜𝑐𝑒𝑠𝑎𝑑𝑎 (𝑖, 𝑗) (24)

𝑒𝑟𝑟𝑜𝑟𝑣 (𝑖, 𝑗) = 𝑣(𝑖, 𝑗) − 𝑣𝑝𝑜𝑠𝑡−𝑝𝑟𝑜𝑐𝑒𝑠𝑎𝑑𝑎 (𝑖, 𝑗) (25)

Donde i=1,2,..,M j= 512

Tal que
u(i,j) es el valor de la componente horizontal en la coordenada (i,j).
v(i,j) es el valor de la componente horizontal en la coordenada (i,j).

𝑢𝑝𝑜𝑠𝑡−𝑝𝑟𝑜𝑐𝑒𝑠𝑎𝑑𝑎 es el valor de la componente horizontal obtenida despues de corregir vectores


alterado en la coordenada (i,j).

𝑣𝑝𝑜𝑠𝑡−𝑝𝑟𝑜𝑐𝑒𝑠𝑎𝑑𝑎 es el valor de la componente horizontal obtenida despues de corregir vectores


alterado en la coordenada (i,j).
En la Tabla 5. Errores campo de velocidades vórtice fuerte. se observa que la magnitud del error
medio para el desplazamiento horizontal es de aproximadamente 0.13 pixeles/frame, esto
indica que la ecuación de continuidad se cumple para la mayoria de vectores del campo
generado. Sin embargo debido a la ambigüedad en las medidas del núcleo de vórtice la
desviación estandar es de 0.73 pixeles/frame. Tras analizar los errores de la componente
88

vertical, se observa que en general los vectores divergen más que los de la componente U,
aunque presenta una menor desviación estandar de los datos.

Tabla 5. Errores campo de velocidades vórtice fuerte.

Error medio Desviación estándar


Componente
(px/frame) (px/frame)
U 0.13 0.73
V 0.29 0.53

1.8

1.6

1.4
U (px/frame)

1.2

0.8

0.6
Señal original
0.4
Señal post procesada
0.2
200 400 600 800 1000 1200
X
Figura 59. Comparación Componente U en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos del vórtice fuerte.

2
V (px/frame)

-2

-4

-6
Señal original
Señal post procesada
-8
200 400 600 800 1000 1200
X
Figura 60. Comparación Componente V en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos del vórtice fuerte.
89

0.4 0.5

0.2 0

-0.5
0
-1

Error V (px/frame)
Error U (px/frame)

-0.2
-1.5
-0.4
-2
-0.6 -2.5

-0.8 -3

-1 -3.5

-4
-1.2

200 400 600 800 1000 1200 -4.5


200 400 600 800 1000 1200
X X
Figura 61. Error del perfil de desplazamiento horizontal (izq.) a lo largo de X y Y=490 del vórtice fuerte.

Por último, se analizan los histogramas de los errores de desplazamiento horizontal y vertical
de todo el campo de velocidades. Tal como se muestra en Figura 62 y Figura 63, más de la
mitad de los errores del campo de velocidades analizado son inferiores a 0.5 pixeles/frame.
Sin embargo, poseen algunas magnitudes de errores de hasta 6 pixeles de poca frecuencia que
podría atribuirse a los valores centrales del núcleo del vórtice, puesto que en dicho lugar el
tamaño de las partículas dificulta los cálculos de correlación.

600

500

400
Frecuencia

300

200

100

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Error U (pixeles/frame)

Figura 62. Histograma del error asociado a la componente de velocidad U del campo de velocidad del vórtice
fuerte.
90

500

450

400

350

300
Frecuencia

250

200

150

100

50

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Error V (pixeles/frame)

Figura 63. Histograma del error asociado a la componente de velocidad V del campo de velocidad del vórtice
fuerte.

B. Caso de estudio flujo turbulento


Se presenta en Figura 64 otro par de imágenes tomadas de PIV Challenge, en este caso se
muestran las imágenes de un PIV real de un chorro turbulento auto-similar.(Stanislas et al.,
2005)

Figura 64. Imágenes de prueba flujo turbulento. Tomado de (Stanislas et al., 2005)

Al igual que con el vórtice fuerte, se alteran algunos vectores del campo de velocidad, en este
caso 50 vectores son modificados para evaluar el desempeño de la metodologia implementada.
Se observa en la Figura 65 el perfil de velocidad con los datos modificados y en Figura 66 el
perfil resultante después de corregir los vectores erróneos, se evidencia que el algoritmo en
general es capaz de corregir la dirección de los datos incorrectos. Se compara los perfiles de
desplazamiento horizontal y vertical, U y V, del campo de velocidad original y el campo
corregido, para Y=512 y X variable, los resultados pueden observarse en Figura 67 y Figura
68.
91

En Figura 69, se observa el error de las componentes U y V a lo largo de X y Y=512. El error


del perfil de desplazamiento vertical en los diferentes valores de X es cercano a cero, de esta
manera se observa que se cumplen el criterio de minima divergencia. En cuanto al
desplazamiento horizontal existe una mayor variabilidad en las magnitudes del error que en
la componente V. Sin embargo dichos errores no superan los 0.8 pixeles/frame. En la Tabla 6
se cuantifican las magnitudes de los errores medios y la desviación estandar asociada a las
componentes de velocidad estudiadas, en donde se verifica que V es la componente con el
menor error de divergencia.

Tabla 6. Errores campo de velocidad del flujo turbulento.

Error medio Desviación estándar


Componente
(pixel/frame) (pixel/frame)
U 0.26 0.59
V 0.01 0.22

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800
X
Figura 65. Vectores del campo de velocidad con datos erróneo del flujo turbulento.
92

100

200

300

400

500
Y

600

700

800

900

1000
200 400 600 800
X
Figura 66. Perfil de velocidad después de corregir datos erróneos del flujo turbulento.

7
Señal original
6.5 Señal post procesada

5.5
U (px/frame)

4.5

3.5

2.5
200 400 600 800 1000
X
Figura 67. Comparación Componente U en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo turbulento.
93

1.5
Señal original
Señal post procesada
1

0.5
V (px/frame)

-0.5

-1

-1.5
200 400 600 800 1000
X
Figura 68. Comparación componente V en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo turbulento.

0.5
0.2
0.4
0
0.3
Error U (px/frame)

Error V (px/frame)

-0.2 0.2

-0.4 0.1

0
-0.6
-0.1
-0.8
-0.2

-1
200 400 600 800 200 400 600 800
X X
Figura 69. Error del perfil de desplazamiento horizontal (izq.) y perfil de desplazamiento vertical (der) a lo
largo de X y Y=490 del caso de flujo turbulento.

Para finalizar el análisis de resultados en el caso de estudio del flujo turbulento, se comparan
los histogramas de los errores obtenidos en todo el campo de velocidades después de realizar
el post procesarlo de los datos. Como se muestra en Figura 70 y Figura 71 las distribuciones
de ambas componentes poseen errores cercanos a cero para más de la mitad de los datos
corregidos. También se pudo validar lo planteado en la Tabla 6, en general los datos del
histograma asociado a la componente V presentan una menor dispersión que los datos de U,
de esta manera se demuestra que el algoritmo está corrigiendo acertadamente los vectores
erróneos.
94

450

400

350

300
Frecuencia

250

200

150

100

50

0
-6 -5 -4 -3 -2 -1 0 1 2
Error U (pixeles/frame)

Figura 70. Histograma del error asociado a la componente de velocidad U del campo de velocidad del flujo
turbulento.

600

500

400
Frecuencia

300

200

100

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3
Error V (pixeles/frame)

Figura 71. Histograma del error asociado a la componente de velocidad V del campo de velocidad del flujo
turbulento.

4. Discusión y conclusiones

La solución planteada al problema de los vectores PIV erróneos, basada en la ecuación de


continuidad de un flujo incomprensible, demuestra ser fiable y eficaz para el método de
LaGrange implementado en este artículo, puesto que filtra adecuadamente los vectores
incorrectos permitiendo encontrar campos de velocidades con mínima cantidad de datos
erróneos.

Los algoritmos de determinación de errores basados en la media y la mediana propuesto en


(Hart, 1998b) y (Westerweel & Scarano, 2005), tradicionalmente implementados en sistemas
PIV, son de gran utilidad cuando los vectores espurios son de magnitudes y direcciones muy
diferentes a los de los vectores del campo de velocidad en general, puesto que estas técnicas
95

típicamente realizan una umbralización para determinar dichos errores. Adicional, si en una
vecindad hay varios vectores erróneos, no se logra una corrección adecuada puesto que se está
realizando el cálculo de velocidad promedio con distintos datos incorrectos. A diferencia de
la metodología propuesta en este artículo, que no requiere una umbralización de los datos, y
que dado su comportamiento iterativo para la corrección del error, es menos vulnerable a tener
distintos datos erróneos en determinada ventana de interrogación.

En cuanto al caso de estudio del vórtice fuerte, se observa que a pesar de que el tamaño de
las partículas en el núcleo del vórtice es inadecuado para los cálculos de correlación, el
algoritmo de determinación de vectores incorrectos permite obtener vectores de velocidad con
menor divergencia que los encontrados por el algoritmo clásico de PIV basado en la
correlación cruzada.

Debido a las malas condiciones de adquisición de la imagen al interior del vórtice fuerte, es
necesario desarrollar un algoritmo de tratamiento de imágenes más robusto, puesto que aun
después de implementar el algoritmo de pos-procesamiento de imágenes, el centro del vórtice
sigue teniendo vectores de velocidad imprecisos.

Se espera en próximos trabajos hacer un análisis de sensibilidad para gradientes fuertes y


tamaños de partículas inadecuados, que permitan determinar a qué fenómeno es más
vulnerable el método propuesto.

Los histogramas de error en ambos casos de estudio muestran que la incertidumbre de las
medidas de PIV está fuertemente concentrada en torno a 0 píxeles, lo que permite inferir que
el método propuesto minimiza el error introducido por los vectores de velocidad espurios. A
pesar de que el método propuesto puede ser menos efectivo en ciertas circunstancias (como
velocidades fuertes o tamaños variables de partículas), se presenta como una alternativa de
post-procesamiento confiable y rentable para los enfoques tradicionales de PIV.

5. Agradecimientos
Los autores agradecen a COLCIENCIAS y al proyecto “Estudio de la disipación de oleaje en
estructuras naturales y su respuesta ante eventos extremos” número 111866044690 por el
apoyo financiero y a la Universidad Nacional de Colombia por la beca de grado de honor de
la cual es beneficiaria la autora Michelle Maceas Henao.

6. Referencias

Ir a la sección 7 de la tesis para ver la bibliografía.


96

5. Conclusiones y recomendaciones

5.1 Conclusiones

En esta tesis titulada “Metodología para el análisis de velocimetría de partículas por medio
del tratamiento de imágenes” se planteó una metodología para analizar imágenes de PIV
comprimidas tal que se garantizara la precisión de los datos. Para esto se desarrolló un
algoritmo basado en transformada Wavelet para compresión de imágenes y correlación de
fase para el procesamiento de las imágenes de PIV.

El objetivo general de este trabajo era: “Desarrollar un algoritmo de procesamiento de


imágenes para sistemas de velocimetría por imágenes de partículas, que permita obtener datos
precisos con un menor desempeño computacional con respecto a las técnicas clásicas”.

Tal como se mostró en el artículo de la sección 3 titulado “Desarrollo de la técnica de


compresión de imágenes Wavelet y correlación de fase para mejorar el procesamiento de
imágenes de PIV”, se compararon los resultados de aplicar tanto la técnica clásica de
correlación cruzada como la metodología propuesta en diferentes casos de estudio de
imágenes de PIV tanto sintéticas como experimentales. Dichas comparaciones demostraron
que la metodología propuesta genera ahorros computacional entre el 40% y 55% en
comparación con la técnica de correlación cruzada clásica en imágenes originales y a su vez
disminuye el almacenamiento físico de las imágenes a una cuarta parte del tamaño original.
Adicionalmente se demostró que la implementación de la correlación de fase permite mejorar
la precisión de los datos de velocidad obtenidos. Inclusive se corrigieron vectores espurios sin
la necesidad de utilizar técnicas de post procesamiento.

En cuanto al cumplimiento de los objetivos específicos se tienen las siguientes conclusiones


97

 Plantear un algoritmo para minimizar el número de datos incorrectos en sistemas de


velocimetría por imágenes de partículas.

En la sección 4 se reportó un artículo titulado como “Minimización del error divergente para
la determinación de vectores incorrectos en sistemas de velocimetría por imágenes”, allí se
planteó una técnica de post procesamiento de imágenes de PIV basado en el criterio de la
mínima divergencia utilizando optimización no lineal con restricciones. Se analizaron dos
casos de estudio para evaluar el desempeño del método de corrección de vectores. Se
determinó que la técnica filtra adecuadamente los vectores espurios permitiendo obtener
campos de velocidades con mínima cantidad de datos erróneos. Adicional la metodología
planteada presenta ventajas sobre las técnicas convencionales de determinación de errores
basados en la mediana, puesto que la técnica planteada no realiza umbralización de los datos
y dado su comportamiento iterativo es menos vulnerable a tener distintos datos erróneos en
una misma zona de interrogación.

 Proponer una metodología para compresión de imágenes de PIV.

En el capítulo 3, se muestra la metodología propuesta basada en compresión de imágenes de


PIV utilizando la transformada Wavelet, que a diferencia de la técnica propuesta por Li
(2003), realiza el procesamiento de las imágenes utilizando la correlación de fase en vez de
la correlación cruzada clásica.

 Validar la solución propuesta por medio de la comparación con respecto a las técnicas
tradicionalmente aceptadas.

Tanto en el capítulo 3 y 4 se realizan distintas comparaciones entre las metodologías


planteadas y la técnica clásica de PIV. Inclusive se demostró que la metodología de análisis
de imágenes comprimidas utilizando correlación de fase es más precisa que la técnica de
análisis basada en correlación cruzada en imágenes experimentales.

5.2 Recomendaciones
En próximos trabajos es deseable realizar pruebas de la metodología de procesamiento de
imágenes propuesta utilizando algoritmos iterativos como el de deformación de ventanas de
interrogación para realizar mejoras de resolución espacial. Puesto que en este trabajo no se
consideró mejoras en este aspecto. También sería interesante desarrollar una metodología de
98

procesamiento de imágenes de PIV en línea, que permita ver en tiempo real el comportamiento
del fluido. Para evitar el almacenaje de las imágenes en la computadora y poder realizar
comparaciones en tiempo real con otras técnicas de medición de velocidad.

También se desea realizar un análisis de sensibilidad para gradientes fuertes y tamaños de


partículas inadecuados, que permitan determinar a qué fenómeno es más vulnerable el método
de post procesamiento propuesto.

Por último, para mejorar la calidad de imágenes experimentales adquiridas, se recomienda


mantener buenos niveles de intensidad del láser, puesto que cuando esta se disminuye, se
aumenta considerablemente la cantidad de vectores erróneos. Adicional de garantizar alta
densidad de partículas en el flujo.

Las técnicas de procesamiento y post procesamiento de PIV desarrolladas en esta tesis, no


fueron probadas en imágenes de microPIV, se recomienda en futuros trabajos verificar su
correcto funcionamiento en este tipo de imágenes.
99

6. Anexo 1 - Montaje experimental

6.1 Elección de los parámetros del montaje físico de PIV


Dedicaré esta sección a los parámetros de diseño del montaje experimental. Dicho montaje
se realizó en el laboratorio de Hidráulica de la Facultad de Minas de la Universidad Nacional
de Colombia. Es importante resalta que el PIV planteado en esta institución es de bajo costo
y fue financiado por el proyecto “Disipación de energía en estructuras naturales para la
protección costera” de COLCIENCIAS.

Un sistema PIV se compone básicamente de un fluido con partículas incorporadas para el


análisis, una cámara, una fuente de luz para iluminar la zona de interés, un sistema de control
y uno de adquisición de datos.

En cuanto a las partículas de seguimiento estas deben cumplir dos condiciones:

1. Deben seguir las líneas de corriente del flujo sin excesivo resbalamiento.
2. Deben ser buenas dispersoras de la luz láser.(Muñoz iriarte, 2008)

Es fundamental elegir las partículas adecuadas puesto que son las componentes más críticas
del PIV, si estas se eligen de manera incorrecta los datos experimentales serán erróneos; se
debe garantizar que el tamaño sea lo suficientemente pequeño para no alterar el flujo
(Jahanmiri, 2011).

En cuanto a la condición de seguir las líneas de flujo sin resbalamiento, es posible


garantizarlo al determinar la velocidad terminal de la partícula bajo gravedad. Se intuye que
el proceso es gobernado por el teorema de arrastre de Stokes, como se muestra en (26). Si
𝑈∞ es despreciable comparado a las velocidades del flujo real se dice que las partículas de
PIV son apropiadas.(Muñoz iriarte, 2008).
100

𝑔𝑑𝑝 (𝜌𝑝 −𝜌𝑓 )


𝑈∞ = (26)
18𝜇

Tal que

𝑑𝑝 , Diámetro de la partícula.

𝜌𝑝 , Densidad de la partícula.

𝑔, Gravedad.
𝜇, Viscosidad del fluido.

𝜌𝑓 Densidad del fluido.

Para la implementación del PIV de bajo costo del laboratorio de hidráulica se decide utilizar
unas partículas de poliamida con un diámetro medio de 50 𝜇𝑚. En la Figura 72 se observan
dichas partículas.

Figura 72. Partículas de seguimiento de flujo. Fuente propia.

Otro factor fundamental para evitar errores de medición, es la correcta elección de la cámara.
La característica más importante para seleccionar la cámara apropiada para el sistema de
velocimetría, es verificar que la resolución temporal y espacial sean adecuadas; el estado del
arte indica que una de las mayores causas de error en la medición de los momentos
estadísticos de las fluctuaciones de velocidad turbulenta, se deben a la mala elección de
dichos parámetros lo cual aplica de igual forma para el gradiente de velocidad,
(Korobeinichev et al., 2014). Por ende se deben verificar escalas de tiempo y espacio de los
101

fenómenos de interés. De esta manera, mientras el tiempo de exposición sea lo más pequeño
posible se garantiza imágenes más estáticas. Sin embargo en algunas ocasiones el factor
económico impide que se puede tener la cámara con mayor velocidad de exposición, para
mejorar esta característica es necesario modificar algunos parámetros como lo son la
apertura del diafragma y la sensibilidad ISO (Martin, 2008). También es importante elegir
el tipo de sensor de la cámara, ¿cómo saber si elegimos tecnología CMOS o CCD?, los
sistemas de PIV se deben caracterizar por las velocidades de obturación altas. En general la
velocidad del sensor CMOS es mayor. Sin embargo se debe tener en cuenta que este tipo de
sensor provoca más ruido que el CCD, por tanto se recomienda calcular la relación señal-
ruido para verificar el desempeño de la electrónica del sensor y de esta manera elegir el que
genere menor ruido, lo ideal es que dicha relación sea lo más próximo a 1.

Para el montaje experimental se elige una cámara Nikon 1 J5 con 20.8 MP, y en modo video
tiene la opción de configurarse a: 1280x720/120 fps y 800x296/400 fps. En la Figura 73 se
observa la cámara especificada.

Figura 73. Cámara utilizada en el sistema PIV del Laboratorio de Hidráulica de la Facultad de Minas. Fuente
propia.

La fuente de luz es otra componente básica de un sistema PIV, actualmente existen


diferentes formas de iluminar el flujo, se destacan los rayos laser, la luz blanca y la
iluminación LED. Se recomienda utilizar fuentes de luz intensas, entre las opciones del
mercado una de las más viable son las fuentes laser, puesto que poseen intensidades
deseables para PIV, además tanto su calidad como las características de iluminación son
fáciles de controlar. La utilización de láseres en laboratorio implica tener medidas de
102

seguridad como gafas de protección para trabajar con estos equipos, con el fin de evitar
accidentes oculares. Dadas las exigencias de seguridad que se necesitan para utilizar láseres,
se ha empezado a optar por utilizar iluminación led, que a pesar de no tener altas intensidades
como el láser, permite obtener datos validos con una buena configuración. Es importante
garantizar que la longitud de onda del sistema de iluminación que se elija sea congruente
con el valor máximo de la eficiencia cuántica de la cámara, de esta forma se captura más
eficientemente la luz, usualmente los sensores CMOS y CCD trabajan mejor en el espectro
visible verde (European Machine Vision Association, 2012).

Por temas de costos e intensidad de la fuente de luz, se elige un puntero laser de alta potencia
1000mW y una longitud de onda de 532 nm. Adicional se compran gafas de protección
especiales para láseres con longitudes de onda de alrededor de 532 nm. También se debe
elegir la óptica adecuada para generar el haz de luz del láser, típicamente se utiliza una
configuración de lente cilíndrico y esférico. Sin embargo, si el tamaño de la boquilla del
puntero laser elegido es pequeña (4 mm), se opta por utilizar únicamente el lente cilíndrico.
Este lente es plano cóncavo con una distancia focal de -9,7 mm. En la Figura 74 se observa
el montaje para generar el haz de luz en el sistema PIV descrito. Se obtuvo un haz de luz de
10 cm de ancho con un espesor de 1 mm, utilizando la siguiente configuración: distancia
entre láser y lente cilíndrico = 35 cm, y la del láser al canal recto la distancia = 90 cm.

Figura 74. Configuración para generar hoja de luz láser (1), laser 1000 mW (2) y lente cilíndrico (3). Fuente
propia.
103

Finalmente se debe realizar la sincronización del pulso del láser con el pulso de la cámara
para esto se utilizó un microprocesador Arduino. Es importante resaltar que se debió utilizar
un solenoide para realizar la obturación de la cámara puesto que esta no tenía la opción de
obturarse remotamente. En la Figura 73, se observa la cámara utilizada con el solenoide.

6.2 Casos de estudio


Para analizar el desempeño del sistema de PIV propuesto se realizaron pruebas en un canal
recto. Se estudió tanto el movimiento del flujo en fondo plano como con estructuras
sumergidas.

6.2.1 Flujo en Fondo plano


A continuación se presentan los resultados obtenidos de distintos datos de velocidad de un
flujo en fondo plano utilizando un sistema PIV. Dichas mediciones se comparan con los
datos obtenidos con un Velocímetro Doppler Acústico (ADV). En la Tabla 7 se observa la
velocidad U media obtenida con ambas técnicas. Se observa que el sistema PIV tiene una
incertidumbre de 2 a 3 cm/s en todos los casos de estudio. Las mediciones de velocidad más
altas analizadas fueron las que presentaron menor error. En la Figura 75 se observan los
campos de velocidad para los diferentes ensayos realizados.

Tabla 7. Comparación de mediciones de velocidad U obtenidas con ADV y PIV.


N° Velocidad U ADV Velocidad U PIV Error absoluto
Ensayos (cm/s) (cm/s) (cm/s)
Ensayo 1 30 32 2
Ensayo 2 15 18 3
Ensayo 3 23 25 2
Ensayo 4 18 21 3
104

Figura 75. Campos de velocidades distintas velocidades. (a) velocidad ensayo 1, (b) velocidad ensayo 2, (c)
velocidad ensayo 3 y (d) velocidad ensayo 4. Fuente propia.

6.2.2 Flujo con estructura rectangular sumergida


Se estudia el comportamiento de la velocidad en un flujo con estructura rectangular
sumergida dentro de un canal recto. Dadas las vorticidades que se producen no se puede
realizar comparación con el ADV puesto que este analiza velocidades en una malla muy
pequeña y se tendría una gran variabilidad en las velocidades.

En la Figura 76, se observa el montaje experimental realizado, se tomaron alrededor de 400


fps durante 3 segundos de grabación. El láser oscila a 1.6 ms y el haz de luz generado con
el láser tiene un ancho de 5 cm aproximadamente con un espesor de 1mm. Adicionalmente
en la Figura 77 se observan 6 campos de velocidades diferentes que fueron obtenidos durante
los 3 segundos de grabación de PIV. En estas imágenes se observa la separación de flujos y
recirculación de flujo al lado del escalón.
105

Figura 76. Montaje experimental caso de estudio de flujo con estructura rectangular sumergida. Fuente
propia.

6.2.3 Flujo con estructura ilustrativa sumergida


El segundo caso de estudio es ilustrativo se basa en el movimiento de una cuchara dentro del canal
recto, se consideró interesante para el análisis debido a que se generan gran cantidad de
vorticidades. Se utilizaron los mismos parámetros del caso de estudio anterior. Es importante
resaltar que dado el material de la estructura, el software presenta limitaciones para calcular
desplazamientos de partículas por los problemas de iluminación que genera la cuchara (brillo y
oscuridad). Sin embargo se logran apreciar los vórtices que se forman al mover la estructura, en
la Figura 78 se muestran algunos de los campos de velocidad obtenidos.
106

Figura 77. Secuencia de imágenes de los campos de velocidades alrededor de una estructura rectangular inmersa utilizando un sistema de PIV. Fuente propia.
107

Figura 78. Secuencia de imágenes de los campos de velocidades alrededor de una cuchara inmersa utilizando un sistema de PIV. Fuente propia.
108

7. Bibliografía
Adrian, R. J. (1991). Particle-image techniques for experimental fluid mechanics. Annual Review
of Fluid Mechanics, 23, 261–304. https://doi.org/10.1146/annurev.fl.23.010191.001401

Adrian, R. J. (2005). Twenty years of particle image velocimetry. Experiments in Fluids, 39(2),
159–169. https://doi.org/10.1007/s00348-005-0991-7

Adrian, R. J., & J Westerweel. (2011). Particle Image Velocimetry. Cambridge ; New York.

Astarita, T. (2009). Adaptive space resolution for PIV. Experiments in Fluids, 46, 1115–1123.
https://doi.org/10.1007/s00348-009-0618-5

Bernal, G., Osorio, A. F., Urrego, L., Peláez, D., Molina, E., Zea, S., … Villegas, N. (2016).
Occurrence of energetic extreme oceanic events in the Colombian Caribbean coasts and some
approaches to assess their impact on ecosystems. Journal of Marine Systems, 164, 85–100.
https://doi.org/10.1016/j.jmarsys.2016.08.007

Boonlong, K., Maneeratana, K., & Chaiyaratana, N. (2006). Determination of erroneous velocity
vectors by co-operative co-evolutionary genetic algorithms. 2006 IEEE Conference on
Cybernetics and Intelligent Systems, 1–6. https://doi.org/10.1109/ICCIS.2006.252288

Bugg, J. D., & Rezkallah, K. S. (1998). An analysis of noise in PIV images. Journal of
Visualization, 1(2), 217–226. https://doi.org/10.1007/BF03182515

Bulnes, J. D., Amapá, F., Kubitschek, R. J., & Zero, J. M. (2013). El método de correlación
cruzada de matrices y la generación de un campo de desplazamientos para pequeñas esferas.
Latin-American Journal of Physics Education, 7(3), 498–503.

Cozzella, L., & Spagnolo, G. S. (2014). Phase-only Correlation function by means of Hartley
transform. JSM Mathematics and Statistics, 1(1), 1–8.

Eckstein, A. C., Charonko, J., & Vlachos, P. (2008). Phase correlation processing for DPIV
measurements. Experiments in Fluids, 45(3), 485–500. https://doi.org/10.1007/s00348-008-
0492-6

Eckstein, A., & Vlachos, P. P. (2009). Digital particle image velocimetry (DPIV) robust phase
correlation. Measurement Science and Technology, 20(5), 55401.
https://doi.org/10.1088/0957-0233/20/5/055401

European Machine Vision Association. EMVA Standard 1288 Standar for Characterization of
image sensors and cameras. (2012).
109

F scarano. (2002). Iterative image deformation methods in PIV. Measurement Science and
Technology, 13, 1–19.

Florio, D. Di, Felice, F. Di, & Romano, G. P. (2002). Reverse hierarchical PIV processing.
Measurement Science and Technology, 13, 984–996.

Foreman, J. W., George, E. W., & Jetton, J. L. (1966). 8C2- Fluid flow measurements with a laser
doppler velocimeter. Quantum Electronics, QE 2(8), 260–266.

Foucaut, J. M., Carlier, J., & Stanislas, M. (2000). Post-processing of PIV records to allow
derivative computation . In Proceedings of 10th international symposium on the applications
of laser techniques to fluid mechanics (pp. 1–9). Lisbon,Portugal.

Fournier, N., & Castro, G. (1997). Compresión de imagenes fijas utilizando la transformada
Wavelet. Universidad de la Plata.

Freek, C., Sousa, J. M. M., Hentschel, W., & Merzkirch, W. (1999). On the accuracy of a MJPEG-
based digital image compression PIV-system. Experiments in Fluids, 27(1988), 310–320.

G I Roth, & Katz, J. (2001). Five techniques for increasing the speed and accuracy of PIV
interrogation. Measurement Science and Technology, 12, 238–245.

Garcia, D. (2010). Robust smoothing of gridded data in one and higher dimensions with missing
values. Comput Stat Data Anal, 54(4), 1167–1178.
https://doi.org/10.1016/j.csda.2009.09.020.Robust

Gonzalez, R. C. ., & Woods, R. E. (2008). Digital image processing. Nueva Jersey.


https://doi.org/10.1049/ep.1978.0474

Griva, I., Nash, S. G., & Sofer, A. (2009). Linear and nonlinear optimization.
https://doi.org/10.1137/1.9780898717730

H.T.Huang,H.E.Fiedler, J. J. W. (1993). Limitation and improvement of PIV. Experiments in


Fluids, 174, 168–169.

Hart, D. P. (1998a). High-Speed PIV Analysis Using Compressed Image Correlation. Journal of
Fluids Engineering, 120, 463–470.

Hart, D. P. (1998b). PIV Error Correction. In 9th International Symposium on Applications of


Laser Techniques to Fluid Mechanics (Vol. 9, pp. 1–17).

Hart, D. P. (1998c). The Elimination of Correlation Errors in PIV Processing. 9th International
Symposium on Applications of Laser Techniques to Fluid Mechanics, i, 13–16.

Hart, D. P. (2000). PIV error correction. Experiments in Fluids, 29(1), 13–22.


https://doi.org/10.1007/s003480050421

Huang, H., Dabiri, D., & Gharib, M. (1997). On errors of digital particle image velocimetry. Meas.
Sci. Technol. Meas. Sci. Technol, 8(897), 1427–1440. https://doi.org/10.1088/0957-
0233/8/12/007

J.D. Osorio-Cano, A. F. O. (2017). Ecosystem management tools to study natural habitats as wave
damping structures and coastal protection mechanisms. Ecological Engineering, 14.
110

https://doi.org/10.1016/j.ecoleng.2017.07.015

Jambunathan, K., Ju, X. Y., Dobbins, B. N., & Ashforth-Frost, S. (1995). An improved cross
correlation technique for particle image velocimetry. Measurement Science and Technology,
6(5), 507–514. https://doi.org/10.1088/0957-0233/6/5/012

Kähler, C. J., Scharnowski, S., & Cierpka, C. (2012). On the resolution limit of digital particle
image velocimetry. Experiments in Fluids, 52(6), 1629–1639.
https://doi.org/10.1007/s00348-012-1280-x

Kimura.I. (1999). Applications of Artificial Neural Networks and Genetic Algorithms to PIV.
Proceedings of the 3rd ASME/JSME Joint Fluids Engineering Conference.

Korobeinichev, O. P., Shmakov, a. G., Chernov, a. a., Markovich, D. M., Dulin, V. M., &
Sharaborin, D. K. (2014). Spatial and temporal resolution of the particle image velocimetry
technique in flame speed measurements. Combustion, Explosion, and Shock Waves, 50(5),
510–517. https://doi.org/10.1134/S0010508214050025

Lee, Y., Yang, H., & Yin, Z. (2016). A robust vector field correction method via a mixture
statistical model of PIV signal. Experiments in Fluids, 57(3), 1–20.
https://doi.org/10.1007/s00348-016-2115-y

Li, H. (1998). Development of Wavelet Image Compression Technique to Particle Image


Velocimetry V ..( x ). Thermal Science, 9(4), 346–351.

Li, H. (2000). Development of wavelet image compression technique to particle image


velocimetry. Journal of Thermal Science, 9(4), 345–351. https://doi.org/10.1007/s11630-000-
0075-1

Li, H. (2003). Application of Wavelet Technique to False Vector Correction and Data
Compression in PIV. Transactions of the Japan Society for Aeronautical and Space Sciences,
45(150), 224–228. https://doi.org/10.2322/tjsass.45.224

Li, H., Takei, M., Ochi, M., Saito, Y., & Horii, K. (1999). Choice of Wavelets for PIV Image
Compression. In Proceedings of the 3rd ASME/JSME Joint Fluids Engineering Conference
(pp. 1–6). San Francisco, California.

Liang, D. F., Jiang, C. B., & Li, Y. L. (2003). Cellular neural network to detect spurious vectors in
PIV data. Experiments in Fluids, 34(1), 52–62. https://doi.org/10.1007/s00348-002-0530-8

Lopez Hinojoza, M., González Santos, G., & Gusmán Arenas, A. (2006). Un nuevo algoritmo en
la técnica de velocimetría por imágenes de partículas. Instituto Politecnico Nacional.México
D.F.

Lugt, A. V. (1964). Signal detection by complex spatial filteringitle. IEEE Transactions on


Information Theory, 10, 139–145.

M.Falchi, G.Querzoli, & G.P.Romano. (2006). Robust evaluation of the dissimilarity between
interrogation windows in image velocimetry. Experiments in Fluids, 41, 279–293.
https://doi.org/10.1007/s00348-006-0148-3

Masullo, A., & Theunissen, R. (2016). Adaptive vector validation in image velocimetry to
minimise the influence of outlier clusters. Experiments in Fluids, 57(3), 1–21.
111

https://doi.org/10.1007/s00348-015-2110-8

Meng, J., Li, M., & Du, H. (2010). Optimization design of genetic algorithm in particle image
velocimetry. Image and Signal Processing (CISP), …, (1), 1662–1666. Retrieved from
http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=5647730

Muñoz iriarte, J. (2008). Velocimetría PIV en tiempo real basada en lógica programable FPGA.
Universidad Nacional de Cuyo.

Nakami, Y., Words, K., & Electro, O. (1995). Determination of Erroneous Using Vectors in a
Velocity Field Many measurement methods of velocity vector distributions by image
processing have been developed and applied to various flows . Most of them , however , have
a serious problem . The estimated v. IEEE Explorer, 1304(C).

Nogueira, J., Lecuona, a, & Rodríguez, P. a. (2001). Local field correction PIV, implemented by
means of simple algorithms, and multigrid versions. Measurement Science and Technology,
12(11), 1911–1921. https://doi.org/10.1088/0957-0233/12/11/321

Padilla, P., Funes.M, Berriel.L.R, Guerrero, A., & Moreno, D. (2005). Algorithm for High-
Accuracy particle image position estimation in PIV applications. Proceedings of SPIE - The
International Society for Optical Engineering, 5776, 163–167.
https://doi.org/10.1117/12.611621

Pasinato, H. D. (2008). Fundamentos De Mecanica De Fluidos. Argentina.

Raffel, M. ., Willert, M. ., & Kompenhans, J. (1998). Particle Image Velocimetry, A Practical


Guide. Berlin, Heidelberg.

Scarano, F., & Riethmuller, L. M. (1999). Iterative multigrid approach in PIV image processing
with discrete window offset. Experiments in Fluids, 26(6), 513–523.
https://doi.org/10.1007/s003480050318

Scarano, F., & Riethmuller, M. L. (2000). Advances in iterative multigrid PIV image processing.
Experiments in Fluids, 29(1), S051--S060. https://doi.org/10.1007/s003480070007

Sheng, J., & Meng, H. (1998). A genetic algorithm particle pairing technique for 3D velocity field
extraction in holographic particle image velocimetry. Experiments in Fluids, 25(5–6), 461–
473. https://doi.org/10.1007/s003480050252

Shi, B., & Zhang, Y. (2015). Phase discrimination and a high accuracy algorithm for PIV image
processing of particle – fl uid two-phase fl ow inside high-speed rotating centrifugal slurry
pump. Flow Measurement and Instrumentation, 45, 93–104.
https://doi.org/10.1016/j.flowmeasinst.2015.05.002

Stanislas, M., Okamoto, K., & Kähler, C. J. (2003). Main results of the Second International PIV
Challenge. Experiments in Fluids, 14(September 2002), 170–191.
https://doi.org/10.1007/s00348-005-0951-2

Stanislas, M., Okamoto, K., Kähler, C. J., & Westerweel, J. (2005). Main results of the Second
International PIV Challenge. Experiments in Fluids, 39(2), 170–191.
https://doi.org/10.1007/s00348-005-0951-2

Susset, A., Most, J. M., & Honore, D. (2006). A novel architecture for a super-resolution PIV
112

algorithm developed for the improvement of the resolution of large velocity gradient
measurements. Exp. Fluids, 40, 70–79. https://doi.org/10.1007/s00348-005-0047-z

The Hot-Wire Anemometer in Supersonic Flow. (1950). Journal of the Aeronautical Sciences,
17(9), 565–572. https://doi.org/10.2514/8.1725

Thielicke, W. (2014). The flapping flight of birds :Analysis and application. University Medical
Center Groingen.

Vanegas, C., Osorio, A. F., & Urrego, L. E. (2017). Wave dissipation across a Rhizophora
mangrove patch on a Colombian Caribbean Island : An experimental approach. Ecological
Engineering. https://doi.org/10.1016/j.ecoleng.2017.07.014

Weng, W. G., Fan, W. C., Liao, G. X., & Qin, J. (2001). Wavelet-based image denoising in (
digital ) particle image velocimetry. Signal Processing, 81, 1503–1512.

Wernet, M. P. (2005a). Symmetric phase only filtering : a new paradigm for DPIV data processing.
Measurement Science and Technology, 16, 601–618. https://doi.org/10.1088/0957-
0233/16/3/001

Wernet, M. P. (2005b). Symmetric phase only filtering: a new paradigm for DPIV data processing.
Measurement Science and Technology, 16(3), 601–618. https://doi.org/10.1088/0957-
0233/16/3/001

Wernet, M. P. (2006). Symmetric phase only filtering: a new paradigm for DPIV data processing.
Measurement Science and Technology, 16(3), 601–618. https://doi.org/10.1088/0957-
0233/16/3/001

Westerweel, J. (1994). Efficient detection of spurious vectors in particle image velocimetry data.
Experiments in Fluids, 16(3), 236–247. https://doi.org/10.1007/BF00206543

Westerweel, J. (1997). Fundamentals of digital particle image velocimetry. Measurement Science


and Technology, 8(12), 1379. Retrieved from http://stacks.iop.org/0957-0233/8/i=12/a=002

Westerweel, J., & Scarano, F. (2005). Universal outlier detection for PIV data. Experiments in
Fluids, 39(6), 1096–1100. https://doi.org/10.1007/s00348-005-0016-6

Westerweel, J., & Scarano, F. (2005). Universal outlier detection for PIV data. Experiments in
Fluids, 39(6), 1096–1100. https://doi.org/10.1007/s00348-005-0016-6

Y.D. Adanasyec; E.K.Demirov. (2005). Variational filtration and interpolation technique for PIV
employing fluid dynamical constraints. Experiments in Fluids, 39, 828–835.
https://doi.org/10.1007/s00348-005-0017-5

Yu Heng, & Lv Qiongshuia. (2013). Study on Particle Image Velocimetry Technique in the
Surface Flow Field of River Model. In Internacional Conference on Mechatronic
Sciences,Electric Engineering and Computer. (pp. 968–972).

También podría gustarte