Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tesis o trabajo de investigación presentada(o) como requisito parcial para optar al título de:
Magíster en Ingeniería – énfasis automatización industrial
Director:
Ph.D. Freddy Bolaños Martínez
Codirector (a):
Ph.D. Andrés Fernando Osorio Arias
Línea de Investigación:
Procesamiento digital de imágenes
Grupo de Investigación:
Grupo en oceanografía e ingeniería costera OCEANICOS
Por último quiero agradecer a mis compañeros del grupo OCEANICOS. En especial a David
Quintero y Cesar Jaramillo por su apoyo emocional y académico. Gracias por preguntar a
diario ¿Qué es PIV?
Resumen
La velocimetría por imágenes de partículas es una técnica de medición de velocidad no
intrusiva al medio, basada en procesamiento digital de imágenes, la cual permite obtener el
campo de velocidades de un fluido en movimiento. Esta técnica se basa fundamentalmente
en la adquisición de imágenes de partículas neutralmente boyantes sumergidas en un flujo
durante un instante de tiempo conocido, con el fin de cuantificar el desplazamiento de las
mismas. La obtención de resultados correctos depende en gran medida de la configuración
experimental y del método de procesamiento de imágenes utilizado. Típicamente se utilizan
algoritmos de correlación cruzada basados en la transformada rápida de Fourier debido a su
fácil implementación y a su buen desempeño computacional en comparación con la
correlación cruzada directa. Sin embargo, al utilizar una medición estadística se presentan
datos sesgados. Adicionalmente, cuando las bases de datos tienen imágenes de alta
resolución y gran volumen, el almacenamiento físico se ve afectado y los tiempos de
procesamiento computacional empiezan a ser muy altos. Teniendo en cuenta esto, se
propone una metodología que utiliza transformaciones de filtros no lineales aplicados a la
correlación cruzada generalizada. Esto con el fin de extraer información de fase de la señal
en el plano de frecuencias, dicha técnica se conoce como correlación de fase, combinado
con un algoritmo de compresión de imágenes Wavelet para aumentar los rendimientos
computacionales y disminuir el almacenamiento de las imágenes.
3. Paper 1 .................................................................................................................... 35
4. Paper 2 .................................................................................................................... 77
5. Conclusiones y recomendaciones ........................................................................... 96
5.1 Conclusiones ........................................................................................................ 96
5.2 Recomendaciones ................................................................................................. 97
Lista de figuras
Figura 1. Montaje típico de sistema PIV. ............................................................................. 14
Figura 2. Vectores divergentes en un campo de velocidades. .................................................. 15
Figura 3. Imágenes de PIV divididas en zonas de interrogación. ............................................. 19
Figura 4. Campo de velocidad obtenido con un algoritmo de procesamiento de imágenes para PIV.
Fuente propia. .................................................................................................................. 21
Figura 5. Diagrama de proceso correlación cruzada en PIV. Fuente propia. .............................. 22
Figura 6. Vórtice de Rankine con diferentes ventanas de interrogación: (a) 64x64 pixeles, (b)
32x32 pixeles, (c) 16x16 pixeles y (d) 8x8 pixeles. Fuente propia. .......................................... 23
Figura 7. Técnica multigrid, reducción iterativa de las ventanas de interrogación. Fuente propia. 24
Figura 8. Superposición de ventanas de interrogación en técnica offset. Fuente propia. .............. 24
Figura 9. Método de deformación de imagen multigrid. Arriba a la izquierda: cuadrícula de
interrogación y resultado de la correlación cruzada en la cuadrícula gruesa; arriba a la derecha:
deformación de la imagen a la resolución de la rejilla gruesa; abajo a la izquierda: deformación de
la imagen a la resolución de la cuadrícula refinada; abajo a la derecha: cuadrícula de interrogación
y resultado de la correlación cruzada en la cuadrícula refinada. Tomado de (Scarano, 2002) ...... 27
Figura 10. Técnica para mejorar la resolución de grandes gradientes de velocidad propuesta por
(Susset et al., 2006). Fuente propia. ..................................................................................... 28
Figura 11. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado. Fuente propia .............................................................. 29
Figura 12. Procedimiento estándar de métodos no iterativos para la corrección de errores de PIV.
....................................................................................................................................... 31
Figura 13. Eliminación de las anomalías de correlación multiplicando las tablas de correlación de
las regiones adyacentes. Los valores de correlación que no aparecen en ambas tablas se eliminan,
permitiendo determinar el desplazamiento de partículas. Tomado de (Hart, 1998c). .................. 32
Figura 14. Diagrama de proceso del algoritmo de correlación cruzada en imágenes de PIV. ....... 37
Figura 15. Diagrama del proceso transformada wavelet de 2 dimensiones. ............................... 43
Figura 16. Resultado de la descomposición Wavelet. Cuadro del medio (descomposición de un
solo nivel) y Cuadro de la izquierda (descomposición de segundo nivel).................................. 43
Figura 17. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado. ................................................................................... 45
Figura 18. Diagrama de flujo del algoritmo hibrido transformada wavelet con correlación de fase.
....................................................................................................................................... 49
Figura 19. Imágenes de prueba, grabadas por en el DNW-LLF por el DLR. ............................. 50
9
Figura 20. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del vórtice fuerte utilizando una ventana de interrogación con densidad de
partículas baja. ................................................................................................................. 51
Figura 21. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del vórtice fuerte utilizando una ventana de interrogación con densidad de
partículas alta. .................................................................................................................. 52
Figura 22. Imágenes reconstruidas con diferente tasas de compresión utilizando la base Coifle 2:
Tasa de compresión del 25% de los coeficientes Wavelet., 6.25%, 1.56% y 0.39% de los
coeficientes Wavelets. ....................................................................................................... 53
Figura 23. (a) Campo de velocidad sin realizar compresión con ventana de interrogación de 32x32,
(b) Campo de velocidad de reconstruida con el 25% de los coeficientes Wavelets con ventanas de
interrogación de 16x16pixeles y (c) reconstruida con el 6.25% de los coeficientes Wavelets del
vórtice fuerte con ventana de interrogación de 8x8. ............................................................... 53
Figura 24. Comparación de los perfiles de velocidad U (izquierda) y V (derecha) a lo largo de
Y=512 y X variable utilizando diferentes niveles de descomposición Wavelets para la base Coifle
2 en el caso del vórtice fuerte. ............................................................................................ 54
Figura 25. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X
variable del campo original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando
la base Coifle 2 en el caso del vórtice fuerte. ........................................................................ 54
Figura 26. Comparación de los perfiles de velocidad U y V a lo largo de X=512 y Y variable
utilizando diferentes niveles de descomposición Wavelets para la base Coifle de orden 2, en el caso
del vórtice fuerte con interpolación subpixel......................................................................... 55
Figura 27. Histograma de errores de los perfiles de velocidad U y V a lo largo de X=512 y Y
variable del campo original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando
la base Coifle de orden 2, en el caso del vórtice fuerte con interpolación subpixel. .................... 55
Figura 28. Error del campo de velocidades entre el algoritmo clásico de correlación cruzada y el
algoritmo de compresión de imágenes con correlación e interpolación subpixel utilizando 25% de
los coeficientes Wavelets totales en el caso del vórtice fuerte. ................................................ 56
Figura 29. Error del campo de velocidades entre algoritmo clásico de correlación cruzada y el
algoritmo de compresión de imágenes con correlación e interpolación subpixel utilizando 6,25 %
de los coeficientes Wavelets totales en el caso del vórtice fuerte. ............................................ 56
Figura 30. Imágenes Flujo jet. ............................................................................................ 57
Figura 31. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del flujo Jet en una ventana de interrogación con velocidades cercanas a cero. ... 57
Figura 32. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el
caso de estudio del flujo Jet en una ventana de interrogación al interior del chorro turbulento. .... 58
Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con ventanas de
interrogación de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes
Wavelets con ventanas de interrogación de 16x16 pixeles(derecha). ........................................ 59
Figura 34. Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable
utilizando diferentes niveles de descomposición Wavelets para la base Coifle 2 en el caso del flujo
jet con interpolación subpixel en los picos de correlación. ...................................................... 59
10
Lista de tablas
Pág.
Tabla 1. Comparación de resultados del flujo con velocidad constante utilizando tres algoritmos de
PIV diferentes. ................................................................................................................................. 63
Tabla 2. Comparación de las velocidades medias utilizando distintas técnicas de medición para el
caso de estudio propio. ..................................................................................................................... 72
Tabla 3. Comparación del desempeño computacional de los diferentes casos de estudio utilizando
la técnica clásica de correlación y la metodología propuesta de correlación de fase con imagen
comprimida por transformada Wavelet. ........................................................................................... 74
Tabla 4. Comparación rendimiento computacional de las técnicas de correlación de fase y
correlación cruzada en imagen comprimida al realizar tres variaciones del tamaño de la ventana de
interrogación en el caso del vórtice de Rankine. .............................................................................. 75
Tabla 5. Errores campo de velocidades vórtice fuerte. .................................................................... 88
Tabla 6. Errores campo de velocidad del flujo turbulento. .............................................................. 91
Tabla 7. Comparación de mediciones de velocidad U obtenidas con ADV y PIV. ....................... 103
13
1. Introducción
La medición de la velocidad de flujos es de gran importancia en aplicaciones de
hidrodinámica. Para el entendimiento de procesos físicos e hidrodinámicos alrededor de
sistemas como manglares y arrecifes de coral, es fundamental contar con mediciones de
velocidad que permitan cuantificar el impacto de estas, como estructuras de disipación y
protección costera. Por ejemplo, Colombia cuenta con ecosistemas insulares y continentales
con un gran potencial pesquero, turístico y de conservación. Sin embargo, en las últimas
décadas han sido sometidos a una fuerte presión antrópica y a eventos naturales extremos
(Bernal et al., 2016). Por lo anterior, se han venido adelantando estudios para cuantificar la
disipación de energía de las estructuras naturales con la interacción del oleaje a partir de
modelación física (Vanegas, Osorio, & Urrego, 2017)(J.D. Osorio-Cano, 2017).
Existen diferentes técnicas para medir la variable de velocidad. Sobresalen enfoques como
el de velocimetría por imágenes de partículas (PIV por sus siglas en inglés), debido a que es
una herramienta de visualización de flujo cuantitativa, no intrusiva al medio, que presenta
una serie de ventajas como obtener un campo de velocidades en múltiples direcciones (2D
y 3D) (Westerweel, 1997), respecto a técnicas tradicionales como la anemometría de hilo
caliente y la velocimetría láser Doppler, que generan mediciones de velocidad en un solo
punto del espacio (Foreman, George, & Jetton, 1966).
Figura 1, se observa una ilustración del montaje típico de sistemas de velocimetría por
imágenes de partículas.
sea adecuada para mostrar el fenómeno de interés. Los sistemas de velocimetría por
imágenes de partículas son una buena alternativa para este tipo de mediciones. Desde sus
inicios se han venido desarrollando distintos algoritmos de procesamiento de imágenes que
permitan obtener datos confiables con el mejor rendimiento computacional posible. Sin
embargo, en las referencias consultadas hasta el momento, se han obtenido vectores erróneos
debidos a condiciones experimentales inadecuadas (Huang, Dabiri, & Gharib, 1997) (Hart,
1998b) (Adrian, 2005) y el procesamiento de las imágenes utilizando técnicas basadas en
medidas estadísticas (Raffel, Willert, & Kompenhans, 1998). Estos vectores se caracterizan
por ser datos con direcciones y magnitudes diferentes a los de sus vecinos. En la Figura 2 ,
se resalta en gris punteado una zona que posee dos vectores espurios y en la zona resaltada
con gris continua, vectores no divergentes.
En cuanto a la adquisición de las imágenes, (Bugg & Rezkallah, 1998) indican que la
utilización de cámaras fotográficas induce aberraciones, distorsiones, fenómenos de
difracción e incertidumbre en el posicionamiento de las partículas. Adicional a estos errores,
en la configuración experimental se debe tener precaución a la hora de realizar la
sincronización del láser puesto que se pueden generar errores de temporización entre los
pulsos generados por este y la cámara. De igual manera, hay que ser riguroso con la
ubicación de las lentes que generan el plano de luz puesto que una configuración inadecuada
hace que determinadas trayectorias de partículas no puedan cuantificarse (Hart, 2000). Por
último se debe introducir al flujo una densidad de partículas adecuadas, de tal manera que
al aplicar el algoritmo de correlación cruzada, la cantidad de vectores erróneos sea mínima.
16
1.2 Objetivos
Estructura de la Tesis
La presente Tesis se divide en 5 capítulos:
Capítulo 4: Presenta un artículo titulado como “Minimización del error divergente para la
determinación de vectores incorrectos en sistemas de velocimetría por imágenes”.
Actualmente este artículo se encuentra sometido en la revista “Flow Measurement and
Instrumentation”.
Capítulo 7: Referencias.
19
2.1 Procesamiento
𝑀 𝑁
Donde 𝐼1 (𝑥, 𝑦) y 𝐼2 (𝑥, 𝑦) representan las intensidades de los píxeles de las ventanas de
interrogación en las posiciones de los píxeles (𝑥, 𝑦) en las imágenes 1 y 2, respectivamente.
La función 𝐶(𝑚, 𝑛) mide la correlación de las funciones discretas 𝐼1 (𝑥, 𝑦) y 𝐼2 (𝑥, 𝑦) cuando
son relativamente desplazadas por (m, n) píxeles. La ecuación (1) se puede calcular
directamente en el dominio espacial o en el dominio de la frecuencia utilizando la transformada
rápida de Fourier (FFT) (Bulnes et al., 2013). La FFT tiene un excelente comportamiento
cuando las máscaras A y B son del mismo tamaño, garantizando que el costo computacional
sea bajo. Sin embargo, si el desplazamiento de las partículas aumenta de tal manera que no
todas sean captadas en ambas imágenes, la incertidumbre en la localización del pico de la
correlación cruzada aumenta.
Tras obtenerse el plano de correlación cruzada se pueden observar las posiciones de los
máximos donde hubo una mayor similitud entre las imágenes, dichas posiciones representan el
desplazamiento promedio que tuvieron las partículas (Lopez Hinojoza, González Santos, &
Gusmán Arenas, 2006). Es importante resaltar que dicho proceso se repite para todas las zonas
de interrogación. Finalmente, con la matriz de desplazamiento y el intervalo de tiempo entre
las imágenes, se puede hallar el campo de velocidades asociado a la imagen donde cada zona
de interrogación se representa con un vector, como se muestra en la Figura 4.
21
100
200
300
400
500
Y
600
700
800
900
1000
X: 1280 Y: 1024
200 400 600 800 1000 1200 Index: 1
RGB: 0, 0, 0
X
Figura 4. Campo de velocidad obtenido con un algoritmo de procesamiento de imágenes para PIV. Fuente
propia.
A pesar de las ventajas de los algoritmos basados en correlación cruzada, se presentan una serie
de errores como el truncamientos de partículas en los bordes de las ventanas de interrogación
22
que a su vez genera limitaciones para detectar zonas de altos gradientes de velocidad, se afirma
que estos poseen una dependencia tanto del tamaño de la ventana de interrogación como de la
densidad de partículas (Raffel et al., 1998). Además de las limitaciones de la metodología para
trabajar casos de estudio que demandan resoluciones espaciales pequeñas (inferiores a los
16x16 pixeles). Dado esto se han venido desarrollando técnicas para optimizar la resolución,
exactitud, robustez y detección de gradientes.
Figura 6. Vórtice de Rankine con diferentes ventanas de interrogación: (a) 64x64 pixeles, (b) 32x32 pixeles, (c)
16x16 pixeles y (d) 8x8 pixeles. Fuente propia.
Figura 7. Técnica multigrid, reducción iterativa de las ventanas de interrogación. Fuente propia.
Otro de los métodos para mejorar la resolución de los datos, es el algoritmo offset el cual es
una modificación del algoritmo clásico basado en la FFT (Scarano & Riethmuller, 1999). Este
aumenta la resolución espacial sin disminuir el tamaño de la ventana de interrogación. Se
caracteriza por realizar una superposición parcial de ventanas de manera iterativa donde se
realizan translaciones de la zona de interrogación iguales al offset del desplazamiento
inmediatamente anterior calculado. Este procedimiento se realiza hasta que la diferencia de
los desplazamientos entre iteraciones sucesivas sea inferior a un pixel. En la Figura 8 se observa
gráficamente una superposición de ventanas de interrogación. Al igual que el algoritmo
multigrid, se aumenta el coste computacional con respecto al algoritmo tradicional, y se debe
tener cuidado al elegir el tamaño de las ventanas de interrogación.
Los algoritmos multigrid y offset no son los únicos que utilizan técnicas iterativas para mejorar
la resolución espacial de los campos de velocidades, varios autores han dedicado sus esfuerzos
25
a este tema, se destacan trabajos como el de Astarita (2009), donde se propone una técnica de
adaptación de la resolución espacial, que busca realizar procesamiento solo cuando las
partículas estén densamente distribuidas y las estructuras de pequeña escala de alta energía no
estén uniformemente distribuidas. Por tanto la resolución se varia localmente teniendo en
cuenta la intensidad de la señal y la intensidad de las variaciones locales del campo de
desplazamiento, de tal forma que sea posible elegir automáticamente el mejor tamaño de la
ventana de filtrado. Esta metodología demostró un aumento de resolución espacial en casos de
estudio de chorro en flujo cruzado, donde había presencia de gradientes fuertes. También se
logró una mejora en el filtrado de zonas no perturbadas. No obstante, utilizar esta técnica
aumenta el coste computacional en comparación con el método tradicional de análisis de
imágenes de PIV.
En cuanto a los métodos para aumentar eficiencia computacional, se han venido realizando
desarrollos como el de Roth & Katz (2001) , donde se utiliza una multiplicación truncada en
paralelo para reducir el tiempo computacional de la correlación cruzada directa, y a su vez
mejorar la precisión de los datos. Se consiguió un desempeño computacional comparable con
el de los algoritmos de correlación cruzada basados en FFT. Sin embargo solo consiguen un
menor tiempo computacional con respecto a metodologías tradicionales cuando se incluyen
algoritmos iterativos para aumentar la resolución espacial.
Con respecto a imágenes, la transformada de Fourier F(k) de una función f(x) de soporte finito
se extiende entre [−∞,+∞]. Luego de aplicar cualquier algoritmo de análisis a F(k) se pierde
información al realizarse la transformada inversa en un intervalo finito. En cambio, en el caso
26
En cuanto el uso de la Wavelet para la compresión de imágenes se han utilizado distintas bases
Wavelets tales como las familias Daubechies, Coifman y Baylkin, con el fin de evaluar el efecto
que genera la elección de estas (H Li, Takei, Ochi, Saito, & Horii, 1999). Se concluye que las
bases Wavelet de menor orden proporcionan un buen rendimiento debido a la localización
física. Al realizar un aumento de la relación de compresión sin pérdida de información de flujo
significativa en el procesamiento de PIV, se realiza corrección de los vectores del campo
analizado. Adicional a la compresión y la disminución de ruido utilizando transformada
wavelet, se han venido desarrollando métodos de resolución múltiple para mejorar la resolución
espacial de campos de velocidad (Hui Li, 2003).
Existen otras técnicas de procesamiento de imágenes de PIV que buscan disminuir los
resultados erróneos debidos al truncamiento de partículas en bordes de las ventanas de
interrogación de los algoritmos basados en FFT, se destacan algoritmos como el de
deformación de ventanas, propuesto por Scarano (2002). Este es un algoritmo iterativo que
consiste en un aumento de la densidad espacial de interrogación y un refinamiento del tamaño
local de ventana de interrogación de acuerdo al flujo, para asegurar la coincidencia de partículas
entre imágenes. En Figura 9 se ilustra el procedimiento de deformación iterativo. Con la
implementación de esta técnica se reducen errores inducidos por la presencia de gradientes
elevados y su respuesta espacial obtiene una mejora significativa que demuestra un menor
efecto de modulación. Se comprueba su desempeño en imágenes de flujo turbulento donde
demostró mayor robustez ante ruido y fluctuaciones de escala pequeña. Sin embargo, presenta
inestabilidades asociadas con la alta frecuencia espacial(Shi & Zhang, 2015).
27
Mejorar la precisión es uno de los temas a los que se les ha dedicado mayores esfuerzos en
sistemas de PIV. Por ejemplo, Susset, Most, y Honore (2006) plantean una técnica para mejorar
la resolución de grandes gradientes de velocidad, que incluye cálculos de correlación directa
con una nueva estructura, que permite disminuir el número de multiplicaciones entre ventanas
de interrogación. De tal manera que el desempeño computacional puede ser comparado con los
de la FFT. También utiliza la técnica multigrid para aumentar la resolución espacial y
finalmente desarrolla un algoritmo de súper resolución heurístico para aumentar aún más la
resolución espacial de la medición, para esto hace uso de la velocimetría por seguimiento de
partículas (PTV), técnica que calcula desplazamientos de partículas individuales. La técnica de
súper resolución soluciona las desventajas inherentes a PTV puesto que sus estimaciones
fueron contempladas para una baja densidad de partículas, y las imágenes típicas de PIV
utilizan alta densidad. Por último los autores optimizan el tiempo de procesamiento mediante
28
Figura 10. Técnica para mejorar la resolución de grandes gradientes de velocidad propuesta por (Susset et al.,
2006). Fuente propia.
Aunque ha habido una amplia mejora en las técnicas de procesamiento digital, la exactitud
sigue estando obstaculizada por errores inherentes al método de correlación. Por ende
diferentes trabajos han sido dedicados a buscar opciones para realizar el procesamiento de las
imágenes diferentes a la metodología tradicional. Por ejemplo Falchi, Querzoli y Romano
(2006) proponen la utilización de las estadísticas robustas para la evaluación de campo de
velocidad de PIV. Por ello se desarrolló la velocimetría de imagen robusta (RIV), una medida
de disimilitud entre ventanas de interrogación basada en un estimador Loretziano en lugar de
29
la correlación cruzada. Allí se comprueba que el RIV tiene un mayor rendimiento cuando
existen mayores niveles de ruido y turbulencia. Utilizar esta metodología aumenta la precisión
de los datos y disminuye el rendimiento computacional comparado con las técnicas clásicas de
evaluación.
Otra de las metodologías que ha sido planteada para disminuir los errores inherentes a la
correlación, se basa en correlatores ópticos, estos utilizan técnicas de filtración análogas al
proceso estándar de análisis de imágenes de PIV basados en correlación cruzada. Para
optimizar los rendimientos de los correlatores se desarrolló una variedad de filtros de fase,
dichos filtros también pueden ser implementados en PIV (Lugt, 1964). Sin embargo, el
diagrama de proceso típico del análisis de imágenes basados en FFT debe ser modificado para
su implementación como una técnica de filtrado espacial adaptado, en la Figura 11 se muestra
dicha modificación.
Figura 11. Diagrama de proceso de correlación cruzada modificado para su implementación como técnica de
filtrado espacial adaptado. Fuente propia
amplificar la relación señal a ruido de tal manera que se produzcan estimaciones de velocidad
más precisas y robustas. Este tipo de algoritmos tiene capacidad de recuperación contra el ruido
aditivo, iluminación de fondo no uniforme, reducción de error de sesgo en presencia de mayor
cizallamiento y movimiento rotacional. Se basan fundamentalmente en una descomposición
analítica de la señal a ruido y se aplica como un filtro espectral a GCC (Eckstein, Charonko, &
Vlachos, 2008). Adicional a este filtro sugieren utilizar funciones de ventanas que permitan
disminuir el aliasing, que es el resultado de la periodicidad de la transformada discreta de
Fourier para señales finitas, lo que supone que la señal es periódica sobre su longitud L, las
repeticiones fuera de este dominio pueden superponerse con las regiones validas de la señal
generando un alias en la correlación, pueden ser vistas como la correlación de las partículas
que salen de la ventana de imagen 1 con partículas que entran en la ventana de imagen 2.
Uno de los métodos de correlación de fase incluye una transformación gaussiana (GTPC).
Fundamentalmente esta técnica incluye enmascaramiento de las imágenes en el dominio
espacial para eliminar efectos de bordes, realiza filtrado de fase de la correlación cruzada para
suavizar, y utiliza transformaciones gaussianas de la correlación de fase para garantizar una
precisión subpixel mediante la implementación de estimaciones gaussianas de tres
puntos.(Eckstein et al., 2008)
Se han implementado otras técnicas de correlación de fase robusta (RPC) capaces de reducir
sustancialmente los errores. El RPC también utiliza avanzadas técnicas de enventanado para
atenuar los errores basados en Fourier. Se diferencia de la técnica de correlación de fase con
transformada gaussiana fundamentalmente porque GTPC incorpora un filtro de suavizado
adicional para optimizar el estimador subpixel. En cambio en RPC se enmascara la correlación
utilizando un modelo analítico de la relación señal a ruido (Eckstein & Vlachos, 2009). Al
combinar el uso de filtros espectrales con técnicas avanzadas de ventanas, el estimador RPC
elimina todo el contenido energético del espectro cruzado generando un pico de correlación
muy fuerte que aumenta la exactitud de medición de PIV.
Finalmente se concluye que las técnicas consultadas hasta el momento continúan teniendo
problemas para procesar imágenes de PIV, ya sea por coste computacional, resolución espacial
inadecuada, baja precisión o dificultades para correlacionar imágenes ante la presencia de ruido
aditivo. Por ende en este documento se pretende implementar una metodología para el
tratamiento de imágenes de PIV basada en la transformada Wavelet y la correlación de fase,
de tal manera que se obtengan datos de alta precisión con el menor coste computacional.
Figura 12. Procedimiento estándar de métodos no iterativos para la corrección de errores de PIV.
Fuente propia.
Para la detección de valores atípicos en PIV el método más utilizado ha sido “la prueba de la
mediana” (Westerweel, 1994). Se basa en la comparación de los vectores con sus vecinos. Esta
metodología se aplicó para una homogeneidad y una perturbación típica, por lo que se podía
32
plantear un único umbral de detección para vectores atípicos. Adicional se desarrolla una
técnica para detección de vectores erróneos en flujos turbulentos, pero la técnica es robusta y
requiere información a priori del flujo.
Figura 13. Eliminación de las anomalías de correlación multiplicando las tablas de correlación de las regiones
adyacentes. Los valores de correlación que no aparecen en ambas tablas se eliminan, permitiendo determinar el
desplazamiento de partículas. Tomado de (Hart, 1998c).
Los autores Westerweel y Scarano (2005) proponen una adaptación de “la prueba mediana”
original, esta se basa en la normalización de la mediana residual con respecto a la estimación
de la variación local de la velocidad. Este residuo produce una función de densidad de
probabilidad más o menos “universal”, que permite elegir un único valor umbral de detección
33
Adicional a las técnicas que han sido citadas hasta el momento, se ha recurrido a metodologías
alternativas basadas en optimización heurística, como lo son las redes neuronales (Liang, Jiang,
& Li, 2003), los algoritmos genéticos utilizando similitud de vectores adyacentes (Boonlong et
al., 2006) y similitud morfología para descartar los errores en el campo vectorial (Sheng &
Meng, 1998). Pero dado sus altos costes computacionales no son muy usados en la práctica.
En general los métodos no iterativos de post procesamiento eligen de manera arbitraria el valor
de umbralización, por lo cual puede elegirse valores inapropiados que generan eliminación de
vectores correctos o una detección inadecuada de vectores erróneos. Con el fin de superar las
limitaciones de los algoritmos de post procesamiento con métodos no iterativos, se desarrollan
los métodos iterativos. Los cuales repiten las fases de validación y reconstrucción hasta que se
cumplan las condiciones de terminación. En el trabajo desarrollado por Foucaut, Carlier y
Stanislas (2000), se propuso un metodología automática para eliminar datos basados en
comparaciones entre vectores brutos y su respectiva estimación. Este estimador es un filtro
mediano aplicado al campo de velocidad. Este procedimiento utiliza interpolación adaptable e
iterativa basada en filtro de interpolación de 5X5 ventanas. Aunque se mejora la suavidad del
campo de velocidad, si existen dos o más vectores continuos, los vectores erróneos no son
corregidos en su totalidad.
Otros autores han diseñado técnicas más eficientes que los métodos tradicionales, en los casos
que existen varios vectores atípicos en una misma vecindad. Para esto se han formulado
algoritmos de post procesamiento de imágenes de PIV que realizan en simultáneo los pasos
fundamentales de la corrección de vectores erróneos (detección, sustitución y suavización de
datos). Esta metodología se fundamenta en la teoría de mínimos cuadrados penalizados
combinada con la trasformada discreta del coseno (DCT), y puede manejar simultáneamente
ruido experimental, valores atípicos y datos faltantes. En general, se corrigieron de manera
adecuada los vectores de velocidad. Sin embargo en presencia de velocidades discontinuas
como las de los flujos supersónicos presentan inconvenientes (Garcia, 2010). Así mismo otros
autores basados en la fundamentación de “la prueba de la mediana” han realizado algoritmos
de post procesamiento utilizando otras metodologías, por ejemplo corrección de campos
vectoriales utilizando modelos estadísticos de la señal de PIV (Lee et al., 2016), emulaciones
34
de visión humana para ampliar las zonas de validación de vectores (Masullo & Theunissen,
2016), métodos de variación que realizan suavización del campo circundante para reducir el
efecto de los vectores espurios que no pudieron ser eliminados (Adanasyec; Demirov, 2005),
entre otros.
Para concluir, resulta pertinente aclarar que la prueba de la mediana ha sido la más utilizada en
la corrección de vectores erróneos, dada su fácil implementación. Sin embargo cuando las
ventanas de interrogación vecinas poseen una cantidad considerable de vectores erróneos o
cuando los datos incorrectos no están muy alejados en magnitud y dirección de los vectores
correctos, no se realiza la debida sustitución de los vectores de velocidad. Así mismo otras
técnicas han tenido limitaciones debido a elecciones incorrectas de valores umbrales y altos
desempeños computacionales. Por ende, se propone una técnica de corrección de vectores
basados en que los flujos incompresibles deben cumplir el criterio de mínima divergencia, tal
que se garantice el menor error de divergencia posible en todo el campo de velocidades. Para
implementar el método, se hace uso de un algoritmo de optimización no lineal, cuya función
objetivo es minimizar el error entre la velocidad estimada con PIV y la velocidad real utilizando
como restricción la ecuación de continuidad.
35
3. Paper 1
Desarrollo de la técnica de compresión de imágenes Wavelet y correlación de fase para
mejorar el procesamiento de imágenes de PIV
Maceas,M.1, Bolaños.F,2Osorio.A.F.1.
1
Grupo de oceanografía e ingeniería costera, OCEANICOS, Departamento de geociencia y
medio ambiente, Universidad Nacional de Colombia sede Medellín, Colombia, 2 Grupo de
automática de la Universidad Nacional, Departamento de energía eléctrica y automática,
Universidad Nacional de Colombia sede Medellín, Colombia.
Resumen
PIV y disminuir el almacenamiento físico de las imágenes. Se analizan cinco casos de estudio,
se utilizaron imágenes sintéticas y experimentales.
1. Introducción
una amplitud que varía poco a poco hacia cero en los extremos, tal que se obtenga una señal
continua, sin transiciones bruscas. Finalmente se regresa al dominio del tiempo mediante la
implementación de la transformada inversa de Fourier (FFT-1) para extraer la ubicación del
máximo pico de correlación detectado.
Este método se utiliza con frecuencia debido a que el coste computacional de la correlación
cruzada directa es bastante ineficiente en comparación con el desempeño computacional de la
correlación cruzada basada en FFT. Sin embargo utilizar esta técnica tiene una serie de
limitaciones como lo son la detección de altos gradientes de velocidad y el truncamiento de
partículas en los bordes de las ventanas de interrogación. H.T.Huang y H.E.Fiedler (1993)
cuantificaron el efecto en la determinación de los desplazamientos, dada una deformación de
los patrones de las imágenes de partículas por altos gradientes de velocidad.
Figura 14. Diagrama de proceso del algoritmo de correlación cruzada en imágenes de PIV.
Aparte de las limitaciones de la técnica de correlación cruzada basada en FFT, existen otros
tipos de errores que afectan la precisión de los datos de PIV. En gran medida dichos errores se
deben a las condiciones de adquisición de las imágenes, por ejemplo Bugg y Rezkallah (1998)
indican que la utilización de cámaras fotográficas induce en las imágenes: aberraciones,
distorsiones, fenómenos de difracción e incertidumbre en el posicionamiento de las partículas.
También Hart (2000) afirma que una inadecuada densidad de partículas, incorrecta
temporización entre los pulsos del láser y la cámara, configuración óptica y ruido en los fondos
de la imagen, son indeseables a la hora de procesar datos de PIV, puesto que generan gran
cantidad de vectores erróneos . Es importante resaltar que la precisión de los datos no es la
única variable afectada por las limitaciones que han sido descritas. Uno de los temas más
38
Aunque ha habido una amplia mejora en las técnicas de procesamiento digital de PIV, la
precisión de los datos sigue estando limitada por errores inherentes al método de correlación
cruzada. Se han desarrollado técnicas orientadas a obtener resultados más precisos y robustos.
Algunas metodologías se basan en algoritmos iterativos, por ejemplo el algoritmo multigrid
propuesto por Scarano y Riethmuller (2000) se basa en una reducción iterativa del tamaño de
las ventanas de interrogación, utiliza la información del campo vectorial obtenido para predecir
la posición de las ventanas de análisis de la siguiente iteración. Esta técnica también ha sido
planteada de manera inversa, incrementando el tamaño de la ventana de interrogación (Florio
et al., 2002). Otro método iterativo propuesto es el algoritmo offset que se basa en la
superposición parcial de las ventanas de interrogación, hasta que la diferencia de los
desplazamientos entre iteraciones sucesivas sea inferior a un pixel (Scarano & Riethmuller,
1999). Cabe aclarar que estas técnicas mejoran la resolución espacial del campo de velocidades
aumentando el costo computacional. De igual manera, se continúan generando errores en la
estimación PIV debido a la fuga de partículas en los bordes de las ventanas de interrogación.
Otras técnicas propuestas para mejorar la precisión PIV han sido planteadas en la literatura.
Susset, Most, & Honore (2006) propone una técnica para mejorar la resolución de grandes
gradientes de velocidad haciendo uso de la correlación cruzada directa con una nueva estructura
para que computacionalmente sea equivalente a la FFT, un algoritmo multigrid para mejorar
resolución espacial, y desarrolla un algoritmo de súper resolución heurístico para aumentar aún
más la resolución espacial, para esto utiliza la velocimetría por seguimientos de partículas
(PTV). Por último los autores optimizan el tiempo de procesamiento mediante la
implementación de almacenamiento de datos en árboles de partición espaciales binarios. Se
comprueba el aumento de resolución espacial y la precisión de los datos al utilizar esta
metodología en diferentes casos de estudio. Sin embargo, se limitó el rendimiento
computacional dados los algoritmos iterativos, el proceso de identificación de partículas y la
localización de las mismas.
Otra de las metodologías que ha sido planteada para disminuir los errores inherentes a la
correlación, se basa en correlatores ópticos. Dichos dispositivos utilizan técnicas de filtración
análogas al proceso estándar de análisis de imágenes de PIV basados en correlación cruzada.
Para optimizar los rendimientos de los correlatores se condujeron al desarrollo de una variedad
de filtros de fase, dichos filtros también pueden ser implementados en PIV (Lugt, 1964). Las
ventajas de utilizar filtros de fase se basa en que el análisis de la transformada de Fourier ha
demostrado que la porción de amplitud de la señal de plano de frecuencia contiene información
más relevante para el tamaño y la forma del objeto, a diferencia de la porción de fase que
contiene la información de posición de los objetos en la escena de entrada y cierta información
con respecto a su tamaño y forma (Wernet, 2006). La técnica que utiliza transformaciones de
filtros no lineales aplicados a la correlación cruzada generalizada (GCC) se conoce como
correlación de fase. Este método se introduce para amplificar la relación señal a ruido de tal
manera que se produzcan estimaciones de velocidad más precisas y robustas (Wernet, 2005a).
Metodologías alternativas han sido desarrolladas con el fin de dejar la dependencia del
procesamiento de imágenes de PIV utilizando correlación cruzada. M.Falchi, G.Querzoli, &
G.P.Romano (2006) proponen una técnica de velocimetría de imagen robusta (RIV), que
consiste en una medida de disimilitud entre ventanas de interrogación basada en un estimador
Loretziano en lugar de la correlación cruzada. Los autores probaron que el RIV tiene un mayor
rendimiento cuando existen mayores niveles de ruido y turbulencia. También se han realizado
40
2. Metodología propuesta
Como se dijo anteriormente las técnicas tradicionales de PIV pueden entregar datos erróneos e
imprecisos ante la presencia de gradientes fuertes de velocidad, ruidos aditivos en la imagen,
41
fuga de partículas en los bordes de las ventanas de interrogación, entre otros. Por ende en este
capítulo se describe una técnica de análisis de imágenes PIV, que permita obtener datos de
velocidad con mayor precisión, a un menor coste computacional. La metodología propuesta se
basa en los conceptos de la transformada wavelet en compresión de imágenes y la correlación
de fase para el procesamiento de imágenes de PIV.
Para hallar la transformada Wavelet de una función de dos dimensiones es necesario definir las
funciones de escalamiento de dos dimensiones φ(𝑥, 𝑦) y tres Wavelet de dos dimensiones
asociada, denotadas ψ𝐻 , ψ𝑉 𝑦 ψ𝐷 . . Cada una de las funciones wavelet representa el producto
de una función φy su correspondiente Wavelet ψ. En las ecuaciones (1) a (4) se muestran los
productos obtenidos.
Estas Wavelet miden las variaciones de los niveles de grises a lo largo de diferentes
direcciones: ψ𝐻 Variación a lo largo de las columnas, ψ𝑉 variación a lo largo de las filas y
ψ𝐷 variación a lo largo de la diagonal.
funciones bases de escalado y traslación como se muestra en las ecuaciones (5) y (6). (Gonzalez
& Woods, 2008)
𝑗
ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) = 22 𝛹(2𝑗 𝑥 − 𝑚, 2𝑗 𝑦 − 𝑛), 𝑖 = {𝐻, 𝑉, 𝐷} (5)
𝑗
φ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) = 22 φ(2𝑗 𝑥 − 𝑚, 2𝑗 𝑦 − 𝑛). (6)
Donde i identifica la dirección de la wavelet descritas en las ecuaciones (2) a (4). De esta
manera la transformada wavelet discreta de la función 𝑓(𝑥, 𝑦) de tamaño MxN es la mostrada
en las ecuaciones (7) y (8).
𝑀−1 𝑁−1
1
𝑊φ (𝑗0 , 𝑚, 𝑛) = ∑ ∑ 𝑓(𝑥, 𝑦) φ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) (7)
√𝑀𝑁 𝑥=0 𝑦=0
𝑀−1 𝑁−1
1
Wψ𝑖 (𝑗, 𝑚, 𝑛) = ∑ ∑ 𝑓(𝑥, 𝑦) ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) , 𝑖 = {𝐻, 𝑉, 𝐷} (8)
√𝑀𝑁 𝑥=0 𝑦=0
Tal que 𝑗0 es una escala inicial arbitraria y los coeficientes 𝑊φ (𝑗0 , 𝑚, 𝑛) definen una
aproximación de 𝑓(𝑥, 𝑦) a escala 𝑗0 . Los coeficientes Wψ𝑖 (𝑗, 𝑚, 𝑛) agregan detalles
horizontales, verticales y diagonales para escalas 𝑗 ≥ 𝑗0 . Normalmente 𝑗0 = 0 y se selecciona
𝑁 = 𝑀 = 2𝑗 tal que 𝑗 = 0,1,2, … , 𝐽 − 1 y 𝑚, 𝑛 = 0,1,2, … , 2𝑗 − 1. Dado 𝑊φy Wψ𝑖 , 𝑓(𝑥, 𝑦) se
obtiene vía transformada Wavelet discreta inversa, se muestra en (9):
𝑀−1 𝑁−1
1
𝑓(𝑥, 𝑦) = ∑ ∑ 𝑊φ (𝑗0 , 𝑚, 𝑛) φ𝑗0,𝑚,𝑛 (𝑥, 𝑦)
√𝑀𝑁 𝑚=0 𝑛=0
∞
1
+ ∑ ∑ ∑ ∑Wψ𝑖 (𝑗, 𝑚, 𝑛) ψ𝑖𝑗,𝑚,𝑛 (𝑥, 𝑦) (9)
√𝑀𝑁 𝑖=𝐻,𝑉𝐷 𝑗=𝐽0 𝑚 𝑛
La DWT bidimensional mostrada en (9), puede ser implementada usando filtros digitales y
decimadores. Con funciones de escalamiento y wavelet bidimensionales separables, se toma la
DWT unidimensional de las filas de 𝑓(𝑥, 𝑦) seguido por la DWT unidimensional de las
columnas. En la Figura 15, se puede observar el diagrama de proceso que utiliza la
transformada Wavelet en señales de dos dimensiones. La convolución de las filas con los filtros
ℎψ (−𝑛) y ℎφ (−𝑛) (pasa alto y pasa bajo respectivamente) con decimación de las columnas
43
genera dos subimágenes con resolución horizontal reducida en un factor de 2. El filtro pasa alto
o componente de detalle caracteriza la información de alta frecuencia de la imagen con
orientación vertical y el pasa bajo aproxima componentes con bajas frecuencias en la
componente vertical. Posteriormente ambas sub imágenes se filtran en forma de columnas y se
muestrean de forma descendente para obtener sub imágenes de salida de cuatro cuartos de
tamaño. Es importante aclarar que este procedimiento se puede realizar de manera iterativa
hasta que el diseñador considere un tamaño pertinente. En la Figura 16 se puede observar dos
iteraciones del proceso de filtrado, de esta manera se obtiene una descomposición Wavelet de
segundo nivel. En la literatura se conoce el recuadro blanco 𝑊φ como el coeficiente de
aproximación y ψ𝐻 , ψ𝑉 𝑦 ψ𝐷 como los coeficientes de detalle horizontal, vertical y diagonal,
respectivamente.
Figura 16. Resultado de la descomposición Wavelet. Cuadro del medio (descomposición de un solo nivel) y
Cuadro de la izquierda (descomposición de segundo nivel)
44
El autor Li (2003) ha demostrado que las bases de onda alta (alto número de coeficientes
Wavelet) proporcionan buen rendimiento para la compresión, ya que tienen una buena
localización de frecuencia que a su vez aumenta la compactación de energía. En particular, las
bases Wavelet Daubechies son muy utilizadas, debido a su propiedad de formar bases
ortonormales (Weng, et al., 2001). Dada esta condición, se asegura la independencia de la
representación de la señal en los diferentes niveles, de tal manera que se evita la aparición de
información falsa. Además, las bases Daubechies permiten calcular la transformada Wavelet
mediante un algoritmo menos complejo, con un bajo costo computacional y numéricamente
estable, lo cual las hace eficientes frente a las bases no ortonormales.
visualmente. Finalmente los coeficientes serán racionales para evitar operaciones de punto
flotante.(Fournier & Castro, 1997)
Figura 17. Diagrama de proceso de correlación cruzada modificado para su implementación como
técnica de filtrado espacial adaptado.
46
Uno de los métodos de correlación de fase incluye una transformación gaussiana (GTPC).
Fundamentalmente esta técnica incluye enmascaramiento de las imágenes en el dominio
espacial para eliminar efectos de bordes, realiza filtrado de fase de la correlación cruzada para
suavizar y utiliza transformaciones gaussianas de la correlación de fase para garantizar
precisión subpixel mediante la implementación de estimaciones gaussianas de tres
puntos.(Eckstein et al., 2008)
Se han implementado otras técnicas de correlación de fase robusta (RPC) capaces de reducir
sustancialmente los errores. El RPC también utiliza avanzadas técnicas de ventaneo para
atenuar los errores basados en Fourier. Se diferencia de la técnica de correlación de fase con
transformada gaussiana fundamentalmente porque GTPC incorpora un filtro de suavizado
adicional para optimizar el estimador subpixel. En cambio en RPC se enmascara la correlación
utilizando un modelo analítico de la relación señal a ruido (Eckstein & Vlachos, 2009). Al
combinar el uso de filtros espectrales con técnicas avanzadas de ventanas, el estimador RPC
elimina todo el contenido energético del espectro cruzado generando un pico de correlación
muy fuerte que aumenta la exactitud de medición de PIV.
1
𝑊𝑃𝑂𝐹 (𝑝, 𝑞) = (10)
|𝐼2 (𝑝,𝑞)|
Al introducir la ventana 𝑊𝑃𝑂𝐹 en el proceso de correlación cruzada se introduce una fase pura
con amplitud unitaria, esta tiene una respuesta similar a un filtro pasa alto, el cual tiende a
enfatizar la información de los bordes. El énfasis en alta frecuencia lo hace más sensible a los
cambios de escala y rotación. La respuesta de la amplitud unitaria en la imagen se refleja en un
aumento del nivel de ruido en el plano de correlación. Sin embargo, un aumento del nivel de
ruido en el fondo es aceptable siempre y cuando la relación entre el pico de correlación y el
pico de ruido más alto permanezca alta.
47
Para reducir los niveles de ruido generados en el plano de correlación, se propuso el filtro de
fase simétrica (SPOF), que aplica la raíz cuadrada del filtro POF a la correlación cruzada
(Wernet, 2005b). Como resultado, los componentes de frecuencias ruidosas más altas fueron
atenuados, reduciendo al mismo tiempo los efectos del ruido aditivo de fondo en la PIV. En la
ecuación (11) se muestra la ventana asociada al SPOF.
1
𝑊𝑆𝑃𝑂𝐹 (𝑝, 𝑞) = (11)
√|𝐼1 (𝑝,𝑞)||𝐼2 (𝑝,𝑞)|
El SPOF aplica una ponderación de filtro inverso que se equilibra de acuerdo al contenido de
amplitud de señal tanto en 𝐼1 como en 𝐼2 . Al igual que en el caso POF donde solo se utiliza la
función de filtro para generar una función ventana W, se obtienen buenos resultados si la escena
de entrada y la función filtro tienen magnitudes similares. El objetivo de SPOF es aplicar una
cantidad suficiente de normalización tanto al espectro de escena de entrada como al filtro de
tal manera que el contenido de alta frecuencia en cada uno se incremente junto con una
reducción del alto ruido de fondo.
A pesar de sus buenos rendimientos cuando hay objetos estacionarios, existen momentos en
los que el rendimiento de la relación señal a ruido (SNR) del SPOF es menor que la correlación
cruzada estándar para datos de buena calidad. Por ende, se propuso en (Wernet, 2006) una
técnica llamada filtro de fase simétrico automático el cual es un procesamiento óptimo que
permite determinar cuándo se requiera realmente la implementación del SPOF. Si las regiones
de interrogación contienen solo imágenes de partículas es conveniente utilizar la técnica de
procesamiento de imágenes de PIV clásica, en cambio sí existe presencia de ruido se
recomienda el SPOF.
Para reducir los efectos del ruido aditivo, se propone utilizar un término de peso SNR, este se
halla con una descomposición analítica de las señales de PIV. Este término puede ser conocido
como el radio del espectro de potencia de las señales de imágenes de partículas y los espectros
de potencia de las señales ruido (Eckstein & Vlachos, 2009). Es importante aclarar que para
utilizar este término de peso es fundamental conocer el proceso de grabación de las imágenes.
El SNR es computado como se muestra en la ecuación (12).
𝑑2 𝑘2
−
𝑆𝑁𝑅(𝑘) = 𝑒 16 (12)
48
Tal que 𝑅(𝑥0 , 𝑦0 ) hace referencia al pico de correlación más alto ubicado en las coordenadas (𝑥0 , 𝑦0 ).
Figura 18. Diagrama de flujo del algoritmo hibrido transformada wavelet con correlación de fase.
3. Resultados
casos de estudio, dos con bases de datos de imágenes sintéticas y tres bases de datos de
imágenes experimentales.
Inicialmente, se decide realizar un análisis de los datos al variar la tasa de compresión, tal que
se reconstruyen las imágenes de PIV con un nivel de descomposición (25% de los coeficientes
totales), dos niveles de descomposición (6.25% de los coeficientes totales) y tres niveles de
descomposición (1.32% de los coeficientes totales). Adicionalmente se utilizan diferentes
funciones bases para realizar la descomposición de la transformada Wavelet, de tal manera que
se pueda concluir qué base genera los resultados de correlación más precisos.
Vórtice fuerte
En la Figura 19, se muestran las imágenes de prueba utilizadas. Estas fueron grabadas en el
túnel de viento Alemán-Holandés DNW-LLF por el centro aeroespacial alemán (DLR), con el
fin de estudiar experimentalmente la formación de vórtices de estela detrás de un avión de
transporte (Stanislas, Okamoto, & Kähler, 2003). La imagen tiene un tamaño de 1280x1018
pixeles. Presenta gradientes fuertes, perdida de densidad de imagen y tamaños de imagen de
partículas variables.
6
x 10
5
db2
Maximo coeficiente de correlación para una
4.5 db4
db10
db20
4 db30
ventana de interrogación
db45
3.5 coif1
coif2
3 coif4
sym2
sym4
2.5
bior 1.1
bior 2.2
2 bior 6.8
1.5
0.5
0
5 10 15 0 20 25
Porcentaje coeficientes Wavelet
Figura 20. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del vórtice fuerte utilizando una ventana de interrogación con densidad de partículas baja.
52
6
x 10
9
db2
ventana de interrogación
db45
coif1
6 coif2
coif4
5 sym2
sym4
bior 1.1
4 bior 2.2
bior 6.8
3
0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 21. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del vórtice fuerte utilizando una ventana de interrogación con densidad de partículas alta.
En Figura 22, se observa la imagen de PIV reconstruida con cuatro niveles diferentes de
descomposición: 25%, 6.25%,1.56% y 0.39% del total de coeficientes Wavelet de la imagen
original, respectivamente. Como es de esperarse, al disminuir la cantidad de coeficientes
Wavelet, las imágenes reconstruidas poseen menor calidad. También se muestra en la Figura
23 los respectivos campos vectoriales de las imágenes de PIV cuando se varía la tasa de
compresión de las imágenes. De manera cualitativa se puede observar que al disminuir el
porcentaje de coeficientes Wavelet, se aumenta la cantidad de vectores espurios. Para realizar
un análisis cuantitativo de los vectores erróneos generados, se comparan los perfiles de
velocidad en U y V a lo largo de Y=512 y X variable, del campo de velocidad original vs el
campo de la imagen comprimida con dos niveles de descomposición Wavelet diferentes. En la
Figura 24, se muestra que los pixeles asociados al interior del vórtice presentan diferencias
considerables entre el perfil de velocidad de la imagen original y los perfiles asociados a las
imágenes reconstruidas con 25% y 6,25% de los coeficientes totales. Además se presenta en la
Figura 25 el histograma del error asociado al perfil de velocidad para Y=512 y X variable, tanto
para U como para V, siendo más significativos los errores del perfil vertical. Se observa que
los perfiles del vórtice fuerte utilizando compresión de imágenes siempre se aproximan a la
magnitud par más cercana del valor original, esto se debe a que la transformada Wavelet se
basa en una descomposición en potencias de dos. Dado este comportamiento se decide
53
Y (pixeles)
150
200 100
250
300 150
350
400 200
450
500 250
100 200 300 400 500 600 50 100 150 200 250 300
X (pixeles) X (pixeles)
Coeficientes de aproximación para nivel 3 Coeficientes de aproximación para nivel 4
20 10
20
Y (pixeles)
Y (pixeles)
40
30
60
40
80
50
100
60
120
70
X (pixeles) X (pixeles)
Figura 22. Imágenes reconstruidas con diferente tasas de compresión utilizando la base Coifle 2: Tasa de
compresión del 25% de los coeficientes Wavelet., 6.25%, 1.56% y 0.39% de los coeficientes Wavelets.
Figura 23. (a) Campo de velocidad sin realizar compresión con ventana de interrogación de 32x32, (b) Campo
de velocidad de reconstruida con el 25% de los coeficientes Wavelets con ventanas de interrogación de
16x16pixeles y (c) reconstruida con el 6.25% de los coeficientes Wavelets del vórtice fuerte con ventana de
interrogación de 8x8.
54
Figura 24. Comparación de los perfiles de velocidad U (izquierda) y V (derecha) a lo largo de Y=512 y X
variable utilizando diferentes niveles de descomposición Wavelets para la base Coifle 2 en el caso del vórtice
fuerte.
14 16
12 14
12
10
10
Frecuencia
Frecuencia
8
8
6
6
4
4
2 2
0 0
0 2 4 6 8 0 2 4 6 8
Error U (pixel/frame) Error V (pixel/frame)
Figura 25. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle 2 en el caso del
vórtice fuerte.
Figura 26. Comparación de los perfiles de velocidad U y V a lo largo de X=512 y Y variable utilizando
diferentes niveles de descomposición Wavelets para la base Coifle de orden 2, en el caso del vórtice fuerte con
interpolación subpixel.
18 14
16
12
14
10
12
Frecuencia
Frecuencia
10 8
8 6
6
4
4
2
2
0 0
0 2 4 6 8 0 2 4 6 8
Error U (pixel/frame) Error V (pixel/frame)
Figura 27. Histograma de errores de los perfiles de velocidad U y V a lo largo de X=512 y Y variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle de orden 2, en el
caso del vórtice fuerte con interpolación subpixel.
56
30 15
Error U (pixel/frame)
Error V (pixel/frame)
20 10
10 5
0 0
1500 1500
1000 1000 1000 1000
25 40
Error U (pixel/frame)
Error V (pixel/frame)
20
30
15
20
10
10
5
0 0
1500 1500
1000 1000 1000 1000
Flujo jet
El segundo caso de estudio utiliza las imágenes de la Figura 30, tomadas de Stanislas et al.
(2005) , las cuales hacen parte de un experimento real en el que las partículas no son mono-
dispersas, ni perfectamente gaussianas. Los perfiles de intensidad de los dos pulsos láser no
son idénticos y las imágenes contienen componentes de ruido aleatorio y de fondo.
57
En las Figura 31 y Figura 32, se observan unas gráficas similares a las del caso del vórtice
fuerte, donde se valida el comportamiento de la correlación cruzada al utilizar distintas tasas
de compresión y bases Wavelets en el caso del flujo turbulento. Se analizaron los máximos
coeficientes de correlación de dos ventanas de interrogación, una de las zonas está ubicada en
la esquina superior de la imagen donde las velocidades son cercanas a cero y otra al interior del
chorro turbulento. Las gráficas analizadas muestran que las bases de menor orden son las que
generan los picos de correlación más altos. En este caso la base coifle 1 y symlets 2 fueron las
que generaron los mejores resultados.
5
x 10
12
db2
Maximo coeficiente de correlación para una
db4
db10
10 db20
db30
db45
ventana de interrogación
coif1
8 coif2
coif4
sym2
sym4
6 bior 1.1
bior 2.2
bior 6.8
4
0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 31. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del flujo Jet en una ventana de interrogación con velocidades cercanas a cero.
58
6
x 10
3.5
db2
db4
0.5
0
0 5 10 15 20 25
Porcentaje coeficientes Wavelet
Figura 32. Coeficientes de correlación vs tasas de compresión con distintas bases Wavelet en el caso de estudio
del flujo Jet en una ventana de interrogación al interior del chorro turbulento.
Se presenta en la Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con
ventanas de interrogación de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes
Wavelets con ventanas de interrogación de 16x16 pixeles(derecha).
el campo de velocidades asociado al flujo jet calculado con la imagen original y con la imagen
comprimida en un 25%. Se evidencia visualmente que el campo de velocidades calculado con
el algoritmo de la transformada Wavelet es capaz de corregir errores sin recurrir a métodos de
post procesamiento. Adicionalmente la dinámica del fluido es más clara en este caso que en el
campo vectorial de la imagen original. También se presentan las comparaciones de los perfiles
de velocidad y sus histogramas, en las Figura 34 y Figura 35, respectivamente. Las
estimaciones de los perfiles U y V presentan en general errores inferiores a los 0,4 px/frame y
la estimación de la componente V en el caso de la descomposición Wavelet de orden 2 (6.25%
de los coeficientes Wavelet) es la que presenta mayores discrepancias con la metodología
clásica.
59
Figura 33. Campo de velocidades asociados al flujo jet con imágenes originales con ventanas de interrogación
de 32x32 pixeles (izquierda) e imágenes reconstruidas con el 25% de los coeficientes Wavelets con ventanas de
interrogación de 16x16 pixeles(derecha).
Figura 34. Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable utilizando diferentes
niveles de descomposición Wavelets para la base Coifle 2 en el caso del flujo jet con interpolación subpixel en
los picos de correlación.
60
16 14
14 12
12
10
10
Frecuencia
Frecuencia
8
8
6
6
4
4
2 2
0 0
0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5
Error U (pixel/frame) Error V (pixel/frame)
Figura 35. Histograma de errores de los perfiles de velocidad U y V a lo largo de Y=512 y X variable del campo
original vs el campo reconstruido con 25% de coeficientes Wavelets utilizando la base Coifle 1 en el caso del
vórtice fuerte
Es importante resaltar que para obtener unos datos precisos utilizando imágenes comprimidas
por transformada Wavelet es necesario utilizar un estimador de interpolación subpixel en el
cálculo de la correlación, esto con el fin de disminuir la incertidumbre de los vectores de
velocidad cuando sus magnitudes son impares. Después de analizar estos dos casos de estudio
se decide realizar las compresiones Wavelet con bases ortogonales de órdenes pequeños. Por
tanto los casos de estudio utilizados para analizar el desempeño de la metodología basada en
compresión de imágenes de PIV y correlación de fase, se trabajarán con la base Coifle de orden
uno y se utilizará una descomposición de un solo nivel para garantizar una mayor precisión de
los datos.
En la Figura 36, se observa el campo de velocidades asociado a un flujo lineal con velocidad
constante. Se decide asignar una magnitud impar a los vectores de velocidad, para verificar la
precisión de los datos al utilizar algoritmos de compresión basados en descomposición
Wavelet. Se generaron las imágenes sintéticas de un tamaño de 600 x 800 pixeles, velocidad
máxima de 5 px/frame utilizando diferentes parámetros: Tres casos de estudio con 2.000.000
partículas por imagen y variación del nivel del ruido (0.001,0.01 y 0.1). Adicionalmente se
generaron otros tres casos, variando la densidad de partículas (1.000.000,2.000.000 y 3.000.000
partículas por imagen) y dejando constante el nivel de ruido. Se realiza el comparativo entre el
algoritmo de correlación cruzada sobre la imagen original (DCC imagen original), el algoritmo
de correlación cruzada en imagen comprimida en un 25% (DCC + TW 25%) y el algoritmo
híbrido de correlación de fase con imagen comprimida en una cuarta parte del tamaño original
(GTPC + TW 25%). Para esto se hizo un análisis del ancho máximo de los picos de correlación,
la relación señal a ruido (SNR) y la localización de los máximos picos de correlación en el caso
de una ventana de interrogación.
62
100
200
Y (pixeles)
300
400
500
600
100 200 300 400 500 600 700 800
X (pixeles)
Figura 36. Campo de velocidades flujo con velocidad constante de 5 px/frame.
En la Tabla 1 se muestran los resultados del análisis realizado. Se observa que la SNR de los
datos obtenidos con el algoritmo híbrido de correlación de fase y compresión de imágenes,
presentan en general los valores más altos de SNR (4 casos de 6). También presenta los anchos
del pico de correlación más pequeños. En general, el algoritmo propuesto realiza una buena
estimación de la localización del máximo pico de correlación, solo en el caso de la variación
del nivel de ruido al 0.1 % se presenta una diferencia entre el valor real de la componente de
velocidad U y el valor estimado con la técnica de transformada wavelet con correlación de fase
de 0.4 px/frame.
63
Tabla 1. Comparación de resultados del flujo con velocidad constante utilizando tres algoritmos de PIV
diferentes.
Vórtice de Rankine
Este caso de estudio se basa en un vórtice de Rankine generado con imágenes de partículas
sintéticas del software PIVlab. Las imágenes tienen un tamaño de 800x600 pixeles,
contiene 2.000.000 de partículas con un diámetro de 3 pixeles. Representa un vórtice simple
cuyo desplazamiento máximo será de 5 pixeles, su núcleo está ubicado en la coordenada
(200,300 pixeles) y su radio principal es de 100 pixeles.
100
200
Y (pixeles)
300
400
500
600
100 200 300 400 500 600 700 800
X (pixeles)
Figura 37. Campo de velocidades vórtice de Rankine generado utilizando el algoritmo clásico de correlación
cruzada (azul) y el algoritmo hibrido de correlación de fase con transformada Wavelet (Rojo) con ventanas de
32x32 pixeles.
65
Figura 38. Perfil de velocidad U (izquierda) y perfil de velocidad V (derecha) a lo largo de Y variable y X=176
del vórtice de Rankine utilizando diferentes algoritmos de procesamiento de imágenes de PIV.
8 9
7 8
7
6
6
5
Frecuencia
Frecuencia
5
4
4
3
3
2
2
1 1
0 0
0 0.1 0.2 0.3 0.4 0 0.2 0.4 0.6 0.8
Error U (pixel/frame) Error V (pixel/frame)
Figura 39. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del vórtice de
Rankine.
66
0.8 0.8
Error U (pixel/frame)
Error V (pixel/frame)
0.6 0.6
0.4 0.4
0.2 0.2
0 0
1000 1000
600 600
500 400 500 400
200 200
0 0 Y X Y 0 0 X
Figura 40. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab y el algoritmo
de correlación de fase con imagen comprimida del caso de estudio del vórtice de Rankine.
Vórtice fuerte
Este caso de estudio vuelve a utilizar el vórtice fuerte descrito en la Figura 19, anteriormente
fue utilizado para analizar el comportamiento del algoritmo de correlación cruzada cuando se
varían los niveles de descomposición Wavelet. En este caso se comparan los resultados
obtenidos al procesar dichas imágenes tanto con el software PIVlab como con los algoritmos
de correlación cruzada y de fase con imagen comprimida al 25%. En la Figura 41 se muestra
el campo de velocidades obtenido con ambas metodologías.
Al igual que en el caso del vórtice de Rankine se realiza un análisis de los perfiles de velocidad
U y V en una poli línea del campo de velocidades. En este caso se traza en Y variable y X=512,
como puede verse en la Figura 42. Se evidencia que tanto el perfil horizontal como el vertical
estimados con las diferentes técnicas poseen magnitudes similares, a excepción del algoritmo
de correlación cruzada con imagen comprimida al 25% que presenta vectores erróneos al
interior del vórtice.
67
100
200
300
400
Y (pixeles)
500
600
700
800
900
1000
200 400 600 800 1000 1200
X (pixeles)
Figura 41. Campo de velocidades del vórtice fuerte utilizando el algoritmo de correlación cruzada con imagen
original (azul) y el algoritmo de correlación de fase con imagen comprimida (rojo).
Figura 42. Perfiles de velocidad U y V a lo largo de y variable y X=512 del vórtice fuerte utilizando diferentes
algoritmos de procesamiento de imágenes de PIV.
68
8 12
7
10
6
8
5
Frecuencia
Frecuencia
4 6
3
4
2
2
1
0 0
0 0.2 0.4 0.6 0.8 1 0 0.5 1 1.5
Error U (pixel/frame) Error V (pixel/frame)
Figura 43. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del vórtice
fuerte.
15 40
Error U (pixel/frame)
Error V (pixel/frame)
30
10
20
5
10
0 0
1500 1500
1000 1000 1000 1000
Flujo jet
Para este caso se utilizan las imágenes de la Figura 30. Se realiza el mismo análisis que los
casos de estudio anteriores, si comparamos los resultados de las Figura 45 y Figura 46 con los
resultados mostrados en Figura 34, se observa que con la implementación de la técnica de
correlación de fase en vez de la correlación cruzada en imagen comprimida al 25%, se generan
datos más parecidos a los entregados por la técnica de correlación cruzada con imagen original,
los errores tanto para la componente U como V en general no superan los 0,4 px/frame.
También se muestra en la Figura 47 los errores de las componentes U y V en toda la imagen,
las mayores diferencias se encuentran en posiciones donde el algoritmo clásico tiene vectores
erróneos cuyas magnitudes difieren mucho de las de sus vecinos, a diferencia de los datos
entregados por la nueva metodología que presenta una menor cantidad de vectores espurios
evidentes.
70
Figura 45.Comparación del perfiles de velocidad U y V a lo largo de x=512 y Y variable en el caso del flujo jet
con interpolación subpixel en los picos de correlación utilizando diferentes algoritmos de procesamiento de
imágenes de PIV.
14 15
12
10
10
Frecuencia
Frecuencia
5
4
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.2 0.4 0.6 0.8 1
Error U (pixel/frame) Error V (pixel/frame)
Figura 46. Histograma del error entre los resultados obtenidos con PIVlab y el algoritmo de correlación de fase
con imagen comprimida para los perfiles de velocidad U y V a lo largo de Y variable y X=176 del flujo jet.
.
71
15 25
Error U (pixel/frame)
Error V (pixel/frame)
20
10
15
10
5
5
0 0
1000 1000
1000 1000
500 500
500 500
Y 0 0 X Y 0 0 X
Figura 47. Error entre las componentes de velocidad (U y V) de los campos estimados con PIVlab y el algoritmo
de correlación de fase con imagen comprimida del caso de estudio del vórtice fuerte.
Figura 48. Montaje experimental del sistema PIV de bajo costo ubicado en el Laboratorio de Hidráulica de la
Universidad Nacional de Colombia.
Se propone analizar la velocidad del fluido en fondo plano, para este caso las mediciones del
ADV y el DFM fueron de alrededor de 18 cm/s para la componente U. En el caso del PIV se
tomaron fotografías a una tasa de 400 FPS y se analizan 984 frames. En la Tabla 2, se observa
un comparativo entre las velocidades medias y el valor RMS obtenido entre el algoritmo clásico
de correlación cruzada y la nueva metodología basada en correlación de fase en imágenes
comprimidas. Se observa que la metodología de correlación de fase en imágenes comprimidas
presenta los valores de velocidad media más parecidos a los datos entregados por el ADV y el
DFM, con errores absolutos de 3,3 y 0,08 cm/s. En la Figura 49 se muestra el campo de
velocidades obtenido con ambas metodologías.
Tabla 2. Comparación de las velocidades medias utilizando distintas técnicas de medición para el caso de
estudio propio.
Figura 49. Campos de velocidades obtenido con técnica de correlación cruzada en imagen original (roja) y
correlación de fase en imagen comprimida (Amarilla).
Se observa que los menores tiempos computacionales obtenidos con la metodología propuesta
en comparación con el algoritmo clásico, fueron los de los casos del flujo jet con base de datos
de 200 imágenes y el caso propio con 984 imágenes, tal que se redujo en un 56% y 41% el
tiempo computacional respectivamente. Sin embargo en los casos de estudio donde se utilizó
solo un par de imágenes de análisis, el rendimiento computacional promedio con el algoritmo
basado en correlación de fase fue igual o superior al tiempo de la metodología estándar, esto
se debe fundamentalmente al coste computacional del algoritmo de compresión de imágenes.
Es importante resaltar que este análisis se realizó únicamente con un tamaño de ventana de
interrogación, pero típicamente cuando se realiza experimentación con sistemas PIV se realizan
pruebas con distinto tamaño de resolución espacial (64x64 ,32x32 y 16x16 pixeles). En la
tres veces , solo se requiere realizar el procedimiento de compresión de imágenes una vez, por
tanto los tiempos computacionales obtenidos al utilizar la metodología de correlación de fase
en imagen comprimida se reducen alrededor de un 42% en comparación con la correlación
cruzada. De esta manera se comprueba que la implementación del algoritmo híbrido propuesto
garantiza un mayor rendimiento computacional que la técnica clásica.
Tabla 3. Comparación del desempeño computacional de los diferentes casos de estudio utilizando la técnica
clásica de correlación y la metodología propuesta de correlación de fase con imagen comprimida por
transformada Wavelet.
Tiempo total
Número Tiempo
Tiempo DCC en Tiempo GTPC + Descomposición
Caso de estudio Caso de descomposición
imagen original TW 25% Wavelet +
Estudio Wavelet
GTPC+TW 25%
0,9 0,6 0,4 1,0
0,6 0,7 0,4 1,0
1.1
0,7 0,7 0,4 1,1
Flujo constante con 0,6 0,6 0,4 1,0
magnitud impar 1,1 1,3 0,4 1,7
0,7 1,3 0,4 1,7
2.3
0,6 1,0 0,5 1,5
0,6 0,6 0,4 1,0
Desempeño promedio 0,6 0,7 0,4 1,1
1,7 0,6 0,8 1,5
1,7 0,6 0,8 1,4
Vórtice de Rankine 1
1,6 0,6 0,9 1,5
2,1 0,6 0,9 1,4
Desempeño promedio 1,8 0,6 0,9 1,5
1,8 1,0 1,1 2,1
1,8 1,0 1,0 2,1
Vórtice fuerte 1
1,6 1,1 1,0 2,0
1,7 1,0 1,3 2,3
Desempeño promedio 1,7 1,0 1,1 2,1
1,9 1,0 0,8 1,8
1,9 0,9 0,7 1,6
Flujo jet 1
1,9 1,0 0,8 1,9
2,3 0,9 0,7 1,6
Desempeño promedio 2,0 0,9 0,8 1,7
867,7 174,6 192,6 367,2
764,0 147,0 193,4 340,4
Flujo jet con 200 imágenes 1
540,0 93,9 157,5 251,4
499,0 70,4 145,2 215,6
Desempeño promedio 2670,7 485,9 688,7 1174,6
176,6 15,8 90,3 106,1
Caso de estudio propio con 180,0 16,6 86,0 102,6
1
984 imágenes 193,7 18,4 91,9 110,3
190,0 15,9 98,6 114,5
Desempeño promedio 185,1 16,7 91,7 108,4
75
Tabla 4. Comparación rendimiento computacional de las técnicas de correlación de fase y correlación cruzada
en imagen comprimida al realizar tres variaciones del tamaño de la ventana de interrogación en el caso del
vórtice de Rankine.
Tiempo total
Tiempo
Tamaño ventana de Tiempo DCC en imagen Tiempo GTPC + Descomposición
descomposición
interrogación original TW 25% Wavelet +
Wavelet
GTPC+TW 25%
64x64 0,97 0,6 0,25 0,9
32x32 1,09 0 0,33 0,3
16x16 1,6 0 0,86 0,9
Tiempo Total 3,64 - - 2,1
4. Discusión y conclusiones
Aunque (Hui Li, 2003) afirma que las bases Wavelet de ondas altas son las que generan los
resultados de PIV más precisos, en este artículo se verifica que esto depende de la calidad de
las imágenes. En el caso de imágenes de PIV donde se cuenta con una baja densidad de
partículas se concluyó que las bases Wavelet de menor orden generan los picos de correlación
más altos, al igual que en flujos turbulentos. Aunque en ventanas de interrogación con alta
densidad de partículas, las bases Wavelet de orden alto fueron las que entregaron los mejores
resultados. De igual manera al realizar un análisis de las bases de descomposición Wavelet en
dos casos de estudio, se determinó que las bases Coifle de menor orden son una de las mejores
opciones para garantizar buenos resultados de correlación en sistemas PIV. También se
comprobó que los resultados de PIV en imágenes comprimidas, son más precisos cuando se
utiliza la correlación de fase que la correlación cruzada.
Una de las características más importantes de la correlación de fase se vio en el caso de estudio
sintético del flujo de magnitud constante impar, en donde las comparaciones del ancho de pico
76
de correlación, dieron como resultado picos de correlación más nítidos que los de la correlación
cruzada, sin necesidad de introducir el bloqueo de picos.
Después de realizar un análisis comparativo entre las técnicas de correlación cruzada en imagen
original y correlación de fase en imagen comprimida, se concluye que la técnica tradicional
obtiene datos más precisos en imágenes sintéticas que la nueva metodología. Sin embargo en
presencia de ruido de fondo y objetos, se recomienda utilizar la correlación de fase puesto que
los picos de correlación en dichos casos son más nítidos. Adicionalmente se realiza corrección
de algunos vectores espurios sin la necesidad de utilizar técnicas de post procesamiento.
5. Agradecimientos
6. Referencias
4. Paper 2
Resumen
1. Introducción
La medición de la velocidad de flujos es de gran importancia. Existen diferentes técnicas para
medir dicha variable. Se destacan metodologías como la de los sistemas PIV, debido a que es
una herramienta de visualización de flujo cuantitativa, no intrusiva al medio, que permite
obtener campos de velocidades en múltiples direcciones (2D y 3D).
Laser
Óptica
Fluido
Cámara
Partículas
Figura 50. Montaje típico de sistemas PIV.
Adicional a los errores ya mencionados, se pueden presentar otro tipo de errores debido a la
inadecuada configuración del montaje físico, como la mala distribución espacial de partículas,
79
Los vectores espurios no solo pueden ser eliminados después de realizar la etapa de
procesamiento de las imágenes. Dentro del análisis de las imágenes también es posible
efectuar esta tarea. Esto se logra mediante la multiplicación de las tablas de correlación
generadas de las regiones adyacentes, de tal manera que los valores que no aparecen en dicha
tabla se eliminan. Este método de corrección corresponde esencialmente al cálculo de la
correlación de la correlación, de modo que se reducen errores de sesgo que mejoran la
resolución espacial (Hart, 1998c).
∇ ∙ 𝑉 = 0 (15)
𝑚+1 𝑛+1
Sujeto a
𝑚+1 𝑛+1
1
𝑢̂𝑚,𝑛 = (( ∑ ∑ (𝑢𝑖,𝑗 + 𝜀_𝑢
̂ 𝑖,𝑗 ) ) − 𝑢𝑛,𝑚 − 𝜀_𝑢
̂ 𝑛,𝑚 ) (18)
𝐿
𝑗=𝑚−1 𝑖=𝑛−1
𝑚+1 𝑛+1
Sujeto a
81
𝑚+1 𝑛+1
1
𝑣̂𝑛,𝑚 = (( ∑ ∑ (𝑣𝑖,𝑗 + 𝜀_𝑣
̂ 𝑖,𝑗 ) ) − 𝑣𝑛,𝑚 − 𝜀_𝑣
̂ 𝑛,𝑚 ) (21)
𝐿
𝑗=𝑚−1 𝑖=𝑛−1
Donde
𝜀𝑢 ∈ ℝ𝑛𝑥𝑚 , Corrección del valor real de la componente de velocidad 𝑢 respecto a sus vecinos.
̂
𝜀̂𝑣 ∈ ℝ𝑛𝑥𝑚 , Corrección del valor real de la componente de velocidad 𝑣 respecto a sus vecinos.
ℎ(𝑥) = 0 (23)
En la Figura 51, se observa el diagrama de flujo del algoritmo diseñado para encontrar la
mínima divergencia de los vectores de velocidad y a su vez para corregir los vectores erróneos
del campo de velocidades obtenido.
Figura 51. Diagrama de flujo algoritmo para corrección de vectores con criterio de mínima divergencia.
3. Casos de estudio
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800 1000 1200
X
Figura 53. Campo de velocidades original vórtice fuerte.
400
450
500
550
Y
600
650
700
400 450 500 550 600 650 700 750 800
X
Figura 54. Campo de velocidades en el núcleo del vórtice.
85
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800 1000 1200
X
Figura 55. Campo de vectores corregido vórtice fuerte.
400
450
500
550
Y
600
650
700
400 450 500 550 600 650 700 750 800
X
Figura 56. Campo de vectores en el núcleo del vórtice después de corregir vectores erróneos.
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800 1000 1200
X
Figura 57. Vectores del campo de velocidad con datos erróneos del vórtice fuerte.
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800 1000 1200
X
Figura 58. Campo de velocidades después de corregir vectores erróneos del vórtice fuerte.
87
Para realizar un analisis de los datos obtenidos, se comparan los perfiles de desplazamiento
horizontal y vertical del campo de velocidad original vs los perfiles de la distribución de
velocidades post procesada, para X variable y Y=512. Se elige esta línea de ubicación porque
en el núcleo de vórtice es donde existe mayor ambigüedad en los datos, por la inadecuada
distribución de las partículas en esta zona. En las Figura 59 y Figura 60, se muestra la
comparación de las componentes reales vs corregidas, la componente U del vórtice presenta
en general un desfase entre los datos comparados de 0.5 pixeles/frame. Es importante resaltar
que a pesar de que solo se incorporaron algunos vectores aleatorios, todo el campo de
velocidades puede experimentar algún tipo de corrección debido a la recursividad del método.
Respecto a la componente V post procesada se tiene un perfil bastante similar al perfil de los
datos originales. Sin embargo, presenta una diferencia entre el perfil original y post procesado
de 4 pixeles/frame al interior del núcleo.
Estos resultados se corroboran en Figura 61, donde se observan los errores de las componentes
de velocidad punto a punto obtenidas para la polilinea propuesta. Estos se calcularon de
acuerdo a las ecuaciones (24) y (25). Tambien se evidencia que en la componente del centro
del vórtice es donde se obtienen los errores más alto de todo el campo de velocidades.
Tal que
u(i,j) es el valor de la componente horizontal en la coordenada (i,j).
v(i,j) es el valor de la componente horizontal en la coordenada (i,j).
vertical, se observa que en general los vectores divergen más que los de la componente U,
aunque presenta una menor desviación estandar de los datos.
1.8
1.6
1.4
U (px/frame)
1.2
0.8
0.6
Señal original
0.4
Señal post procesada
0.2
200 400 600 800 1000 1200
X
Figura 59. Comparación Componente U en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos del vórtice fuerte.
2
V (px/frame)
-2
-4
-6
Señal original
Señal post procesada
-8
200 400 600 800 1000 1200
X
Figura 60. Comparación Componente V en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos del vórtice fuerte.
89
0.4 0.5
0.2 0
-0.5
0
-1
Error V (px/frame)
Error U (px/frame)
-0.2
-1.5
-0.4
-2
-0.6 -2.5
-0.8 -3
-1 -3.5
-4
-1.2
Por último, se analizan los histogramas de los errores de desplazamiento horizontal y vertical
de todo el campo de velocidades. Tal como se muestra en Figura 62 y Figura 63, más de la
mitad de los errores del campo de velocidades analizado son inferiores a 0.5 pixeles/frame.
Sin embargo, poseen algunas magnitudes de errores de hasta 6 pixeles de poca frecuencia que
podría atribuirse a los valores centrales del núcleo del vórtice, puesto que en dicho lugar el
tamaño de las partículas dificulta los cálculos de correlación.
600
500
400
Frecuencia
300
200
100
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Error U (pixeles/frame)
Figura 62. Histograma del error asociado a la componente de velocidad U del campo de velocidad del vórtice
fuerte.
90
500
450
400
350
300
Frecuencia
250
200
150
100
50
0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Error V (pixeles/frame)
Figura 63. Histograma del error asociado a la componente de velocidad V del campo de velocidad del vórtice
fuerte.
Figura 64. Imágenes de prueba flujo turbulento. Tomado de (Stanislas et al., 2005)
Al igual que con el vórtice fuerte, se alteran algunos vectores del campo de velocidad, en este
caso 50 vectores son modificados para evaluar el desempeño de la metodologia implementada.
Se observa en la Figura 65 el perfil de velocidad con los datos modificados y en Figura 66 el
perfil resultante después de corregir los vectores erróneos, se evidencia que el algoritmo en
general es capaz de corregir la dirección de los datos incorrectos. Se compara los perfiles de
desplazamiento horizontal y vertical, U y V, del campo de velocidad original y el campo
corregido, para Y=512 y X variable, los resultados pueden observarse en Figura 67 y Figura
68.
91
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800
X
Figura 65. Vectores del campo de velocidad con datos erróneo del flujo turbulento.
92
100
200
300
400
500
Y
600
700
800
900
1000
200 400 600 800
X
Figura 66. Perfil de velocidad después de corregir datos erróneos del flujo turbulento.
7
Señal original
6.5 Señal post procesada
5.5
U (px/frame)
4.5
3.5
2.5
200 400 600 800 1000
X
Figura 67. Comparación Componente U en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo turbulento.
93
1.5
Señal original
Señal post procesada
1
0.5
V (px/frame)
-0.5
-1
-1.5
200 400 600 800 1000
X
Figura 68. Comparación componente V en el campo de velocidad original vs el campo de velocidades después
de corregir vectores incorrectos a lo largo de X y Y=512 del caso de flujo turbulento.
0.5
0.2
0.4
0
0.3
Error U (px/frame)
Error V (px/frame)
-0.2 0.2
-0.4 0.1
0
-0.6
-0.1
-0.8
-0.2
-1
200 400 600 800 200 400 600 800
X X
Figura 69. Error del perfil de desplazamiento horizontal (izq.) y perfil de desplazamiento vertical (der) a lo
largo de X y Y=490 del caso de flujo turbulento.
Para finalizar el análisis de resultados en el caso de estudio del flujo turbulento, se comparan
los histogramas de los errores obtenidos en todo el campo de velocidades después de realizar
el post procesarlo de los datos. Como se muestra en Figura 70 y Figura 71 las distribuciones
de ambas componentes poseen errores cercanos a cero para más de la mitad de los datos
corregidos. También se pudo validar lo planteado en la Tabla 6, en general los datos del
histograma asociado a la componente V presentan una menor dispersión que los datos de U,
de esta manera se demuestra que el algoritmo está corrigiendo acertadamente los vectores
erróneos.
94
450
400
350
300
Frecuencia
250
200
150
100
50
0
-6 -5 -4 -3 -2 -1 0 1 2
Error U (pixeles/frame)
Figura 70. Histograma del error asociado a la componente de velocidad U del campo de velocidad del flujo
turbulento.
600
500
400
Frecuencia
300
200
100
0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3
Error V (pixeles/frame)
Figura 71. Histograma del error asociado a la componente de velocidad V del campo de velocidad del flujo
turbulento.
4. Discusión y conclusiones
típicamente realizan una umbralización para determinar dichos errores. Adicional, si en una
vecindad hay varios vectores erróneos, no se logra una corrección adecuada puesto que se está
realizando el cálculo de velocidad promedio con distintos datos incorrectos. A diferencia de
la metodología propuesta en este artículo, que no requiere una umbralización de los datos, y
que dado su comportamiento iterativo para la corrección del error, es menos vulnerable a tener
distintos datos erróneos en determinada ventana de interrogación.
En cuanto al caso de estudio del vórtice fuerte, se observa que a pesar de que el tamaño de
las partículas en el núcleo del vórtice es inadecuado para los cálculos de correlación, el
algoritmo de determinación de vectores incorrectos permite obtener vectores de velocidad con
menor divergencia que los encontrados por el algoritmo clásico de PIV basado en la
correlación cruzada.
Debido a las malas condiciones de adquisición de la imagen al interior del vórtice fuerte, es
necesario desarrollar un algoritmo de tratamiento de imágenes más robusto, puesto que aun
después de implementar el algoritmo de pos-procesamiento de imágenes, el centro del vórtice
sigue teniendo vectores de velocidad imprecisos.
Los histogramas de error en ambos casos de estudio muestran que la incertidumbre de las
medidas de PIV está fuertemente concentrada en torno a 0 píxeles, lo que permite inferir que
el método propuesto minimiza el error introducido por los vectores de velocidad espurios. A
pesar de que el método propuesto puede ser menos efectivo en ciertas circunstancias (como
velocidades fuertes o tamaños variables de partículas), se presenta como una alternativa de
post-procesamiento confiable y rentable para los enfoques tradicionales de PIV.
5. Agradecimientos
Los autores agradecen a COLCIENCIAS y al proyecto “Estudio de la disipación de oleaje en
estructuras naturales y su respuesta ante eventos extremos” número 111866044690 por el
apoyo financiero y a la Universidad Nacional de Colombia por la beca de grado de honor de
la cual es beneficiaria la autora Michelle Maceas Henao.
6. Referencias
5. Conclusiones y recomendaciones
5.1 Conclusiones
En esta tesis titulada “Metodología para el análisis de velocimetría de partículas por medio
del tratamiento de imágenes” se planteó una metodología para analizar imágenes de PIV
comprimidas tal que se garantizara la precisión de los datos. Para esto se desarrolló un
algoritmo basado en transformada Wavelet para compresión de imágenes y correlación de
fase para el procesamiento de las imágenes de PIV.
En la sección 4 se reportó un artículo titulado como “Minimización del error divergente para
la determinación de vectores incorrectos en sistemas de velocimetría por imágenes”, allí se
planteó una técnica de post procesamiento de imágenes de PIV basado en el criterio de la
mínima divergencia utilizando optimización no lineal con restricciones. Se analizaron dos
casos de estudio para evaluar el desempeño del método de corrección de vectores. Se
determinó que la técnica filtra adecuadamente los vectores espurios permitiendo obtener
campos de velocidades con mínima cantidad de datos erróneos. Adicional la metodología
planteada presenta ventajas sobre las técnicas convencionales de determinación de errores
basados en la mediana, puesto que la técnica planteada no realiza umbralización de los datos
y dado su comportamiento iterativo es menos vulnerable a tener distintos datos erróneos en
una misma zona de interrogación.
Validar la solución propuesta por medio de la comparación con respecto a las técnicas
tradicionalmente aceptadas.
5.2 Recomendaciones
En próximos trabajos es deseable realizar pruebas de la metodología de procesamiento de
imágenes propuesta utilizando algoritmos iterativos como el de deformación de ventanas de
interrogación para realizar mejoras de resolución espacial. Puesto que en este trabajo no se
consideró mejoras en este aspecto. También sería interesante desarrollar una metodología de
98
procesamiento de imágenes de PIV en línea, que permita ver en tiempo real el comportamiento
del fluido. Para evitar el almacenaje de las imágenes en la computadora y poder realizar
comparaciones en tiempo real con otras técnicas de medición de velocidad.
1. Deben seguir las líneas de corriente del flujo sin excesivo resbalamiento.
2. Deben ser buenas dispersoras de la luz láser.(Muñoz iriarte, 2008)
Es fundamental elegir las partículas adecuadas puesto que son las componentes más críticas
del PIV, si estas se eligen de manera incorrecta los datos experimentales serán erróneos; se
debe garantizar que el tamaño sea lo suficientemente pequeño para no alterar el flujo
(Jahanmiri, 2011).
Tal que
𝑑𝑝 , Diámetro de la partícula.
𝜌𝑝 , Densidad de la partícula.
𝑔, Gravedad.
𝜇, Viscosidad del fluido.
Para la implementación del PIV de bajo costo del laboratorio de hidráulica se decide utilizar
unas partículas de poliamida con un diámetro medio de 50 𝜇𝑚. En la Figura 72 se observan
dichas partículas.
Otro factor fundamental para evitar errores de medición, es la correcta elección de la cámara.
La característica más importante para seleccionar la cámara apropiada para el sistema de
velocimetría, es verificar que la resolución temporal y espacial sean adecuadas; el estado del
arte indica que una de las mayores causas de error en la medición de los momentos
estadísticos de las fluctuaciones de velocidad turbulenta, se deben a la mala elección de
dichos parámetros lo cual aplica de igual forma para el gradiente de velocidad,
(Korobeinichev et al., 2014). Por ende se deben verificar escalas de tiempo y espacio de los
101
fenómenos de interés. De esta manera, mientras el tiempo de exposición sea lo más pequeño
posible se garantiza imágenes más estáticas. Sin embargo en algunas ocasiones el factor
económico impide que se puede tener la cámara con mayor velocidad de exposición, para
mejorar esta característica es necesario modificar algunos parámetros como lo son la
apertura del diafragma y la sensibilidad ISO (Martin, 2008). También es importante elegir
el tipo de sensor de la cámara, ¿cómo saber si elegimos tecnología CMOS o CCD?, los
sistemas de PIV se deben caracterizar por las velocidades de obturación altas. En general la
velocidad del sensor CMOS es mayor. Sin embargo se debe tener en cuenta que este tipo de
sensor provoca más ruido que el CCD, por tanto se recomienda calcular la relación señal-
ruido para verificar el desempeño de la electrónica del sensor y de esta manera elegir el que
genere menor ruido, lo ideal es que dicha relación sea lo más próximo a 1.
Para el montaje experimental se elige una cámara Nikon 1 J5 con 20.8 MP, y en modo video
tiene la opción de configurarse a: 1280x720/120 fps y 800x296/400 fps. En la Figura 73 se
observa la cámara especificada.
Figura 73. Cámara utilizada en el sistema PIV del Laboratorio de Hidráulica de la Facultad de Minas. Fuente
propia.
seguridad como gafas de protección para trabajar con estos equipos, con el fin de evitar
accidentes oculares. Dadas las exigencias de seguridad que se necesitan para utilizar láseres,
se ha empezado a optar por utilizar iluminación led, que a pesar de no tener altas intensidades
como el láser, permite obtener datos validos con una buena configuración. Es importante
garantizar que la longitud de onda del sistema de iluminación que se elija sea congruente
con el valor máximo de la eficiencia cuántica de la cámara, de esta forma se captura más
eficientemente la luz, usualmente los sensores CMOS y CCD trabajan mejor en el espectro
visible verde (European Machine Vision Association, 2012).
Por temas de costos e intensidad de la fuente de luz, se elige un puntero laser de alta potencia
1000mW y una longitud de onda de 532 nm. Adicional se compran gafas de protección
especiales para láseres con longitudes de onda de alrededor de 532 nm. También se debe
elegir la óptica adecuada para generar el haz de luz del láser, típicamente se utiliza una
configuración de lente cilíndrico y esférico. Sin embargo, si el tamaño de la boquilla del
puntero laser elegido es pequeña (4 mm), se opta por utilizar únicamente el lente cilíndrico.
Este lente es plano cóncavo con una distancia focal de -9,7 mm. En la Figura 74 se observa
el montaje para generar el haz de luz en el sistema PIV descrito. Se obtuvo un haz de luz de
10 cm de ancho con un espesor de 1 mm, utilizando la siguiente configuración: distancia
entre láser y lente cilíndrico = 35 cm, y la del láser al canal recto la distancia = 90 cm.
Figura 74. Configuración para generar hoja de luz láser (1), laser 1000 mW (2) y lente cilíndrico (3). Fuente
propia.
103
Finalmente se debe realizar la sincronización del pulso del láser con el pulso de la cámara
para esto se utilizó un microprocesador Arduino. Es importante resaltar que se debió utilizar
un solenoide para realizar la obturación de la cámara puesto que esta no tenía la opción de
obturarse remotamente. En la Figura 73, se observa la cámara utilizada con el solenoide.
Figura 75. Campos de velocidades distintas velocidades. (a) velocidad ensayo 1, (b) velocidad ensayo 2, (c)
velocidad ensayo 3 y (d) velocidad ensayo 4. Fuente propia.
Figura 76. Montaje experimental caso de estudio de flujo con estructura rectangular sumergida. Fuente
propia.
Figura 77. Secuencia de imágenes de los campos de velocidades alrededor de una estructura rectangular inmersa utilizando un sistema de PIV. Fuente propia.
107
Figura 78. Secuencia de imágenes de los campos de velocidades alrededor de una cuchara inmersa utilizando un sistema de PIV. Fuente propia.
108
7. Bibliografía
Adrian, R. J. (1991). Particle-image techniques for experimental fluid mechanics. Annual Review
of Fluid Mechanics, 23, 261–304. https://doi.org/10.1146/annurev.fl.23.010191.001401
Adrian, R. J. (2005). Twenty years of particle image velocimetry. Experiments in Fluids, 39(2),
159–169. https://doi.org/10.1007/s00348-005-0991-7
Adrian, R. J., & J Westerweel. (2011). Particle Image Velocimetry. Cambridge ; New York.
Astarita, T. (2009). Adaptive space resolution for PIV. Experiments in Fluids, 46, 1115–1123.
https://doi.org/10.1007/s00348-009-0618-5
Bernal, G., Osorio, A. F., Urrego, L., Peláez, D., Molina, E., Zea, S., … Villegas, N. (2016).
Occurrence of energetic extreme oceanic events in the Colombian Caribbean coasts and some
approaches to assess their impact on ecosystems. Journal of Marine Systems, 164, 85–100.
https://doi.org/10.1016/j.jmarsys.2016.08.007
Boonlong, K., Maneeratana, K., & Chaiyaratana, N. (2006). Determination of erroneous velocity
vectors by co-operative co-evolutionary genetic algorithms. 2006 IEEE Conference on
Cybernetics and Intelligent Systems, 1–6. https://doi.org/10.1109/ICCIS.2006.252288
Bugg, J. D., & Rezkallah, K. S. (1998). An analysis of noise in PIV images. Journal of
Visualization, 1(2), 217–226. https://doi.org/10.1007/BF03182515
Bulnes, J. D., Amapá, F., Kubitschek, R. J., & Zero, J. M. (2013). El método de correlación
cruzada de matrices y la generación de un campo de desplazamientos para pequeñas esferas.
Latin-American Journal of Physics Education, 7(3), 498–503.
Cozzella, L., & Spagnolo, G. S. (2014). Phase-only Correlation function by means of Hartley
transform. JSM Mathematics and Statistics, 1(1), 1–8.
Eckstein, A. C., Charonko, J., & Vlachos, P. (2008). Phase correlation processing for DPIV
measurements. Experiments in Fluids, 45(3), 485–500. https://doi.org/10.1007/s00348-008-
0492-6
Eckstein, A., & Vlachos, P. P. (2009). Digital particle image velocimetry (DPIV) robust phase
correlation. Measurement Science and Technology, 20(5), 55401.
https://doi.org/10.1088/0957-0233/20/5/055401
European Machine Vision Association. EMVA Standard 1288 Standar for Characterization of
image sensors and cameras. (2012).
109
F scarano. (2002). Iterative image deformation methods in PIV. Measurement Science and
Technology, 13, 1–19.
Florio, D. Di, Felice, F. Di, & Romano, G. P. (2002). Reverse hierarchical PIV processing.
Measurement Science and Technology, 13, 984–996.
Foreman, J. W., George, E. W., & Jetton, J. L. (1966). 8C2- Fluid flow measurements with a laser
doppler velocimeter. Quantum Electronics, QE 2(8), 260–266.
Foucaut, J. M., Carlier, J., & Stanislas, M. (2000). Post-processing of PIV records to allow
derivative computation . In Proceedings of 10th international symposium on the applications
of laser techniques to fluid mechanics (pp. 1–9). Lisbon,Portugal.
Fournier, N., & Castro, G. (1997). Compresión de imagenes fijas utilizando la transformada
Wavelet. Universidad de la Plata.
Freek, C., Sousa, J. M. M., Hentschel, W., & Merzkirch, W. (1999). On the accuracy of a MJPEG-
based digital image compression PIV-system. Experiments in Fluids, 27(1988), 310–320.
G I Roth, & Katz, J. (2001). Five techniques for increasing the speed and accuracy of PIV
interrogation. Measurement Science and Technology, 12, 238–245.
Garcia, D. (2010). Robust smoothing of gridded data in one and higher dimensions with missing
values. Comput Stat Data Anal, 54(4), 1167–1178.
https://doi.org/10.1016/j.csda.2009.09.020.Robust
Griva, I., Nash, S. G., & Sofer, A. (2009). Linear and nonlinear optimization.
https://doi.org/10.1137/1.9780898717730
Hart, D. P. (1998a). High-Speed PIV Analysis Using Compressed Image Correlation. Journal of
Fluids Engineering, 120, 463–470.
Hart, D. P. (1998c). The Elimination of Correlation Errors in PIV Processing. 9th International
Symposium on Applications of Laser Techniques to Fluid Mechanics, i, 13–16.
Huang, H., Dabiri, D., & Gharib, M. (1997). On errors of digital particle image velocimetry. Meas.
Sci. Technol. Meas. Sci. Technol, 8(897), 1427–1440. https://doi.org/10.1088/0957-
0233/8/12/007
J.D. Osorio-Cano, A. F. O. (2017). Ecosystem management tools to study natural habitats as wave
damping structures and coastal protection mechanisms. Ecological Engineering, 14.
110
https://doi.org/10.1016/j.ecoleng.2017.07.015
Jambunathan, K., Ju, X. Y., Dobbins, B. N., & Ashforth-Frost, S. (1995). An improved cross
correlation technique for particle image velocimetry. Measurement Science and Technology,
6(5), 507–514. https://doi.org/10.1088/0957-0233/6/5/012
Kähler, C. J., Scharnowski, S., & Cierpka, C. (2012). On the resolution limit of digital particle
image velocimetry. Experiments in Fluids, 52(6), 1629–1639.
https://doi.org/10.1007/s00348-012-1280-x
Kimura.I. (1999). Applications of Artificial Neural Networks and Genetic Algorithms to PIV.
Proceedings of the 3rd ASME/JSME Joint Fluids Engineering Conference.
Korobeinichev, O. P., Shmakov, a. G., Chernov, a. a., Markovich, D. M., Dulin, V. M., &
Sharaborin, D. K. (2014). Spatial and temporal resolution of the particle image velocimetry
technique in flame speed measurements. Combustion, Explosion, and Shock Waves, 50(5),
510–517. https://doi.org/10.1134/S0010508214050025
Lee, Y., Yang, H., & Yin, Z. (2016). A robust vector field correction method via a mixture
statistical model of PIV signal. Experiments in Fluids, 57(3), 1–20.
https://doi.org/10.1007/s00348-016-2115-y
Li, H. (2003). Application of Wavelet Technique to False Vector Correction and Data
Compression in PIV. Transactions of the Japan Society for Aeronautical and Space Sciences,
45(150), 224–228. https://doi.org/10.2322/tjsass.45.224
Li, H., Takei, M., Ochi, M., Saito, Y., & Horii, K. (1999). Choice of Wavelets for PIV Image
Compression. In Proceedings of the 3rd ASME/JSME Joint Fluids Engineering Conference
(pp. 1–6). San Francisco, California.
Liang, D. F., Jiang, C. B., & Li, Y. L. (2003). Cellular neural network to detect spurious vectors in
PIV data. Experiments in Fluids, 34(1), 52–62. https://doi.org/10.1007/s00348-002-0530-8
Lopez Hinojoza, M., González Santos, G., & Gusmán Arenas, A. (2006). Un nuevo algoritmo en
la técnica de velocimetría por imágenes de partículas. Instituto Politecnico Nacional.México
D.F.
M.Falchi, G.Querzoli, & G.P.Romano. (2006). Robust evaluation of the dissimilarity between
interrogation windows in image velocimetry. Experiments in Fluids, 41, 279–293.
https://doi.org/10.1007/s00348-006-0148-3
Masullo, A., & Theunissen, R. (2016). Adaptive vector validation in image velocimetry to
minimise the influence of outlier clusters. Experiments in Fluids, 57(3), 1–21.
111
https://doi.org/10.1007/s00348-015-2110-8
Meng, J., Li, M., & Du, H. (2010). Optimization design of genetic algorithm in particle image
velocimetry. Image and Signal Processing (CISP), …, (1), 1662–1666. Retrieved from
http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=5647730
Muñoz iriarte, J. (2008). Velocimetría PIV en tiempo real basada en lógica programable FPGA.
Universidad Nacional de Cuyo.
Nakami, Y., Words, K., & Electro, O. (1995). Determination of Erroneous Using Vectors in a
Velocity Field Many measurement methods of velocity vector distributions by image
processing have been developed and applied to various flows . Most of them , however , have
a serious problem . The estimated v. IEEE Explorer, 1304(C).
Nogueira, J., Lecuona, a, & Rodríguez, P. a. (2001). Local field correction PIV, implemented by
means of simple algorithms, and multigrid versions. Measurement Science and Technology,
12(11), 1911–1921. https://doi.org/10.1088/0957-0233/12/11/321
Padilla, P., Funes.M, Berriel.L.R, Guerrero, A., & Moreno, D. (2005). Algorithm for High-
Accuracy particle image position estimation in PIV applications. Proceedings of SPIE - The
International Society for Optical Engineering, 5776, 163–167.
https://doi.org/10.1117/12.611621
Scarano, F., & Riethmuller, L. M. (1999). Iterative multigrid approach in PIV image processing
with discrete window offset. Experiments in Fluids, 26(6), 513–523.
https://doi.org/10.1007/s003480050318
Scarano, F., & Riethmuller, M. L. (2000). Advances in iterative multigrid PIV image processing.
Experiments in Fluids, 29(1), S051--S060. https://doi.org/10.1007/s003480070007
Sheng, J., & Meng, H. (1998). A genetic algorithm particle pairing technique for 3D velocity field
extraction in holographic particle image velocimetry. Experiments in Fluids, 25(5–6), 461–
473. https://doi.org/10.1007/s003480050252
Shi, B., & Zhang, Y. (2015). Phase discrimination and a high accuracy algorithm for PIV image
processing of particle – fl uid two-phase fl ow inside high-speed rotating centrifugal slurry
pump. Flow Measurement and Instrumentation, 45, 93–104.
https://doi.org/10.1016/j.flowmeasinst.2015.05.002
Stanislas, M., Okamoto, K., & Kähler, C. J. (2003). Main results of the Second International PIV
Challenge. Experiments in Fluids, 14(September 2002), 170–191.
https://doi.org/10.1007/s00348-005-0951-2
Stanislas, M., Okamoto, K., Kähler, C. J., & Westerweel, J. (2005). Main results of the Second
International PIV Challenge. Experiments in Fluids, 39(2), 170–191.
https://doi.org/10.1007/s00348-005-0951-2
Susset, A., Most, J. M., & Honore, D. (2006). A novel architecture for a super-resolution PIV
112
algorithm developed for the improvement of the resolution of large velocity gradient
measurements. Exp. Fluids, 40, 70–79. https://doi.org/10.1007/s00348-005-0047-z
The Hot-Wire Anemometer in Supersonic Flow. (1950). Journal of the Aeronautical Sciences,
17(9), 565–572. https://doi.org/10.2514/8.1725
Thielicke, W. (2014). The flapping flight of birds :Analysis and application. University Medical
Center Groingen.
Vanegas, C., Osorio, A. F., & Urrego, L. E. (2017). Wave dissipation across a Rhizophora
mangrove patch on a Colombian Caribbean Island : An experimental approach. Ecological
Engineering. https://doi.org/10.1016/j.ecoleng.2017.07.014
Weng, W. G., Fan, W. C., Liao, G. X., & Qin, J. (2001). Wavelet-based image denoising in (
digital ) particle image velocimetry. Signal Processing, 81, 1503–1512.
Wernet, M. P. (2005a). Symmetric phase only filtering : a new paradigm for DPIV data processing.
Measurement Science and Technology, 16, 601–618. https://doi.org/10.1088/0957-
0233/16/3/001
Wernet, M. P. (2005b). Symmetric phase only filtering: a new paradigm for DPIV data processing.
Measurement Science and Technology, 16(3), 601–618. https://doi.org/10.1088/0957-
0233/16/3/001
Wernet, M. P. (2006). Symmetric phase only filtering: a new paradigm for DPIV data processing.
Measurement Science and Technology, 16(3), 601–618. https://doi.org/10.1088/0957-
0233/16/3/001
Westerweel, J. (1994). Efficient detection of spurious vectors in particle image velocimetry data.
Experiments in Fluids, 16(3), 236–247. https://doi.org/10.1007/BF00206543
Westerweel, J., & Scarano, F. (2005). Universal outlier detection for PIV data. Experiments in
Fluids, 39(6), 1096–1100. https://doi.org/10.1007/s00348-005-0016-6
Westerweel, J., & Scarano, F. (2005). Universal outlier detection for PIV data. Experiments in
Fluids, 39(6), 1096–1100. https://doi.org/10.1007/s00348-005-0016-6
Y.D. Adanasyec; E.K.Demirov. (2005). Variational filtration and interpolation technique for PIV
employing fluid dynamical constraints. Experiments in Fluids, 39, 828–835.
https://doi.org/10.1007/s00348-005-0017-5
Yu Heng, & Lv Qiongshuia. (2013). Study on Particle Image Velocimetry Technique in the
Surface Flow Field of River Model. In Internacional Conference on Mechatronic
Sciences,Electric Engineering and Computer. (pp. 968–972).