Está en la página 1de 134

Centro de Investigación Científica y de Educación

Superior de Ensenada, Baja California

MR

Maestría en Ciencias
en Ciencias de la Computación

EvoEEG: un estudio basado en el análisis de ondas


cerebrales mediante una interfaz
cerebro-computadora

Tesis
para cubrir parcialmente los requisitos necesarios para obtener el grado de
Maestro en Ciencias

Presenta:
Aarón Barrera Román

Ensenada, Baja California, México


2017
Tesis defendida por

Aarón Barrera Román

y aprobada por el siguiente Comité

Dr. Gustavo Olague Caballero


Director de tesis

M.C. José Luis Briseño Cervantes

Dr. Roberto Conte Galván

Dr. Eddie Helbert Clemente Torres

M.P. Manuel Antonio Hernández Saijas

Dr. Jesús Favela Vara


Coordinador del Posgrado en Ciencias de la Computación

Dra. Rufina Hernández Martínez


Director de Estudios de Posgrado

Aarón Barrera Román © 2017


Queda prohibida la reproducción parcial o total de esta obra sin el permiso formal y explícito del autor y director de la tesis
ii

Resumen de la tesis que presenta Aarón Barrera Román como requisito parcial para la
obtención del grado de Maestro en Ciencias en Ciencias de la Computación.

EvoEEG: un estudio basado en el análisis de ondas cerebrales mediante una


interfaz cerebro-computadora

Resumen aprobado por:

Dr. Gustavo Olague Caballero


Director de tesis

Desde los inicios de la electroencefalografía como herramienta para el estudio del


cerebro humano a finales de la década de 1920, sus campos de aplicación han ido
incrementando, haciendola cada vez más versátil aunado al surgimiento de nuevas
tecnologías con las que ha seguido en boga debido a sus notables ventajas como ba-
jo costo de implementación, alta resolución temporal y su carácter no invasivo. Tales
características, hacen a la electroencefalografía una tecnología ideal para campos de
aplicación emergentes como el de las interfaces cerebro-computadora, que son inter-
faces controladas directa o indirectamente mediante la actividad cerebral del usuario.
Por otro lado, se dice que la electroencefalografía, sacrifica la precisión de las me-
diciones, por lo que las señales obtenidas mediante estudios electroencefalográficos
son complejas y se encuentran formadas por distintas componentes conocidas como
ondas o ritmos cerebrales. Durante los primeros registros electroencefalográficos, se
estudió una componente con una frecuencia de 10 Hz identificada como “Ritmo de
Gran Amplitud”, que posteriormente fue renombrada como onda alfa, por tratarse de
la primera onda cerebral observada. En la actualidad, la detección de ondas alfa se
utiliza con frecuencia como una prueba inicial para el equipo de adquisición de datos
electroencefalográficos, ya que la presencia de estas ondas cerebrales puede ser iden-
tificada sin conocimientos especializados en electrofisiología, es por esto que tal expe-
rimento se puede considerar como un buen punto de partida para estudios electroen-
cefalográficos de mayor complejidad. Como primer enfoque hacia un estudio de mayor
complejidad, la presente investigación se centra en desarrollar un sistema capaz de
extraer señales electroencefalográficas a partir de una interfaz cerebro-computadora,
mismas que posteriormente son transformadas en pseudo-imágenes que conservan
las características espaciales, de potencia y frecuencia de las señales originales, las
cuales finalmente son interpretadas a través un modelo computacional basado en una
estructura jerárquica que imita la forma en que la información visual es procesada por
el cerebro humano. Este último paso permite determinar si las señales electroencefa-
lográficas originales presentan o no actividad en la banda alfa.

Palabras clave: Electroencefalografía, Interfaz Cerebro-Computadora, Ondas


Alfa
iii

Abstract of the thesis presented by Aarón Barrera Román as a partial requirement to


obtain the Master of Science degree in Computer science.

EvoEEG: a study based in brainwave analysis through a brain-computer


interface

Abstract approved by:

Dr. Gustavo Olague Caballero


Thesis Director

Since the beginning of electroencephalography as a tool for the study of the human
brain at the end of the 1920s, its application fields have been increasing, making it
increasingly versatile joined to the emergence of new technologies with which it has
remained in vogue due to its remarkable advantages such as low implementation cost,
high temporal resolution and its non invasive nature. Such characteristics, make the
electroencephalography an ideal technology for emerging application fields such as
the brain-computer interfaces, which are interfaces controlled directly or indirectly by
the user’s brain activity. On the other hand, it is said that in electroencephalography,
the precision of the measurements is sacrificed, so that the signals obtained from elec-
troencephalography studies are complex and formed by different components known
as brain waves or rhythms. During the first electroencephalographic recordings, a com-
ponent with a frequency of 10 Hz identified as “Large Amplitude Rhythm” was studied,
which was later renamed as alpha wave, because it was the first observed brain wave.
Nowadays, alpha wave detection is often used as an initial test for the electroencep-
halographic data acquisition system, due to the presence of these brain waves can
be identified without specialized electrophysiology knowledge, this is why such experi-
ment can be considered a good starting point for more complex electroencephalograp-
hic studies. As a first approach towards a more complex study, this research is focused
in developing a system capable of extracting electroencephalographic signals by the
means of a brain-computer interface, which are later transformed into pseudo-images
that keep the spatial, power and frequency features from the original signals, that are
finally interpreted through a computational model based in a hierarchical structure that
mimics the way the visual information is processed by the human brain. This last step
allows the system to determine whether or not the original electroencephalographic
signals contain activity in the alpha band.

Keywords: Electroencephalography, Brain-Computer Interface, Alpha Waves


iv

Dedicatoria

A mi familia y amigos.
v

Agradecimientos

A mis padres María Irene Román López y Jesús Noe Barrera Gámez por sembrar

en mí la semilla de la curiosidad, enseñarme a cuestionar, dejarme aprender de mis

errores y ayudarme a desarrollar un pensamiento crítico.

A mis hermanos Daniel Barrera Román y Enrique Noe Barrera Lozoya por enseñar-

me con el ejemplo y retarme cuando ha sido necesario.

A mis ninos Paula Román López y Jesús Román López, quienes me han motivado y

ayudado a seguir adelante en todo lo que me propongo.

A mis primos y amigos, quienes en cada borrachera estuvieron conmigo para re-

cordarme que no estaba sólo y me dieron palabras de aliento para continuar.

A la memoria de mi nana Socorro Gámez Armenta, a quien le debo en gran parte

mi interés por conocer el funcionamiento del cerebro humano y en quien me inspiré

para desarrollar esta investigación.

A la memoria de mis abuelos Reyna López Ortíz y Manuel de Jesús Román Gaxiola

a quienes siempre admiré por su calidad como personas, su dedicación y constancia.

Al profesor Jorge Torres, quien siempre me ayudó a seguir adelante y de quien

aprendí mucho tanto en cuestión académica como de la vida en general.

Al profesor Roberto Conte, con quien comparto la idea de la importancia de la

humildad.
vi

Al profesor Manuel Hernández, quien me ha motivado para que el fin último de esta

investigación sea el concretarla para una aplicación real.

Al profesor Jose Briseño quien me guió y aportó valiosas ideas para llevar a cabo

esta investigación

Al profesor Eddie Clemente, quien me apoyó de forma desinteresada durante la

etapa de experimentación.

Al profesor Gustavo Olague, quien a pesar de las adversidades estuvo conmigo

como catedrático y como amigo.

A los mexicanos que con sus aportaciones hicieron posible la realización de mis

estudios a través del Centro de Investigación Científica y de Educación Superior de

Ensenada (CICESE), y el Consejo Nacional de Ciencia y Tecnología (CONACyT).


vii

Tabla de contenido
Página

Resumen en español . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Resumen en inglés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
Dedicatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
Lista de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x
Lista de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii

Capítulo 1. Introducción
1.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Objetivos específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Alcance de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Aportaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Capítulo 2. Fundamentos físico-biológicos


2.1. Electroencefalografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Sistema 10-20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2. Montaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.3. Origen de las señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.4. Características y naturaleza de las señales EEG . . . . . . . . . . . 22
2.2. El fenómeno de las ondas alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1. Primeros intentos para identificar el origen de las ondas alfa . . 27
2.2.2. Evidencia moderna del origen de las ondas alfa . . . . . . . . . . . 28
2.3. Interfaces cerebro-computadora . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.1. OpenBCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1.1. Juego de desarrollo de 32 bits . . . . . . . . . . . . . . . . . . . . 35

Capítulo 3. Fundamentos matemático-computacionales


3.1. Análisis en el dominio de la frecuencia . . . . . . . . . . . . . . . . . . . . . 39
3.1.1. Transformada contínua de Fourier . . . . . . . . . . . . . . . . . . . . 41
3.1.2. Transformada discreta de Fourier . . . . . . . . . . . . . . . . . . . . 42
3.1.3. Efecto de solapamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.4. Transformada rápida de Fourier . . . . . . . . . . . . . . . . . . . . . 45
3.1.5. Espectro de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.6. Fuga y ventanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2. Distribuciones de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2.1. Parámetros de localización . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2.2. Parámetros de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.3. Parámetros de forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3. Técnicas de proyección 3D-2D . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
viii

Tabla de contenido (continuación)

3.3.1. Proyección azimutal equidistante . . . . . . . . . . . . . . . . . . . . 54


3.4. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5. Computación evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6. Programación de cerebros artificiales . . . . . . . . . . . . . . . . . . . . . . 63

Capítulo 4. EvoEEG
4.1. Adquisición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2. Pre-procesamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.1. Espectro de potencia y filtrado . . . . . . . . . . . . . . . . . . . . . . 68
4.2.2. Almacenamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.3. Parámetros estadísticos . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3. Formación de pseudo-imágenes . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.1. Proyección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.2. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.3. Normalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.4. Mezcla de bandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.5. Aplicación de máscara . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4. Clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

Capítulo 5. Experimentación
5.1. Condiciones de experimentación . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.1.1. Condiciones ambientales . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.1.2. Configuración del equipo de adquisición . . . . . . . . . . . . . . . . 81
5.1.2.1. Parámetros de hardware . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.2.2. Parámetros de software . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.3. Sujetos de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2. Registro de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.1. Instalación de OpenBCI . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.2. Pruebas preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.3. Adquisición de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Pre-procesamiento y formación de pseudo-imágenes . . . . . . . . . . . . 92
5.3.1. Etiquetado de pseudo-imágenes . . . . . . . . . . . . . . . . . . . . . 93
5.4. Clasificación de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

Capítulo 6. Análisis de resultados


6.1. Experimentos de validación cruzada . . . . . . . . . . . . . . . . . . . . . . . 101
6.2. Análisis de los mejores individuos . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.1. Desempeño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.2. Estructura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2.3. Flujo de información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

Capítulo 7. Conclusiones y trabajo futuro


7.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
ix

Tabla de contenido (continuación)

7.2. Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112


Literatura citada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114
Anexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .117
x

Lista de figuras
Figura Página

1. Hans Berger, creador del primer equipo EEG . . . . . . . . . . . . . . . . . . . . 12


2. El sistema internacional de colocación de electrodos 10-20 . . . . . . . . . . 14
3. Modelo de un canal EEG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4. Un canal es la diferencia entre dos electrodos adyacentes . . . . . . . . . . . 15
5. Ilustración de un montaje bipolar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6. Ilustración de un montaje referencial . . . . . . . . . . . . . . . . . . . . . . . . . 16
7. Ilustración de un montaje de referencia promediada . . . . . . . . . . . . . . . 17
8. Estructura simple de una neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9. Generación de pequeños campos eléctricos mediante corrientes sinápti-
cas en las células piramidales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
10. Áreas anatómicas del cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
11. Ejemplo de distintos tipos de ritmos EEG . . . . . . . . . . . . . . . . . . . . . . . 23
12. Ilustración de un registro EEG normal . . . . . . . . . . . . . . . . . . . . . . . . . 24
13. Principales tipos de artefactos en el EEG humano . . . . . . . . . . . . . . . . . 25
14. Arquitectura general de un sistema BCI . . . . . . . . . . . . . . . . . . . . . . . 32
15. Tablero OpenBCI de 32 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
16. Módulo Daisy OpenBCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
17. Receptor inalámbrico programable OpenBCI . . . . . . . . . . . . . . . . . . . . 36
18. Adaptadores para electrodos a prueba de toque . . . . . . . . . . . . . . . . . . 37
19. Electrodos pasivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
20. Módulo de 6V para baterías AA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
21. Postes de plástico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
22. Señales en los dominios del tiempo y la frecuencia . . . . . . . . . . . . . . . . 40
23. Ilustración del efecto de solapamiento . . . . . . . . . . . . . . . . . . . . . . . . 44
24. Ejemplo del efecto de fuga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
25. Ventanas comúnmente utilizadas para disminuir el efecto de fuga . . . . . . 48
26. Tipos de oblicuidad y kurtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
27. Ejemplos de interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
28. Sistema completo OpenBCI instalado en Mark IV . . . . . . . . . . . . . . . . . 66
29. Posicionamiento de los electrodos de registro y referencia . . . . . . . . . . . 67
30. Posiciones tridimensionales originales de los 16 electrodos . . . . . . . . . . . 70
xi

Lista de figuras (continuación)

Figura Página

31. Comparación entre métodos de proyección . . . . . . . . . . . . . . . . . . . . . 71


32. Proyección final de las posiciones tridimensionales de los electrodos . . . . 73
33. Proceso de interpolación mediante el algoritmo de “Spline biarmónica” . . 74
34. Aplicación del factor de normalización en una pseudo-imagen . . . . . . . . . 76
35. Formación de una pseudo-imágen única a partir de la mezcla de bandas . 77
36. Aplicación de máscara para obtener la versión final de las pseudo-imágenes 78
37. Diagrama del sistema electrónico-computacional para la detección de on-
das alfa mediante la clasificación de pseudo-imágenes generadas a partir
de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
38. Conexión de los tableros principal y auxiliar del sistema OpenBCI en con-
junto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
39. Modificaciones para referenciar eléctricamente los tableros principal y au-
xiliar del sistema OpenBCI al mismo par de electrodos . . . . . . . . . . . . . . 83
40. Colocación de Mark IV en la cabeza del sujeto de estudio . . . . . . . . . . . . 86
41. Ajuste de electrodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
42. Colocación de electrodos de referencia tipo broche . . . . . . . . . . . . . . . . 87
43. Pantalla principal de la plataforma de software OpenBCI GUI . . . . . . . . . . 88
44. Selección de opción “LIVE (from Cyton)” . . . . . . . . . . . . . . . . . . . . . . . 88
45. Pantalla final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
46. Ejecución de prueba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
47. Descripción gráfica del experimento de registro de señales EEG . . . . . . . 92
48. Pseudo-imágenes generadas con la aplicación . . . . . . . . . . . . . . . . . . . 94
49. Selección de reproducción de señales . . . . . . . . . . . . . . . . . . . . . . . . . 96
50. Reproducción de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
51. Variaciones de las señales a lo largo del tiempo . . . . . . . . . . . . . . . . . . 97
52. Comparación entre pseudo-imágenes generadas en presencia y ausencia
de actividad alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
53. Curva de aprendizaje general para todas las ejecuciones de los experi-
mentos descritos en la Tabla 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
xii

Lista de figuras (continuación)

Figura Página

54. Curva de aprendizaje general para todas las ejecuciones de los experi-
mentos descritos en la Tabla 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
55. Flujo de información a través de la corteza visual artificial para la detec-
ción de actividad alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
56. Tablero OpenBCI de 32 bits ensamblado. . . . . . . . . . . . . . . . . . . . . . . . 118
57. Conectores macho para el módulo Daisy. . . . . . . . . . . . . . . . . . . . . . . 119
58. Módulo Daisy OpenBCI ensamblado. . . . . . . . . . . . . . . . . . . . . . . . . . 120
59. Receptor inalámbrico programable OpenBCI ensamblado. . . . . . . . . . . . 120
xiii

Lista de tablas
Tabla Página

1. Correspondencia entre electrodos y posición de acuerdo al sistema


10-20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2. Resumen de la primer validación cruzada de 5 dobleces para la cla-
sificación de ondas alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3. Resumen de la primer validación cruzada de 5 dobleces para la cla-
sificación de ondas alfa (corregida) . . . . . . . . . . . . . . . . . . . . . . . 103
4. Resumen de la segunda validación cruzada de 5 dobleces para la
clasificación de ondas alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5. Resumen de la validación cruzada de 5 dobleces para los 5 mejores
individuos encontrados en los experimentos . . . . . . . . . . . . . . . . . 107
6. Estructura de los 5 mejores individuos encontrados en los experi-
mentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1

“El cerebro humano tiene cien mil millones de


neuronas, cada una conectada a otras diez mil.
Sentado sobre tus hombros se encuentra el objeto
más complicado del universo conocido.”

– Michio Kaku.
2

Capítulo 1. Introducción

El cerebro humano es sin duda uno de los sistemas más complejos en el universo
conocido y el interés por comprender su funcionamiento se remonta a la antigüedad.
Está conformado por alrededor de cien mil millones de células nerviosas llamadas
neuronas, mismas que comparten las características y partes de otras células, pero a
diferencia de estas, su carácter electromecánico les permite transmitir señales eléctri-
cas a través de largas distancias (Siuly et al., 2016).

Nuestro entendimiento en relación a las funciones del cerebro incrementó dramá-


ticamente en las últimas décadas debido al desarrollo y el refinamiento de diversas
tecnologías para el registro de señales cerebrales (Freeman y Quiroga, 2013).

Algunas de estas tecnologías miden de manera indirecta los procesos metabólicos


en el cerebro, como la imagen de resonancia magnética funcional (fMRI1 ) o la es-
pectroscopía funcional de infrarrojo cercano (fNIRS2 ); mientras que otras monitorean
la actividad eléctrica de manera directa como el Electrocorticograma (ECoG3 ) que es
una técnica invasiva. Por otro lado, el Magnetoencefalograma (MEG4 ) o el Electroen-
cefalograma (EEG5 ), son técnicas no invasivas, ya que hacen mediciones indirectas de
estas señales (Lopes da Silva, 2010).

En la actualidad las interfaces cerebro-computadora han incrementado su populari-


dad. Estas pueden ser definidas como interfaces controladas directa o indirectamente
mediante la actividad cerebral del usuario (Girouard, 2009). Estos dispositivos fun-
cionan como intermediarios entre el cerebro humano y las computadoras, y son am-
pliamente utilizados en diversos campos como son la robótica, la comunicación entre
personas y el control de movilidad (Sulaiman, 2014).

Mientras que comunmente las interfaces cerebro-computadora son utilizadas para


la rehabilitación de usuarios con discapacidad, existen algunos estudios en los que se
utilizan para diversos fines, como son el monitoreo de la actividad cerebral de usuarios
1 Del inglés: Functional Magnetic Resonance Image
2 Del inglés: Functional Near Infrared Spectroscopy
3 Del inglés: Electrocorticogram
4 Del inglés: Magnetoencephalogram
5 Del inglés: Electroencephalogram
3

para analizar su carga mental, medir su nivel de atención o facilitar su interacción con
equipo de cómputo (Girouard, 2009).

A pesar de que el electroencefalograma podría ser el conjunto de señales más com-


plejo en la naturaleza (Kaiser, 2005), la electroencefalografía (EEG) es la herramienta
de medición más común en las interfaces cerebro-computadora. Esta funciona me-
diante la medición de potenciales eléctricos detectables en el cuero cabelludo gracias
a la arquitectura neuronal.

El neocórtex humano consiste en arreglos de columnas de seis capas neuronales


de profundidad alineados perpendicularmente debajo del cráneo (Mountcastle, 1978).
Si tal orientación fuera distinta, la actividad neuroeléctrica se cancelaría entre sí, cau-
sando que tales potenciales fueran indetectables ya que estos representan diferencias
en el orden de las millonésimas de volt (Kaiser, 2005).

La interpretación de los electroencefalogramas resulta una tarea sumamente difícil,


ya que los electrodos que detectan las diferencias de potencial se colocan en el cuero
cabelludo lo cual hace que las señales leídas estén compuestas por la actividad de
millones de neuronas. La información es además atenuada y distorsionada por algu-
nas de las capas externas al cerebro (piel, cráneo, duramadre, sangre, fluido espinal,
piamadre, etc.) y, por si fuera poco, algunas de las señales se cancelan entre sí debido
a sus potenciales eléctricos positivos y negativos. Todos estos factores originan que
las señales resultantes sean representativas de tan sólo una fracción de la actividad
electrocelular que realmente ocurre debajo del sensor (Kaiser, 2005).

Para llevar a cabo un análisis de las señales extraídas directamente desde el cuero
cabelludo mediante una Interfaz Cerebro-Computadora utilizando la técnica de Electro-
encefalografía (EEG), tales señales deben ser filtradas para remover señales espurias
y separadas en sus diversas componentes.

De acuerdo a sus características tales componentes fueron clasificadas en: alfa,


beta, teta, delta, gamma y mu. Estas señales son conocidas como ondas o rítmos
cerebrales (Sulaiman, 2014).

Durante los primeros estudios electroencefalográficos, la componente observada


inicialmente fue aquella con una frecuencia de 10 Hz identificada como “Ritmo de
4

Gran Amplitud”, que posteriormente fue renombrada como “onda alfa”, por tratarse
de la primera onda cerebral observada (Buzsáki, 2006).

La detección automatizada de ondas alfa, sigue siendo un fenómeno de interés,


ya que se relaciona con el estado de vigilia (Huupponen et al., 2002) y permite lle-
var a cabo un monitoreo del nivel de atención. Además, debido a la caracterización
de estas ondas cerebrales, la detección de ondas alfa es actualmente utilizada como
experimento inicial para estudios electroencefalográficos de diversas complejidades.
De esta forma la detección de ondas alfa puede también ser utilizada para llevar a
cabo una prueba inicial al equipo de adquisición de datos electroencefalográficos, por
lo que se considera como un buen punto de partida para cualquier estudio en que se
pretenda analizar señales provenientes del cerebro.

Como primer enfoque hacia un estudio de mayor complejidad, la presente inves-


tigación se centra en desarrollar un sistema capaz de extraer señales electroencefa-
lográficas a partir de una interfaz cerebro-computadora, mismas que posteriormente,
mediante un método novedoso, son transformadas en pseudo-imágenes que represen-
tan la actividad cerebral de un determinado sujeto bajo estudio durante segmentos de
tiempo definido. Cada una de las pseudo-imágenes resultantes conserva las caracte-
rísticas espaciales, de potencia y frecuencia de las señales originales. Finalmente, las
pseudo-imágenes son interpretadas a través un modelo computacional basado en una
estructura jerárquica que imita la forma en que la información visual es procesada por
el cerebro humano. Este modelo computacional es previamente entrenado mediante
“Programación Cerebral” con la finalidad de que sea capaz de determinar si las señales
electroencefalográficas originales presentan o no actividad en la banda alfa.

1.1. Planteamiento del problema

El cerebro humano está compuesto por un gran número de neuronas, mismas que
se interconectan formando patrones complejos y se encuentran en constante comuni-
cación.

Para llevar a cabo sus múltiples funciones (e.g. procesamiento de información pro-
veniente de los sentidos, regulación motriz, razonamiento, planeación, orientación,
etc.), el cerebro descompone la tarea en cuestión en una serie de operaciones de
5

menor dimensión. Tal reducción se lleva a cabo en diversas regiones, lo cual dispara
actividad electrocelular en distintas zonas del cerebro.

La electroencefalografía, que se caracteriza por ser una tecnología no invasiva y de


bajo costo, permite registrar la actividad eléctrica generada por las neuronas durante
su comunicación. Sin embargo, a cambio de tales ventajas, se sacrifica la precisión
en cuanto a la relación entre las señales obtenidas y la actividad electrocelular que
realmente ocurre debajo de los sensores. Esto se debe a que los electrodos utilizados
en esta técnica se colocan en el cuero cabelludo, lo cual causa que las señales leídas
no sólo esten compuestas por la actividad de millones de neuronas, sino que además
la información registrada es atenuada y distorsionada por algunas de las capas que
cubren al cerebro. Debido a esto, las señales resultantes son sumamente complejas y
estan formadas por distintas componentes que sólo representan una pequeña fracción
de la actividad neuroeléctrica real.

Es por esta razón que obtener información relacionada con estados mentales espe-
cíficos a partir de un conjunto de señales obtenidas por medio de electroencefalografía
resulta una tarea sumamente compleja.

Esta investigación se centra en abordar el problema de ambigüedad existente en-


tre un conjunto de señales electroencefalográficas obtenidas mediante una interfaz
cerebro-computadora y estados mentales definidos.

Para los fines de este trabajo, y como primer paso orientado hacia un estudio de
mayor complejidad, la investigación se enfoca en la detección automatizada de ondas
alfa. Este fenómeno ha sido relacionado con el estado de vigilia (Huupponen et al.,
2002) y su detección permite llevar a cabo un monitoreo del nivel de atención en los
sujetos de estudio. La presencia de estas ondas cerebrales resulta prominente en las
regiones posteriores del cerebro.

1.2. Objetivo general

El objetivo general de esta investigación consiste en establecer una relación directa


entre patrones de señales cerebrales extraídas por medio de una interfaz cerebro-
computadora basada en electroencefalografía y estados mentales específicos.
6

1.3. Objetivos específicos

Para poder cumplir el objetivo general de esta investigación, es necesario el cum-


plimiento de los objetivos específicos que se enlistan a continuación:

1. Determinar la técnica o combinación de técnicas que permitan convertir un con-


junto de señales eléctricas extraídas del cuero cabelludo a través de una interfaz
cerebro-computadora, en pseudo-imágenes que representen la actividad cerebral
del sujeto bajo estudio durante un segmento de tiempo definido. Cada una de las
pseudo-imágenes resultantes debe conservar las características principales de
las señales biológicas originales además de contener la mayor cantidad de infor-
mación posible, con la finalidad de que puedan ser diferenciadas por el sistema
de clasificación.

2. Evaluar la versatilidad del paradigma de “Programación Cerebral” para solucionar


problemas de naturaleza distinta a los que se pretendían resolver con su diseño
original. Esto mediante la aplicación de dicho paradigma para la clasificación de
las pseudo-imágenes construidas a partir de señales electroencefalográficas.

3. Proponer los ajustes pertinentes al paradigma de “Programación Cerebral” para


adaptarlo al problema en cuestión de acuerdo a las lecciones aprendidas durante
la experimentación y el análisis de resultados, con la finalidad de mejorar su
rendimiento en cuanto a clasificación y tiempo de ejecución.

1.4. Alcance de la tesis

Con la finalidad de cumplir los objetivos establecidos, es necesario establecer el al-


cance de este trabajo. Considerando que la presente investigación constituye el primer
paso enfocado hacia un estudio de mayor complejidad, el alcance de la tesis queda
delimitado bajo las siguientes premisas:

Se propone un método novedoso que permite convertir un conjunto de seña-


les eléctricas (extraídas del cuero cabelludo a través de una interfaz cerebro-
computadora), en pseudo-imágenes que representan la actividad cerebral del su-
jeto bajo estudio durante un segmento de tiempo definido. Tales pseudo-imágenes
7

son utilizadas para llevar a cabo el entrenamiento de una estructura jerárquica


que imita la forma en que la información visual es procesada e interpretada por el
cerebro humano (corteza visual artificial) de acuerdo a las propuestas de Clemen-
te y Olague (Clemente et al., 2013; Olague et al., 2014a). Ya que se ha entrenado
esta estructura jerárquica mediante “Programación Cerebral”, se generan progra-
mas que resuelven el problema de clasificación de las pseudo-imágenes, con la
finalidad de poder detectar la ausencia o presencia de ondas alfa en las señales
cerebrales de origen.

Una vez generados los programas que permiten llevar a cabo la clasificación de
las pseudo-imágenes construidas, se lleva a cabo una validación cruzada en la
que se dividen las pseudo-imágenes en distintos grupos utilizados para entrena-
miento, validación y prueba. El proceso es repetido múltiples ocasiones con la
finalidad de proveer validez estadística a los experimentos.

1.5. Aportaciones

Desde su descubrimiento a finales de la década de 1920, el análisis de ondas cere-


brales ha sido de interés en la comunidad de las neurociencias con diversos fines como
el diagnóstico de enfermedades y el análisis de los efectos de diversas sustancias en
el funcionamiento del cerebro (Siuly et al., 2016).

En la actualidad, la detección de ondas alfa, sigue siendo utilizada como experi-


mento inicial para estudios electroencefalográficos de mayor complejidad, ya que se
trata de un fenómeno relativamente fácil de reproducir debido a que la presencia o
ausencia de estas ondas cerebrales resulta evidente incluso para ojos inexpertos (Em-
pson, 1986). Es por esta razón que con frecuencia la detección de ondas alfa se utiliza
para llevar a cabo una prueba inicial en el equipo de adquisición de datos electroen-
cefalográficos, por lo que se considera como un buen punto de partida para cualquier
estudio en que se pretenda analizar señales provenientes del cerebro.

Considerando que este trabajo de investigación se enfoca en el análisis de un fe-


nómeno que requiere conocimiento especializado, podemos considerar las siguientes
aportaciones:
8

Se propone e implementa un método novedoso que permite convertir un conjun-


to de señales eléctricas extraídas del cuero cabelludo a través de una interfaz
cerebro-computadora, en pseudo-imágenes que representan la actividad cere-
bral del sujeto bajo estudio durante un segmento de tiempo definido. Cada una
de las pseudo-imágenes resultantes conserva las características espaciales, de
potencia y frecuencia de las señales biológicas originales.

Tales pseudo-imágenes son utilizadas para llevar a cabo el entrenamiento de una


estructura jerárquica que imita la forma en que la información visual es procesa-
da e interpretada por el cerebro humano (corteza visual artificial). Una vez entre-
nada esta estructura jerárquica mediante “Programación Cerebral”, se generan
programas que resuelven el problema de clasificación de las pseudo-imágenes
obtenidas con el proceso mencionado anteriormente, esto con la finalidad de po-
der detectar la ausencia o presencia de ondas alfa en las señales cerebrales de
origen.

El proceso descrito anteriormente permite automatizar la detección de ondas ce-


rebrales asociadas con estados mentales definidos. Además, el análisis podría ser
extrapolado al estudio de fenómenos más complejos mediante ajustes menores
a la etapa de adquisición de señales biomédicas, esto sin la necesidad de llevar
a cabo cambios significativos al hardware o software.

De acuerdo a los hallazgos realizados durante la experimentación y el análisis


de resultados, proponemos los ajustes pertinentes para el paradigma de “Pro-
gramación Cerebral” con la finalidad de adaptarlo al problema de clasificación
de pseudo-imágenes construidas a partir de señales electroencefalográficas y de
esta manera mejorar su rendimiento en cuanto a clasificación y tiempo de ejecu-
ción.

Considerando que nuestro trabajo no está limitado al desarrollo de software, sino


que contempla también la interacción con hardware para la adquisición de da-
tos, proponemos una serie de recomendaciones a considerar en el desarrollo de
trabajo futuro relacionado con la utilización de la interfaz cerebro-computadora
OpenBCI.
9

1.6. Organización de la tesis

Este documento está organizado de acuerdo a los siguientes puntos:

El Capítulo 2 describe los fundamentos físico-biológicos; así, se explica el orígen


biológico y las características de las señales de interés, además de los principios
físicos de la tecnología utilizada para su adquisición.

Comenzando con una breve introducción a la electroencefalografía, en la que se


presentan algunos antecedentes históricos de la misma, sus principios, y el ori-
gen biológico de las señales electroencefalográficas. Posteriormente se describe
el fenómeno de las ondas alfa, así como algunos antecedentes en cuanto a la
búsqueda de su origen. Finalmente, se presentan los fundamentos físicos para la
adquisición de las señales electroencefalográficas mediante interfaces cerebro-
computadora y se describe también la interfaz utilizada en el desarrollo de esta
investigación.

El Capítulo 3 explora a detalle las herramientas matemáticas y computaciona-


les que son empleadas para llevar a cabo el procesamiento y la clasificación de
las señales electroencefalográficas. Comenzando con una revisión del análisis de
señales en el dominio de la frecuencia, para posteriormente introducir los pará-
metros para la descripción de distribuciones de datos, así como los fundamentos
de la técnicas de proyección 3D-2D y la interpolación. Finalmente se presentan el
cómputo evolutivo y la programación de cerebros artificiales como paradigma de
clasificación de pseudo-imágenes.

El Capítulo 4 está consagrado a explicar la manera en que las herramientas ana-


lizadas en el Capítulo 3, son incorporadas en un modelo computacional capaz
de reconocer patrones en las señales extraídas de acuerdo a las técnicas y tec-
nología descritas en el Capítulo 2. De esta forma, se describen primeramente
los parámetros y configuración de hardware para llevar a cabo la adquisición de
las señales de interés. Posteriormente se analizan las transformaciones que son
aplicadas a dichas señales, para finalmente llevar a cabo su clasificación.

El Capítulo 5 describe a detalle los experimentos que se llevaron a cabo durante


la investigación para poner a prueba el modelo computacional desarrollado en el
10

Capítulo 4. De esta manera, se detallan las condiciones del ambiente, equipo, y


sujetos de estudio, así como el procedimiento para llevar a cabo la adquisición
de las señales de interés. Posteriormente, se describe el proceso para construir
y etiquetar las pseudo-imágenes a partir de las señales electroencefalográficas
adquiridas mediante la implementación del modelo computacional descrito en el
Capítulo 4. Finalmente, se explican en detalle los experimentos llevados a cabo
para clasificar tales pseudo-imágenes.

En el Capítulo 6 se lleva a cabo un minucioso análisis de los resultados obtenidos


a partir de la experimentación descrita en el Capítulo 5.

En el Capítulo 7 se establece una serie conclusiones basadas en los resultados


analizados en el Capítulo 6. Además se hacen algunas propuestas para el desa-
rrollo de trabajo futuro relacionado con la temática de esta investigación.

El Anexo describe el proceso de ensamble de los tableros electrónicos del siste-


ma OpenBCI, y se establece una serie de posibles problemas derivados de las
lecciones aprendidas durante su utilización en esta investigación.
11

Capítulo 2. Fundamentos físico-biológicos

El segundo capítulo está consagrado a discutir los conceptos básicos y aspectos


centrales de la electroencefalografía, considerando el orígen biológico y las caracte-
rísticas de las señales electroencefalográficas, así como los principios físicos de la
tecnología utilizada para su adquisición.

Primeramente se provee una descripción de la electroencefalografía, así como una


breve referencia histórica de su consolidación como herramienta para el estudio del
cerebro humano. También se presentan las distintas configuraciones en las que esta
técnica puede ser aplicada para llevar a cabo estudios electroencefalográficos. Pos-
teriormente, se estudia el origen biológico de las señales electroencefalográficas. Se
mencionan algunas de sus principales aplicaciones y una caracterización de las mis-
mas. Siguiendo un esquema de lo general a lo particular, se explica el fenómeno de
las ondas alfa, mismo que constituye una parte medular para este trabajo. Finalmente
se introducen las interfaces cerebro-computadora y se describen las características de
la interfaz que será utilizada para el desarrollo de esta investigación.

2.1. Electroencefalografía

La Electroencefalografía (EEG) es una técnica que se caracteriza por la medición


de potenciales que reflejan la actividad eléctrica del cerebro. Esta provee evidencia de
cómo funciona el cerebro a través del tiempo. Además, dicha técnica es ampliamente
utilizada por médicos y científicos para estudiar las funciones cerebrales y diagnosticar
desórdenes neurológicos.

El estudio de la actividad cerebral mediante registros EEG es una de las herramien-


tas más importantes para el diagnóstico de enfermedades neurológicas, tales como la
epilepsia, tumores cerebrales, lesiones en la cabeza, desórdenes de sueño, demencia
y monitoreo de anestesia profunda durante cirugías (Hazarika et al., 1997; Adeli et al.,
2003). También es útil para el tratamiento de anormalidades, disturbios conductuales
(como el autismo), desórdenes de atención, problemas de aprendizaje y retraso del
lenguaje.
12

La primera máquina de registro EEG fue introducida en 1929 por Hans Berger (Co-
llura, 1993), quien era neuropsiquiatra de la universidad de Jena en Alemania. Él utilizó
el término alemán “elektrenkephalogramm” para describir las representaciones grá-
ficas de las corrientes generadas en el cerebro. También sugirió que tales corrientes
cambiaban dependiendo del estado funcional del cerebro, tal como, sueño, anestesia
y epilepsia. Esta revolucionaria idea fue la que dio lugar a una nueva rama de las
ciencias de la salud llamada neurofisiología.

Figura 1. Hans Berger, creador del primer equipo EEG (imagen tomada de: http://www.psychiatrie.
uk-j.de/Geschichte.html).

Durante un registro EEG una serie de terminales conductivas o electrodos son co-
locados en distintas posiciones de la superficie del cuero cabelludo, utilizando desde
cinta adhesiva, hasta algún tipo de casco o gorro de tela o plástico para mantenerlos
en su posición durante el estudio. Con la finalidad de maximizar el contacto eléctrico
entre las terminales conductivas y el cuero cabelludo, en algunos casos se aplica pasta
conductiva dependiendo del tipo de electrodos utilizados.

Cada electrodo y su respectiva terminal de referencia se conectan a un equipo de


registro EEG. Los electrodos detectan las pequeñas cargas eléctricas resultantes de
la actividad de las células cerebrales, y el equipo, mediante la utilización de amplifi-
cadores y convertidores analógico-digital, permite cuantificar y digitalizar las señales
13

cerebrales para poder ser guardadas y observadas posteriormente desde un equipo


de cómputo.

Los estudios electroencefalográficos se llevan a cabo registrando la actividad ce-


rebral a través de 1 hasta 256 electrodos en paralelo. A los estudios electroencefalo-
gráficos que registran actividad a través de más de 1 electrodo se les llama registros
EEG multicanal. Cada par electrodo-referencia forma un canal, y cada canal forma una
señal durante el registro EEG.

Existen dos tipos de EEG, dependiendo de dónde la señal es obtenida en la cabeza:


cuero cabelludo o intracraneal. Para el EEG de cuero cabelludo, pequeños electrodos
son colocados sobre el cuero cabelludo con buen contacto mecánico y eléctrico. Por
otro lado, para el caso del EEG intracraneal se requiere la implantación de electrodos
especiales en el cerebro mediante intervención quirúrgica.

2.1.1. Sistema 10-20

En los registros EEG multicanal, la posición de los electrodos resulta importante,


debido a que los distintos lóbulos o secciones del cerebro son responsables del pro-
cesamiento de distintos tipos de actividades. El método más utilizado para la localiza-
ción de los electrodos es el sistema 10-20, propuesto por H. H. Jasper en 1952 (Jasper,
1958). Este sistema identifica 19 posiciones en el cuero cabelludo que se relacionan
de manera proporcional a 4 puntos de referencia: El puente de la nariz (nasión), el
tope en la parte trasera de la cabeza inmediatamente arriba del cuello (inion) y los
puntos preauriculares izquierdo y derecho (depresiones sobre el ángulo del pómulo
justo frente a la oreja). Las posiciones son etiquetadas con letras del alfabeto (C para
central, F para frontal, P para parietal y T para temporal) y números, impares en el
lado izquierdo y pares en el lado derecho, que generalmente se vuelven mayores a
medida que se alejan de la línea central.

Las cabezas varían en medida y proporciones, sin embargo, la utilización de este


sistema presenta la ventaja de que se adapta a prácticamente cualquier sujeto.

La localización de los electrodos de acuerdo al sistema 10-20 se muestra en la


Figura 2 y se describe a continuación:
14

Se localiza el vértice CZ . Este es el punto medio entre nasión e inion, y el punto


medio entre los puntos preauriculares, justo en la línea central.

Las otras dos posiciones FZ y PZ están a 20 porciento de la distancia anterior-


posterior al frente y atrás del vértice.

C3 Y C4 se encuentran a 20 porciento de la distancia interauricular a la izquierda


y a la derecha del vértice, respectivamente, en la línea interauricular, y T3 y T4
se encuentran a 40 porciento de la distancia interauricular a la izquierda y a la
derecha del vértice.

F3 y F4 se encuentran a 20 porciento de la distancia interauricular a la izquierda


y a la derecha de FZ , P3 y P4 se encuentran a distancia similar a la izquierda y a
la derecha de PZ .

Las posiciones occipitales, O1 y O2 , se encuentran 10 porciento arriba del inion,


y a la misma distancia al lado izquierdo y derecho de la línea central.

Figura 2. El sistema internacional de colocación de electrodos 10-20 (Siuly et al., 2016).

2.1.2. Montaje

La manera en que los electrodos son referenciados eléctricamente da origen a dis-


tintos posibles montajes. Los registros EEG pueden ser monitoreados de las siguientes
maneras:
15

Montaje bipolar: Un par de electrodos usualmente hacen un canal, como se mues-


tra en la Figura 3. Cada canal representa la diferencia entre dos electrodos ad-
yacentes (Niedermeyer y Lopes da Silva, 2005; Fisch, 1999) como se muestra
en la Figura 4. El montaje completo consiste en una serie de estos canales. Por
ejemplo, presentamos un diagrama de un montaje bipolar en la Figura 5, donde
el canal “Fp1 -F3 ” representa la diferencia en el voltaje entre el electrodo Fp1 y el
electrodo F3 . El siguiente canal en el montaje, “F3 -C3 ”, representa la diferencia
de voltaje entre F3 y C3 , y así sucesivamente a través del arreglo completo de
electrodos.

Electrodo 1 Canal EEG

Amplificador

Electrodo 2

Figura 3. Modelo de un canal EEG.

7µV en F4 7µV

Amplificador

0µV en C4

7µV en F4 0µV

Amplificador

7µV en C4

7µV en F4 14µV

Amplificador

-7µV en C4

Figura 4. Un canal es la diferencia entre dos electrodos adyacentes.

Montaje referencial: Cada canal representa la diferencia entre cierto electrodo y


un electrodo designado como referencia (Niedermeyer y Lopes da Silva, 2005;
Fisch, 1999). En la Figura 6, el electrodo A2 es considerado como el electrodo de
referencia. No existe una posición fija para esta referencia. Está, sin embargo, en
16

Fp1

Amplificador Fp1-F3

F3

F3

Amplificador F3-C3

C3

C3

Amplificador C3-P3

P3

Figura 5. Ilustración de un montaje bipolar.

una posición distinta que los electrodos de “registro”. Las posiciones de la línea
central son frecuentemente utilizadas debido a que no amplifican la señal en un
hemisferio respecto al otro. Otra referencia popular consiste en promediar física
o matemáticamente un par de electrodos que se colocan en los lóbulos de las
orejas.

Fp1

Amplificador Fp1-A2

A2

F3

Amplificador F3-A2

A2

C3

Amplificador C3-A2

A2

Figura 6. Ilustración de un montaje referencial.


17

Montaje de referencia promediada: Las salidas de todos los amplificadores son


sumadas y promediadas, y esta señal promediada es utilizada como referencia
común para cada canal (Fisch, 1999). En la Figura 7 se muestra una ilustración
de este montaje.

Fp1

Amplificador Fp1-Promedio

Promedio

F3

Amplificador F3-Promedio

Promedio

C3

Amplificador C3-Promedio

Promedio

Figura 7. Ilustración de un montaje de referencia promediada.

Montaje Laplaciano: Cada canal representa la diferencia entre un electrodo y un


promedio ponderado de los electrodos vecinos (Fisch, 1999).

En la actualidad, con los EEGs digitales, todas las señales son típicamente digita-
lizadas en alguna configuración de montaje (comúnmente referencial). Debido a que
cualquier montaje puede ser construido matemáticamente a partir de cualquier otro,
los EEGs pueden ser desplegados por cualquier equipo EEG en la configuración de
montaje deseado.

2.1.3. Origen de las señales EEG

El cerebro humano consiste en cerca de cien mil millones de células nerviosas lla-
madas neuronas, quienes son las responsables de generar las cargas eléctricas del
cerebro. Las neuronas comparten las mismas características y partes de otras célu-
las, pero su carácter electromecánico les permite transmitir señales eléctricas y pasar
18

mensajes entre ellas a través de largas distancias. Las neuronas tienen tres partes
básicas: cuerpo celular (soma), axón y dendritas (Carlson, 2002a; Purves et al., 2004)
como se muestra en la Figura 8.

Figura 8. Estructura simple de una neurona (Sanei y Chambers, 2007).

El núcleo celular es el corazón que da instrucciones a la célula. El axón es una parte


larga y delgada de la célula que conecta su núcleo con la dendrita de otra célula. La
dendrita es una sección corta de la neurona con muchos sitios receptivos para neuro-
transmisores que pueden ser enviados por un axón apareado. Las dendritas pueden
estar localizadas en ambos extremos de la célula. A través de la unión axón-dendrita,
las neuronas pueden comunicarse entre ellas. Esta comunicación es posible a través
del potencial de acción.

El potencial de acción es un evento en el que un ion es impulsado a lo largo de la


parte externa de un axón, cambiando rápidamente su estructura iónica, permitiendo
que una señal eléctrica viaje rápidamente a través del axón a la siguiente dendrita
(Atwood y MacKay, 1989). Como resultado de este cambio abrupto de carga iónica, un
voltaje es generado tanto en el interior como en el exterior de la membrana celular
de la neurona (Carlson, 2002b; Sanei y Chambers, 2007; Purves et al., 2004). Estas
neuronas emiten un químico llamado neurotransmisores. El sistema de comunicación
19

interneuronal se muestra en la Figura 8. La Figura 9 presenta el flujo de corriente que


contribuye al EEG superficial durante una entrada de excitación de red. Cuando las
neuronas son activadas por medio de un gradiente de concentración electroquímica,
se producen flujos de corriente locales. La actividad de las neuronas puede ser divi-
dida en dos subconjuntos; potenciales de acción (AP1 ) y potenciales postsinápticos
(PSP2 ). Si el subconjunto PSP alcanza el nivel de conducción umbral para la neurona
postsináptica, ésta se dispara, y un AP es iniciado (Atwood y MacKay, 1989).

- Canal EEG
+ Amp
Ref

Cuero
Cabelludo
Cráneo

Duramadre
Aracnoides
Espacio
Subaracnoide
- -
Piamadre
- -
Sinapsis Activa

+ +
+ + Axón Aferente
+ +

Axón Eferente

Figura 9. Ilustración de la generación de pequeños campos eléctricos mediante corrientes sinápticas en


las células piramidales.

1 Del inglés: Action Potential


2 Del inglés: Postsynaptic Potential
20

Los potenciales eléctricos detectables en la superficie del cuero cabelludo son ge-
nerados por la sumatoria de PSPs de inhibición y excitación de baja frecuencia pro-
venientes de las células neuronales piramidales que crean dipolos eléctricos entre el
soma y las dendritas apicales (ver Figura 9). Estos PSPs se suman en la corteza y se
extienden hasta la superficie del cuero cabelludo donde pueden ser registrados como
EEG. Los APs de las células nerviosas tienen una distribución de campo potencial mu-
cho más pequeña y son mucho más cortos en su duración comparados con los PSPs.
Los APs entonces no contribuyen significativamente a los registros EEG de cuero ca-
belludo o intracraneales. Solamente grandes poblaciones de neuronas activas pueden
generar actividad eléctrica detectable en el cuero cabelludo (Carlson, 2002b; Sanei
y Chambers, 2007; Purves et al., 2004). Cuando el voltaje es generado por una so-
la célula, es típicamente tan pequeño que no puede ser medido con precisión con la
tecnología de la actualidad.

Anatómicamente el cerebro puede ser dividido en tres partes principales: telen-


céfalo, cerebelo y tronco encefálico (Gray, 2002) como se ilustra en la Figura 10. El
telencéfalo es la parte de mayor tamaño y más importante del cerebro humano y es
generalmente asociada con funciones cerebrales relacionadas a pensamientos, mo-
vimientos, emociones y funciones motrices. La capa más externa del telencéfalo está
compuesta por tejidos neuronales conocidos como corteza cerebral. El telencéfalo está
formado por dos hemisferios, el izquierdo y el derecho. Cada hemisferio está dividido
en cuatro lóbulos: frontal, parietal, occipital y temporal (Purves et al., 2004). Estos
lóbulos son responsables de diversas funciones corporales.

El lóbulo frontal está involucrado con la personalidad, emociones, resolución de


problemas, desarrollo motriz, razonamiento, planeación, partes del lenguaje y movi-
miento. El lóbulo parietal es responsable de la sensación (e.g. dolor, tacto), compren-
sión sensorial, reconocimiento, percepción de estímulos, orientación y movimiento. El
lóbulo occipital es responsable del procesamiento visual. El lóbulo temporal está invo-
lucrado en el reconocimiento de estímulo auditivo, lenguaje, percepción y memoria.

El cerebelo se encuentra en la parte trasera baja de la cabeza y también se divi-


de en dos hemisferios. Es la segunda estructura más grande del cerebro y contiene
más de la mitad de las neuronas que lo componen. El cerebelo es una de las áreas
sensoriales del cerebro que es responsable del control motriz, percepción sensorial y
21

Figura 10. Áreas anatómicas del cerebro (Siuly et al., 2016).

coordinación. El cerebelo también está asociado con los movimientos musculares vo-
luntarios, habilidades motrices finas, la postura y la regulación del balance. El tronco
encefálico se localiza debajo del cerebro y conecta al telencéfalo con la médula espi-
nal. El tronco encefálico es como el disco duro de una computadora y es el panel de
control principal del cuerpo. Controla funciones vitales del cuerpo, incluyendo la respi-
ración, conciencia, movimiento de ojos y boca, retransmisión de mensajes sensoriales
(dolor, calor, ruido, etc.), latidos del corazón, presión sanguínea y el hambre.

En la medición EEG, la corteza cerebral es la estructura más relevante debido a


que es responsable de tareas cognitivas de alto nivel, como la resolución de proble-
mas, comprensión del lenguaje, movimiento y procesamiento de información visual
compleja. Debido a su posición superficial, la actividad eléctrica de la corteza cerebral
tiene la mayor influencia en los registros EEG.

El estudio de las señales EEG constituye un camino para el diagnóstico de muchos


desórdenes neurológicos y otras anormalidades en el cuerpo humano. Las señales EEG
adquiridas de un humano (y también de otros animales) pueden ser utilizadas para la
investigación de los siguientes problemas clínicos (Birbaumer et al., 2006; Schröder
et al., 2005):
22

Caracterizar ataques epilépticos.

Localizar el orígen de ataques epilépticos.

Probar efectos de medicamentos para epilepsia

Monitoreo de profundidad de anestesia, coma o muerte cerebral.

Monitoreo de ataques o estados epilépticos no convulsivos.

Localización de áreas de daño por lesiones en la cabeza, infarto o tumores.

Estudio de biorretroalimentación.

Monitoreo del desarrollo cerebral.

Probar medicamentos para convulsiones.

Investigar desórdenes de sueño

Investigar desórdenes mentales.

Registro de datos híbridos en conjunto con ótras tecnologías de monitoreo.

Esta lista confirma el gran potencial del análisis EEG y motiva la necesidad de
técnicas avanzadas de procesamiento de señales para ayudar a los especialistas en
la interpretación de las señales EEG. Los patrones EEG son muy importantes para
entender las actividades cerebrales mediante la identificación de las características
morfológicas o examinando bandas de frecuencia asociadas con distintas actividades
mentales o estados de conciencia. Las bandas de frecuencia pueden ser divididas en
cinco categorías.

En la siguiente sección, se discuten los patrones de señales EEG más comunes


en situaciones donde los individuos se encuentran en estado de alerta, durmiendo,
sufriendo un desorden mental o experimentando emociones extremas.

2.1.4. Características y naturaleza de las señales EEG

La frecuencia es uno de los criterios más importantes para evaluar anormalida-


des en EEGs clínicos y para entender comportamientos funcionales en la investigación
23

cognitiva. Esta se refiere a la actividad repetitiva rítmica (medida en Hz), es decir, el


número de ciclos por segundo. Considerando que tiene su origen en comunidades de
miles de millones de neuronas oscilando, los potenciales EEG humanos se manifiestan
como oscilaciones aperiódicas impredecibles con ráfagas intermitentes de variaciones.
En adultos sanos, las amplitudes y frecuencias de tales señales cambian de un estado
a otro, como la vigilia o el sueño. Existen cinco grandes grupos de ondas cerebrales
distinguidas por sus rangos de frecuencias. De menor a mayor frecuencia, estas ban-
das son categorizadas en delta (δ, 0.5-4 Hz), theta (θ, 4-8 Hz), alfa (α, 8-13 Hz), beta
(β, 13-30 Hz) y gamma (γ, >30 Hz) (Niedermeyer y Lopes da Silva, 2005; Fisch, 1999).
Frecuencias más altas son más comunes en estados cerebrales anormales como la
epilepsia. La Figura 11 muestra ejemplos de estos ritmos EEG.

Gamma

Beta

Alfa

Theta

Delta

Figura 11. Ejemplo de distintos tipos de ritmos EEG.

Las ondas delta, que abarcan el rango entre 0.5 y 4 Hz son las mayores en amplitud,
pero las menores en frecuencia. Están asociadas principalmente a sueño profundo,
desórdenes cerebrales y el estado de vigilia.

Las ondas theta abarcan el rango entre 4 y 8 Hz y tienen una amplitud usualmente
mayor a los 20 μV. Estas surgen de estrés emocional, especialmente de frustración o
desilusión, actividad inconciente, inspiración creativa y meditación profunda.
24

Las ondas alfa comprenden el rango de frecuencias entre 8 y 13 Hz, tienen una am-
plitud entre 30 y 50 μV, y son especialmente detectables en las regiones posteriores
de la cabeza (lóbulo occipital) cuando el sujeto tiene los ojos cerrados o se encuentra
en estado de relajación. Usualmente son asociadas con actividad mental intensa, es-
trés y tensión. La actividad alfa registrada en las áreas sensorial-motrices es también
llamada actividad mu.

Las ondas beta se encuentran en el rango de frecuencias entre los 13 y 30 Hz y


se observan en una baja amplitud y frecuencias variables en ambos lados del área
frontal. También cuando el cerebro es excitado y participa enérgicamente en activida-
des mentales, se generan ondas beta. Estas usualmente son asociadas con atención
activa, concentración en el mundo externo o la solución de problemas concretos.

Las ondas gamma son aquellas cuya frecuencia es de 30 Hz en adelante, aunque


a veces se establece la frecuencia máxima de 80 o 100 Hz. Se asocian con varias
actividades cognitivas y motrices.

La Figura 12 presenta una ilustración de un registro EEG normal. Se trata de un


ejemplo de EEG a un paciente despierto que contiene la cantidad común de activi-
dad beta. Como se muestra, la actividad beta es frecuentemente fácil de identificar
durante la relajación en vigilia o somnolencia temprana.

Figura 12. Ilustración de un registro EEG normal (Siuly et al., 2016).


25

Las señales eléctricas EEG que tienen origen fuera de la actividad cerebral son
llamadas artefactos. Los registros EEG son casi siempre contaminados por tales arte-
factos. La amplitud de estas señales es en gran parte relativa a la amplitud de las
señales corticales de interés, por esta razón, interpretar señales EEG clínicamente re-
quiere experiencia considerable.

La Figura 13 muestra una ilustración de los cuatro tipos más comunes de artefactos
en registros EEG humanos, mismos que se describen a continuación:

1. Electro-oculográficos: Son causados por la excitación de los músculos del globo


ocular (e.g. parpadéos). Tienen gran amplitud, baja frecuencia y son más promi-
nentes en los electrodos frontales.

2. Falso contacto de electrodo: Son causados por pobre contacto eléctrico (lo que
impide el paso de corriente eléctrica) entre el electrodo y la piel. Se presenta
como una onda de gran amplitud en uno o más canales.

3. Tragar: Como su nombre lo indica, ocurre por los movimientos musculares origi-
nados al tragar o pasar saliva.

4. Falso contacto de referencia: Son causados por el pobre contacto eléctrico entre
el electrodo de referencia y la piel. Se presenta como una onda de gran amplitud
en todos los canales.

Figura 13. Ejemplos de los principales tipos de artefactos en el EEG humano (Siuly et al., 2016).
26

2.2. El fenómeno de las ondas alfa

A pesar de que la actividad de 10 Hz constituye el primer ritmo observado en las se-


ñales electroencefalográficas, su detección en sujetos de estudio promedio no resulta
trivial, ya que requiere cierto grado conocimiento relacionado con electrofisiología.

Los primeros trabajos como el de Adrian y Matthews, en 1934, utilizaron la palabra


“electroencefalograma”, o “Ritmo Berger”, para referirse simplemente a la actividad
de 10 Hz registrada en el cuero cabelludo; y sólamente hasta que se encontraron otros
ritmos y patrones de actividad eléctrica, fue que se le asignó el nombre especial de
ondas “alfa” al ritmo de 10 Hz.

Adrian y Matthews también descubrieron que las ondas alfa se encuentran en ma-
yor amplitud en la parte trasera de la cabeza, y normalmente resultan más evidentes
cuando el sujeto de estudio tiene los ojos cerrados y se encuentra relativamente re-
lajado. El ritmo alfa desaparece si la atención del sujeto se encuentra completamente
ocupada, como en el caso en que se encuentre realizando aritmética mental, y regre-
sa cuando el sujeto deja de concentrarse. Este fenómeno es conocido como “bloqueo
alfa”.

Adrian y Matthews observaron también que las ondas alfa desaparecían específica-
mente cuando el sujeto enfocaba su vista en algo y podían producirse incluso cuando
los ojos se encuentran abiertos, pero teniendo un campo visual uniforme (un arreglo
de vidrio opalizado en forma de tazón frente a la cara, iluminado con lámparas en
forma de anillo). Claramente inhibido por la estimulación visual enfocada, el ritmo alfa
podía ser también modulado por una fuente de luz intermintente. Adrian y Matthews
encontraron que era posible obtener una frecuencia tan alta como 25 Hz bajo las condi-
ciones adecuadas. Además observaron que intermitencias de 10 Hz en la iluminación,
potenciaban las ondas alfa, duplicando su amplitud comparada con aquella registrada
cuando el sujeto de estudio tenía los ojos cerrados.

Los fenómenos esenciales de las ondas alfa fueron establecidos hace ya varias dé-
cadas, y se puede discutir que sólo se conoce un poco más sobre ellos en la actualidad.
Nuestro entendimiento de la fisiología del EEG como un todo también se ha desarrolla-
do de manera lenta a lo largo de éste período. En la siguiente sección se narra el gran
27

reto que representó lograr la aceptación de la idea de que las ondas alfa se originan en
el cerebro. Esta propuesta generó un acalorado debate en las publicaciones académi-
cas durante los principios de la década de 1970, ilustrando sorprendentemente cómo,
a pesar de 40 años de investigación y una historia similarmente extensa de la aplica-
ción clínica de las técnicas EEG, se conocía muy poco sobre el origen y significado de
las ondas alfa.

2.2.1. Primeros intentos para identificar el origen de las ondas alfa

Basado en sus observaciones de la relativa independencia entre las ondas prove-


nientes de ambos lados de la cabeza, Adrian y Yamigawa, en 1935, propusieron dos
fuentes para las ondas alfa, una en cada lóbulo occipital. Walsh, en 1958, utilizó un co-
rrelacionador de ondas electrónico para comparar las relaciones de fase de las ondas
alfa provenientes de ambos hemisferios, y llegó a la misma conclusión.

Un estudio más sofisticado, utilizando un sistema de registro EEG de 48 canales y la


construcción de mapas de campo equipotencial, fue reportado en 1971 por Lehmann.
Tres áreas del cuero cabelludo fueron asociadas con los valores máximos y mínimos,
indicando proximidad al origen de la actividad en el rango alfa: los lóbulos occipitales
izquierdo y derecho, y una ubicación parietal central, en el vértice. Esto no es necesa-
riamente contradictorio con respecto a los dos hallazgos anteriores, el origen central
podría ser una reflexión de las ondas Mu, que también presentan una frecuencia cer-
cana a los 10 Hz. Sin embargo, resulta extraño, si así fuera, que dos generadores, uno
sobre cada lado de la corteza sensorial-motriz, tampoco fueran evidentes para este
ritmo.

Una tercer posible explicación es que exista un generador central para las ondas
alfa, y que se exprese de manera independiente en cada lóbulo occipital. Henderson,
en 1976, asumió un generador común para todas las ondas alfa registradas en el cuero
cabelludo, y sugirió una posición a partir de los registros multicanal, correspondiente
al núcleo ventrolateral del tálamo izquierdo, en el cual toda la actividad alfa podría ser
originada.

En resumen, los registros obtenidos en el cuero cabelludo, indican que la actividad


alfa se origina en el centro del cerebro y de alguna manera se expresa de forma inde-
28

pendiente en los lóbulos occipital derecho e izquierdo, presuntamente modulada por


la actividad en cada hemisferio.

2.2.2. Evidencia moderna del origen de las ondas alfa

Un reto asombrosamente persuasivo para la idea aceptada de que las ondas alfa
tenían origen en la corteza occipital fue presentado en 1970 por Olof Lippold, cuya
teoría de que las ondas alfa eran causadas por la vibración de los globos oculares fue
realmente tomada en cuenta para todos los hechos conocidos sobre ellas.

Lippold, un fisiólogo que dedicó gran parte de su carrera de investigación trabajan-


do en la actividad muscular, fue impresionado por la similaridad entre el ritmo alfa y
la vibración muscular. Los músculos en una persona despierta vibran a una frecuen-
cia cercana a los 10 Hz cuando están inactivos. Durante el movimiento con propósito,
esta vibración normalmente desaparece, y durante relajación profunda o el sueño,
su frecuencia disminuye al grado de dejar de ser medible. La tensión muscular es
determinada por un nervio aferente de la espina dorsal, y la actividad del nervio es
modulada por la información proveniente de la espina dorsal desde celulas sensibles
al estiramiento en el músculo, por medio de las fibras aferentes. Un ligero retraso en
este lazo significa que el sistema es fácilmente puesto en vibración. Cuando se reali-
zan movimientos con propósito, la tensión muscular es determinada por un conjunto
de reflejos orientado a objetivos totalmente diferente y la vibración desaparece.

La hipótesis de Lippold era esencialmente que cuando se cierra el ojo, los músculos
que controlan su movimiento comenzarán a vibrar, tal como cualquier otro músculo lo
hace, y esta vibración resultará en el movimiento del globo ocular. En la parte trasera
del ojo se encuentra una capa de tejido sensible a la luz conocido como retina, y a
través de ella se encuentra un potencial eléctrico en reposo de cerca de un milivolt (el
potencial corneo-retinal), una carga masiva en términos electrofisiológicos (La escala
de los registros EEG normalmente se establece en el orden de los microvolts). Cual-
quier movimiento del ojo resultará en un cambio en el campo eléctrico, especialmente
en la parte delantera de la cabeza (el electro-oculograma se basa de hecho en este
principio). La creencia de Lippold era que de alguna manera, estos cambios de poten-
cial resonaban a través del cráneo, y así eran más fácilmente medibles en el occipucio,
manifestandose como ondas alfa en los registros EEG.
29

Con la finalidad de probar esta hipótesis, Lippold enfrió un ojo mientras de forma
simultánea calentaba el otro, con agua, y encontró que el ritmo alfa en el lado frío
(medido occipitalmente) era más lento que aquel medido en el lado caliente. Sugirió
que este efecto era causado por una diferencia en el retraso inherente en el arco de
reflejo de estiramiento para ambos ojos, efecto causado por la diferencia de tempe-
ratura. Similarmente, Lippold alteró el potencial corneo-retinal mediante la exposición
de los ojos de los sujetos de estudio a distintos niveles de iluminación, y observó
que la amplitud alfa estaba altamente correlacionada con la magnitud del potencial
corneo-retinal, como lo predecía su teoría. De esta forma, no resulta sorprendente que
la teoría de Lippold recibiera mucha atención.

Una predicción esencial de este modelo es que la gente sin ojos (normalmente, a
quienes les fueron extirpados por motivos clínicos) deberían mostrar ausencia de on-
das alfa, debido a que no presentan potencial corneo-retinal. Hablando generalmente,
la gente ciega presenta ritmo alfa escaso o nulo. Un reporte sobre un sujeto sin ojos
que presentaba ondas alfa, fue rechazado por Lippold después de haber examinado a
profundidad al sujeto por si mismo. A pesar de el hecho de que el paciente no tenía
retina, la membrana que reviste al ojo se encontraba en un estado constante de agi-
tación. Lippold interpretó que estos hechos mostraban que la fuente del alfa no eran
de hecho los músculos extraoculares y el potencial corneo-retinal, sino los muñones
de músculo y los revestimientos de la órbita, aunque no era claro cómo esta actividad
podía ser transformada como actividad occipital.

Una prueba más directa de la explicación periférica del ritmo alfa fue reportada por
Cavonius y Estevez-Uscaryn en 1974, utilizando un aparato que permitía la estimula-
ción independiente de la corteza visual izquierda o derecha (Los nervios sensoriales
del ojo van sistemáticamente al hemisferio izquierdo o derecho, dependiendo de la
mitad del campo visual y del ojo del cual provienen). Descubrieron que la estimulación
en patrones sólo causaba “bloqueo alfa” en un lado de la cabeza (el mismo del campo
visual que estaba siendo utilizado, como lo hubiera predicho la anatomía), a pesar del
hecho de que ambos ojos recibieron información idéntica. Esto parecía terminar con la
teoría de Lippold conclusivamente, aunque aún no hay explicación para la evidencia
de correlación existente entre la amplitud de las ondas alfa y el tamaño del potencial
corneo-retinal.
30

Una replicación posterior no pudo repetir la observación de Lippold de que un cam-


bio en el potencial corneo-retinal originaba cambios en la amplitud alfa (esto no se
debió a que los autores no tuvieran control sobre la amplitud del potencial corneo-
retinal, ya que demostraron que los potenciales de los sujetos fueron modificados por
cambios en la iluminación ambiental, al menos tanto como Lippold lo hizo). Aunque la
teoría de Lippold resultaba atractiva, este resultado permitió rechazarla como una ex-
plicación para toda la actividad de 10 Hz medible en el cuero cabelludo. El mérito real
de su modelo está en demostrar lo poco más que sabemos de las señales EEG y las
ondas alfa en comparación de lo que Hans Berger sabía en 1929, y también sirvió para
puntualizar la necesidad de considerar mecanismos fisiológicos en el sistema visual
cuando se intenta dar una explicación al fenómeno de las ondas alfa.

Wertheim in 1974 desarrolló una hipótesis en la que, al igual que Lippold, vincula
las ondas alfa con los sistemas de retroalimentación y control de los ojos. El com-
portamiento atento siempre está acompañado de la utilización de retroalimentación
oculo-motriz en las personas con vista normal, y en 1981 sugirió que es el uso de in-
formación aferente de la retina sobre la posición del ojo lo que atenúa las ondas alfa.
Es decir, las ondas alfa no son generadas periféricamente pero son bloqueadas por el
uso de retroalimentación periférica proveniente de los ojos. En otras palabras: “... el
grado de desincronización del EEG occipital no está relacionado con el procesamiento
de información visual, pero puede ser considerado como un reflejo del grado en que la
información retinal es usada para el control oculo-motriz.

Un experimento en el que la actividad alfa fue evaluada durante la ejecución de


una tarea de persecución rotatoria mostró que era máxima cuando los movimientos
del objetivo eran regulares y predecibles. Cuando los sujetos cometían errores bajo
estas condiciones (y consecuentemente se veían obligados a utilizar retroalimentación
retinal para corregir su desempeño en el seguimiento del objetivo), la actividad alfa
era reducida. Cuando el objetivo se movía de manera impredecible, la actividad alfa
era muy baja, tanto en el desempeño exitoso, como al cometer errores. Wertheim
utilizó información del tiempo de reacción para mostrar que el nivel de procesamiento
de información no era reducido significativamente durante la tarea fácil, cuando los
tiempos de reacción eran los menores, y aparentemente no estaba relacionado con la
cantidad de alfa durante la presentación de estímulos.
31

Mientras el trabajo de Wertheim impresionantemente identificó que la aferencia


retinal jugaba un papel de gran importancia en la determinación de la expresión de la
actividad alfa, y por lo tanto apoyaba la noción de que la actividad alfa se originaba
en el tálamo, como fue sugerido por Andersen y Andersen, hablaba muy poco sobre
su función.

Resulta claro con la evidencia aquí discutida que la actividad alfa no es completa-
mente producida por artefactos (aunque es posible que una proporción pequeña de la
actividad de 10 Hz tenga origen corneo-retinal) y que su expresión es determinada en
gran parte por las funciones oculo-motrices periféricas.

2.3. Interfaces cerebro-computadora

Un campo relativamente nuevo, pero emergente para los EEGs es el de las inter-
faces cerebro-computadora (BCI3 ). Las BCI son una tecnología que busca una nueva
forma de comunicación entre un cerebro y una computadora. Una BCI es un sistema
basado en una computadora que adquiere señales cerebrales, las analiza, y las tra-
duce en comandos que en muchos de los casos son retransmitidos a dispositivos de
salida para llevar a cabo una acción determinada (ver Figura 14).

El objetivo clave de la investigación de las BCI es crear un nuevo camino de co-


municación permitiendo transmisión de mensajes del cerebro mediante el análisis de
actividades mentales para gente que sufre de discapacidades neuromusculares (Siuly
y Li, 2015). Para medir las señales EEG, se coloca una serie de electrodos en el cuero
cabelludo del usuario. Para controlar los dispositivos de salida, el usuario imagina una
tarea específica, como el movimiento de las extremidades o palabras concretas. Estas
tareas afectan los patrones en las señales EEG. Las computadoras detectan y clasifi-
can estos patrones en distintas tareas con la finalidad de controlar una aplicación de
cómputo (como el movimiento de un cursor en pantalla) o controlar una máquina (e.g.
una silla de ruedas).

Las BCI tienen diversas aplicaciones, especialmente para personas con discapaci-
dad como: nuevas formas para jugar videojuegos, interacciones sociales permitiendo
aplicaciones sociales detectar sentimientos y emociones, ayudar a personas parcial
3 Del inglés: Brain-Computer Interface
32

o totalmente discapacitadas para interactuar con distintos dispositivos de cómputo y


ayudar a entender más acerca de las actividades cerebrales y redes neuronales hu-
manas (Hassanien y Azar, 2015).

Las BCI no requieren movimiento físico real, y por lo tanto pueden servir como me-
dio de comunicación para personas que tienen discapacidades motrices severas. Las
BCI podrían también reducir los síntomas resultantes de accidentes cerebro-vasculares,
autismo, desordenes emocionales y de atención.

Existen dos tipos de BCIs: invasivas, que se basan en señales registradas por elec-
trodos implantados sobre la corteza cerebral (lo cual requiere intervención quirúrgica),
y no invasivas, basadas en señales registradas por electrodos colocados sobre el cuero
cabelludo (fuera de la cabeza) (Wolpaw et al., 2002). En investigación reciente, las BCI
no invasivas son la técnica preferible.

Pre-Procesamiento

Extracción de
Características

Digitalización

BCI
Clasificación

Señales
EEG
Control de
Movimiento

Retroalimentación

Figura 14. Arquitectura general de un sistema BCI.

En general, los sistemas BCI permiten a individuos interactuar con el ambiente ex-
terno mediante el control consciente de sus pensamientos en lugar de la contracción
muscular (e.g. interfaces humano-computadora controladas mediante señales mioe-
léctricas). Un sistema BCI típicamente requiere el seguimiento de un proceso de lazo
33

cerrado que generalmente consiste de seis pasos: medición de la actividad cerebral,


pre-procesamiento, extracción de características, clasificación, traducción en instruc-
ciones y retroalimentación (Mason y Birch, 2003) como se muestra en la Figura 14. El
resultado de la clasificación permite el control de dispositivos externos. Otro aspec-
to de los sistemas BCI es que el usuario recibe un estímulo (visual, auditivo o táctil)
y/o ejecuta tareas mentales mientras las señales cerebrales son capturadas y proce-
sadas. Basado en el estímulo o tarea ejecutada por el usuario, varios fenómenos o
comportamientos extraídos de las señales EEG pueden ser detectados. A continuación
se describen a detalle los seis pasos del proceso que siguen típicamente los sistemas
BCI:

Medición de la actividad cerebral: La medición efectiva de la actividad cerebral


resulta un paso crítico para las comunicaciones de los sistemas BCI. Las inten-
ciones humanas modulan señales eléctricas que son medidas utilizando diversos
tipos de electrodos y después tales señales son digitalizadas.

Pre-procesamiento: El pre-procesamiento tiene como objetivo simplemente llevar


a cabo operaciones de procesamiento subsecuente, mejorando la calidad de la
señal sin perder información. En este paso, las señales registradas son procesa-
das para limpiarlas y eliminar el ruido con la finalidad de realzar la información
relevante contenida en las señales (Bashashati et al., 2007).

Extracción de características: Los patrones cerebrales utilizados en las BCIs con-


tienen ciertas características. La extracción de características tiene como objeti-
vo describir las señales mediante unos cuantos valores llamados “características”
(Bashashati et al., 2007).

Clasificación: El paso de clasificación asigna una clase a un conjunto de caracte-


rísticas extraídas de las señales. Esta clase corresponde al tipo de estados men-
tales identificados. Este paso es también conocido como “traducción de caracte-
rísticas”.

Traducción en instrucciones: Una vez que el estado mental ha sido identificado,


una instrucción o conjunto de instrucciones es asociado a tal estado mental con
la finalidad de controlar alguna aplicación, tal como una computadora o un robot.
34

Retroalimentación: Finalmente, este paso provee al usuario de retroalimentación


sobre el estado mental identificado. Esto tiene como objetivo ayudar al usuario a
controlar su actividad cerebral y mejorar su desempeño.

Una BCI puede detectar y clasificar patrones de señales cerebrales asociados con
tareas o eventos específicos. Lo que el usuario tiene que hacer para producir estos
patrones se determina mediante la estrategia mental que la BCI emplea. La estrate-
gia mental es la base de cualquier comunicación cerebro-computadora. La estrategia
mental determina qué es lo que el usuario debe hacer, con la finalidad de producir
patrones cerebrales que la BCI pueda interpretar. Las estrategias mentales más comu-
nes son imaginación motriz y atención selectiva. La imaginación motriz consiste en la
imaginación de un movimiento sin la necesidad de llevarlo a cabo. Por otro lado, las
BCIs basadas en atención selectiva, requieren estímulo externo provisto por el sistema
BCI. El estímulo puede ser auditivo o táctil.

2.3.1. OpenBCI

OpenBCI es un sistema de interfaz cerebro-computadora libre utilizado para medir


y registrar actividad eléctrica producida por el cerebro (EEG), los músculos (EMG) y el
corazón (ECG). Esta plataforma de hardware es compatible con la interfaz gráfica del
usuario OpenBCI GUI, o cualquier herramienta de procesamiento de señales EEG libre.

El sistema se ofrece en versiones de 8 y 32 bits con 8 y 16 canales. Estas caracte-


rísticas se adaptan al proyecto a desarrollar de acuerdo con la velocidad de procesa-
miento, tamaño de memoria RAM y cantidad de canales de medición requeridos en el
mismo.

La versión de 8 bits utiliza un microcontrolador ATmega328P precargado con el


bootloader de Arduino UNO. Cuenta con un acelerómetro LIS3DH de 3 ejes, módulo
radio RFduino BLE, ranura para tarjeta microSD, 8 canales de medición, espacio de 32
Kilobytes para cargar código, 1 Kilobyte de memoria EEPROM, alrededor de 2 Kilobytes
de memoria RAM, y opera con un reloj de 16 MHz.

La version de 32 bits se basa en un microcontrolador PIC32MX250F128B precar-


gado con el bootloader UDB32-MX2-DIP de chipKIT. Puede llevar a cabo mediciones
35

a través de 8 canales con la posibilidad de ser expandido a 16 canales utilizando el


módulo Daisy. Cuenta con un acelerómetro LIS3DH de 3 ejes, módulo radio RFduino
BLE, ranura para tarjeta microSD, 128 Kilobytes para cargar código, 32 Kilobytes de
memoria RAM y puede operar a 16 MHz con el reloj externo o a 40 MHz con la señal
de reloj generada internamente.

2.3.1.1. Juego de desarrollo de 32 bits

En el presente trabajo de investigación, la interfaz cerebro-computadora utilizada


está basada en el juego de desarrollo de 32 bits de OpenBCI. Este juego incluye todo
el hardware preconfigurado necesario para llevar a cabo mediciones de señales cere-
brales de manera inmediata. A continuación se enlistan las partes que lo integran, así
como la funcion de cada una de ellas:

Tablero OpenBCI de 32 bits: Es el tablero electrónico principal del sistema OpenB-


CI, su función se centra en recibir, filtrar, amplificar, digitalizar y transmitir de
forma inalámbrica las señales provenientes de los electrodos.

Figura 15. Tablero OpenBCI de 32 bits.

Módulo Daisy OpenBCI: Es un tablero electrónico de expansión para el sistema


OpenBCI, su función es proveer las mediciones de 8 canales adicionales con la
finalidad de tener un total de 16 canales de medición.
36

Figura 16. Módulo Daisy OpenBCI.

Receptor inalámbrico programable OpenBCI: Es el tablero electrónico que recibe


de manera inalámbrica las señales transmitidas por el tablero OpenBCI de 32
bits y las envía a la computadora a través de un puerto USB para su posterior
procesamiento y análisis.

Figura 17. Receptor inalámbrico programable OpenBCI.

Adaptadores para electrodos a prueba de toque: Son utilizados exclusivamente


en aplicaciones en las que se requiera utilizar electrodos distintos a los incluidos
en el juego de desarrollo. Constan de dos grupos de 10 adaptadores cada uno,
y se encuentran identificados con código de colores para facilitar su utilización.
Para los efectos de este trabajo de investigación, estos adaptadores no serán
utilizados.
37

Figura 18. Adaptadores para electrodos a prueba de toque.

Electrodos pasivos: Se encargan de captar y transportar las señales medidas ha-


cia el tablero electrónico OpenBCI. Constan de dos grupos de 10 electrodos cada
uno, y se encuentran identificados con código de colores para facilitar su utiliza-
ción. Para los efectos de este trabajo de investigación, estos electrodos no serán
utilizados.

Figura 19. Electrodos pasivos.

Módulo de 6V para baterías AA: Permite conectar en serie un total de 4 baterías


AA al tablero OpenBCI de 32 bits con la finalidad de proveer la energía necesaria
para que el sistema de tableros electrónicos puedan operar.
38

Figura 20. Módulo de 6V para baterías AA.

Postes de plástico: Son colocados en las 4 perforaciones del tablero principal del
sistema OpenBCI, permiten su estabilización y facilitan su instalación en estruc-
turas para sujeción de electrodos.

Figura 21. Postes de plástico.


39

Capítulo 3. Fundamentos matemático-computacionales

El tercer capítulo presenta un análisis de las herramientas matemáticas y compu-


tacionales que son empleadas para llevar a cabo el procesamiento y la clasificación
de las señales electroencefalográficas con el modelo computacional propuesto en esta
investigación.

Primeramente se provee una descripción a detalle del análisis de señales en el do-


minio de la frecuencia, así como una breve referencia histórica y los fenómenos que
deben ser considerados al utilizar esta técnica. Posteriormente se introducen las dis-
tribuciones de datos y los valores que se utilizan para describirlas de acuerdo a su
localización, dispersión y forma. Continuando con los fundamentos de la técnicas de
proyección 3D-2D, un análisis a detalle de la técnica de Proyección Azimutal Equidis-
tante y los principios en los que se basan las técnicas de interpolación. Finalmente,
se introducen el cómputo evolutivo y la programación de cerebros artificiales como
paradigma para la clasificación de pseudo-imágenes.

3.1. Análisis en el dominio de la frecuencia

Jean Baptiste Joseph Fourier (1768-1830), un brillante matemático francés, tuvo la


gracia (o desgracia) de vivir en el tiempo de las conquistas del mundo civilizado de Na-
poleón. El participó en la expedición de Napoleón a Egipto como consejero de ciencia,
después se convirtió en egiptólogo y administrador para el gobierno de Napoleón. Fue
durante su época como prefecto en Grenoble cuando desarrolló su mayor trabajo de
conducción de calor. Le tomó, sin embargo, cerca de dos décadas publicar este trabajo,
principalmente debido a la propuesta de una novedosa (y en ese tiempo controversial)
manera de descomponer señales periódicas en sumas ponderadas de funciones seno
y coseno. Esta descomposición, en nuestros días conocida como series de Fourier, ha
sido su mayor contribución a la ciencia, en gran parte trascendiendo su aplicación en
la conducción de calor.

Siguiendo las ideas de Fourier, las señales como las que son extraidas del cuero
cabelludo mediante los electrodos superficiales EEG pueden ser representadas en el
40

dominio del tiempo o alternativamente en terminos de su descomposición en senos y


cosenos en el dominio de la frecuencia. Tomemos por ejemplo la señal oscilatoria de la
parte superior izquierda en la Figura 22 y supongamos que queremos transmitirla a al-
guien más. Podríamos en un principio dictar todos los puntos en tiempo de la senoidal
uno por uno, o alternativamente podríamos sólamente decir que es una senoidal con
una frecuencia de 10 Hz (i.e. un ciclo repitiendose cada 100 ms), como se representa
en el gráfico de frecuencia de la parte inferior izquierda de la misma figura. Estas dos
vistas parecen análogas, aunque podríamos también decir que la representación en
frecuencia en el gráfico inferior parece ser más compacta y simple. Tomemos ahora
el ejemplo de la parte superior derecha en la Figura 22. Resulta bastante difícil tener
un entendimiento de esta señal a partir de su representación en el tiempo en el grá-
fico de arriba. Sin embargo, la representación en frecuencia del gráfico de la parte
inferior derecha arroja un conocimiento minucioso de su naturaleza: es sólamente la
superposición de 3 senoidales de distintas frecuencias.

1 2

0.5 1

a) 0 c) 0

-0.5 -1

-1 -2
0 0.5 1 0 0.5 1
Tiempo (s) Tiempo (s)

1 1

0.8 0.8

0.6 0.6
b) d)
0.4 0.4

0.2 0.2

0 0
0 10 20 30 0 10 20 30
Frecuencia (Hz) Frecuencia (Hz)

Figura 22. Señales en los dominios del tiempo y la frecuencia: a) señal senoidal en el dominio del tiempo,
b) señal senoidal en el dominio de la frecuencia, c) señal compuesta en el dominio del tiempo y d) señal
compuesta en el dominio de la frecuencia.
41

Este sencillo ejemplo ilustra la idea de por qué se utilizan las representaciones en
frecuencia. Basicamente, tratamos de obtener una imagen sencilla de algunas de las
características básicas de la señal, que usualmente no son obvias en las representa-
ciones ruidosas y complejas en el tiempo.

Esta representación de una señal en frecuencia está dada por su transformada de


Fourier(FT1 ), que tiene innumerables aplicaciones en diversas disciplinas científicas.
En el caso específico de las señales EEG, es por mucho la herramienta cuantitativa
más utilizada, especialmente después de la introducción de un algoritmo muy eficiente
y rápido para calcularla, la transformada rápida de Fourier (FFT2 ) (Cooley y Tukey,
1965). En las siguientes secciones describiremos las ideas básicas de la transformada
de Fourier y su implementación para el análisis de señales EEG junto con algunas
aplicaciones.

3.1.1. Transformada contínua de Fourier

Existen cuatro tipos diferentes de transformadas de Fourier, dependiendo de si la


señal es contínua o discreta o si la señal es periódica o no. Las derivaciones de estas
cuatro transformadas pueden ser encontradas en libros de texto de matemáticas (ver
e.g. (Oppenheim y Schaffer, 1999)). Aquí nos enfocamos en el caso general de señales
no periódicas, iniciando en esta sección con la transformada contínua de Fourier y sus
propiedades básicas.

La transformada contínua de Fourier de una función (t) se define como:

+∞
Z
X(ω) = (t) e−jωt dt , (1)
−∞

donde e−jωt = cosωt − jsenωt son exponentes complejos y ω es la frecuencia angular


relacionada a la frecuencia lineal ƒ mediante ω = 2π · ƒ . La Ecuación (1) cuantifica
la cantidad de actividad en cada frecuencia ω de la señal original. La transformada
inversa de Fourier se define como:
1 Del inglés: Fourier transform
2 Del inglés: Fast Fourier transform
42

+∞
1
Z
(t) = X(ω) ejωt dω , (2)

−∞

y obtiene de vuelta la señal original (t) expresada como una suma (o una integral
para ser precisos) de funciones seno y coseno de diferentes frecuencias, ponderadas
por los coeficientes de Fourier X(ω). Nótese la simetría de las Ecuaciones (1) y (2),
en el sentido de que podemos cambiar (t) por X(ω) tan solo cambiando el signo del
exponente complejo y agregando un factor de normalización.

La transformada de Fourier puede ser vista como la correlación de la señal (t) y


las funciones senoidales complejas e−jωt :

X(t) = 〈(t), e−jωt 〉 . (3)

Esto da una idea muy intuitiva de la transformada de Fourier. Por supuesto es sólo el
emparejamiento entre la señal original (t) y los exponenciales complejos (o funciones
seno y coseno) de distintas frecuencias.

3.1.2. Transformada discreta de Fourier

Las señales digitales tienen duración finita y son muestreadas con cierta frecuen-
cia de muestreo. Estos factores introducen varios problemas que vamos a discutir a
continuación. Consideremos la señal discreta [n], n = 1, ..., N, que ha sido derivada
de una señal contínua (t) mediante el muestreo en intervalos iguales Δt (i.e. con una
1
frecuencia de muestreo ƒs = ). Obviamente, la duración de la señal es T = N ∗ Δt.
Δt
Análogo al caso contínuo (Ecuaciones (1) y (2)), la transformada discreta de Fourier se
define como:

N−1
X
X(k) = [n] e−j2πkn/ N k = 0, ..., N − 1 , (4)
n=0

y la señal [n] puede ser reconstruida con la transformada inversa discreta de Fourier:
43

1 N−1
X
[n] = X[k] ej2πkn/ N . (5)
N n=0

Los coeficientes de Fourier X[k] son números complejos que pueden ser represen-
tados en forma cartesiana o polar, como:

X[k] = XR [k] + jX [k] = |X[k]| ejϕ , (6)

donde XR y X denotan las partes real e imaginaria en la representación cartesiana, y


|X[K] | y ϕ denotan la amplitud y fase en la representación polar. Si consideramos sólo
secuencias reales [n], se puede mostrar fácilmente que X[k] = X ∗ [N − k] (donde ∗

denota complejo conjugado). Entonces, la transformada de Fourier da un total de N/ 2


coeficientes complejos independientes; eso significa N valores independientes. Debido
a que podemos reconstruir N puntos a partir del mismo número de valores de Fourier
independientes, la transformada de Fourier es no redundante.

A partir de la serie temporal [n] la transformada discreta de Fourier permite co-


nocer la actividad en las frecuencias ƒk , con:

k
ƒk = . (7)
NΔt

Claramente la resolución de frecuencia estará dada por:

1 1
Δƒ = = . (8)
NΔt T

De acuerdo con el teorema de muestreo de Shannon (Mallat, 1999), la frecuencia de


Nyquist se define como la frecuencia más alta que puede ser resuelta con un período
de muestreo Δt:

1 ƒs
ƒN = = , (9)
2Δt 2

y corresponde a k = N/ 2 en la Ecuación (7).


44

Nótese de la Ecuación (8) que podemos incrementar la resolución de frecuencia


mediante el incremento de la duración de la señal T. Para una duración de señal da-
da, reducir el período de muestreo Δt no cambia la resolución de frecuencia, sino la
frecuencia de Nyquist.

3.1.3. Efecto de solapamiento

Para ilustrar la idea de este fenómeno, hagamos referencia a la Figura 23. Supo-
niendo que se muestrea una señal continua senoidal con un período de muestreo
relativamente grande δt. Debido a que el muestreo es demasiado disperso, resulta im-
posible obtener la señal original subyacente, y lo que es aún peor, una oscilación lenta
que no se encontraba en la señal original puede ser observada (ver los marcadores de
las muestras digitales). Este efecto es conocido como solapamiento: la introducción
de frecuencias bajas espuria debido a un muestreo inadecuado de la señal.

Δt

Figura 23. Ilustración del efecto de solapamiento: El muestreo inadecuado de la señal introduce oscila-
ciones espuria de baja frecuencia.

Intuitivamente, para obtener la oscilación original, necesitamos al menos dos mues-


tras por período, en otras palabras, la frecuencia de muestreo debe ser al menos el
doble de la frecuencia de la señal muestreada. Esta es otra manera de establecer el
teorema de muestreo de Shannon y la frecuencia de Nyquist de la Ecuación (9).

En casos reales, como son los registros EEG, no tenemos una señal senoidal a
una frecuencia determinada para la que podemos establecer una razón de muestreo
apropiada. Lejos de eso, tenemos señales ruidosas con actividad en distintas bandas
de frecuencia y la razón de muestreo es establecida por nuestro sistema de adquisición
de datos EEG. Entonces, con la finalidad de evitar el efecto de solapamiento, tenemos
45

que garantizar que el teorema de muestreo de Shannon sea verificado, es decir, que
ƒs 1
la frecuencia máxima de la señal ƒm cumpla ƒm < = . Esto se logra mediante
2 2Δt
la aplicación de filtros pasabajas “anti-solapamiento”. Cabe mencionar que el filtrado
“anti-solapamiento” tiene que ser llevado a cabo por el hardware antes de que la señal
sea digitalizada, ya que una vez digitalizada, no hay forma de deshacerse del efecto
de solapamiento.

3.1.4. Transformada rápida de Fourier

El cálculo de la transformada discreta de Fourier con la Ecuación (4) requiere N2


multiplicaciones complejas, porque por cada una de las N frecuencias discretas k es
necesario calcular una suma de N multiplicaciones con exponentes complejos. Esto
podría tomar demasiado tiempo para Ns grandes pero, afortunadamente, es posible
reducir dramáticamente la velocidad de cálculo mediante el uso del algoritmo de la
transformada rápida de Fourier (Cooley y Tukey, 1965). La introducción de la FFT ha
revolucionado el análisis de señales digitales y, en particular, impulsó el estudio de
los EEGs en el dominio de la frecuencia. Una descripción detallada del algoritmo FFT
puede ser encontrada en la mayoría de los libros de procesamiento de señales (Oppen-
heim y Schaffer, 1999). La idea básica es evitar redundancias dado que en la Ecuación
(4) terminamos calculando las mismas multiplicaciones varias veces. En particular, el
exponente complejo de la Ecuación (4) es periódico y la permutación de n y k da el
mismo resultado. Así, es posible reducir el número de cálculos a realizar. Si N es una
potencia de 2 (e.g., 64,128,256,...), se puede demostrar que la transformada discreta
de Fourier de N-puntos puede ser también expresada en términos de dos transforma-
das de N/ 2 puntos. Debido a que el tiempo de cómputo se hace O(N2 ) esto resulta en
un tiempo de procesamiento menor. Aún mejor, cada una de las dos transformadas
de N/ 2 puntos pueden también ser expresadas en transformadas de N/ 4 puntos y así
consecutivamente hasta que tengamos secuencias de 2 puntos. Puede demostrarse
que el tiempo de cómputo en este caso es de orden Nog2 N, que es claramente más
rápido que N2 . La diferencia en tiempo de procesamiento se vuelve crítica para con-
juntos de datos grandes. Por ejemplo, para un conjunto de datos de 64 puntos, la FFT
es cerca de 10 veces más rápida que el cálculo directo con la Ecuación (4), y para un
millon de puntos (cerca de media hora de registro EEG en un canal a una frecuencia
de muestreo de 500 Hz) la FFT es más de 50,000 veces más rápida.
46

3.1.5. Espectro de potencia

De los exponentes complejos de Fourier X[k] de la Ecuación (4) podemos definir el


periodograma como:

 [k] = |X[k]|2 = X[k] · X ∗ [k] . (10)

Considerando que la señal es un proceso estocástico estacionario, el periodograma


es una estimación cruda de la densidad de potencia espectral de la señal (el espectro
de potencia). En la Sección 3.1.2 se enfatizó que la FT es no redundante. Esto significa
que si se tiene una señal real con N puntos, la FT entrega N valores independientes
(o N/ 2 coeficientes complejos) desde los que se puede obtener la señal original de
regreso. No se gana o pierde información. Esto es cierto tanto para señales lineales,
como no lineales. Sin embargo, es bien conocido que la FT sólo es adecuada para
señales lineales y no puede caracterizar patrones no lineales.

De acuerdo a la Ecuación (6) donde se muestra que los coeficientes de Fourier pue-
den ser escritos en forma polar en términos de amplitud y fase. Una señal estacionaria
no lineal, por ejemplo, una secuencia de picos epilépticos, es representada en el domi-
nio de Fourier como una suma de senoidales, cada una de ellas sumado con una fase
particular para reproducir las formas de pico no lineales. Pero si ignoramos las fases,
perdemos información crítica que caracteriza el patrón no lineal de la señal original
(i.e. los picos). Ahora, de acuerdo a la Ecuación (10), que es únicamente el cuadrado
de la amplitud de los coeficientes de Fourier definidos en la Ecuación (6). El problema
es que usualmente miramos el espectro de potencia de la señal y descartamos la fase.
Es esta la razón por la que perdemos información sobre las estructuras no lineales con
la FT. Pero incluso si mantenemos la información de la fase, la representación de los
patrones no lineales como sumas de senoidales con fases particulares, parece algo
incómodo. En la práctica, la FT es utilizada para extraer las características lineales de
las señales y se recurre a métodos alternativos para estudiar los procesos no lineales.
47

3.1.6. Fuga y ventanas

Anteriormente se mencionó que el periodograma es una estimación cruda del es-


pectro de potencia. En el ejemplo de la Figura 24, la senoidal (a) presenta un número
exacto de ciclos en el período de 0.5 s de la señal y su periodograma (b) muestra un
pico exacto a los 6Hz. La senoidal (c), por otro lado, tiene un número no entero de ci-
clos en el período considerado y su periodograma (d) muestra una actividad esparcida
entre los 2 y 8 Hz. Este efecto de la estimación del espectro de potencia es conocido
como fuga.

1.5 1.5

1 1

0.5 0.5

a) 0 c) 0

-0.5 -0.5

-1 -1

-1.5 -1.5
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
Tiempo (s) Tiempo (s)

1 1

0.8 0.8

0.6 0.6
b) d)
0.4 0.4

0.2 0.2

0 0
0 5 10 15 20 0 5 10 15 20
Frecuencia (Hz) Frecuencia (Hz)

Figura 24. Ejemplo del efecto de fuga: a) La senoidal presenta un número entero de ciclos y b) su
espectro de potencia presenta un sólo pico en 6 Hz. c) La senoidal presenta un número no entero de
ciclos y d) su espectro de potencia es esparcido alrededor de 5 Hz.

Para entender de dónde viene el efecto de fuga, primeramente es necesario notar


que cada señal real tiene una duración limitada y que cuando calculamos la transfor-
mada discreta de Fourier, así mismo, se asume de manera implícita que la señal se
repite a si misma periódicamente fuera del rango de tiempo en el que fue registrada.
La idea básica es que el discretizar la señal (como se hace al muestrearla) impone que
48

la FT será periódica, y discretizar las frecuencias (como también se hace, debido a que
no podemos obtener una distribución contínua de frecuencias para datos reales) im-
pone periodicidad en el dominio del tiempo (Oppenheim y Schaffer, 1999). Si la señal
senoidal de la esquina superior izquierda de la Figura 24 es repetida una y otra vez,
resultará en una senoidal suave, debido a que para este caso el punto de inicio es
exactamente la continuación del punto final. Por el contrario, si la señal de la esquina
superior derecha de la Figura 24 es repetida, se introducirán discontinuidades, mismas
que causan el efecto de fuga. En otras palabras, si se pretende sintetizar la señal de
la esquina superior derecha de la Figura 24, incluyendo las discontinuidades causadas
por la repetición, es necesario utilizar en principio todas las componentes del espectro
y especialmente aquellas entre 2 y 8 Hz.

Rectangular
Bartlett
Hanning
Hamming
6 Blackman

Figura 25. Ventanas comúnmente utilizadas para disminuir el efecto de fuga.

Una manera simple de evitar que ocurra tal efecto, sería tomando un número en-
tero de ciclos. Sin embargo, las señales reales tienen actividad a frecuencias distintas
y es en general imposible definir una sola periodicidad. Una alternativa para evitar
tales discontinuidades es mediante el recorte de los bordes de la señal utilizando una
función ventana apropiada. Sin embargo, al aplicar ventanas para disminuir el efecto
de fuga, se sacrifica la resolución en frecuencia. Una formulación matemática precisa
se encuentra fuera del campo de este documento (ver (Oppenheim y Schaffer, 1999;
49

Jenkins y Watts, 1968)) pero intuitivamente podemos ver que un recorte excesivo de
la señal disminuye la duración efectiva de la misma en la que distintas fecuencias es-
tán definidas y, como se muestra en la Ecuación (8), la longitud de la señal determina
su resolución en frecuencia. Varias ventanas han sido propuestas para optimizar este
sacrificio y sus ventajas y desventajas dependiendo de la aplicación. Entre ellas, las
ventanas más populares son Barlett, Hanning, Hamming y Blackman, como se muestra
en la Figura 25. Para una revisión a profundidad de las mismas, referirse a (Oppenheim
y Schaffer, 1999; Jenkins y Watts, 1968).

3.2. Distribuciones de datos

Los instrumentos de medición son utilizados para llevar a cabo el monitoreo de pro-
piedades físicas cuya naturaleza es continua, ya que el mundo que nos rodea también
lo es. Sin embargo, cuando se utilizan instrumentos de medición digitales, es necesa-
rio discretizar las mediciones tanto en magnitud como en tiempo, con la finalidad de
que estas puedan ser registradas.

Existen propiedades físicas que por su naturaleza presentan fluctuaciones en seg-


mentos cortos de tiempo, lo cual puede resultar inconveniente al llevar a cabo medi-
ciones. Esto ocurre especialmente cuando el instrumento de medición digital cuenta
con una resolución temporal lo suficientemente alta para detectar tales fluctuaciones,
y además, el fenómeno bajo estudio no requiere detalle en cuanto a las variaciones de
la propiedad medida en segmentos de tiempo cortos, sino que, por lo contrario, se pre-
tende estudiar la evolución de dicho fenómeno, en segmentos de tiempo extendidos
definidos de acuerdo a la aplicación.

Una alternativa para tal escenario, es guardar un conjunto de lecturas entregadas


por el instrumento digital, y posteriormente calcular una serie de valores, que puedan
arrojar información del comportamiento del grupo de datos, contenidos en el segmento
de tiempo analizado. Tales valores son conocidos como momentos de una distribución.

Cuando un conjunto de valores presenta una tendencia central alta. Es decir, una
tendencia a agruparse alrededor de un valor particular, entonces puede resultar útil
caracterizar el conjunto por sus momentos estadísticos.
50

3.2.1. Parámetros de localización

En los análisis estadísticos, resulta una tarea fundamental estimar parámetros de


localización para la distrubución de datos, por ejemplo encontrar un valor típico o
central que describa de mejor manera el conjunto de datos.

El parámetro de localización mejor conocido es la media de los valores 1 , ..., N ,


que se calcula como sigue:

N
1X
̄ = j , (11)
N j=1

que estima el valor alrededor del cual el agrupamiento central ocurre. Cabe mencio-
nar que la media no es el único estimador disponible de esta cantidad, y tampoco
necesariamente el mejor. Para valores tomados de una distribución con “colas” muy
anchas, la media puede converger pobremente o no converger, conforme los datos se
incrementan.

Existen estimadores alternativos como la mediana, que se calcula a partir de los


valores 1 , ..., N encontrando el valor  que presenta la misma cantidad de valores
mayores y menores que él. Por supuesto, esto resulta imposible cuando N es par. En
ese caso, convencionalmente la mediana se estima como la media de los dos valores
centrales únicos. Si los valores j , j = 1, ..., N se encuentran ordenados en orden
ascendente (o descendente), entonces la mediana se calcula de acuerdo a la siguiente
Ecuación:


(N+1)/ 2 ,

N impar
med = . (12)
 1 (N/ 2 + (N/ 2)+1 ),

N par
2

Si una distribución presenta una fuerte tendencia central, de tal forma que la mayor
parte de su área se encuentra debajo de un pico, la mediana es un estimador del valor
central.
51

3.2.2. Parámetros de dispersión

En los análisis estadísticos, resulta útil estimar parámetros de dispersión, ya que


son indicadores de la cantidad de variación esperada e indirectamente expresan el
rango de valores posibles en la medición.

Una vez caracterizado el valor central de una distribución, convencionalmente se


caracteriza su variabilidad alrededor de tal valor. De igual manera en este caso, más
de una medición se encuentra disponible. El parámetro de dispersión más común es
la varianza, que se calcula mediante la Ecuación:

N
1 X
Vr(1 , ..., N ) = (j − ̄)2 , (13)
N−1 j=1

o su raíz cuadrada, la desviación típica, que se calcula como sigue:

Æ
σ(1 , ..., N ) = Vr(1 , ..., N ) . (14)

La Ecuación (13) estima la desviación cuadrática media de  a partir de la media.

3.2.3. Parámetros de forma

Los parámetros de forma nos muestran cómo la dispersión se encuentra distribuida


con respecto a la localización. Estos nos indican si nuestra variación es simétrica o
asimétrica con respecto a la media.

La oblicuidad caracteriza el grado de asimetría de una distribución alrededor de


su media. Mientras la media y desviación típica son mediciones dimensionales, es
decir, tienen las mismas unidades que las cantidades medidas j , la oblicuidad está
definida convencionalmente de tal forma que es adimensional. Es un número puro que
caracteriza únicamente la forma de la distribución. La definición usual está dada por
la siguiente Ecuación:
52

N 
1X j − ̄ 3

Ske(1 , ..., N ) = , (15)
N j=1
σ

donde σ = σ(1 , ..., N ) es la desviación típica de la distribución, representada por


la Ecuación (14). Un valor positivo de oblicuidad significa una distribución con una
cola asimétrica extendiendose hacia  más positivas; por otro lado, un valor negativo
significa una distribución cuya cola se extiende hacia  más negativas (ver Figura 26,
izquierda).

Oblicuidad Kurtosis

Positiva
Negativa (leptokurtica)
Negativa Positiva (platykurtica)

Figura 26. Tipos de oblicuidad y kurtosis.

Por supuesto, cualquier conjunto de N valores medidos es muy probable que tenga
un valor diferente de cero para la Ecuación (15), incluso si la distribución subyacente
es de hecho simétrica (presenta oblicuidad cero). Para que la Ecuación (15) sea sig-
nificativa, es necesario tener una idea de su desviación típica como un estimador de
la oblicuidad de la distribución subyacente, sin embargo, desafortunadamente esto
depende de su forma.

La kurtosis es también una cantidad adimensional. Esta mide la tendencia de la


distribución a ser plana, o por lo contrario presentarse en forma de pico con respec-
to a una distribución normal. Una distribución con kurtosis positiva es denominada
leptokurtica, mientras que si la distribución presenta kurtosis negativa se denomina
platykurtica (ver Figura 26, derecha).
53

La kurtosis se calcula utilizando la siguiente Ecuación:

( )
N 
1X j − ̄ 4

Krt(1 , ..., N ) = −3 , (16)
N j=1
σ

donde el término −3 origina que su valor sea cero cuando es calculada para una dis-
tribución normal.

3.3. Técnicas de proyección 3D-2D

Las técnicas de proyección 3D-2D son representaciones sistemáticas de toda o par-


te de la superficie de un cuerpo redondo en un plano, es decir, una reubicación de
puntos de un espacio tridimensional a uno bidimensional. Debido a que no es posible
llevar a cabo este proceso sin introducir distorsión al mapa resultante, quien requie-
re hacer la proyección, debe elegir la característica o características a conservar de
manera precisa, con el costo de sacrificar otras.

Existen una gran cantidad de técnicas de proyección, sin embargo, no es posible


establecer que existe una técnica que genere mejores mapas que el resto, incluso
resulta riesgoso establecer que existe una proyección que genere los mejores mapas
para una aplicación específica.

Las siguientes características son comúnmente consideradas al elegir una técnica


de proyección dependiendo de la aplicación:

Área: Muchas técnicas de proyección están diseñadas para conservar las áreas,
por ejemplo, al colocar una moneda de cualquier tamaño en el mapa resultan-
te, esta cubre exactamente la misma área en cualquier otra parte del mapa.
En este tipo de proyecciones, las formas, ángulos y escala se encuentran conse-
cuentemente distorsionadas, aunque usualmente existen algunas partes de estos
mapas que conservan tales características correctamente o casi correctamente.

Forma: Muchas de las más comunes e importantes proyecciones son ortomór-


ficas, en estas normalmente los ángulos locales relativos sobre cada punto del
mapa resultante son mostrados correctamente. Aunque un área grande podría
54

encontrarse distorsionada en forma, sus pequeñas características son conserva-


das. En este tipo de mapas las áreas son generalmente amplificadas o reducidas
en ciertas partes del mapa, pero pueden ser correctas a lo largo de ciertas líneas,
dependiendo de la proyección. Se dice que ningún mapa puede conservar las
áreas y ser ortomórfico a la vez (Snyder, 1987).

Escala: Ninguna técnica de proyección genera un mapa que muestre la escala co-
rrectamente en todas partes, sin embargo, existen usualmente una o más líneas
en el mapa a lo largo de las cuales la escala se conserva. Mediante la selec-
ción apropiada de la ubicación de tales líneas los errores de escala en cualquier
otro lugar pueden ser minimizados, aunque algunos errores pueden seguir siendo
grandes, dependiendo del tamaño del área proyectada y la técnica de proyección.
Son llamadas proyecciones equidistantes.

Dirección: Mientras los mapas ortomórficos muestran las direcciones locales rela-
tivas correctamente en cualquier punto dado, existe un grupo de proyecciones de
mapas llamado azimutal (o zenital), en el que las direcciones de todos los puntos
del mapa se muestran correctamente respecto al centro. Una de estas proyec-
ciones también conserva las áreas, otra es ortomórfica, y otra es equidistante.
También hay proyecciones en las cuales las direcciones desde dos puntos son
correctas, o en las que las direcciones desde todos los puntos hacia uno o dos
puntos seleccionados son correctas, pero estas son raramente utilizadas.

Características especiales: Varias proyecciones de mapas proveen características


especiales que ninguna otra proyección ofrece. En la proyección gnomónica, to-
dos los caminos circulares que representan las rutas más cortas entre puntos de
una esfera, son mostrados como líneas rectas. En las estereográficas, todos los
circulos, pequeños o grandes, son mostrados como círculos en el mapa. Algu-
nas otras proyecciones fueron diseñadas especialmente para mostrar la esfera
completa en un cuadro, elipse, triángulo o alguna otra figura geométrica.

3.3.1. Proyección azimutal equidistante

La proyección azimutal equidistante se caracteriza por no pertenecer a la categoría


de las proyecciones ortomórficas ni a aquellas que conservan las áreas. En este tipo de
55

proyección las distancias medidas desde el centro y las direcciones son correctas, el
único punto del mapa resultante que no sufre distorsión es el centro de la proyección
y el punto opuesto al centro se muestra como un círculo alrededor del mapa.

Para llevar a cabo una proyección utilizando esta técnica, se debe primeramente
llevar a cabo una conversión de las posiciones 3D de los puntos a proyectar del sistema
cartesiano al sistema de coordenadas esféricas utilizando las siguientes Ecuaciones:

q
r= 2 + y 2 + z 2 , (17)

 q 
ee = rctn2 z, 2 + y2 , (18)

z = rctn2 (y, ) , (19)

donde la función rctn2 de las Ecuaciones (18) y (19) se conoce como tangente
inversa de cuatro cuadrantes y los parámetros de entrada , y y z representan las
coordenadas 3D de los puntos a proyectar.

Posteriormente, teniendo tales parámetros en el sistema de coordenadas esféricas,


hacemos una nueva conversión de coordenadas esféricas a coordenadas cartesianas
2D utilizando las siguientes Ecuaciones:

π ‹
= − ee · cos(z) , (20)
2

π ‹
y= − ee · sen(z) , (21)
2

donde  y y representan las coordenadas 2D de los puntos proyectados en el mapa.


Una descripción detallada del desarrollo de tales Ecuaciones y el análisis geométrico
correspondiente puede ser consultado en (Snyder, 1987).
56

3.4. Interpolación

En algunas ocasiones se conoce el valor de una función ƒ () en un conjunto de


puntos 1 , 2 , ..., N (digamos que 1 < ..., < N ) pero no tenemos una expresión ana-
lítica para ƒ () que permita calcular su valor para algún punto arbitrario. Por ejemplo,
las ƒ ( )’s podrían resultar de alguna medición física o un cálculo numérico extenso
que no puede expresarse en una forma funcional simple. Frecuentemente las  ’s se
encuentran igualmente espaciadas, pero no necesariamente es así.

Se pretende estimar ƒ () para una  arbitraria mediante, de alguna manera, dibujar
una curva suave a través (y quizás más allá) de  . Si la  deseada se encuentra entre
la menor y la mayor de las  ’s, el problema es llamado interpolación; si por otro
lado,  se encuentra fuera de ese rango, es llamado extrapolación, que es un proceso
considerablemente más arriesgado.

Los esquemas de interpolación y extrapolación deben modelar la función, entre o


más allá de los puntos conocidos, mediante alguna forma funcional plausible. La forma
debe ser lo suficientemente general tal que sea capaz de aproximar grandes clases de
funciones que pudieran surgir en la práctica. Por mucho, los tipos de formas funcio-
nales utilizados más comúnmente son polinomios. Las funciones racionales (cocientes
de polinomios) también resultan ser extremadamente útiles. Las funciones trigonomé-
tricas, senos y cosenos, dan lugar a la interpolación trigonométrica y los métodos de
Fourier relacionados.

Existe una extensiva literatura matemática consagrada a los teoremas sobre qué
tipo de funciones pueden ser bien aproximadas mediante cuáles funciones de interpo-
lación. Sin embargo, tales teoremas resultan poco prácticos en el trabajo día a día; si
se conoce suficiente sobre la función para aplicar un teorema cualquiera, usualmente
no es necesario interpolar sobre una tabla de sus valores.

La interpolación consiste en encontrar una función que pueda ser aplicada con la
finalidad de generar información para puntos desconocidos a partir de la información
disponible en puntos conocidos. Esta se relaciona con, pero es distinta de, la aproxima-
ción de funciones, que consiste en encontrar una función aproximada (pero fácilmente
calculable) para ser utilizada en lugar de una más complicada. En el caso de la interpo-
57

lación, se tiene el valor de una función ƒ en puntos no seleccionables. Para el caso de


la aproximación de funciones, es permitido calcular la función ƒ en cualquier conjunto
de puntos seleccionables.

Es fácil encontrar funciones discontínuas que pueden producir un error bajo cual-
quier esquema de interpolación. Consideremos por ejemplo la siguiente:

1
ƒ () = 32 + n (π − )2 + 1
 
, (22)
π4

que se comporta bien en cualquier punto, excepto cuando  = π. Cualquier interpola-


ción basada en los valores  = 3.13, 3.14, 3.15, 3.16, seguramente entregará un valor
completamente incorrecto para  = 3.1416, a pesar de que al graficar esos cinco
puntos el gráfico resultante parezca suave.

Debido a que las funciones problemáticas pueden encontrarse en donde sea, es


altamente deseable que una interpolación o extrapolación sea capaz de proveer una
estimación de su propio error. Tal estimación de error nunca puede ser infalible. Se
puede tener una función que se dispara abruptamente e inesperadamente entre dos
puntos tabulados. En la interpolación siempre se presume cierto grado de suavidad pa-
ra la función interpolada, pero dentro de esta presunción, desviaciones de la suavidad
pueden ser detectadas.

Conceptualmente, el proceso de interpolación tiene dos etapas: Ajustar una función


de interpolación a los datos y evaluar tal función en el punto objetivo .

Sin embargo, este método de dos etapas no es generalmente la mejor forma de


proceder en la práctica. Típicamente es computacionalmente menos eficiente, y más
susceptible al error de redondeo, que métodos que construyen una estimación fun-
cional ƒ () directamente a partir de N valores tabulados cada vez que se requiere.
Esquemas más prácticos inician en un punto cercano ƒ ( ), luego agregan una secuen-
cia de correcciones decrecientes, mientras se incorpora información a partir de otras
ƒ ( )’s. El procedimiento típicamente toma O(N2 ) operaciones. Si todo se comporta
bien, la última corrección será la menor, y puede ser utilizada como una cota informal
(aunque no rigurosa) para el error.
58

La interpolación local, utilizando un número finito de puntos “vecinos más cerca-


nos”, entrega valores interpolados ƒ () que en general, no tienen primeras o derivadas
superiores. Esto ocurre porque, como  cruza los valores tabulados  , el esquema de
interpolación cambia los puntos considerados como “locales”.

En situaciones en las que la continuidad de las derivadas es importante, es reco-


mendable utilizar la interpolación provista por la llamada función spline. Una spline es
un polinomio entre cada par de puntos de la tabla, pero cuyos coeficientes son deter-
minados de una forma no local. Esto con la finalidad de garantizar la suavidad global
de la función interpolada hasta una derivada de cierto orden. Las splines cúbicas son
las más populares. Producen una función interpolada continua a través de la segunda
derivada. Estas suelen ser más estables que los polinomios, con menor posibilidad de
oscilación inesperada entre los puntos tabulados.

(a)

(b)

Figura 27. Ejemplos de interpolación. (a) Una función suave (línea sólida) es más precisamente inter-
polada por polinomios de orden superior (línea punteada) que por polinomios de orden inferior (línea
rayada). (b) Una función con esquinas abruptas o derivadas con cambios rápidos es menos polinomial
(línea rayada). Incluso algunas funciones suaves, como exponenciales o funciones racionales pueden ser
incorrectamente aproximadas utilizando polinomios de orden superior.
59

El número de puntos (menos uno) utilizado en un esquema de interpolación es


conocido como el orden de la interpolación. Contrario a lo que podría pensarse, el in-
crementar el orden no necesariamente incrementa la precisión, especialmente para el
caso de la interpolación polinomial. Si los puntos agregados se encuentran lejos del
punto de interés , el polinomio de orden mayor resultante, con sus puntos de restric-
ción adicionales, tiende a oscilar inesperadamente entre los valores tabulados. Esta
oscilación puede no tener relación alguna con el comportamiento de la función real
(ver Figura 27). Por supuesto, al agregar puntos cercanos al punto deseado usualmen-
te ayuda, pero un ajuste más fino, implica una tabla de valores conocidos mayor, lo
cual no siempre se tiene disponible.

A menos que exista evidencia sólida de que la función de interpolación es cercana


en cuanto a forma a la función real ƒ (), es importante ser cuidadoso con interpola-
ciones de orden superior. Es recomendable interpolar con 3 o 4 puntos, quizá con 5
o 6 puntos; pero raramente se recomienda ir más allá de esas cantidades a menos
que exista un riguroso monitoreo de los errores estimados. Cuando la tabla de valores
conocidos contiene muchos más puntos que el orden deseable para la interpolación,
se debe iniciar con una búsqueda del lugar “local” correcto en la tabla.

Los esquemas de interpolación sirven también para llevar a cabo extrapolación,


pero se deben considerar lo riesgoso de esta operación, especialmente, cuando el
punto deseado  se encuentra fuera del rango de los valores tabulados por un espacio
mayor al típico entre puntos tabulados.

Las operaciones de interpolación y extrapolación pueden llevarse a cabo en más de


una dimensión, e.g., para una función ƒ (, y, z). Este tipo de operaciones multidimen-
sionales pueden llevarse a cabo mediante una secuencia de interpolaciones unidimen-
sionales. La descripción detallada de tales métodos de interpolación multidimensional
puede ser consultada en (De Boor, 2001; Press et al., 1992).

3.5. Computación evolutiva

Esta sección discute los principales conceptos necesarios para la comprensión de


aspectos centrales del cómputo evolutivo que serán posteriormente utilizados en el
desarrollo experimental de nuestra investigación. La idea es introducir los conceptos
60

básicos y principios de optimización para desarrollar herramientas matemáticas útiles


en el diseño y análisis de algoritmos evolutivos.

El cómputo evolutivo, tambien llamado computación evolutiva, es un área de inves-


tigación multidisciplinaria que sigue una estrategia de búsqueda de objetivos basada
en el proceso de prueba y error, que está fundado en el paradigma de la evolución
artificial. Es un área de investigación dentro de las ciencias de la computación cuyos
principales objetivos son proveer respuestas a varios desafíos en la disciplina de la
inteligencia artificial, como son el aprendizaje, planeación, creatividad, movimiento
robótico y percepción, por mencionar algunos. Esto se debe a que la inteligencia arti-
ficial es la rama de las ciencias de la computación cuyo objetivo es crear inteligencia.
Podríamos decir que el cómputo evolutivo, como campo de la inteligencia artificial,
pretende proveer una metodología para la resolución automática de problemas. Esta
idea se remonta a Alan Turing (1948), quien identificó tres maneras en las que la inte-
ligencia de máquina se encuentra ampliamente asociada con el objetivo de programar
computadoras para resolver problemas automáticamente. En particular, Turing dijo
que la inteligencia de máquina podría ser lograda a través del proceso de selección
natural y evolución (Olague, 2016).

Hoy, el cómputo evolutivo es un área prometedora que coincide con lo que Turing
describió como el objetivo general de hacer que las computadoras resuelvan proble-
mas automáticamente como lo hacemos los humanos. Esta noción, es diferente de
los enfoques de inteligencia de máquina típicos que intentan resolver problemas con-
fiando en la lógica y conocimiento (como también Turing propuso), así como también
en métodos analíticos y matemáticos. De esta manera, Turing describió un proceso
evolutivo como una estrategia adecuada para lograr la inteligencia de máquina.

Su funcionamiento básico está basado en la teoría de la evolución de Charles Dar-


win, en la cual se establece el principio conocido como la supervivencia del más apto.
Este principio indica que todos los organismos de una población están sujetos a un
proceso de selección, el cual determina cuáles individuos son aptos para sobrevivir y
heredar sus características a las siguientes generaciones. El proceso descrito anterior-
mente se repite de manera cíclica, generación tras generación, dando como resultado
individuos cada vez mejor adaptados a las condiciones cambiantes del medio.
61

En la computación evolutiva se crean modelos computacionales que imitan este


principio para encontrar una solución o soluciones para un problema dado. En la ana-
logía entre los procesos natural y artificial de la evolución, el problema corresponde al
medio donde un conjunto de individuos competirán. Cada individuo corresponde a una
solución propuesta para dicho problema. El proceso consta de las siguientes etapas:
inicialización, evaluación, selección, cruce/mutación y criterio de paro.

Durante la inicialización se crea la primer población de individuos, los cuales se


describen mediante dos conceptos: solución y aptitud. La solución se genera de ma-
nera aleatoria a partir de un conjunto de bloques que son llamados genes, mientras
que el conjunto completo de bloques es conocido como acervo genético. La solución es
representada por un cromosoma, que a su vez está formado por un número determi-
nado de genes. Dependiendo del problema que se pretende solucionar, el cromosoma
puede representar elementos tan sencillos como valores lógicos o números, o algo tan
complejo como funciones o programas. La aptitud es representada por una función
que entrega un valor que indica la capacidad del individuo para solucionar el proble-
ma. Esto es análogo a su aptitud para sobrevivir en el medio para el caso del proceso
natural.

En la etapa de evaluación cada uno de los individuos de la población es evaluado


mediante una función de aptitud, que determina la capacidad de cada individuo para
resolver el problema y de esta manera se seleccionan las características que tienen la
mayor posibilidad de ser heredadas a la siguiente generación. La función de aptitud
resulta crítica en el ciclo evolutivo, ya que determina el camino que tomará el proceso
de evolución.

La etapa de selección define, mediante el valor de aptitud, cuáles individuos pue-


den generar descendencia. Los individuos con mayor aptitud tienen mayor posibilidad
de participar en la siguiente etapa: cruce/mutación.

En la etapa de cruce/mutación se exploran nuevas soluciones. En el caso del cruce,


los cromosomas de dos individuos son intercambiados a partir de un punto intermedio
determinado de manera aleatoria, pero tomando en cuenta la congruencia de la solu-
ción combinada. El objetivo del cruce es proponer soluciones que conserven algunas
de las características de las soluciones existentes. Para la mutación, por otro lado, se
62

intercambia uno de los genes de la solución por alguno de los genes disponibles en
el acervo genético. La finalidad del proceso de mutación es introducir cierta variabili-
dad a las soluciones con la finalidad de explorar posibilidades que probablemente no
estaban siendo consideradas en la población actual.

Existen diversas maneras de formar una nueva generación dependiendo de los pa-
rámetros del algoritmo evolutivo. Las nuevas generaciones pueden componerse exclu-
sivamente de individuos nuevos o de combinaciones entre individuos nuevos y exis-
tentes, basándose en el valor de aptitud de los últimos. La nueva generación está
sujeta una vez más a los procesos de selección, mutación y cruce, para formar así las
próximas generaciones.

El ciclo finalizará una vez que el criterio de paro sea cumplido. Este criterio pue-
de ser establecido como un umbral en el valor de aptitud para uno o más individuos,
es decir, una vez que se encuentre una o varias soluciones suficientemente satisfac-
torias. El criterio de paro también puede establecerse como una cantidad máxima de
generaciones, o una combinación entre valores de aptitud y cantidad de generaciones.

La programación genética, que es considerada un método de aprendizaje de má-


quina derivado de los algoritmos genéticos, aplica el proceso evolutivo para desarro-
llar un conjunto de programas con la finalidad de resolver un problema determinado.
Mientras que en los algoritmos genéticos los cromosomas representan variables, en la
programación genética los cromosomas representan estructuras de árboles, mismos
que a su vez representan programas. Para este caso, el proceso evolutivo es similar,
con la diferencia de que la población inicial está compuesta por programas generados
de manera aleatoria que posteriormente entran a un proceso de selección mediante
el cálculo de su aptitud, y de igual manera, los individuos seleccionados se cruzan o
se mutan para formar una nueva generación. El cruce se lleva a cabo intercambiando
las ramas de dos árboles y la mutación intercambiando las ramas de un individuo por
una de aquellas que fueron generadas de forma aleatoria y forman parte del acervo
genético.
63

3.6. Programación de cerebros artificiales

La programación de cerebros artificiales es una metodología que pretende recrear


algunas funciones del cerebro, basándose en los modelos propuestos por investigado-
res en el área de neurociencias, tomando en consideración el propósito. Este paradig-
ma puede ser dividido en dos grandes partes: un modelo del sistema biológico llamado
corteza visual artifical, y un proceso evolutivo en el que se aplica la programación ge-
nética (Olague et al., 2014a,b; Dozal et al., 2014).

En 1982 Underleiger y Mishkin propusieron la existencia de dos rutas en la corteza


visual. Estas rutas son conocidos como dorsal y ventral. El funcionamiento de la ruta
dorsal es proveer la localización de un objeto en la escena, mientras que la ruta ventral
se encarga del reconocimiento de objetos. Así, una funcionalidad visual eficiente se
logra mediante el intercambio de información entre ambas rutas. De esta manera, en
el sistema natural, el reconocimiento de objetos involucra procesos llevados a cabo a
través de la ruta dorsal como es la selectividad, que se define como la habilidad para
filtrar información no necesaria, y otros llevados a cabo a través de la ruta ventral, que
se encarga de describir los objetos.

La corteza visual artificial es un modelo computacional basado en la funcionalidad


de ambas rutas de la corteza visual. El modelo está compuesto por un conjunto de
funciones matemáticas ordenadas en una estructura jerárquica, que emula la manera
en que la información fluye a través de la corteza visual y las transformaciones que
tienen lugar en la misma, para llevar a cabo la tarea de reconocimiento de objetos.
Por otro lado, el proceso evolutivo adapta y refina las funciones matemáticas de la
estructura jerárquica con la finalidad de encontrar la combinación de funciones que
mejor resuelve problema.

El proceso evolutivo aplicado al modelo computacional de la corteza visual artifi-


cial permite encontrar varias propuestas de solución que presentan un desempeño
generalmente superior al de aquellas encontradas con cualquier otra metodología.

Si bien, el proceso evolutivo refina el conjunto de funciones que al ser montadas en


la estructura jerárquica del modelo computacional anteriormente mencionado, solucio-
nan el problema de reconocimiento de objetos. Además, el modelo de la corteza visual
64

artificial por si solo tiene su propio mérito, ya que se ha demostrado recientemente


que al establecer los conjuntos de funciones al azar sin llevar a cabo una optimización
mediante el proceso evolutivo, las soluciones generadas para el problema presentan
un desempeño plausible (Olague et al., 2017).
65

Capítulo 4. EvoEEG

Este capítulo describe en detalle la forma en que la tecnología analizada en el


Capítulo 2 es utilizada en conjunto con las herramientas matemáticas y computacio-
nales explicadas en el Capítulo 3, con la finalidad de construir un sistema electrónico-
computacional, el cual resuelva de manera eficiente el problema de ambigüedad exis-
tente entre un conjunto de señales electroencefalográficas, obtenidas mediante una
interfaz cerebro-computadora, y estados mentales definidos.

Como ya ha sido mencionado, para los fines de este trabajo, y como primer paso
orientado hacia un estudio de mayor complejidad, la investigación se enfoca en un
estado mental específico que ha sido caracterizado con anterioridad: el estado alfa.
Esta onda cerebral se usa como indicador del estado de vigilia y permite monitorear el
nivel de atención. Se caracteriza por ser más prominente en las regiones posteriores
del cerebro.

Primeramente, se describen los parámetros de configuración de hardware, para


llevar a cabo la adquisición de las señales electroencefalográficas, mediante la inter-
faz cerebro-computadora OpenBCI. Posteriormente, se describen las transformaciones
que son aplicadas a dichas señales durante el pre-procesamiento, con la finalidad de
llevar a cabo la formación de pseudo-imágenes, las cuales finalmente alimentan a la
Corteza Visual Artificial.

4.1. Adquisición

En esta sección se describen los parámetros de configuración de hardware y soft-


ware, para llevar a cabo la adquisición de señales mediante una interfaz cerebro-
computadora.

El sistema electrónico-computacional propuesto extrae señales cerebrales median-


te una interfaz cerebro-computadora llamada OpenBCI (descrita en la Sección 2.3.1) a
través de 16 electrodos localizados en una estructura rígida de plástico llamada Mark
IV, misma que se coloca en la cabeza del sujeto bajo estudio. Dicha estructura fija
los electrodos al cuero cabelludo en posiciones convenientes de acuerdo al sistema
66

10-20 que fue descrito en la Sección 2.1.1 y es ampliamente utilizado para llevar a ca-
bo estudios relacionados con señales electroencefalográficas. La Figura 28 muestra la
instalación completa del sistema OpenBCI en la estructura Mark IV con sus respectivos
electrodos.

Figura 28. Sistema completo OpenBCI instalado en Mark IV.

Las señales de cada uno de los 16 canales se obtienen como una serie de medi-
ciones a lo largo del tiempo. La frecuencia con la que se muestrean tales mediciones
es de 250 Hz, es decir, las lecturas son registradas a una tasa de 250 muestras por
segundo. Tales lecturas representan la diferencia de potencial existente en el lugar
donde se posiciona cada uno de los electrodos de registro con respecto al electrodo
de referencia, que para efectos de este estudio, se ha establecido como un mismo
nodo conectado al lóbulo de ambas orejas, con la finalidad de no amplificar la señal de
un hemisferio respecto al otro, de acuerdo a la configuración de montaje referencial
explicada en la Sección 2.1.2. La Figura 29 muestra las posiciones seleccionadas para
la colocación de los electrodos de registro y referencia.

Las diferencias de potencial detectadas en el cuero cabelludo son originadas en


gran medida por el disparo sincronizado de grupos de neuronas distribuidas a lo largo
de la corteza cerebral de acuerdo con los fenómenos descritos en la Sección 2.1.3
67

Figura 29. Posicionamiento de los electrodos de registro (rojo) y referencia (azul).

La interfaz cerebro-computadora OpenBCI lleva a cabo el muestreo de las señales


a través de dos tableros electrónicos: el tablero principal lleva a cabo las mediciones
de los primeros 8 canales, mientras que el tablero Daisy funciona como un tablero de
expansión, agregando las mediciones de 8 canales adicionales. Cabe mencionar que
los tableros tienen una terminal de referencia independiente para las mediciones, por
lo que es necesario unir eléctricamente tales terminales con la finalidad de referenciar
las mediciones de ambos tableros a los lóbulos de los oídos.

Las mediciones de las señales son posteriormente filtradas y digitalizadas median-


te convertidores analógico-digital instalados en los tableros electrónicos de la inter-
faz cerebro-computadora OpenBCI. Estas son posteriormente codificadas y moduladas
para ser enviadas al receptor inalámbrico programable. Este dispositivo recibe, demo-
dula y decodifica las señales para entregar valores numéricos para cada uno de los
canales a razón de 250 lecturas por segundo a través de un puerto serial virtual en la
computadora. Tales valores numéricos están expresados en microvolts.

4.2. Pre-procesamiento

Una vez recibidas las señales digitales de los 16 canales, se procede a llevar a cabo
una serie de transformaciones a las mismas, con la finalidad de convertirlas en una
serie de pseudo-imágenes, para posteriormente ser clasificadas mediante un modelo
68

computacional basado en el paradigma de programación de cerebros artificiales. Las


transformaciones previas a la generación de las pseudo-imágenes son descritas en
esta sección.

4.2.1. Espectro de potencia y filtrado

Primeramente, las señales digitales provenientes de la interfaz cerebro-computadora


OpenBCI, que han sido muestreadas a razón de 250 mediciones por segundo, son se-
paradas mediante la aplicación de un filtro pasabanda con frecuencias de corte infe-
rior de 8 Hz y superior de 14 Hz, esto con la finalidad de atenuar cualquier información
contenida en las señales que no pertenezca a la banda alfa, misma que está acotada
entre tales valores de frecuencia. Este filtro es aplicado por igual a cada uno de los 16
canales.

Una vez filtradas la señales, se calcula su espectro de potencia de acuerdo al pro-


cedimiento descrito en la Sección 3.1.5 con la finalidad de conocer la magnitud de las
señales resultantes para distintos valores de frecuencia.

El proceso descrito anteriormente es una transformación de las señales originales


del dominio del tiempo, al dominio de la frecuencia que tiene como objetivo realizar
una estimación de la cantidad de información perteneciente a las señales originales
que se encuentra contenida dentro de las frecuencias de interés, es decir, la banda
alfa.

4.2.2. Almacenamiento

Una vez que las señales originales han sido filtradas y se ha calculado el espectro
de potencia de las señales resultantes, este se almacena en vectores de 125 medicio-
nes para cada canal. Esto tiene el objetivo de contar con una representación de las
variaciones que tuvo la magnitud de las señales filtradas durante segmentos cortos
de tiempo.

La idea de almacenar pequeños segmentos de las señales resultantes del proceso


anterior, tiene como objetivo conocer la forma en que evolucionan las mediciones para
cada uno de los 16 canales a lo largo del tiempo. De igual manera, se pretende calcular
69

una serie de valores que puedan arrojar información adicional del comportamiento de
los grupos de mediciones en cada segmento de tiempo.

4.2.3. Parámetros estadísticos

Con el objetivo de conocer el comportamiento de los grupos de datos almacenados


correspondientes a diversos segmentos de tiempo, es necesario calcular algunos de
sus momentos estadísticos.

Según el tipo de información que se requiera, se pueden seleccionar parámetros de


localización, dispersión o forma de acuerdo con la Sección 3.2.

El modelo computacional propuesto, toma en consideración dos parámetros de lo-


calización: la media y la mediana, y un parámetro de dispersión: la desviación típica,
por lo que es necesario calcular tales valores para cada uno de los 16 vectores resul-
tantes del proceso anterior, lo cual resulta en un total de 48 valores numéricos, de los
cuales 16 corresponden a la media, 16 a la mediana, y 16 a la desviación típica.

4.3. Formación de pseudo-imágenes

Una vez calculados los parámetros de interés que contienen información relacio-
nada con las variaciones de la potencia en las señales originales, estos son utilizados
para comenzar a formar una serie de pseudo-imágenes. El objetivo de este proceso
es contar con una representación visual de la evolución de las señales cerebrales a
lo largo del tiempo. A continuación se describe el proceso de formación de pseudo-
imágenes.

4.3.1. Proyección

Los 48 valores calculados mediante el proceso descrito anteriormente son coloca-


dos en 3 matrices de 256x256 pixeles, 16 en cada matriz. Los valores correspondientes
a la media se posicionan en la primera, los de la mediana en la segunda, y finalmente
los de la desviación típica en la tercera. La colocación de tales valores en las matrices
conserva la relación espacial con las posiciones del sistema 10-20 donde fueron colo-
70

cados los electrodos de registro físicamente. Estas matrices serán las plantillas sobre
las cuales se construirá cada una de las pseudo-imágenes.

Para seleccionar los pixeles donde los valores calculados serán colocados, primera-
mente es necesario conocer las coordenadas tridimensionales de los electrodos. Estas
se obtienen haciendo mediciones directas sobre Mark IV, la estructura de plástico que
sostiene los electrodos y los fija en las posiciones seleccionadas. Para establecer las
coordenadas (, y, z) de cada punto, se considera como origen el centro del óvalo des-
crito por la base de Mark IV y las mediciones son expresadas en milímetros como se
puede apreciar en la Figura 30.

80

60

40

20

0
−100

−50
100
0
50
50 0
−50
100 −100

Figura 30. Posiciones tridimensionales originales de los 16 electrodos.

Posteriormente es necesario llevar a cabo una proyección de las posiciones tri-


dimensionales originales de los electrodos, hacia un plano que represente la matriz
sobre la cual las pseudo-imágenes serán construidas. Para efectos de esta proyección,
las posiciones tridimensionales de los electrodos son idealizadas como puntos perte-
necientes a la superficie de una esfera y las matrices sobre las que se construirán
las pseudo-imágenes se consideran como planos tangentes a la parte más alta de la
superficie de tal esfera.
71

Con la finalidad de llevar a cabo tal proyección es posible trasladar los puntos de
sus posiciones tridimensionales originales a través de vectores normales al plano hasta
que tales puntos lo intersecten, eliminando la coordenada z y conservando las posicio-
nes en  y y, sin embargo, el problema de este método es que además de introducir
una distorsión considerable en el mapa resultante, la distancia relativa entre las posi-
ciones de cada uno de los electrodos se pierde como se aprecia en la Figura 31a.

De manera alternativa, se utiliza el método de proyección azimutal equidistante


descrito en la Sección 3.3.1, ya que a pesar de introducir cierto grado de distorsión al
mapa resultante, conserva la distancia relativa entre las posiciones originales de los
electrodos como se muestra en la Figura 31b.

100 1.5

80
1
60

40
0.5
20

a) 0 b) 0

−20
−0.5
−40

−60
−1
−80

−100 −1.5
−100 −50 0 50 100 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Figura 31. Comparación entre métodos de proyección: a) proyección burda y b) proyección azimutal
equidistante.

El hecho de conservar las distancias relativas entre los electrodos resulta conve-
niente, ya que provee una estimación más precisa de la influencia real del valor de
potencia de cada electrodo durante la construcción de las pseudo-imágenes finales.

Como se puede observar en la Figura 31, la escala en el mapa resultante ha sido


reducida de forma considerable, sin embargo, esto no resulta un problema, ya que
lo importante en esta proyección es conservar las distancias relativas entre electro-
dos, por lo que es suficiente llevar a cabo un ajuste de escala para tales posiciones
resultantes a la escala con la que se pretende trabajar.

Debido a que se ha propuesto el tamaño de 256x256 pixeles para las pseudo-


imágenes, entonces se lleva a cabo el ajuste de escala a un tamaño cercano pero
72

menor, con el objetivo de evitar que los valores sean ubicados en la periferia de las
matrices, pero a su vez aprovechando la resolución disponible.

En la Tabla 1 se muestra la correspondencia entre la asignación de los electrodos


con su respectiva posición de acuerdo al sistema 10-20. Además de un concentra-
do de las coordenadas resultantes de los pasos en el proceso de proyección. En las
columnas “Electrodo” y “Posición 10-20” se muestra la correspondencia entre las po-
siciones seleccionadas del sistema 10-20 y el número de elecrodo. Las columnas “”,
“y” y “z” muestran las coordenadas originales de los electrodos, posteriormente, en
las columnas “AEP ” y “yAEP ” se tienen las coordenadas de los electrodos proyectadas
al plano mediante la aplicación del método de proyección azimutal equidistante. Final-
mente en las columnas “s ” y “ys ” se muestran las coordenadas finales de los puntos
proyectados a la escala real de las pseudo-imágenes. Nótese que el ajuste de escala
fue llevado a cabo considerando una proyección de salida de 244x244 pixeles, para
lo cual fue necesario primeramente redondear los valores a enteros y posteriormente
correr las coordenadas 6 pixeles en la dirección positiva de cada eje con la finalidad
de centrar la proyección y evitar ubicar valores en la periferia de las matrices.

Tabla 1. Correspondencia entre electrodos y posición de acuerdo al sistema 10-20

Electrodo Posición 10-20  y z AEP yAEP s ys


1 Fp1 -30 95 0 -0.4730 1.4978 91 250
2 Fp2 30 95 0 0.4730 1.4978 165 250
3 C3 -60 0 72 -0.6947 -8.5080 74 128
4 C4 60 0 72 0.6947 0 182 128
5 T5 -72 -55 0 -1.2482 -0.9535 31 50
6 T6 72 -55 0 1.2482 -0.9535 225 50
7 O1 -30 -95 0 -0.4730 -1.4978 91 6
8 O2 30 -95 0 0.4730 -1.4978 165 6
9 F7 -72 55 0 -1.2482 0.9535 31 206
10 F8 72 55 0 1.2482 0.9535 224 206
11 F3 -47 57 60 -0.5653 0.6856 84 184
12 F4 47 57 60 0.5653 0.6856 172 184
13 T3 -82 0 0 -1.5707 -1.9236 6 128
14 T4 82 0 0 1.5707 0 250 128
15 P3 -47 -57 65 -0.5402 -0.6552 86 75
16 P4 47 -57 65 0.5402 -0.6552 170 75
Ref A1 N/A N/A N/A N/A N/A N/A N/A

Como primer paso para la construcción de las pseudo-imágenes, los valores de los
parámetros estadísticos calculados en la Sección 4.2.3 son colocados en las ubicacio-
nes mostradas en la Figura 32, las coordenadas de tales puntos se encuentran en las
columnas “s ” y “ys ” de la Tabla 1.
73

250

200

150

100

50

0
0 50 100 150 200 250

Figura 32. Proyección final de las posiciones tridimensionales de los electrodos a la matriz que servirá
como plantilla para la construcción de pseudo-imágenes.

4.3.2. Interpolación

El proceso descrito hasta este punto coloca una serie de valores asociados a las
variaciones temporales de la potencia de cada uno de los electrodos en 3 matrices
de 256x256 pixeles. Cada una de estas matrices está relacionada con un parámetro
estadístico: la primera con la media, la segunda con la mediana y la tercera con la
desviación típica. Tales matrices se encuentran en su mayoría vacías, ya que solo 16
de sus 65,536 pixeles tienen asignado un valor.

Con la finalidad de asignar un valor al resto de los pixeles se lleva a cabo una inter-
polación de acuerdo a la descripción de esta operación en la Sección 3.4. El método
de interpolación aplicado es “Spline biarmónica”, un algoritmo de interpolación bidi-
mensional que toma una serie de valores conocidos y sus coordenadas como entrada,
y entrega un conjunto de valores a la salida para cada una de las coordenadas no
incluidas en la entrada.

Entonces, el algoritmo de “Spline biarmónica” es alimentado con los valores de


los parámetros estadísticos calculados en la Sección 4.2.3. Además, como parte de
la entrada se incluyen las coordenadas finales obtenidas mediante el proceso de pro-
yección descrito en la Sección 4.3.1, mismas que se encuentran en las columnas “s ”
74

y “ys ” de la Tabla 1. Como resultado se obtienen estimaciones de los valores de los


pixeles cuya información no fue incluida como parte de los datos de entrada, es decir,
los pixeles faltantes.

Figura 33. Proceso de interpolación mediante el algoritmo de “Spline biarmónica”.

La Figura 33 ejemplifica el proceso de interpolación mediante la aplicación del al-


goritmo de “Spline biarmónica”. En la imágen de la derecha, la serie de valores obte-
nidos son colocados en las coordenadas correspondientes, mismas que previamente
se encontraban vacías en la imágen de la izquierda. De esta manera, las matrices se
completan con información estimada a partir de los valores conocidos, generando una
primer versión de las pseudo-imágenes en cuestión.

4.3.3. Normalización

Una vez que se tiene una primera versión de las pseudo-imágenes, estas requieren
ajustes radiométricos con la finalidad de mostrar la información contenida en ellas
con la mayor claridad posible. Como se puede apreciar en la imágen del lado derecho
en la Figura 33, la mayor parte de los pixeles contiene valores de radiometría baja
(tonos obscuros). Esto se debe a que los valores calculados a partir de los parámetros
estadísticos y por lo tanto también los valores estimados mediante la interpolación
son bajos comparados con el espectro disponible. La uniformidad en la tonalidad de
los pixeles en la imágen dificulta la apreciación de los detalles, lo cual podría causar
problemas durante la etapa de clasificación.
75

Las pseudo-imágenes se generan a una resolución radiométrica de 8 bits, es decir,


cada pixel puede contener un valor entre 0 y 255, por lo que para enfatizar las dife-
rencias de nivel entre pixeles se lleva a cabo un ajuste radiométrico a partir del cual
se busca aprovechar el espectro disponible de la manera más eficiente posible.

En el procesamiento digital de imágenes, la normalización de histograma es una


herramienta comúnmente utilizada con el fin de utilizar de manera eficiente el espec-
tro radiométrico disponible. Sin embargo, para llevar a cabo este ajuste, es necesario
conocer el máximo valor contenido en la imagen original. Debido a que las pseudo-
imágenes están siendo generadas a partir de un conjunto de señales que evoluciona
a lo largo del tiempo, y cada una de ellas representa un segmento de tal evolución,
el valor máximo en cada pseudo-imágen es distinto. Si se aplica la normalización de
histograma, cada pseudo-imagen se normalizaría de forma independiente, lo que cau-
saría una variación en la escala radiométrica de las imágenes, misma que originaría
confusiones durante la clasificación.

Con la finalidad de establecer una escala radiométrica fija para la normalización de


todas las pseudo-imágenes, los valores de cada uno de los pixeles son multiplicados
por un factor establecido. Para el caso de las pseudo-imágenes generadas a partir de
la media y mediana, el factor de ajuste fue establecido con el valor de 12.75, mientras
que se estableció un factor de ajuste de 63.75 para la desviación típica. Los valores de
ambos factores fueron seleccionados llevando a cabo una serie de corridas de prueba
y ajuste de acuerdo a las observaciones. La diferencia entre el factor de la desviación
típica con respecto a los otros parámetros se debe a que la media y mediana presentan
siempre valores similares que en promedio son aproximadamente 5 veces mayores
que los de la desviación típica.

En la Figura 34 se aprecia la utilidad de la aplicación del proceso de normalización


descrito anteriormente. En la pseudo-imagen del lado izquierdo es dificil apreciar las
diferencias de tonalidad en los pixeles, mientras que en la pseudo-imagen del lado
derecho, tales diferencias han sido enfatizadas mediante el proceso de normalización.
Las diferencias de tonalidad contienen información de la naturaleza de las señales
originales a partir de las cuales fueron generadas las pseudo-imágenes.
76

Figura 34. Aplicación del factor de normalización en una pseudo-imagen.

4.3.4. Mezcla de bandas

Hasta este punto se han construido 3 pseudo-imágenes monocromáticas con una


resolución espacial de 256x256 pixeles y una resolución radiométrica de 8-bits para
cada segmento de tiempo. Con la finalidad de construir una pseudo-imagen única que
represente las variaciones de las señales originales para cada segmento de tiempo,
se lleva a cabo una mezcla de las 3 pseudo-imágenes monocromáticas en una sola
pseudo-imágen RGB, en la que la pseudo-imagen relacionada con la media constituya
la banda roja, la relacionada con la mediana se asocie a la banda verde y la relacionada
con la desviación típica represente la banda azul.

La pseudo-imágen RGB conserva la resolución espacial de 256x256 pixeles de las


pseudo-imágenes originales. Sin embargo, debido a que la resolución radiométrica de
las pseudo-imágenes con las que fue construida es de 8 bits, entonces su resolución
radiométrica será de 24 bits, donde los 8 bits más significativos representan el valor
radiométrico de la banda roja, los 8 bits centrales representan el de la banda verde y
los 8 bits menos significativos representan el de la banda azul para cada pixel.

La Figura 35 muestra las pseudo-imágenes construidas a partir de cada uno de los


parámetros estadísticos para un tiempo determinado. Además la pseudo-imagen de
las esquina inferior derecha muestra la mezcla de las bandas en una pseudo-imagen
única que contiene información de las tres pseudo-imágenes originales. Como se pue-
77

Media Mediana

Desviación Típica Mezcla de Bandas

Figura 35. Formación de una pseudo-imágen única a partir de la mezcla de bandas.

de observar las tonalidades que predominan son azul y amarillo, esto se debe a que
la pseudo-imagen de la desviación típica, que constituye la banda azul, tiene un valor
completamente distinto al de las otras dos pseudo-imágenes, lo cual significa que la
correlación entre las bandas azul y roja o azul y verde es baja. Por otro lado la tona-
lidad amarilla se genera por la mezcla de las pseudo-imágenes de la media, que se
asocia con la banda roja, y la mediana, que se encuentra en la banda verde, mismas
que tienen valores muy similares, es decir, la correlación entre las bandas verde y roja
es alta.

4.3.5. Aplicación de máscara

La información que se muestra en las pseudo-imágenes RGB que fueron generadas


hasta ahora tiene un sentido espacial. Esto significa que la distribución espacial de
los pixeles que las conforman tiene una estrecha relación con la configuración física
del sistema de adquisición utilizado para extraer las señales que dieron origen a tales
pseudo-imágenes.
78

El algoritmo empleado para llevar a cabo la interpolación estima valores para todos
aquellos pixeles que se encuentran dentro del área delimitada por los pixeles periféri-
cos, cuyas posiciones fueron determinadas mediante el proceso de proyección descrito
en la Sección 4.3.1. Este algoritmo también lleva a cabo una extrapolación, misma que
genera datos para los pixeles que se encuentran fuera del área mencionada.

Considerando los principios físicos de la adquisición de las señales que dieron orí-
gen a las pseudo-imágenes, no es conveniente extrapolar la información radiométrica
a los pixeles que se encuentran fuera del área delimitada por los pixeles periféricos.
Por esta razón es pertinente aplicar una máscara que cancele los valores radiométricos
de los pixeles que se encuentran fuera del área de interés.

Figura 36. Aplicación de máscara para obtener la versión final de las pseudo-imágenes.

La Figura 36 muestra la versión final de las pseudo-imágenes después de aplicar la


máscara correspondiente. Como se puede observar, esta máscara cancela los valores
radiométricos de los pixeles que se encuentran fuera de la circunferencia delimitada
por los pixeles periféricos anteriormente mencionados.

Las pseudo-imágenes resultantes son posteriormente utilizadas para el entrena-


miento, validación y prueba del sistema de clasificación basado en el paradigma de
“Programación Cerebral”.
79

4.4. Clasificación

Las pseudo-imágenes resultantes del proceso anteriormente descrito contienen in-


formación que conserva las características espaciales, de potencia y frecuencia de las
señales biológicas originales.

Tales pseudo-imágenes son utilizadas para llevar a cabo el entrenamiento del mo-
delo computacional descrito en la Sección 3.6. Este modelo computacional consiste en
una estructura jerárquica que imita la forma en que la información visual es procesada
e interpretada por el cerebro humano; i.e.,corteza visual artificial. Una vez entrenada
esta estructura jerárquica mediante “Programación Cerebral”, se generan programas
que resuelven el problema de clasificación de las pseudo-imágenes en cuestión.

La Figura 37 muestra un diagrama que representa el sistema electrónico-computacional


descrito anteriormente, mismo que tiene tiene como objetivo detectar la presencia de
ondas alfa, llevando a cabo la clasificación de pseudo-imágenes generadas a partir de
un conjunto de señales cerebrales extraidas mediante la interfaz cerebro-computadora
OpenBCI.

𝝁 𝝈 𝝈𝟐
BP
OpenBCI Señales EEG Espectro de Almacenamiento Parámetros Proyección Interpolación Normalización Mezcla de Bandas Aplicación de Clasificación
(16 Canales) Potencia y Estadísticos (3 matrices) Máscara (Modelo CVA)
Filtrado
Adquisición
Pre-Procesamiento
Formación de Pseudo-Imágenes
Clasificación

Figura 37. Diagrama del sistema electrónico-computacional para la detección de ondas alfa mediante
la clasificación de pseudo-imágenes generadas a partir de señales EEG.
80

Capítulo 5. Experimentación

El presente capítulo, está dedicado a describir los experimentos ejecutados duran-


te la investigación. Se contemplan tanto los experimentos ejecutados para llevar a
cabo la adquisición de señales electroencefalográficas, como también los que ponen
a prueba el sistema electrónico computacional descrito en el Capítulo 4, mismo que
convierte las señales electroencefalográficas en pseudo-imágenes y lleva a cabo su
clasificación con el objetivo de detectar la presencia de actividad en la banda alfa.

Primeramente se detallan las condiciones del ambiente, equipo, y sujetos de estu-


dio durante el registro de señales electroencefalográficas. Posteriormente, se describe
el procedimiento para llevar a cabo la adquisición de tales señales. Además, se des-
cribe de manera breve la implementación del modelo computacional explicado en el
capítulo anterior para llevar a cabo la conversión de señales electroencefalográficas
en pseudo-imágenes y el proceso de etiquetado de las mismas. Finalmente se deta-
llan los experimentos ejecutados para clasificar tales pseudo-imágenes mediante el
modelo computacional de la corteza visual artificial.

5.1. Condiciones de experimentación

Para llevar a cabo el registro de las señales electroencefalográficas, resulta críti-


co controlar diversos parámetros, entre los que se incluyen condiciones ambientales,
configuración de equipo y características de los sujetos de estudio.

Esta sección define la selección de parámetros para llevar a cabo el registro de


las señales de interés. En ella se describen las condiciones presentes el ambiente, la
configuración del equipo de adquisición de datos y las condiciones de los sujetos de
estudio durante el proceso de experimentación.

5.1.1. Condiciones ambientales

Al llevar a cabo el registro de las señales electroencefalográficas, es importante


controlar las condiciones ambientales presentes, ya que las señales de interés provie-
81

nen de un sistema sumamente complejo que es susceptible a ser influenciado hasta


por la mínima perturbación en el ambiente.

Las señales electroencefalográficas se encuentran fuertemente ligadas a los distin-


tos estímulos sensoriales. La información proveniente de los sentidos es procesada en
diversas zonas del cerebro humano, de tal forma que los estímulos sensoriales afectan
las lecturas electroencefalográficas en zonas específicas del cerebro (e.g. variaciones
de iluminación pueden estimular la corteza visual que se encuentra en el lóbulo occi-
pital). Lo anterior puede generar información errónea en las pseudo-imágenes genera-
das a partir de las señales electroencefalográficas adquiridas, debido a que estas son
construidas conservando las características espaciales del equipo de adquisición.

Existe evidencia que demuestra que las ondas alfa son atenuadas cuando una fuen-
te de iluminación directa incide sobre los ojos del sujeto de estudio. Además se dice
que fluctuaciones en la iluminación pueden originar variaciones en la intensidad de las
señales de interés (Empson, 1986). Por estas razones, durante el registro de señales
electroencefalográficas se mantiene una iluminación indirecta constante.

La temperatura del ambiente se mantiene constante a 25◦ C durante la adquisición


de datos, con la finalidad de evitar una potencial contaminación en las señales por
actividad cerebral inducida debida a variaciones de temperatura.

Con el objetivo de evitar distracciones, sólo el sujeto de estudio y el responsable del


experimento se encuentran en el laboratorio, en silencio total, al momento de llevar a
cabo el registro de las señales electroencefalográficas.

5.1.2. Configuración del equipo de adquisición

Durante el registro de señales electroencefalográficas, es importante conocer la


configuración del equipo de adquisición, es decir, la interfaz cerebro-computadora.
Esto debido a que los parámetros de configuración seleccionados para la adquisición
de datos tendrán impacto durante todo el procesamiento de la señal, y por lo tanto,
también causarán un efecto en las pseudo-imágenes construidas.

La interfaz cerebro-computadora OpenBCI utilizada para llevar a cabo la adquisi-


ción de datos es un hardware de carácter abierto, por lo que presenta una serie de
82

parámetros configurables tanto a nivel software, como hardware. De esta forma, la in-
terfaz permite tener acceso a las señales a distintos niveles de procesamiento: desde
las señales analógicas crudas, hasta señales amplificadas, digitalizadas y filtradas.

5.1.2.1. Parámetros de hardware

Con la finalidad de llevar a cabo un registro de las señales electroencefalográficas


a través de 16 canales, es necesario utilizar tanto el tablero principal (ver Figura 15)
como el auxiliar (ver Figura 16) en conjunto como se muestra en la Figura 38.

Figura 38. Conexión de los tableros principal y auxiliar del sistema OpenBCI en conjunto.

Además, para tener acceso a las señales amplificadas y digitalizadas, como la ex-
perimentación lo requiere, es necesario utilizar el receptor inalámbrico de la Figura 17
con el objetivo de obtener el nivel de procesamiento deseado en la señal. Cabe men-
cionar que antes de llevar a cabo la digitalización de la señal, los tableros del sistema
OpenBCI aplican filtros “anti-solapamiento” en todos los canales con la finalidad de
evitar el efecto descrito en la Sección 3.1.3.

Para establecer una configuración de montaje referencial de acuerdo a la descrip-


ción de la Sección 2.1.2 se utiliza el lóbulo de ambas orejas como referencia. Con el
objetivo de referenciar eléctricamente ambos tableros (principal y auxiliar) al mismo
par de electrodos, es necesario llevar a cabo una conexión eléctrica común entre las
83

terminales de referencia en los tableros principal y auxiliar. El nodo formado por di-
cha conexión eléctrica se conecta a un par de electrodos tipo broche, mismos que
son colocados en el lóbulo de ambas orejas del sujeto de estudio durante el registro.
En la Figura 39 se muestran las conexiones necesarias para establecer una referencia
común entre los tableros principal y auxiliar del sistema OpenBCI.

Figura 39. Modificaciones para referenciar eléctricamente los tableros principal y auxiliar del sistema
OpenBCI al mismo par de electrodos.

5.1.2.2. Parámetros de software

Para los fines de esta investigación, es importante conservar la mayor cantidad


disponible de información de las señales biológicas originales, por lo que se seleccionó
mediante configuración de software una frecuencia de muestreo de 250 Hz, la máxima
disponible para la interfaz cerebro-computadora OpenBCI.

Además se aplicó a las señales un filtro elimina-banda para frecuencias superiores


a 60 Hz con la finalidad de eliminar cualquier componente que pudiera ser introducido
por las fuentes de alimentación de corriente alterna.

Cabe mencionar que, a pesar de que en esta investigación el subconjunto de se-


ñales de interés se encuentra entre 8 y 14 Hz (banda alfa), no se aplicó ningún filtro
pasabanda con tales frecuencias de corte durante la adquisición de señales. Esto se
84

debe a que este estudio constituye el primer paso para el análisis de fenómenos de
mayor complejidad en el futuro, entonces, resulta de utilidad conservar la gama com-
pleta de señales adquiridas durante los experimentos aquí descritos.

5.1.3. Sujetos de estudio

Para el registro de las señales electroencefalográficas, resulta crítico tener ciertas


consideraciones al seleccionar a los sujetos de estudio, ya que factores como su edad,
estado de salud y las sustancias que han consumido recientemente influyen en las
señales de interés y por lo tanto tienen efecto sobre las mediciones.

Inicialmente, el sexo de los candidatos a sujeto de estudio no fue un parámetro


crítico para la selección, ya que no existe evidencia de que el fenómeno de interés
se presente de forma distinta en sujetos masculinos y femeninos. Sin embargo, al
momento de llevar a cabo la instalación de la interfaz cerebro-computadora OpenBCI
para comenzar el registro de señales electroencefalográficas, se presentaron dificul-
tades para ajustar los electrodos en los candidatos de sexo femenino. Esto se debe a
que el ajuste de los electrodos se lleva a cabo girando la parte plástica de los mismos
con el objetivo de que estos se deslicen a través de un agujero roscado hasta tener
contacto con el cuero cabelludo del sujeto de estudio. En los candidatos a sujeto de
estudio de sexo femenino, su cabello no permitía llevar a cabo el ajuste anteriormente
mencionado, por lo que se decidió llevar a cabo el estudio con pacientes masculinos
con cabello corto únicamente.

Durante las pruebas iniciales se hicieron algunas observaciones que sugerían que
la potencia de las señales electroencefalográficas en la banda alfa era menor conforme
aumentaba la edad de los sujetos de estudio. Sin embargo, la edad no fue considerada
como un parámetro crítico para la selección, ya que la potencia de las señales en la
banda alfa en la mayoría de los sujetos de estudio era suficientemente prominente
para ser detectada.

Teniendo en cuenta que este trabajo constituye el primer paso para estudiar fe-
nómenos de mayor complejidad en el futuro, se utilizaron únicamente las señales de
dos de los sujetos de estudio, ambos de sexo masculino, uno de 48 años de edad y
el otro de 17 años de edad. Las señales extraídas de un tercer sujeto de estudio de
85

sexo masculino y 29 años de edad, fueron descartadas debido a que no presentaban


niveles apreciables de potencia en la banda alfa a lo largo de los experimentos.

Considerando también que se ha demostrado que la cafeína es una sustancia que


atenúa la intensidad de las ondas alfa, además de tener impacto directo en la frecuen-
cia pico de esta banda (Bruce et al., 1986), se exhortó a los sujetos seleccionados para
el estudio evitar el consumo de cafeína al menos durante las 8 horas previas al registro
de señales electroencefalográficas.

5.2. Registro de señales EEG

Esta sección tiene como objetivo describir el procedimiento para llevar a cabo la
adquisición de las señales electroencefalográficas con la interfaz cerebro-computadora
OpenBCI.

Los experimentos descritos a continuación fueron diseñados con el objetivo de lle-


var a cabo el registro de señales electroencefalográficas en las que la actividad alfa
fuera apreciable. Todos ellos fueron ejecutados bajo las condiciones ambientales, del
equipo de adquisición y los sujetos de estudio descritos en la Sección 5.1.

5.2.1. Instalación de OpenBCI

Para llevar a cabo la instalación de la interfaz cerebro-computadora OpenBCI, es


necesario seguir los siguientes pasos:

1. El sujeto de estudio debe sentarse en una silla con la finalidad de que se encuen-
tre a una altura adecuada para que el responsable de los experimentos pueda
llevar a cabo la instalación y ajuste de OpenBCI de manera sencilla.

2. Todos los electrodos primeramente deben ser girados por la parte plástica en
sentido contrario a las manecillas del reloj de forma suave para evitar daños o
desconexiones en el cableado. Esto se hace con la finalidad de permitir la libera-
ción de espacio para la colocación libre de la estructura MarkIV sobre la cabeza
del sujeto de estudio como se muestra en la Figura 40.
86

Figura 40. Colocación de Mark IV en la cabeza del sujeto de estudio.

3. Una vez colocada la estructura MarkIV, se lleva a cabo el ajuste de los electrodos
girándolos por la parte plástica en el sentido de las manecillas del reloj para que
estos se deslicen a través de los agujeros roscados hasta hacer contacto con el
cuero cabelludo como se muestra en la Figura 41.

Figura 41. Ajuste de electrodos.

Es importante recibir retroalimentación por parte del sujeto de estudio durante


este proceso, ya que es suficiente con que la parte conductiva de los electrodos
87

toque el cuero cabelludo del sujeto de estudio. Ajustarlos en exceso podría causar
molestias durante la experimentación.

4. Finalmente, el par de electrodos tipo broche restantes, son colocados en el lóbulo


de ambas orejas evitando tensión excesiva en el cableado. Estos electrodos serán
utilizados como nodo de referencia eléctrica para las mediciones y su colocación
se ejemplifica en la Figura 42.

Figura 42. Colocación de electrodos de referencia tipo broche.

5.2.2. Pruebas preliminares

Antes de comenzar cada uno de los experimentos para el registro de señales elec-
troencefalográficas, se realizan una serie de pruebas con la finalidad de asegurar que
el equipo de adquisición de datos se encuentre funcionando correctamente de acuerdo
a la configuración seleccionada. En esta etapa también se verifica la correcta instala-
ción de la interfaz cerebro-computadora OpenBCI de acuerdo a los pasos descritos en
la sección anterior.

Para llevar a cabo las pruebas y el registro de señales electroencefalográficas, se


utiliza la plataforma de software OpenBCI GUI, que puede ser descargada de manera
gratuita del sitio web oficial de OpenBCI. Una vez que se ha descargado, instalado y
88

ejecutado la plataforma de software, dependiendo de la versión instalada, esta tiene


una apariencia similar a la mostrada en la Figura 43.

Figura 43. Pantalla principal de la plataforma de software OpenBCI GUI.

Posteriormente, para llevar a cabo el registro usando el tablero OpenBCI de 4 ca-


nales, el responsable de la experimentación debe seleccionar la opción LIVE (from
Ganglion), de lo contrario, para registros usando los tableros de 8 o 16 canales (como
es el caso), la opción LIVE (from Cyton) debe ser seleccionada, como se muestra en la
Figura 44.

Figura 44. Selección de opción “LIVE (from Cyton)”.


89

En el menú el responsable de los experimentos debe seleccionar primeramente


el puerto COM correspondiente en la Sección SERIAL/COM PORT, mismo que varía
dependiendo del equipo de cómputo. Si ningún puerto es mostrado en tal sección,
podría tratarse de un problema de conexión del receptor inalámbrico OpenBCI, por lo
que se recomienda desconectarlo y volverlo a conectar con la finalidad de que vuelva
a ser detectado por el sistema, finalmente se debe presionar el botón REFRESH LIST
para que aparezca en el listado y pueda ser seleccionado.

En la Sección DATA LOG FILE el responsable de los experimentos debe escribir el


nombre del archivo a utilizar para guardar las señales registradas durante la prueba,
por lo que se puede asignar un nombre genérico como “Prueba” o simplemente utilizar
el nombre que el software asigna automáticamente, mismo que está asociado con la
fecha y hora del registro.

Dependiendo del estudio, la cantidad de canales para llevar a cabo el registro debe
ser seleccionada. Considerando que este estudio requiere el registro de señales por
medio de 16 canales, entonces es necesario seleccionar la opción 16 CHANNELS.

El resto de las secciones no deben ser modificadas, por lo que para continuar con
el registro es necesario presionar el botón START SYSTEM, lo que resultará en una
pantalla similar a la mostrada en la Figura 45.

Figura 45. Pantalla final.


90

Para comenzar las pruebas preliminares, el responsable de la experimentación debe


presionar el botón Start Data Stream, lo cual originará que se puedan apreciar las
variaciones de las señales medidas a lo largo del tiempo.

Mientras en pantalla se muestran las variaciones de las señales a lo largo del tiem-
po, se le notifican al sujeto de estudio las condiciones deseables para el experimento,
así como la dinámica del mismo de acuerdo a la descripción contenida en la Sección
5.2.3. La Figura 46 muestra la apariencia de la pantalla durante la prueba.

Figura 46. Ejecución de prueba.

Para verificar la instalación correcta de la interfaz cerebro-computadora OpenBCI


se revisa la gráfica trazada para cada uno de los canales para evaluar la integridad de
las señales de acuerdo a los criterios descritos en la Sección 2.1.4 y prestando especial
atención a posibles artefactos en las señales de acuerdo a la Figura 13.

Una vez confirmada la correcta instalación y configuración de la interfaz OpenBCI,


y verificada la integridad de las señales, el responsable del experimento debe detener
la adquisición de señales de prueba presionando el botón Stop Data Stream, para
finalmente proceder a llevar a cabo la adquisición de señales electroencefalográficas
de acuerdo al experimento descrito en la siguiente sección.
91

5.2.3. Adquisición de señales EEG

Para llevar a cabo la adquisición de señales electroencefalográficas, es necesario


mantener las condiciones de experimentación descritas en la Sección 5.1.

Además los pasos descritos en la sección anterior deben ser repetidos, con excep-
ción de que esta vez se debe utilizar un nombre de archivo que permita una fácil aso-
ciación del mismo con el experimento ejecutado. Es recomendable utilizar el formato:
nombre_e, donde nombre debe ser sustituido por el nombre del sujeto de estudio, y
la e debe ser sustituida por el número de experimento para ese sujeto de estudio.

A continuación se describe un experimento que fue diseñado con la finalidad de


que el fenómeno de interés (ondas alfa) pueda ser observado:

1. El sujeto de estudio se debe encontrar sentado en una silla, en estado relajado y


con los ojos abiertos frente al monitor del equipo de cómputo en el que se va a
llevar a cabo el registro.

2. Cuando el responsable del experimento lo indique, y de inicio a la adquisición,


el sujeto de estudio debe fijar su atención en un temporizador que se encuentra
en la parte superior de la ventana del software OpenBCI GUI, el cual indicará el
tiempo transcurrido a partir del inicio de la adquisición.

3. Cuando el tiempo transcurrido llegue a los 30 segundos, el sujeto de estudio debe


cerrar sus ojos y tratar de despejar su mente con la finalidad de incrementar la
magnitud de sus ondas cerebrales en la banda alfa, para lo cual se le dan 60
segundos.

4. Cuando han transcurrido 90 segundos desde el inicio del experimento, el respon-


sable del experimento le indica mediante una palmada en el hombro al sujeto de
estudio que ya puede abrir los ojos y seguir fijando su atención en el temporizador
en pantalla.

5. Finalmente, ya que han transcurrido 120 segundos desde el inicio del experimen-
to, el responsable del experimento detiene la adquisición de señales y le indica
al sujeto de estudio que el experimento ha concluido.
92

La Figura 47 describe de manera gráfica el experimento de adquisición de señales


electroencefalográficas.

0s 30s 90s 120s

Ojos abiertos
Ojos cerrados
Adquisición EEG

Figura 47. Descripción gráfica del experimento de registro de señales EEG.

La idea de este experimento es tener un registro donde sea posible observar un


contraste entre la presencia y ausencia de ondas alfa en distintos segmentos de tiem-
po. En este experimento, se comienza con un segmento de 30 segundos en el que se
pretende que el sujeto de estudio se relaje, y se familiarice con el ambiente del mismo.
Durante esos primeros 30 segundos es probable que se pueda detectar la presencia
de ondas alfa dependiendo del nivel de relajación del sujeto de estudio. Sin embargo,
en el segmento de tiempo comprendido entre los segundos 30 y 90, es altamente
probable que se puedan detectar ondas alfa, ya que es bien conocido, que al truncar
la información sensorial proveniente de los ojos, la amplitud de las ondas cerebrales
en la banda de interés incrementa (Empson, 1986). Además, el sujeto de estudio tiene
instrucciones de intentar despejar la mente durante este período, lo que inevitable-
mente lo lleva a un estado de relajación, mismo que propicia la generación de ondas
alfa. Finalmente, en el segmento de tiempo comprendido entre los 90 y 120 segundos,
al igual que en el segmento inicial, resulta incierto detectar la presencia de ondas alfa.

5.3. Pre-procesamiento y formación de pseudo-imágenes

Para convertir las señales electroencefalográficas adquiridas mediante la interfaz


cerebro-computadora OpenBCI en pseudo-imágenes, se implementó el modelo compu-
tacional descrito en el Capítulo 4 en una aplicación desarrollada en LabVIEW. Las prin-
cipales razones por las que tal plataforma fue seleccionada para la implementación del
modelo computacional fueron su flexibilidad en cuanto a interacción con instrumentos
de adquisición de datos y su compatibilidad con Matlab, plataforma en la que fue im-
plementado el modelo computacional de la corteza visual artificial. LabVIEW además
93

utiliza un lenguaje de programación gráfico, muy similar a un diagrama a bloques,


lo que resulta en una gran facilidad de implementación y comprensión de código. La
implementación a detalle y el desarrollo de la aplicación no serán discutidos en este
documento.

La aplicación fue diseñada para llevar a cabo el pre-procesamiento de las señales


electroencefalográficas y construir las pseudo-imágenes a partir de los archivos de tex-
to generados por la aplicación OpenBCI GUI durante los experimentos de adquisición
de señales descritos en la sección anterior.

Los experimentos de adquisición de señales electroencefalográficas explicados en


la Figura 47 tienen una duración de 120 segundos. Sin embargo, al construir las
pseudo-imágenes a partir de los archivos de texto generados en tales experimen-
tos a razón de dos pseudo-imágenes por segundo, generalmente se obtienen un poco
más de 240 pseudo-imágenes. Algunas de las pseudo-imágenes excedentes son cons-
truidas con información residual contenida en los arreglos utilizados para el almace-
namiento de datos y debido a la terminación manual del registro de señales, que no
siempre es ejecutada de manera precisa por el responsable del experimento.

5.3.1. Etiquetado de pseudo-imágenes

Debido a que el modelo de la corteza visual artificial está basado en un sistema


de aprendizaje supervisado, es necesario llevar a cabo un etiquetado de las pseudo-
imágenes generadas. El proceso de etiquetado se realiza considerando el diseño del
experimento, las observaciones realizadas durante el registro de señales electroence-
falográficas, y las revisiones posteriores de las mismas. Las pseudo-imágenes etique-
tadas servirán para llevar a cabo el entrenamiento, validación y prueba del modelo de
la corteza visual artificial.

La Figura 48 muestra las pseudo-imágenes construidas a partir del archivo de texto


generado en uno de los experimentos de adquisición de señales EEG. Como se puede
observar, para el caso de este experimento, un total de 243 pseudo-imágenes fueron
construidas a partir de las señales originales. Del total de pseudo-imágenes construi-
das, sólo algunas resultan útiles para llevar a cabo la evaluación del modelo de la
corteza visual artificial.
94

Figura 48. Pseudo-imágenes generadas con la aplicación.

Mediante un análisis visual preliminar, es posible observar que las primeras pseudo-
imágenes generadas contienen datos anómalos: la primera presenta valores radiomé-
tricos extremadamente bajos, comparada con el resto, mientras que en las siguientes
10 o 12 pseudo-imágenes, se pueden observar valores radiométricos muy prominen-
tes, mismos que son causados por una reacción natural que presenta el sistema elec-
trónico de adquisición de señales (OpenBCI) durante los primeros 5 o 6 segundos del
registro. De igual manera, las últimas dos pseudo-imágenes generadas pueden ser
consideradas como información residual, ya que fueron construídas debido a la ter-
minación tardía por parte del responsable de los experimentos. Debido a las razones
mencionadas anteriormente, tales pseudo-imágenes pueden ser descartadas en los
siguientes procesos.

Con la finalidad de seleccionar y etiquetar las pseudo-imágenes que resulten úti-


les entre las restantes, es conveniente llevar a cabo un análisis comparativo de las
mismas utilizando únicamente la banda construída a partir de la media de los valores
almacenados. Esto se debe a que tal parámetro estadístico es representativo de los
valores típicos que adquieren las señales electroencefalográficas de tal forma que es
95

posible corroborar visualmente en tales pseudo-imágenes generadas la presencia de


ondas alfa.

Este proceso de depuración es necesario debido a que, a pesar de que los expe-
rimentos fueron diseñados para tener segmentos definidos de tiempo donde debería
existir actividad en la banda alfa, resulta imposible asegurar que durante tales seg-
mentos de tiempo la actividad alfa ocurre de forma estable. De igual forma, existe la
posibilidad de que se presente actividad alfa prominente en los segmentos de tiempo
donde, de acuerdo al diseño de los experimentos, no se espera que esto ocurra, esto
se debe a la naturaleza de las señales de interés.

El análisis comparativo consiste en utilizar la herramienta OpenBCI GUI para re-


producir las señales almacenadas en los archivos de texto generados en cada uno de
los experimentos, con la finalidad de establecer segmentos de tiempo donde es evi-
dente la presencia de ondas alfa. Posteriormente, se lleva a cabo un análisis visual
de las pseudo-imágenes construídas a partir de la media de los valores almacenados
en los segmentos de tiempo identificados en el proceso anterior, con el objetivo de
corroborar la presencia de ondas alfa en las mismas y finalmente poderlas etiquetar.

Para llevar a cabo la reproducción de señales electroencefalográficas a partir de


archivos generados en el registro de las mismas, es necesario seleccionar la opción
PLAYBACK (from file) en la pantalla principal de la aplicación OpenBCI GUI y en el
menú emergente, seleccionar la opción SELECT PLAYBACK FILE. Como se muestra en
la Figura 49

Posteriormente, la aplicación muestra una ventana del explorador, en la cual se


debe buscar y seleccionar el archivo que contiene los datos que se desean reproducir.
Una vez que se ha direccionado tal archivo, es necesario presionar el botón START
SYSTEM, lo cual mostrará pantalla la principal de reproducción cuya apariencia es
similar a la de la Figura 50.

Antes de comenzar la reproducción de señales, es necesario realizar algunos ajus-


tes con la finalidad de tener un poco más de claridad en los gráficos. Considerando
que de acuerdo a la Sección 2.2, la actividad alfa se presenta de forma más prominen-
te en las mediciones realizadas en el lóbulo occipital. Resulta entonces conveniente
deshabilitar todos los canales relacionados con los electrodos que se encuentran loca-
96

Figura 49. Selección de reproducción de señales.

Figura 50. Reproducción de señales.

lizados fuera de esa zona. De esta forma, en la parte izquierda de la pantalla, se deben
presionar los botones asignados a todos los canales, excepto para los canales 7 y 8,
cuyos electrodos de registro se ubican en ambos hemisferios del lóbulo occipital.

Una vez realizados los ajustes descritos anteriormente, se debe presionar el botón
Start Data Stream, lo cual originará que inicie la reproducción de las señales y se
97

puedan apreciar las variaciones de las mismas a lo largo del tiempo, como se muestra
en la Figura 51.

Figura 51. Variaciones de las señales a lo largo del tiempo.

En la esquina inferior-derecha, se muestra el comportamiento espectral de las se-


ñales. Este consiste en una gráfica cuyo eje vertical representa la magnitud, mientras
que el eje horizontal representa la frecuencia. El gráfico mencionado muestra el espec-
tro de potencia de las señales reproducidas, mismo que servirá de guía para establecer
los segmentos de tiempo en los que existe actividad apreciable en la banda alfa.

Entonces, como primer paso se requiere reproducir varias veces el archivo donde
las señales fueron guardadas, poniendo especial atención en lo que ocurre en el grá-
fico entre las frecuencias de 8 y 14 Hz, mismas que delimitan la banda alfa. La parte
superior de la ventana muestra el tiempo transcurrido desde el inicio de la reproduc-
ción expresado en segundos, mismo que sirve de guía para identificar los tiempos de
inicio y final de la actividad alfa cuando se observen picos de las señales dentro de la
banda de frecuencias de interés.

El resultado de este proceso es un conjunto de segmentos de tiempo en los que


resulta altamente probable observar actividad en la banda alfa. Para verificar la pre-
sencia de ondas alfa se lleva a cabo un análisis visual de las pseudo-imágenes cons-
truídas a partir de la media de los valores almacenados en los segmentos de tiempo
98

identificados en el proceso anterior. De esta forma, tales pseudo-imágenes pueden


ser etiquetadas una vez que se ha confirmado la presencia o ausencia genuina de
actividad alfa.

Las pseudo-imágenes son construidas respetando la distribución espacial de los


sensores a partir de los cuales se adquieren las señales electroencefalográficas. Ade-
más, de acuerdo a la Sección 2.2, la actividad alfa resulta más prominente en las
mediciones realizadas en el lóbulo occipital. Teniendo en consideración tales factores
es posible pronosticar que para aquellas pseudo-imágenes construidas a partir de seg-
mentos de tiempo en los que la actividad en la banda alfa fue prominente, debe existir
una diferencia observable en cuanto a los valores radiométricos de la parte inferior,
con respecto a aquellos de las partes media y superior.

Por lo contrario, para aquellas pseudo-imágenes construidas a partir de segmentos


de tiempo en los que la actividad en la banda alfa no fue prominente, la diferencia
en cuanto a los valores radiométricos de la parte inferior, con respecto a aquellos
de las partes media y superior debe ser poco apreciable, es decir, presentan valores
radiométricos más homogéneos.

La Figura 52 muestra del lado izquierdo una pseudo-imagen generada en un seg-


mento de tiempo donde la actividad en la banda alfa fue prominente. En ella se puede
observar una notable diferencia de los valores radiométricos de la parte inferior (don-
de se ubican los electrodos 7 y 8, en el lóbulo occipital) con respecto a los de las partes
media y superior. La misma figura, al lado derecho muestra una pseudo-imagen ge-
nerada para un segmento de tiempo con ausencia de actividad en la banda alfa, en
la que se pueden apreciar valores más homogéneos en cuanto a la radiometría para
distintas zonas.

Una vez que se ha concluido este proceso para cada una de las pseudo-imágenes
construidas en los segmentos de tiempo identificados, es posible seleccionar aquellas
en las que la actividad alfa es prominente. Al proceso de segregación de las pseudo-
imágenes que presentan prominencia en la actividad alfa, de aquellas en las que existe
ausencia de tal actividad, se le llama etiquetado.

A pesar del diseño simétrico del experimento de adquisición de señales electroen-


cefalográficas en el que se asignaron segmentos de tiempo iguales a la posible presen-
99

Figura 52. Comparación entre pseudo-imágenes generadas en presencia (izquierda) y ausencia (dere-
cha) de actividad alfa.

cia y ausencia de ondas alfa, el resultado de los procesos de depuración y etiquetado


es comúnmente asimétrico, es decir, termina entregando una cantidad distinta de
pseudo-imágenes etiquetadas para cada clase.

Para el caso del experimento descrito anteriormente, el total de pseudo-imágenes


identificadas como representativas de prominencia en la banda alfa, mismas que para
los experimentos de clasificación serán referidas como clase Alpha, era menor que la
cantidad de pseudo-imágenes en las que no existía actividad alfa prominente, mismas
que para los experimentos de clasificación serán serán referidas como clase No Alpha.

Con el objetivo de establecer simetría en los conjuntos de pseudo-imágenes du-


rante la clasificación, considerando que la clase Alpha se compone de 85 pseudo-
imágenes, la clase No Alpha es reducida a tal cantidad mediante una nueva segrega-
ción visual en la que las pseudo-imágenes más homogéneas fueron conservadas y las
menos homogéneas descartadas. Así, procedemos a la etapa de clasificación utilizan-
do dos conjuntos de 85 pseudo-imágenes, uno para la clase Alpha y otro para la clase
No Alpha.
100

5.4. Clasificación de señales EEG

Esta sección describe la experimentación llevada a cabo en relación a la clasifica-


ción de las pseudo-imágenes generadas a partir de la aplicación mencionada en la
sección anterior.

En los experimentos descritos a continuación, se utiliza una prueba de validación


cruzada, la cual tiene como objetivo medir el rendimiento del modelo computacional
de la corteza visual artificial en la clasificación de las pseudo-imágenes generadas
a partir de las señales EEG, así como garantizar su independencia en relación a los
conjuntos de pseudo-imágenes de entrenamiento, validación y prueba.

La prueba de validación cruzada de k - dobleces fue utilizada para los experimen-


tos de clasificación de las pseudo-imágenes generadas a partir de las señales EEG. En
esta prueba, las pseudo-imágenes son divididas en k subconjuntos. Uno de los k - sub-
conjuntos es utilizado para la prueba, mientras que el resto k − 1 son utilizados como
datos entrenamiento. Así, se llevan a cabo k iteraciones y el proceso de validación cru-
zada termina cuando cada uno de los k subconjuntos ha sido utilizado para la prueba.
Finalmente se calcula la media aritmética de los resultados para cada iteración con el
objetivo de obtener un resultado único por doblez.

Con el objetivo de analizar el desempeño del modelo de la corteza visual artificial


en la clasificación de las pseudo-imágenes generadas a partir de las señales elec-
troencefalográficas, se realizó una validación cruzada donde k = 5, para lo que fue
necesario dividir el conjunto de pseudo-imágenes en 5 subconjuntos y en cada una de
las 5 iteraciones, utilizar uno de esos subconjuntos como datos de prueba, mientras
que de los 4 restantes, 2 son utilizados como datos de entrenamiento y los otros 2
como datos de validación. Además, con la finalidad de darle confiabilidad estadística
a los experimentos, cada iteración fue repetida 6 veces, resultando en un total de 30
iteraciones para todo el experimento.
101

Capítulo 6. Análisis de resultados

Este capítulo tiene como objetivo exponer los resultados obtenidos en la investiga-
ción, así como analizar los mismos con la finalidad de poder inferir las conclusiones
detalladas en el Capítulo 7.

Primeramente se muestran los resultados de la validación cruzada para cada uno de


los conjuntos de pseudo-imágenes en cada una de las ejecuciones del experimento.
Posteriormente se lleva a cabo una validación cruzada independiente para evaluar
el desempeño de los mejores individuos generados mediante el proceso evolutivo.
Finalmente se analiza en detalle el desempeño y estructura del mejor individuo.

6.1. Experimentos de validación cruzada

Al llevar a cabo los experimentos de clasificación descritos en el capítulo anterior,


se obtuvieron los resultados mostrados en la Tabla 2. Esta resume la validación cruza-
da de 5 dobleces en la que se hicieron 6 repeticiones para cada doblez con la finalidad
de proveer validez estadística a los experimentos. La primera columna corresponde al
número de repetición del experimento, mientras que el resto de las columnas mues-
tran los resultados de la clasificación de los conjuntos de pseudo-imágenes de entre-
namiento, validación y prueba para cada uno de los 5 dobleces en cada repetición.
Los mejores 10 resultados para la clasificación del conjunto de prueba se encuentran
señalados en negritas. En las últimas dos filas se muestran la media y la desviación
típica de cada conjunto de resultados.

Tabla 2. Resumen de la primer validación cruzada de 5 dobleces para la clasificación de ondas alfa

Doblez 1 Doblez 2 Doblez 3 Doblez 4 Doblez 5


Rep.
Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru.
1 100.00 95.59 91.18 98.53 91.18 70.59 94.12 95.59 85.29 91.18 91.18 91.18 97.06 95.59 91.18
2 97.06 86.76 85.29 89.71 95.59 85.29 94.12 100 97.06 92.65 94.12 94.12 85.29 89.71 82.35
3 97.06 92.65 91.18 85.29 86.76 67.65 97.06 95.59 82.35 85.29 92.65 94.12 92.65 95.59 94.12
4 82.35 83.82 76.47 91.18 95.59 85.29 91.18 88.24 85.29 88.24 80.88 79.41 72.06 70.59 58.82
5 91.18 86.76 88.24 88.24 97.06 76.47 98.53 98.53 97.06 91.18 92.65 94.12 92.65 94.12 94.12
6 89.71 88.24 79.41 75.00 77.94 73.53 80.88 70.59 64.71 100.00 95.59 100.00 79.41 80.88 82.35
Media 92.89 88.97 85.30 87.99 90.69 76.47 92.65 91.42 85.29 91.42 91.18 92.16 86.52 87.75 83.82
σ 6.47 4.34 6.17 7.75 7.31 7.44 3.31 10.98 11.91 4.96 5.26 6.88 9.46 10.09 13.38
102

La Figura 53, muestra un condensado de lo ocurrido durante las 30 ejecuciones ex-


perimentales descritas anteriormente para todos los individuos. La curva azul muestra
la aptitud promedio. Por otro lado, la curva roja muestra la aptitud promedio del grupo
formado por los 10 mejores individuos. Finalmente, la curva verde muestra la evolu-
ción del aprendizaje para el mejor individuo, mientras que la línea punteada muestra
el límite de desempeño establecido por este.

0.9

0.8

0.7

0.6
Aptitud

0.5

0.4

0.3

0.2 Aptitud promedio


Apt. prom. de los mejores
0.1
Mejor individuo
0 Lim. mejor ind.

0 5 10 15 20 25 30
Generaciones

Figura 53. Curva de aprendizaje general para todas las ejecuciones de los experimentos descritos en la
Tabla 2.

Como se puede observar, el mejor individuo alcanza la máxima aptitud desde la


generación 9 (curva verde), mientras que los 10 mejores individuos parecen alcanzar
su máxima aptitud promedio en la generación 26 (curva roja). Por otro lado, la aptitud
promedio de toda la población (curva azul) se muestra relativamente estable a partir
de la generación 20.

Durante la revisión de los resultados anteriores, se encontraron errores en la se-


cuencia de programas ejecutados para llevar a cabo la optimización mediante el proce-
so evolutivo. El problema consistía en que para todas las repeticiones de los dobleces
k = 4 y k = 5 durante toda la evolución, el desempeño de los individuos fue evaluado
contra un mismo conjunto de pseudo-imágenes de validación, el cual pertenecía al
103

primer doblez (k = 1), y con base en esos resultados, fueron tomadas las decisiones
que daban origen a las nuevas generaciones de individuos para tales experimentos, lo
que introdujo un sesgo en el proceso evolutivo.

El impacto de los errores en la Tabla 2 es menor, ya que sólo afecta las columnas
con los resultados de validación para los dobleces k = 4 y k = 5 y por lo tanto existen
algunos cambios en la selección de los mejores individuos. Además se podría decir que
todos los individuos generados a partir del proceso evolutivo para tales dobleces fue-
ron optimizados mediante un proceso sesgado. Cabe mencionar, que a pesar de que
estos resultados fueron obtenidos con un sesgo en el proceso evolutivo, las soluciones
son completamente válidas, ya que si bien, el proceso de construcción de las mismas
es dudoso, se puede validar su desempeño en la clasificación de cualquier conjunto
de entrenamiento, validación y prueba.

Al llevar a cabo las correcciones de los porcentajes de las columnas con los resulta-
dos de validación para los dobleces k = 4 y k = 5, además de sus respectivos valores
en la media y desviación estándar se obtiene la Tabla 3.

Tabla 3. Resumen de la primer validación cruzada de 5 dobleces para la clasificación de ondas alfa
(corregida)

Doblez 1 Doblez 2 Doblez 3 Doblez 4 Doblez 5


Rep.
Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru.
1 100.00 95.59 91.18 98.53 91.18 70.59 94.12 95.59 85.29 91.18 86.76 91.18 97.06 92.65 91.18
2 97.06 86.76 85.29 89.71 95.59 85.29 94.12 100 97.06 92.65 92.65 94.12 85.29 83.82 82.35
3 97.06 92.65 91.18 85.29 86.76 67.65 97.06 95.59 82.35 85.29 86.76 94.12 92.65 94.12 94.12
4 82.35 83.82 76.47 91.18 95.59 85.29 91.18 88.24 85.29 88.24 79.41 79.41 72.06 75.00 58.82
5 91.18 86.76 88.24 88.24 97.06 76.47 98.53 98.53 97.06 91.18 86.76 94.12 92.65 88.24 94.12
6 89.71 88.24 79.41 75.00 77.94 73.53 80.88 70.59 64.71 100.00 89.71 100.00 79.41 80.88 82.35
Media 92.89 88.97 85.30 87.99 90.69 76.47 92.65 91.42 85.29 91.42 87.01 92.16 86.52 85.79 83.82
σ 6.47 4.34 6.17 7.75 7.31 7.44 3.31 10.98 11.91 4.96 4.41 6.88 9.46 7.31 13.38

Con la finalidad de tener un nuevo conjunto completo de experimentos se lleva-


ron a cabo las correcciones necesarias y se repitieron los experimentos de validación
cruzada. La Tabla 4 muestra los resultados de la validación cruzada de 5 dobleces en
la que de igual manera, se hicieron 6 repeticiones para cada doblez con el objetivo
de proveer validez estadística a los experimentos. De la misma forma que en las Ta-
blas 2 y 3, la primera columna corresponde al número de repetición del experimento,
mientras que el resto de las columnas muestran los resultados de la clasificación de
los conjuntos de pseudo-imágenes de entrenamiento, validación y prueba para cada
104

uno de los 5 dobleces en cada repetición. Los mejores 10 resultados se encuentran


señalados en negritas. Al igual que en la tabla anterior, las últimas dos filas muestran
la media y la desviación típica de cada conjunto de resultados.

Tabla 4. Resumen de la segunda validación cruzada de 5 dobleces para la clasificación de ondas alfa

Doblez 1 Doblez 2 Doblez 3 Doblez 4 Doblez 5


Rep.
Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru.
1 97.06 83.82 85.29 95.59 97.06 88.24 95.59 97.06 85.29 88.24 92.65 94.12 86.76 91.18 82.35
2 85.29 95.59 91.18 89.71 97.06 82.35 98.53 97.06 85.29 79.41 85.29 64.71 95.59 92.65 82.35
3 85.29 95.59 88.24 75.00 82.35 67.65 92.65 88.24 82.35 92.65 92.65 76.47 85.29 83.82 85.29
4 69.12 76.47 64.71 98.53 86.76 76.47 100.00 89.71 85.29 92.65 79.41 67.41 92.65 95.59 91.18
5 86.76 83.82 79.41 91.18 76.47 67.65 92.65 79.41 79.41 100.00 91.18 91.18 98.53 95.59 88.24
6 100.00 95.59 88.24 89.71 89.71 67.65 75.00 70.59 76.47 83.82 85.29 79.41 98.53 92.65 88.24
Media 87.25 88.48 82.85 89.95 88.24 75.00 92.40 87.01 82.35 89.46 87.75 78.88 92.89 91.91 86.28
σ 10.91 8.24 9.74 8.13 8.16 8.87 9.04 10.37 3.72 7.29 5.32 12.02 5.77 4.34 3.57

La Figura 54, detalla lo ocurrido durante las 30 ejecuciones experimentales descri-


tas anteriormente para todos los individuos. La curva azul, muestra la aptitud prome-
dio. Por otro lado, la curva roja muestra la aptitud promedio del grupo formado por
los 10 mejores individuos. Finalmente, la curva verde muestra la evolución del apren-
dizaje para el mejor individuo, mientras que la línea punteada, muestra el límite de
desempeño establecido por este.

0.9

0.8

0.7

0.6
Aptitud

0.5

0.4

0.3

0.2 Aptitud promedio


Apt. prom. de los mejores
0.1
Mejor individuo
0 Lim. mejor ind.

0 5 10 15 20 25 30
Generaciones

Figura 54. Curva de aprendizaje general para todas las ejecuciones de los experimentos descritos en la
Tabla 4.
105

Para este caso, el mejor individuo alcanza la máxima aptitud a partir de la gene-
ración 8 (curva verde), mientras que los 10 mejores individuos parecen alcanzar su
máxima aptitud promedio hasta la generación 28 (curva roja), aunque se puede ob-
servar cierta estabilidad desde la generación 10. Por otro lado, la aptitud promedio de
toda la población (curva azul) se muestra relativamente estable a partir de la genera-
ción 18.

Como se puede apreciar en la Tabla 3, el mejor resultado corresponde al individuo


encontrado en la repetición 6 del doblez 4, teniendo porcentajes de acierto de 100.00,
89.71 y 100.00 para los conjuntos de entrenamiento, validación y prueba respectiva-
mente. De esta manera, el segundo mejor individuo fue encontrado en la repetición 2
del doblez 3, mismo que presenta porcentajes de acierto de 94.12, 100 y 97.06 para
los conjuntos de entrenamiento, validación y prueba respectivamente. Así, el tercer
mejor individuo se encontró en la repetición 5 del doblez 3, el cual reporta porcentajes
de acierto de 98.53, 98.53 y 97.06 para los conjuntos de entrenamiento, validación y
prueba respectivamente.

En la Tabla 4 el mejor resultado corresponde al individuo encontrado en la repe-


tición 1 del doblez 4, teniendo porcentajes de acierto de 88.24, 92.65 y 94.12 para
los conjuntos de entrenamiento, validación y prueba respectivamente. Así, el segundo
mejor individuo fue encontrado en la repetición 4 del doblez 5, y presenta porcentajes
de acierto de 92.65, 95.59 y 91.18 para los conjuntos de entrenamiento, validación
y prueba respectivamente. Similarmente, el tercer mejor individuo se encontró en la
repetición 2 del doblez 1, que reporta porcentajes de acierto de 85.29, 95.59 y 91.18
para los conjuntos de entrenamiento, validación y prueba respectivamente.

En general, es posible apreciar que al comparar ambas tablas existe un notable


mejor desempeño en los resultados de la Tabla 3, con respecto a los de la Tabla 4
correspondientes al último conjunto de experimentos ejecutados. A continuación se
analizarán a profundidad algunos de los mejores individuos con la finalidad de validar
su buen desempeño y entender los resultados aquí presentados.
106

6.2. Análisis de los mejores individuos

En esta sección se analiza a detalle el comportamiento de los individuos que pre-


sentaron un mejor desempeño durante los experimentos de validación cruzada para
el proceso evolutivo encontrados con la finalidad de verificar su buen desempeño y
encontrar el sentido de su comportamiento.

6.2.1. Desempeño

Primeramente, con el objetivo de evaluar el desempeño de los individuos que hasta


este punto son considerados mejores, se lleva a cabo una validación cruzada para los
5 individuos que presentaron el mejor desempeño en los experimentos anteriores.
En este nuevo experimento de validación cruzada, se evalua el desempeño de tales
individuos al clasificar los conjuntos de entrenamiento, validación y prueba del resto
de los dobleces. Esto además de confirmar o desacreditar a cada individuo como parte
de los mejores, garantiza su independencia con respecto a los conjuntos de pseudo-
imágenes con los que fueron entrenados, validados y probados.

La Tabla 5 muestra los resultados de la validación cruzada para los 5 mejores indivi-
duos encontrados en ambos experimentos, la primera columna muestra los individuos
ordenados de mejor a peor de acuerdo con su desempeño en los experimentos ante-
riores. Estos se denotan con el símbolo “α” cuyo subíndice indica el número del doblez
y la repetición en la que fueron encontrados, las siguientes columnas muestran los
resultados de la clasificación de los conjuntos de pseudo-imágenes de entrenamiento,
validación y prueba para cada individuo en cada uno de los 5 dobleces. En las últimas
3 columnas se muestran las medias de los resultados de clasificación de los conjuntos
de pseudo-imágenes de entrenamiento, validación y prueba para cada individuo. En
negrita se indican los mejores resultados para la clasificación de los conjuntos de prue-
ba en cada doblez, además de señalar el mejor individuo en las últimas tres columnas.

Como se puede observar, el individuo α 4−6 , mismo que presentaba el mejor re-
sultado para la clasificación del conjunto de prueba durante la validación cruzada del
proceso evolutivo en los primeros experimentos, reportando un valor de 100.00, no
es el que presenta el mejor desempeño en la validación cruzada con los conjuntos de
107

Tabla 5. Resumen de la validación cruzada de 5 dobleces para los 5 mejores individuos encontrados en
los experimentos

Doblez 1 Doblez 2 Doblez 3 Doblez 4 Doblez 5 Media


Ind.
Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru. Ent. Val. Pru.
α 4−6 98.53 91.18 91.18 97.06 83.82 76.47 100.00 95.59 88.24 100.00 89.71 100.00 100.00 94.12 91.18 99.18 90.88 89.41
α 3−2 94.12 100.00 94.12 95.59 100.00 94.12 94.12 100.00 97.06 94.12 98.53 100.00 94.12 98.53 100.00 94.12 99.41 97.06
α 3−5 100.00 98.53 91.18 98.53 95.59 88.24 98.53 98.53 97.06 98.53 97.06 100.00 98.53 98.53 97.06 98.82 97.65 94.71
α 5−3 92.65 95.59 91.18 91.18 94.12 94.12 92.65 95.59 91.18 92.65 92.65 97.06 92.65 94.12 94.12 92.36 94.41 93.53
α 4−2 94.12 94.12 91.18 91.18 92.65 88.24 91.18 92.65 82.35 91.18 86.76 94.12 91.18 88.24 91.18 91.77 90.88 89.41

validación y prueba del resto de los dobleces, para los cuales reporta valores de 90.88
y 89.41 respectivamente. Tal individuo, de hecho, presenta el peor desempeño en la
clasificación de los conjuntos de prueba, mientras que presenta un desempeño casi
perfecto al clasificar los conjuntos de entrenamiento, reportando un valor de 99.18, lo
cual sugiere que se encuentra sobreajustado a tales datos. Este análisis desacredita a
tal individuo como el mejor.

Por otro lado, el individuo α 3−2 presenta el mejor desempeño en la validación cru-
zada con los conjuntos de validación y prueba del resto de los dobleces, para los que
reporta valores de 99.41 y 97.06 respectivamente. Esto a pesar de no presentar el
mejor desempeño en cuanto a la clasificación de los conjuntos de entrenamiento, para
los cuales reporta un valor medio de 94.12, lo cual sugiere que no existe un sobreajus-
te en relación a los datos de entrenamiento. Debido a esto, este individuo puede ser
considerado como el mejor.

6.2.2. Estructura

La Tabla 6 muestra la estructura de los 5 individuos analizados en la sección ante-


rior, la primera columna muestra los individuos ordenados de mejor a peor de acuerdo
con su desempeño. Estos de igual forma se denotan con el símbolo “α” cuyo subíndice
indica el número del doblez y la repetición en la que fueron encontrados en el proceso
evolutivo. Cabe mencionar que el orden en esta tabla no coincide con el de la Tabla
5, debido a que esta fue reordenada de acuerdo a los nuevos desempeños calcula-
dos en la sección anterior. La segunda columna muestra los operadores visuales de
los individuos para cada una de las dimensiones, el primero corresponde a la orienta-
ción, el segundo al color y el tercero a la forma. Posteriormente en la tercer columna
se muestran los operadores visuales para los mapas mentales y finalmente la cuarta
108

columna muestra la media de los resultados del desempeño de cada individuo para
clasificar los conjuntos de pseudo-imágenes de entrenamiento, validación y prueba
respectivamente, mismos que coinciden con los valores de la última columna de la
Tabla 5.

Tabla 6. Estructura de los 5 mejores individuos encontrados en los experimentos

Solución Operadores Visuales Operadores Visuales de Mapas Mentales Resultados


OVO = Dy (Dyy (r ) − (0.14 − D ())) Ent. = 94.12 %
α 3−2 OVC = 0.84(0.84(k )) OVMM = Dyy (MC) V. = 99.41 %
OVF = b(bm SEdm c SEdm ) þ SEdm c Pr. = 97.06 %
OVO = 0 Ent. = 98.82 %
ÇÆ
α 3−5 OVC = s OVMM = Dy (MC) V. = 97.65 %
OVF = g / (Tht (g )) Pr. = 94.71 %
OVO = Dyy (r ) Ent. = 92.36 %
OVMM1 = D (MC)
α 5−3 OVC = r / 0.28 V. = 94.41 %
OVMM2 = Gσ=1 (Dyy (MC))
OVF = 0.33 − (0.81(0.81bthr(r )c)) Pr. = 93.53 %
OVO = |Dy (k )| OVMM1 = D (MC) Ent. = 99.18 %
α 4−6 OVC = Opb−y () OVMM2 = Dyy (MC) V. = 90.88 %
OVF = s OVMM3 = og(Dy (MC)) Pr. = 89.41 %
OVMM1 = |Dy (MC)| − Dyy (MC)
OVMM2 = Dyy (MC)
OVO = thr(sp(y , y )) Ent. = 91.77 %
α 4−2 OVMM3 = D (MC)
OVC = 0.19 + bthr(r )c V. = 90.88 %
OVMM4 = D (MC)
OVF = (y ) rÇ Pr. = 89.41 %
OVMM5 = Dy (MC)
Æ

6.2.3. Flujo de información

Con la finalidad de analizar a detalle el desempeño del mejor individuo, resulta


conveniente hacer un seguimiento de la manera en que fluye la información a través
del modelo de la corteza visual artificial, debido a que es posible observar cómo se
llevan a cabo las transformaciones en cada una de las distintas etapas mediante la
aplicación de los respectivos operadores visuales a la información de entrada.

La Figura 55 muestra el flujo de información a través de la corteza visual artificial.


En ella se muestran pseudo-imágenes correspondientes a las transformaciones que se
llevan a cabo al aplicar cada uno de los operadores visuales en las distintas etapas.

Como se puede observar, las transformaciones que se van llevando a cabo a lo


largo de la corteza visual artificial van reduciendo la cantidad de información a con-
109

Figura 55. Flujo de información a través de la corteza visual artificial para la detección de actividad alfa.

siderar, por lo que se dice que hay una reducción de dimensionalidad en los datos
de entrada. Además, conforme más operadores visuales son aplicados, se van enfa-
tizando aquellas zonas importantes en las pseudo-imágenes, es decir, se hace una
extracción de características en las mismas.

Para el ejemplo de flujo de información de la Figura 55, se utilizó una pseudo-


imagen perteneciente a la clase Alpha. En la pseudo-imagen identificada como “Re-
sultado”, se muestra el traslape entre los máximos y la pseudo-imagen de entrada.
Como se puede apreciar en ese traslape, las zonas prominentes de la pseudo-imagen
(indicadas por los máximos) se encuentran distribuidas principalmente en la parte su-
perior e inferior de la misma. En la parte superior se forma una línea horizontal casi
completa muy cerca de la zona donde se ubican los valores de los electrodos 1 y 2,
mismos que físicamente se encuentran en el lóbulo frontal. Por otro lado, en la parte
inferior se puede apreciar una línea horizontal completa que atraviesa la zona donde
se localizan los valores de los electrodos 7 y 8, mismos que se posicionan en el lóbulo
occipital, donde la actividad alfa resulta más prominente.

El hecho de que las zonas superior e inferior de las pseudo-imágenes sean enfatiza-
das, indica que el modelo de la corteza visual artificial realiza la tarea de clasificación
110

poniendo atención en las mismas zonas de interés utilizadas para el etiquetado manual
de las pseudo-imágenes descrito en la Sección 5.3.1. Esto confirma que el modelo de
la corteza visual artificial imita la manera en que el sistema visual humano identifica
las regiones importantes en las pseudo-imagenes para poderlas clasificar.
111

Capítulo 7. Conclusiones y trabajo futuro

Este capítulo presenta un concentrado de las conclusiones y lecciones aprendidas,


no sólo durante la etapa de experimentación, sino a lo largo del desarrollo de esta
investigación. Además se proponen los siguientes pasos para continuar con el proyecto
de investigación del cual, este trabajo es sólo el inicio.

7.1. Conclusiones

El sistema electrónico-computacional desarrollado en esta investigación exhibe un


buen rendimiento en la tarea de relacionar un conjunto de señales cerebrales extraidas
por medio de la interfaz cerebro-computadora OpenBCI y el estado mental alfa. Por
esta razón, se puede considerar que el objetivo general de este trabajo fue cumplido.

En cuanto a los objetivos específicos podemos enlistar los siguientes puntos:

La combinación de técnicas utilizada para llevar a cabo la conversión de seña-


les electroencefalográficas en pseudo-imágenes resulta útil. Sin embargo, se han
identificado una serie de áreas de oportunidad en la misma, para llevar a cabo
un ajuste fino que permita mejorar el rendimiento del sistema y optimizar los
recursos utilizados por el mismo. El detalle de tales áreas de oportunidad y las
propuestas de mejora correspondientes se enlistan en la siguiente sección.

Se ha confirmado la versatilidad del modelo computacional de la corteza visual


artificial para encontrar soluciones a problemas de naturaleza distinta a los que
se pretendían resolver con su diseño original. Además, se ha confirmado que
el sistema imita de manera precisa el funcionamiento de su contraparte natu-
ral para la clasificación de las pseudo-imágenes construidas a partir de señales
electroencefalográficas.

Los resultados y las lecciones aprendidas durante el desarrollo de esta investiga-


ción han permitido proponer una serie de ajustes al modelo de la corteza visual
artificial para mejorar su rendimiento en cuanto a clasificación y tiempo de eje-
cución. Tales ajustes son enlistados en la siguiente sección.
112

7.2. Trabajo futuro

A continuación se proponen los siguientes pasos para continuar con el proyecto de


investigación del cual este trabajo constituye el primer paso:

Con la finalidad de mejorar el tiempo de ejecución y la demanda de otros recursos


del algoritmo que lleva a cabo el proceso evolutivo, se propone analizar a profun-
didad la frecuencia de uso de las funciones y terminales en los mejores individuos.
El hecho de remover aquellas funciones y terminales que no hayan sido utiliza-
das, reduce el espacio de búsqueda y permite una convergencia más temprana,
lo cual impacta de manera positiva el uso de recursos durante la ejecución.

Considerando que el modelo de la corteza visual artificial fue diseñado para cla-
sificar imágenes adquiridas por equipo de fotografía tradicional, las funciones y
terminales disponibles se relacionan con el tipo de información contenida en tales
imágenes. Las pseudo-imágenes construidas en este trabajo tienen característi-
cas propias que no necesariamente coinciden con la naturaleza de las otras, por
lo que se propone llevar a cabo un ajuste fino de las funciones y terminales dispo-
nibles, con el objetivo de encontrar aquellas que se ajusten de mejor manera a la
naturaleza de las pseudo-imágenes construidas en este trabajo. Esto de manera
indirecta tendrá impacto positivo en la demanda de recursos del algoritmo que
lleva a cabo el proceso evolutivo, permitiendo encontrar soluciones mejores en
tiempo menor.

El proceso de formación de las pseudo-imágenes puede ser refinado con la finali-


dad de incluir nueva información a la que el modelo de la corteza visual artificial
pueda tener acceso para extraer las características que le permitan diferenciar
de mejor manera las pseudo-imágenes pertenecientes a cada clase. Se propo-
ne experimentar con la inclusión de nuevas bandas relacionadas con parámetros
estadísticos de forma como la oblicuidad y kurtosis.

Con la finalidad de que el sistema sea más robusto en relación a la detección de


ruido en las pseudo-imágenes construidas, se propone incluir bandas relaciona-
das con otras ondas cerebrales, así como funciones relacionadas con la correla-
ción entre bandas. Esto permitiría al sistema llevar a cabo una mejor clasificación
sin necesidad de una depuración en la base de pseudo-imágenes.
113

Considerando la variabilidad entre sujetos, se propone agregar funciones para


llevar a cabo relaciones de amplitud. Esto con el objetivo de que el sistema sea
más flexible en cuanto a la detección automatizada de ondas cerebrales.

Finalmente, teniendo en consideración los resultados obtenidos y las lecciones


aprendidas, se propone extrapolar el sistema electrónico-computacional para desa-
rrollar estudios en los que se busque relacionar las señales electroencefalográfi-
cas obtenidas, con estados mentales más complejos.
114

Literatura citada
Adeli, H., Zhou, Z., y Dadmehr, N. (2003). Analysis of EEG records in an epileptic
patient using wavelet transform. Neuroscience Methods, 123(1): 69–87.

Atwood, H. L. y MacKay, W. A. (1989). Essentials Of Neurophysiology. Decker.

Bashashati, A., Fatourechi, M., Ward, R. K., y Birch, G. E. (2007). A survey of signal
processing algorithms in brain-computer interfaces based on electrical brain signals.
Journal of Neural Engineering, 4(2): 35–57.

Birbaumer, N., Weber, C., y Neuper, C. (2006). Brain–computer interface research:


Coming of age. Clinical Neurophysiology, 3(117): 477–483.

Bruce, M., Scott, N., Lader, M., y Marks, V. (1986). The psychopharmacological and
electrophysiological effects of single doses of caffeine in healthy human subjects.
British Journal of Clinical Pharmacology, 22: 81–87.

Buzsáki, G. (2006). Rhythms of the Brain. Oxford University Press.

Carlson, N. R. (2002a). Foundations of physiological psychology. Allyn and Bacon,


quinta edición.

Carlson, N. R. (2002b). Structure and functions of the nervous system. Foundations of


physiological psychology, 5(3).

Clemente, E., Olague, G., y Dozal, L. (2013). Purposive evolution for object recognition
using an artificial visual cortex. EVOLVE - A Bridge between Probability, Set Oriented
Numerics, and Evolutionary Computation II, 175: 355–370.

Collura, T. F. (1993). History and evolution of electroencephalographic instruments and


techniques. Clinical Neurophysiology, 10(4): 476–504.

Cooley, W. J. y Tukey, J. W. (1965). An algorithm for the machine calculation of complex


fourier series. Mathematics of Computation, 19(90): 297—-301.

De Boor, C. A. (2001). A Practical Guide to Splines. Springer.

Dozal, L., Olague, G., Clemente, E., y Hernandez, D. E. (2014). Brain programming for
the evolution of an artificial dorsal stream. Cognitive Computation, 6(3): 528–557.

Empson, J. (1986). Human Brainwaves: The Psychological Significance of the Electro-


encephalogram. The MacMillan Press LTD.

Fisch, B. J. (1999). EEG premier: Basic principles of digital and analog EEG. Elsevier,
tercera edición.

Freeman, W. J. y Quiroga, R. Q. (2013). Imaging Brain Function With EEG: Advanced


Temporal and Spatial Analysis of Electroencephalographic Signals. Springer.

Girouard, A. (2009). Adaptive brain-computer interface. Proceedings of the 27th inter-


national conference extended abstracts on Human factors in computing systems, 9:
3097–3100.

Gray, F. J. (2002). Anatomy for the medical clinician. Shannon Books Pty Ltd., primera
edición.
115

Hassanien, A. E. y Azar, A. T. (2015). Brain–Computer Interfaces: Current trends and


applications. Springer.

Hazarika, N., Chen, J. Z., y Tsoi, A. (1997). Classification of eeg signals using the wavelet
transform. Signal Process, 59(1): 61–72.

Huupponen, E., Himanen, S. L., Varri, A., Hasan, A., Saastamoinen, A., Lehtokangas, M.,
y Saarinen, J. (2002). Fuzzy detection of eeg alpha without amplitude thresholding.
Artificial Intelligence in Medicine, 2(24): 133–147.

Jasper, H. H. (1958). The ten-twenty electrode system of the international federation.


Clinical Neurophysiology, 10(4): 367–380.

Jenkins, G. M. y Watts, D. G. (1968). Spectral analysis and its applications. Holden–Day.

Kaiser, D. A. (2005). Basic principles of quantitative EEG. Journal of Adult Development,


12(2-3): 99–104.

Lopes da Silva, F. (2010). EEG - fMRI: Physiological Basis, Technique, and Applications.
Springer.

Mallat, S. (1999). A Wavelet Tour of Signal Analysis. Elsevier, segunda edición.

Mason, S. G. y Birch, G. E. (2003). A general framework for brain-computer interface


design. Transactions on Neural Systems and Rehabilitation Engineering, 11(1): 70–
85.

Mountcastle, V. B. (1978). The mindful brain: An organizing principle for cerebral fun-
ction. MIT Press.

Niedermeyer, E. y Lopes da Silva, F. (2005). Electroencephalography: basic principles,


clinical applications, and related fields. Lippincott Williams and Wilkins, quinta edi-
ción.

Olague, G. (2016). Evolutionary Computer Vision: The First Footprints. Springer.

Olague, G., Clemente, E., Dozal, L., y Hernandez, D. E. (2014a). Evolving an artifi-
cial visual cortex for object recognition with brain programming. EVOLVE-A Bridge
between Probability, Set Oriented Numerics, and Evolutionary Computation III, pp.
97–119.

Olague, G., Dozal, L., Clemente, E., y Ocampo, A. (2014b). Optimizing an artificial
dorsal stream on purpose for visual attention. EVOLVE-A Bridge between Probability,
Set Oriented Numerics, and Evolutionary Computation III, pp. 141–166.

Olague, G., Clemente, E., Hernandez, D. E., y Barrera, A. (2017). Brain programming
and the random search in object categorization. Applications of Evolutionary Compu-
tation, pp. 522–537.

Oppenheim, A. y Schaffer, R. (1999). Discrete-time signal processing. Prentice Hall,


segunda edición.

Press, W. H., Teulkosky, S. A., Vetterling, W. T., y Flannery, B. P. (1992). Numerical


Recipes in C: The Art of Scientific Computing. Cambridge University Press, segunda
edición.
116

Purves, D., Augustine, G., Fitzpatrick, D., Katz, L., Lamantia, A., y McNamara, J. (2004).
Neuroscience. Sinauer, tercera edición.

Sanei, S. y Chambers, J. A. (2007). EEG Signal Processing. John Wiley and Sons, Ltd.

Schröder, M. I., Lal, T. N., y Birbaumer, N. (2005). Robust eeg channel selection across
subjects for brain–computer interfaces. EURASIP J. Adv. Signal Process., 19: 3103—-
3112.

Siuly y Li, Y. (2015). Discriminating the brain activities for brain–computer interface
applications through the optimal allocation-based approach. Neural Computing and
Applications, 26(4): 799–811.

Siuly, S., Li, Y., y Zhang, Y. (2016). EEG Signal Analysis and Classification. Springer.

Snyder, J. P. (1987). Map projections – A working manual. US Government Printing


Office.

Sulaiman, N. (2014). Interpretation of human thought using EEG signals and LabVIEW.
Proceedings - 4th IEEE International Conference on Control System, Computing and
Engineering, ICCSCE, pp. 384–388.

Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G., y Vaughan, T. M. (2002).
Brain-computer interfaces for communication and control. Clinical Neurophysiology,
113: 767–791.
117

Anexo

El juego de desarrollo OpenBCI de 32 bits es ofertado en sus versiones ensamblada


y no ensamblada, cuya diferencia radica principalmente en que mientras la versión
ensamblada cuenta con todos los conectores necesarios instalados en los tableros
electrónicos, la versión no ensamblada requiere trabajos menores de soldadura para
instalar los conectores a través de los cuales se lleva a cabo la interconexión entre el
tablero principal OpenBCI y el módulo Daisy OpenBCI, debido a que éste último recibe
señales de control y potencia provenientes del tablero principal OpenBCI.

La potencia es compartida entre ambos tableros a través de las siguientes termi-


nales:

DVDD (3.3V)

GND (0V)

AVSS (-2.5V)

AVDD (+2.5V)

AGND (0V)

Los circuitos integrados ADS1299 presentes en ambos tableros se comunican a tra-


vés de un bus SPI, por esta razón, el módulo Daisy cuenta con las siguientes terminales
digitales disponibles:

SCK - Reloj SPI.

MOSI - Salida Maestro Entrada Esclavo.

MISO - Entrada Maestro Salida Esclavo.

RST - Reinicio de hardware ADS1299.

CLK - Señal de reloj generada por y enviada desde el tablero principal OpenBCI.

SC2 - Chip Select SPI para el ADS montado en el módulo Daisy.


118

También existe una conexión entre los tableros llamada BIAS, que enruta las señales
correspondientes provenientes del módulo Daisy hacia el tablero principal.

Para llevar a cabo la instalación de conectores que transportarán las señales com-
partidas, comenzaremos por el tablero principal OpenBCI, para lo que necesitaremos
lo siguiente:

Tablero OpenBCI de 32 bits (1 pieza)

Conectores hembra de 2 posiciones (3 piezas)

Conectores hembra de 4 posiciones (2 piezas)

Conector hembra de 8 posiciones (1 pieza)

La figura 56 muestra las localizaciones de cada uno de los conectores a instalar. Pri-
meramente, es necesario soldar el conector hembra de 8 posiciones a la fila diagonal
de pines en la parte izquierda del tablero principal OpenBCI como se muestra marcado
en color azul. Posteriormente, soldar los 3 conectores hembra de 2 posiciones en las
filas verticales en la parte superior y central del tablero principal OpenBCI como se
muestra marcado en color verde. Las de la parte superior se encuentran identificadas
como AVSS (izquierda) y AVDD (derecha), la de la parte central está identificada como
BIAS_INV y AGND. Existe un par de conectores hembra de 4 posiciones adicionales
cuya instalación es opcional. Estos proveen acceso a algunas terminales disponibles
del microcontrolador PIC, su ubicación se identifica en color rojo.

Figura 56. Tablero OpenBCI de 32 bits ensamblado.


119

Una vez que la instalación de conectores hembra en el tablero principal OpenBCI


ha sido concluida, se procede a instalar los conectores macho en el módulo Daisy
OpenBCI, para lo que necesitaremos los siguiente:

Módulo Daisy OpenBCI (1 pieza)

Conector macho de 16 posiciones (1 pieza)

Primeramente, se debe dividir el conector macho de 16 posiciones en tres piezas de 2


posiciones y una pieza de 8 posiciones como se muestra en la figura 57.

Figura 57. Conectores macho para el módulo Daisy.

La figura 58 muestra las localizaciones de cada uno de los conectores a instalar. Es


necesario soldar los 3 conectores macho de 2 posiciones en las filas verticales en la
parte superior y central del módulo Daisy OpenBCI como se muestra marcado en color
azul. Para finalizar, soldar el conector macho de 8 posiciones a la fila diagonal de pines
en la parte derecha del tablero principal OpenBCI como se muestra marcado en color
rojo.

Cuando se ha concluido la instalación de conectores en ambos tableros, es opcional


llevar a cabo la instalación de conectores que proveen acceso a algunas terminales dis-
ponibles en el receptor inalámbrico programable OpenBCI, para lo cual necesitaremos
lo siguiente:

Receptor inalámbrico programable OpenBCI (1 pieza)


120

Conector hembra de 7 posiciones (1 pieza)

Conector hembra de 5 posiciones (1 pieza)

Figura 58. Módulo Daisy OpenBCI ensamblado.

Para la instalación se deben soldar los conectores en la parte superior e inferior del
receptor inalámbrico programable OpenBCI, su ubicación se identifica en color azul en
la figura 59.

Figura 59. Receptor inalámbrico programable OpenBCI ensamblado.

Una vez ejecutadas las instrucciones descritas anteriormente, los tableros electró-
nicos del juego de desarrollo de 32 bits se encuentran listos para llevar a cabo las
mediciones necesarias.

También podría gustarte