Está en la página 1de 27

PROYECTO DE FIN DE CICLO

El efecto “cocktail party” y las personas con


pérdidas auditivas

Autora: Celia Plá Ángel


Tutorizado por: Patxi Lancha Rodríguez

Ciclo Formativo Grado Superior Audiología Protésica


Módulo de Proyecto

Curso 2022/23
Sumario
INTRODUCCIÓN......................................................................................................................5
JUSTIFICACIÓN.......................................................................................................................7
OBJETIVOS...............................................................................................................................8
ANTECEDENTES......................................................................................................................8
METODOLOGÍA.......................................................................................................................9
DESARROLLO........................................................................................................................10
Explicación del mecanismo cocktail party...........................................................................10
Palabras clave en el entorno sonoro....................................................................................13
Cómo afecta la hipoacusia en el funcionamiento del efecto cocktail party........................15
El efecto cocktail party y los audífonos..............................................................................17
Nuevos avances en el desarrollo de dispositivos de ayuda.................................................18
El futuro, el Deep Learning: un algoritmo para reproducir el mecanismo del cerebro.......19
Retos futuros.........................................................................................................................23
CONCLUSIONES....................................................................................................................24
REFERENCIAS........................................................................................................................26
RESUMEN
Cuando nos encontramos en un ambiente muy ruidoso, existe un
mecanismo que nos permite centrarnos en una conversación obviando
todas las demás. Este mecanismo es conocido como efecto “cocktail
party” y se basa, principalmente, en el funcionamiento neuronal. Las
personas con audición normal, poseen esta habilidad, que funciona de
manera inconsciente e innata, únicamente al intentar centrarnos en una
conversación en concreto. Según las investigaciones científicas de los
últimos años, se ha podido verificar que la fusion binaural tiene una gran
influencia para poder conseguir un óptimo funcionamiento de este
mecanismo. Del mismo modo que cuando los estímulos sonoros que se
reciben no tienen la intensidad suficiente, no es posible lograr distinguir el
habla del ruido, como les ocurre a las personas con deficiencias auditivas,
que tienen muchas dificultades para centrarse en una sola conversación,
ya que la manera en la que se mezclan los sonidos percibidos por ambos
oídos resulta inteligible para ellos. Actualmente, se sigue investigando en
este campo y se plantea como una línea para el desarrollo y la mejora de
dispositivos basados en el “deep learning”, que sean capaces de emular
este funcionamiento, para de este modo, conseguir una mejora
significativa en la ayuda a las personas con pérdidas auditivas, así como,
para mejorar las técnicas de rehabilitación auditiva que se usan en la
actualidad.

PALABRAS CLAVE: cocktail party, discriminación auditiva, fusión binaural,


pérdidas auditivas.

3
ABSTRACT
When we find ourselves in a very noisy environment, there is a mechanism
that allows us to focus on one conversation while ignoring all the others. This
mechanism is known as the “cocktail party” effect and is mainly based on
neuronal functioning. People with normal hearing have this ability, which
works unconsciously and innately, only when trying to focus on a specific
conversation. According to the scientific investigations of the last years, it
has been possible to verify that the binaural fusion has a great influence to be
able to achieve an optimal functioning of this mechanism. In the same way
that when the sound stimuli received are not strong enough, it is not possible
to distinguish speech from noise, as happens to people with hearing
impairments, who have great difficulty concentrating on a single
conversation, since they the way in which the sounds perceived by both ears
are mixed is intelligible to them. Currently, research continues in this field
and it is proposed as a line for the development and improvement of devices
based on "deep learning", which are capable of emulating this operation, in
order to achieve a significant improvement in help people with hearing loss,
as well as to improve hearing rehabilitation techniques that are currently
used.

KEY WORDS: cocktail party, auditory discrimination, binaural fusion, hearing


loss.

4
1. INTRODUCCIÓN

La compresión en ambientes ruidosos es uno de los grandes obstáculos para las


personas con pérdidas auditivas. Para entender porqué se producen estas dificultades,
debemos tener claro cómo funciona el efecto “cocktail party”.

El efecto cóctel party se refiere a la capacidad del sentido del oído humano para
centrarse en una fuente específica de sonido dentro de una mezcla de ruidos de fondo en
situaciones acústicas complejas. La facilidad con la que las personas con audición normal
realizan esta tarea, que en principio puede resultar muy compleja a nivel neuronal, contrasta
con las dificultades que tienen las personas con deficiencias auditivas ante estos mismos
escenarios.

Según los estudios realizados (1,2), sabemos que la atención auditiva se produce,
principalmente, en el giro temporal superior del hemisferio derecho, que es dónde se localiza
la corteza auditiva primaria. Sin embargo, en el proceso de localización de los sonidos en
ambientes ruidosos, interviene una extensa red frontoparietal que incluye, el giro frontal, el
surco parietal superior y el surco interparietal. En concreto, el efecto cocktail party ocurre en
el hemisferio izquierdo, junto a todo el proceso de discriminación de sonidos.

Como ha quedado patente en los distintos estudios realizados hasta el momento,


conocemos que el funcionamiento a nivel neurológico del cerebro está preparado para fijar su
atención de una forma selectiva, concentrándose sólo en una cosa a la vez. Se supone que
dicha habilidad es la que ha permitido a los seres humanos evolucionar en un mundo que está
repleto de estímulos visuales y auditivos. Pero debemos tener presente que, en el efecto
cocktail party, influyen aspectos tanto neurológicos como psicológicos, tal y como se ha
demostrado en los estudios realizados al respecto (3).

5
Figura 1: Áreas cerebrales del procesamiento auditivo primario y secundario

https://tienda.elsevier.es/guyton-y-hall-tratado-de-fisiologia-medica-9788491130246.html

En el procesamiento del habla y, en el control y cambio de la atención auditiva


intervienen la combinación de las dos áreas que se identifican en la imagen superior como
área auditiva primaria y área auditiva secundaria .

Para que este fenómeno funcione correctamente, debe existir una funcionalidad total
de ambos oídos, es decir, se debe disponer de una adecuada audición binaural (4,5).
Recordemos, que la correcta audición binaural nos permite localizar espacialmente las fuentes
del sonido, así como, distinguir sus propiedades acústicas y la distancia a la que se encuentran
estas fuentes sonoras.

6
Figura 2: Procesamiento central de la audición.

https://o.quizlet.com/kY-o3Ca4ucg.SfIfbwp7qA_b.jpg

Es por ello que las personas con pérdidas auditivas tendrán dificultades significativas
para localizar las fuentes sonoras y para distinguir las conversaciones que desean seguir,
respecto al ruido de fondo (6). Cualquier avance que se produzca en este campo podría
aplicarse en el desarrollo de nuevos dispositivos o en la mejora de las técnicas empleadas para
mejorar la audición de las personas con algún tipo de pérdida auditiva.

2. JUSTIFICACIÓN

Existe poca información respecto a la aplicación de los nuevos conocimientos del


funcionamiento neuronal en el efecto cocktail party en el campo de la audiometría, lo cual,
hace que sea de máximo interés realizar una investigación al respecto recopilando los nuevos
avances. Además, es uno de los aspectos básicos y fundamentales que entran en juego a la
hora de solucionar los problemas inteligibilidad de las personas con pérdidas auditivas.

7
También debemos añadir que las investigaciones en este campo y la aplicación de
estos descubrimientos en la práctica de la audiología actual, se desarrollan a gran velocidad, y,
de manera mucho más sustancial, a lo largo de los últimos años. Por lo que resulta de gran
interés recopilar toda esa información y evaluar cómo ha evolucionado este conocimiento que
cada vez está más presente en el día a día de la adaptación audioprotésica.

3. OBJETIVOS.

El objetivo de este trabajo es analizar los avances que se han producido en el


conocimiento del campo de la discriminación auditiva en entornos ruidosos y las
repercusiones que puedan tener en la ayuda a las personas con pérdidas auditivas.

También se realizará una descripción de las vías de estudio actuales y las aplicaciones
en la actualidad y las posibles aplicaciones futuras en el campo de la audiología, según las
distintas líneas de investigación, que dichos avances puedan suponer.

4. ANTECEDENTES

El efecto fue definido por primera vez y bautizado como "el problema cocktail party"
por Colin Cherry en 1953 (7). Cherry dirigió experimentos de atención dirigida en donde los
participantes escuchaban dos mensajes simultáneos en un solo altavoz y trataban de
separarlos. A este estudio experimental siguieron muchos otros a lo largo de varias décadas
que fueron aclarando algunos conceptos básicos del funcionamiento del efecto “cocktail
party”.

Es en 2012 cuando se produce un gran avance en el descubrimiento de funcionamiento


del mecanismo “cocktail party” (8), desvelándose , que consta tanto de aspectos psicológicos
como neurológicos. Este descubrimiento puso de manifiesto que las respuestas neuronales de
la corteza auditiva sólo reflejaban la información del hablante que se elige como foco de

8
nuestra atención auditiva. El algoritmo decodificador desarrollado para este estudio era capaz
de predecir qué hablante, e incluso qué palabras específicas, estaba oyendo el sujeto
participante en el estudio.

Pero, en lo que respecta al campo de la audiología aplicada, no es hasta 2018 cuando


se lanza al mercado el primer audífono con Inteligencia Artificial incorporada. Este
mecanismo de inteligencia artificial, trata de emular el funcionamiento de la corteza auditiva
respecto al efecto cocktail party. Desde entonces hasta nuestros días, no se ha dejado de
investigar y desarrollar algoritmos cada vez más eficaces y, además, siguen abiertas un gran
número de investigaciones en este sentido.

5. METODOLOGÍA

Para recopilar toda la información necesaria he buscado artículos y publicaciones


científicas utilizado las principales bases de datos científicas tanto en español como en inglés.
En concreto, he utilizado PubMed, Scopus, Wos (Web of Science) y Google Académico.

Los términos MESH utilizados han sido: cocktail party effect - hearing aid - hearing
aids - bilateral hearing loss - bilateral hearing losses - unilateral hearing loss - hearing
impairment - efecto cocktail party – pérdidas auditivas binaurales – deep learning – ayudas
auditivas.

Los criterios de inclusión de los artículos seleccionados han sido que la publicación de
los mismos se haya realizado en las bases de datos citadas anteriormente, lo que significa que
únicamente se han elegido publicaciones científicas. Sin embargo para desarrollar el aspecto
de los nuevos campos de aplicación sí que se han elegido textos comerciales y divulgativos de
revistas profesionales y marcas comerciales debido que es un campo muy reciente para el que
todavía no se han realizado estudios en profundidad con carácter riguroso como para obtener
datos de mayor fiabilidad para su análisis.

En cuanto a los límites de la búsqueda, principalmente han sido la fecha de


publicación de los artículos, ya que únicamente se han seleccionado las publicaciones que

9
recogen los avances y conocimientos de las investigaciones de los últimos seis años, es decir,
desde el año 2018 hasta el 2023, ambos incluidos. Sin embargo, para la descripción de
aspectos generales, sí que se han incluido artículos de cualquier año de publicación, siendo los
más antiguos de la década de los 90.

6. DESARROLLO

Explicación del mecanismo cocktail party

El efecto cocktail party es un mecanismo se produce de forma innata, por lo que no


somos conscientes de lo que ocurre a nivel cerebral en el proceso de centrar nuestra atención
en una conversación en concreto ni en el entendimiento de la misma.

Según los avances realizados recientemente (1,9), se ha descubierto que en el


procesamiento cerebral intervienen dos procesos diferenciados claramente, que son
indispensables para las comprensión sonora en ambiente ruidosos. Estos subsistemas se
encuentran en la corteza auditiva y son responsables del efecto cocktail party.

• el subsistema de orientación: que es el primer centro de procesamiento del impulso


sonoro. Este sistema se encarga de combinar toda la información recibida para crear
una visión general de todos los objetos sonoros y también procede a separar y
discriminar unos de otros. Este subsistema genera un mapa sonoro del entorno en que
que se encuentra el oyente. Esta acción el fundamental para que se pueda dar un
segundo proceso, puesto que facilita la tarea que se produce posteriormente.

• el subsistema de enfoque: que es el responsable de seleccionar los sonidos que


queremos escuchar. Esto lo consigue filtrando y atenuando aquellos sonidos que no

10
son relevantes en cada momento según la voluntad del oyente, especialmente en
ambiente ruidosos.

Esto significa que con la información proporcionada por el subsistema de orientación


podemos decidir sobre qué es lo que queremos escuchar con el subsistema de enfoque.

Figura 3: Subsistemas de Orientación y Enfoque del sistema auditivo del cerebro

https://image.jimcdn.com/app/cms/image/transf/none/path/sa014c1f81b4024bd/image/i1f5e4c7b033ceb75/
version/1600185316/image.gif

Para comprender el funcionamiento auditivo es importante conocer el camino del


procesamiento de la señal sonora desde el momento en que llega a nuestros oídos, hasta que
se convierte en un mensaje con significado propio en la corteza cerebral.

Cuando el sonido alcanza el órgano de Corti, en el oído interno, éste se encarga de


descomponer dichos sonidos en las frecuencias que los forman y genera un impulso nervioso
que contiene el código neural que contiene toda la información del entorno sonoro que nos
rodea. A continuación este código se transmite a través del nervio auditivo hasta la corteza
auditiva, que es dónde se produce el efecto cocktail party (10).

11
Figura 4: Recorrido auditivo desde el órgano de Corti hasta los subsistemas cerebrales

https://www.revistagacetaudio.es/wp-content/webp-express/webp-images/uploads/2020/09/brain-hearing-
GA.jpg.webp

Por lo tanto, el código neural es crucial para dar sentido a los sonidos, ya que este
código, es transformado en objetos sonoros significativos en la corteza auditiva. Estos
códigos, son las unidades con las que los subsistemas de orientación y enfoque pueden
trabajar para generar el mapa espacial sonoro que rodea a la persona y para llegar a
comprender el mensaje que se transmite en el foco sonoro que resulta elegido para centrar la
atención de la escucha.

12
Figura 5: Recorrido del código neural a través del nervio auditivo hasta la corteza auditiva.

https://image.jimcdn.com/app/cms/image/transf/dimension=426x1024:format=gif/path/sa014c1f81b4024bd/
image/ieddbb068a4e39935/version/1600443672/image.gif

Palabras clave en el entorno sonoro

Estos dos mecanismos están en continuo funcionamiento mientras la atención auditiva


está centrada en una conversación. De modo que mientras que el subsistema de orientación
está activo, el sistema de enfoque va realizando chequeos de control con una frecuencia de
cuatro veces por segundo para así poder determinar si aparece algo en nuestro campo sonoro
que merece nuestra atención. Es decir, mientras mantenemos nuestra atención en foco sonoro,
nuestro cerebro se “distrae” a propósito, cuatro veces por segundo, para tener controlado toda
nuestra escena sonora.
Esta forma de trabajar de la corteza auditiva es la responsable de que seamos capaces
de detectar palabras clave, que son únicas para cada individuo y que hacen que nuestra
atención se desvíe automáticamente al oírlas. Por ejemplo, cuando estamos hablando con una
persona en un ambiente muy ruidoso, somos capaces de escuchar si alguien de nuestro

13
entorno dice nuestro nombre. Cuando esto ocurre, nuestra atención se centra en esa otra
conversación para saber que es lo que esa persona está diciendo de nosotros.

Figura 6: Representación gráfica del funcionamiento de los subsistemas de localización y enfoque auditivo

https://image.jimcdn.com/app/cms/image/transf/dimension=1040x10000:format=png/path/sa014c1f81b4024bd/
image/i21eda0446806d619/version/1600187118/image.png

En la figura anterior podemos ver en la parte superior cómo el subsistema de


orientación va escaneando y realizando un mapeo continuo del campo sonoro y el parte
inferior se observa cómo el subsistema de enfoque se centra, cada cierto tiempo, en los
sonidos de interés elegidos por el oyente.

Cuando los dos subsistemas funcionan óptimamente en su conjunto, el resto del


cerebro puede funcionar de manera correcta, lo que hace que se pueda producir el
reconocimiento de las palabras escuchadas, se pueda almacenar toda esa información y se
pueda recordar sonidos grabados en el cerebro para así poder responder de manera adecuada a
lo que está sucediendo.

14
Cómo afecta la hipoacusia en el funcionamiento del efecto cocktail party

En las persona que sufren una hipoacusia este mecanismo no llega a funcionar
correctamente, ya que, no pueden procesar la escena sonora completa porque las señales
sonoras no se perciben con la intensidad suficiente, e incluso, algunas se pierden en su
totalidad al encontrarse por debajo de su umbral de audición.
Esta falta de información auditiva tiene unas consecuencias importantes a nivel
cerebral en la persona hipoacúsica.

• Se precisa de un mayor esfuerzo de escucha: al recibir una menor información


auditiva, al cerebro le resulta más difícil reconocer los sonidos. Se generan “vacíos”
que el cerebro debe de completar para entender el mensaje y todo esto desemboca en
la necesidad de un mayor esfuerzo de escucha.
• Se genera una mayor carga mental: al tener de adivinar lo que está escuchando
aumenta la carga mental en la corteza auditiva que deja una menor capacidad mental
para poder recordar y actuar.
• Necesidad de reorganización de la funcionalidad cerebral: al no haber suficiente
estimulación en la corteza auditiva, esto hecho deriva en que la corteza visual y otros
sentidos comiencen a compensar esta falta de actividad, lo que provoca un cambio en
el funcionamiento del cerebro.
• Aceleración del deterioro cognitivo: todo lo enumerado anteriormente, (el aumento de
la carga mental, la falta de estimulación y la funcionalidad cerebral reorganizada) está
relacionado con el deterioro cognitivo acelerado, que afecta de manera significativa la
capacidad de aprender, de recordar, de concentrarse y de tomar decisiones.
• Contracción acelerada del volumen cerebral: una de las consecuencias del
envejecimiento es la reducción de tamaño del cerebro. Este proceso de contracción se
ve acelerado cuando el cerebro tiene que trabajar en contra de la forma natural en que
procesa la información sonora.

15
A su vez, todos estos problema cerebrales terminan derivando, antes o después, en
problemas en la vida diaria directamente relacionados con los efectos a nivel cerebral
provocados. Las principales consecuencias que se generan son:

• El aislamiento social y la depresión: ya que la falta de audición hace que estas


personas no puedan hacer frente a en tornos de sonidos complejos y, es entonces,
cuando tratan de evitar las reuniones sociales, aislándose a sí mismas.
• Se genera demencia y enfermedad de Alzheimer: está comprobado que el riesgo de
demencia aumenta cinco veces cuando existe pérdida auditiva de grados severa a
profunda, tres veces para la pérdida auditiva moderada y dos veces para la pérdida
auditiva leve. Por lo que la hipoacusia afecta de forma directamente proporcional a la
aparición de demencia y Alzheimer.

Otro condicionante a tener en cuenta a la hora de cuantificar la influencia de la


hipoacusia en el efecto cocktail party en el tipo de hipoacusia del paciente. Ya hemos visto de
a mayor grado de hipoacusia mayor afectación del efecto, es decir, cuesta más realizar las
labores de localización y enfoque. Pero también influye de manera muy significativa si la
hipoacusia es monoaural o binaural (11,12). En un estudio de Culling et al. (4) analiza este
efecto con mayor detalle y muestra que los resultados obtenidos sugieren que la capacidad de
los oyentes para funcionar en entornos sonoros complejos, no solo depende del tipo, número y
ubicación de los sonidos de interferencia, sino también de las interacciones entre estos
factores. Y, desde un punto de vista práctico, el hallazgo más significativo que se deduce de
los estudios experimentales realizados, es que en entornos de escucha complejos, existe una
clara ventaja binaural, ya que la audición binaural está relacionada con la localización de las
fuentes de sonido y cuando no existen alteraciones en la audición, el cerebro humano es capaz
de distinguir sin problemas dos fuentes de sonido y asignar propiedades a dichas fuentes.

16
El efecto cocktail party y los audífonos

Para las personas con pérdidas auditivas, lo más usual es la adaptación de audífonos,
aunque no todos trabajan de la misma forma. Para estas personas, incluso el más mínimo
ruido puede ser una fuente de confusión. Esto sucede porque los dispositivos artificiales no
pueden replicar lo que ejecuta el cerebro humano de forma inconsciente. Es decir, separar ese
sonido concreto que queremos escuchar, del resto de los ruidos que entran en nuestros oídos.
Estos dispositivos tampoco pueden mantenernos enfocados en una voz, mientras que otras
personas conversan a nuestro alrededor.

Figura 7: Ejemplo de la complejidad del entendimiento en un entorno sonoro complejo.

https://www.brainlatam.com/uploads/tinymce/el-efecto-de-fiesta-de-coctel-como-el-cerebro-se-enfoca-en-una-
de-muchas-conversaciones-al-mismo-tiempo-0.webp

Los audífonos convencionales se ayudan de la direccionalidad para mejorar la


relación señal/ruido, sin embargo, ésto supone la eliminación de una gran parte de la escena
sonora al no proporcionar amplificación suficiente de los sonidos que provienen de los
laterales y la parte trasera. A ésto, hay que suma que la compresión tradicional que generan
los audífonos, que añade comodidad, produce un aumento de la distorsión de la señal sonora
y dificulta así al cerebro para obtener la mejor información de las claves del habla, y el efecto

17
más inmediato de todo esto es que, en lugar de reducir de forma suficiente el esfuerzo de
escucha, generan una mayor carga mental y su consecuente fatiga.

Como resultado de su funcionamiento, tenemos que estos audífonos no permiten al


cerebro procesar la señal sonora de forma natural, ni generar un código neural adecuado que
permitan a la corteza auditiva discernir las conversaciones provenientes de las distintas
fuentes sonoras. Lo que se traduce en una falta de inteligibilidad y una situación incómoda y
estresante para las personas usuarias de audífonos convencionales.

Nuevos avances en el desarrollo de dispositivos de ayuda

Existen diversos estudios (13) donde se analiza el rendimiento de nuevos dispositivos


que ha sido probado con varias personas que tenían que enfrentarse a una cirugía craneal. La
intervención consistía en implantar electrodos en sus cerebros para poder controlar las señales
neuronales. Los investigadores aprovecharon esa oportunidad para introducir el dispositivo. A
continuación, hicieron escuchar a los pacientes un estimulo sonoro con voces diferentes
superpuestas. Cuando nuestro cerebro se enfrenta a diferentes ruidos, el dispositivo filtra cada
fuente sonora, amplificando aquellas que corresponden a ondas cerebrales específicas. En la
práctica, sintoniza nuestra atención. El audio obtenido de esta manera seguiría siendo una
mezcla de sonidos diversos y de la voz principal. Pero la ventaja es que el orador no
necesitaría entrenamiento previo para ser descifrado por el dispositivo. Todo ocurriría de
forma automática gracias al deep learning.

Los investigadores, argumentan que las ondas cerebrales pueden ser captadas por el
nuevo software incluso con sensores ubicados fuera de los canales auditivos. El estudio
apunta que se puede incluir el sistema en una nueva generación de audífonos inteligentes. Un
dispositivo externo puede no ser igual de preciso, pero tiene la ventaja de poder ser utilizado
incluso por personas sin problemas de audición. Como deportistas o profesionales que quieran
mejorar su capacidad de atención (14).

18
Según los estudios iniciales lo más difícil de resolver era el intervalo de tiempo entre
que la persona deja de fijar su atención en un estímulo sonoro para concentrarse en otro y el
tiempo que el algoritmo reacciona a este cambio. Que, aunque no era demasiado significativo,
era suficiente como para perderse la comienzo de la conversación. Pero, según los avances
más recientes, este problema ha quedado solventado ya que el tiempo se ha reducido lo
suficiente como para que no afecte de manera significativa en el cambio del enfoque auditivo.

El futuro, el Deep Learning: un algoritmo para reproducir el mecanismo del


cerebro

El Deep Learning representa una reproducción lo más fielmente posible al modo de


funcionamiento del sistema nervioso humano. Nuestro encéfalo tiene una micro-arquitectura
muy complejo, en la que se han descubierto núcleos y áreas diferenciados cuyas redes de
neuronas están especializadas para realizar tareas específicas. El deep learning se basa, por lo
tanto en capas de unidades de procesos (similares a neuronas artificiales) que están
especializadas en detectar una características específicas en los estímulos que percibimos (ya
sean visuales, auditivos, olfativos…). Se basa en diferentes niveles de representación,
correspondientes a jerarquías de características de factores o conceptos.

Figura 8: Funcionamiento del Deep Learning o aprendizaje profundo

https://www.smartpanel.com/wp-content/uploads/2018/04/red-neuronas-artificiales.png

19
La mayoría de los fabricantes de dispositivos de ayuda auditiva ya han empezado a
introducir, aunque de forma limitada, ciertos sistemas predictivos y de análisis de datos
procedentes de la Inteligencia Artificial. Estos mecanismos son los responsables de que las
prótesis auditivas realizan ajustes automáticamente analizando los entornos auditivos del
usuario (3), de esta forma el patrón de amplificación se mantiene siempre actualizado y
aprende continuamente de resultados y datos previos por su propia retroalimentación. Para
conseguir ésto, puede utilizar básicamente dos sistemas, ambos basados en la Inteligencia
Artificial.

El primero de ellos, utiliza las llamadas redes neuronales profundas (DNNs en inglés),
y este sistema se ha utilizado para mejorar la inteligibilidad, tanto en audífonos como en
implantes cocleares. En el caso de los audífonos, el sistema realiza un aprendizaje de forma
automática a partir del análisis de los datos auditivos de millones de escenas auditivas
pertenecientes a la vida real para organizar, equilibrar y dar prioridad a los estímulos auditivos
necesarios con vistas a mejorar la sensación sonora y la inteligibilidad, y todo este proceso se
realiza de forma instantánea. En el caso de los implantes, se han añadido sistemas de redes
neuronales profundas que mejoran la inteligibilidad en escenas con ruido. Ésto se consigue
descomponiendo en unidades de tiempo respecto a la frecuencia, las señales correspondientes
a los sonidos de la voz en entornos ruidosos y configurando un nuevo conjunto de
características que son verificadas por mecanismos psicoquímicos y se introducen en una red
neuronal profunda para, de este modo, poder seleccionar canales de frecuencia con una mejor
relación señal/ruido. Con ello se ha obtenido una mejora significativa del entendimiento con
implantes cocleares, incluso en el caso de que la voz del estímulo no le resulta familiar al
paciente. Los investigadores que han desarrollado esta red neuronal han conseguido limitar la
potencia y la memoria requerida para el funcionamiento de su modelo, de esta forma se puede
implementar también en dispositivos móviles sin grandes requerimientos específicos.

20
Figura 9: Representación de la captación del audífono de la distintas escenas auditivas

https://wdh01.azureedge.net/-/media/oticon/main/images/about/presse/b2c-oticon-blog_thumb_what_is_dnn.jpg?
rev=C263&la=es-ES&hash=2F4F69FA759EBD4FCE46CB4C110DC370

El segundo de estos sistemas, que ha sido diseñado para la aplicación de las prótesis
auditivas para favorecer la inteligibilidad y el confort auditivo partiendo de la Inteligencia
Artificial, consiste en un aprendizaje activo con procesos gaussianos que lo que hace es
rastrear las preferencias individuales de cada usuario a lo largo del tiempo de uso del
dispositivo, recogiendo información de las distintas escena sonoras a las que el usuario está
sometido en su día a día para así poder aplicar estas preferencias personales en le modo de
funcionamiento del audífono de manera totalmente autónoma.

Los estudios más recientes enfocan sus esfuerzos en un modelo que sea capaz de
combinar ambos sistemas, es decir, la capacidad de procesamiento de las redes neuronales
profundas, con una adaptación personalizada y adaptativa que se fundamente en la recogida
continua de datos de cada usuario.

Las redes neuronales profundas, que están siendo diseñadas para la eliminación del
ruido, llegarán en poco tiempo a ser capaces de analizar entornos acústicos complejos, de un

21
modo muy similar a como lo haría el cerebro humano, separando cada una de las fuentes
sonoras y convirtiendo así los entornos de habla en ruido, en entornos de habla en silencio.

Figura 10: Proceso de limpieza del ruido de la señal sonora entrante

https://healthcare-in-europe.com/media/story_section_image/506/image-01-mesgarani-fig-2-journal-of-neural-
engineeringweb.jpg

Esto se consigue separando el habla del ruido con un programa de aprendizaje


automático que divide una muestra de habla ruidosa en una colección de elementos llamados
unidades de tiempo-frecuencia. A continuación, se analizan todas estas unidades para extraer
ciertas características que distinguen el habla de otros sonidos. Luego, el programa alimenta
con ellas una red neuronal profunda entrenada para clasificar las unidades como habla o no,
según la experiencia pasada con muestras similares. Por último, el programa aplica un filtro
digital que descarta todas las unidades que no son de habla para dejar solo habla separada. Lo
que estaría muy cerca del funcionamiento ideal esperado por cualquier persona con pérdida
auditiva que precise del uso de una prótesis auditiva. (15)

22
Figura 11: ¿cómo el deep learning aísla la fuente sonora seleccionada por el usuario filtrando las demás?

https://spectrum.ieee.org/media-library/image-mjgzodi5na-png.png?id=25581999&width=768&quality=80

Los dispositivos más modernos, proporcionan información auditiva de todo el campo


sonoro, y realizan los ajustes precisos para dar un mayor énfasis a la fuente sonora en la que
fijamos nuestra atención, pero proporcionando, al mismo tiempo, una conciencia absoluta de
todo el entorno sonoro (siempre dando prioridad al habla frente al ruido). Logran atenuar el
ruido difuso, incluso entre palabras, proporcionando de este modo, un código neural adecuado
para que el usuario pueda orientarse en el espacio sonoro y dirigir su atención a una fuente en
concreto o cambiarla, en un momento determinado con relativa facilidad, como le ocurriría a
una persona normoyente.

Retos futuros

Estos complejos sistemas de eliminación de ruido basados en el deep learning, ya han


sido probados en laboratorio y han dejado patente que la inteligibilidad de los usuarios de
prótesis auditivas puede igualar o incluso, en algunos casos, mejorar a la de las personas con
audición normal. Sin embargo, falta probar la eficacia de estos sistemas en situaciones
acústicas de la vida real. Y, es entonces, cuando aparece uno de los retos principales:
conseguir que la Inteligencia Artificial logre ejercer una especie de «control cognitivo», para

23
conseguir monitorizar la capacidad del cerebro a la hora de desarrollar una atención selectiva
a los diferentes estímulos de la escena sonora.

Muchos investigadores creen que esto podría llegar a conseguirse en un futuro no muy
lejano; Y una de las razones por las cuales están convencidos de ello es porque parece ser que
nuestro cerebro infiere la fuente de sonido que nos interesa, a partir de las relaciones entre
nuestra actividad neuronal registrada y nuestros posibles centros de interés. La otra razón lo la
que creen que es un reto asumible es porque aparentemente todas estas grabaciones o registros
que permiten identificar la fuente sonora de interés podrían llegar a obtenerse gracias a un
simple electrodo colocado dentro del canal auditivo, lo que significa que podría integrarse
fácilmente en un audífono.

7. CONCLUSIONES

El audioprotesista es, en la actualidad, el único profesional sanitario autorizado


oficialmente para adaptar audífonos. Profesionalmente, se podría equipar a un óptico. Por lo
tanto, el audioprotesista es la persona encargada de revisar la audición del paciente, para
poder determinar su capacidad auditiva y así aconsejar sobre el producto o audífono que
mejor se ajuste según las necesidades, y realizar el mantenimiento del mismo y el
seguimiento de la evolución de de su estado auditivo. Ello implica que la rehabilitación
auditiva tiene que adaptarse a las necesidades específicas de cada persona, en cada momento,
según sus condiciones físicas, psíquicas, su estilo de vida, etc...

Los audífonos de ultima generación son cada vez más sofisticados desde un punto de
vista tecnológico e incorporan nuevas características que son capaces de mejorar la
experiencia auditiva de las personas con cualquier tipo de déficit auditivo. En la actualidad
existen tres marcas comerciales que tienen en el mercado dispositivos con tecnología basada
en el deep learning y, lo más normal, sería que en breve el resto de fabricantes desarrollen su

24
propio audífono implementando esta nueva característica que supone una gran ayuda para las
personas con deficiencias auditivas.

Los audiólogos tienen a su alcance cada vez mayor número de herramientas con las
que mejorar la calidad de vida de las personas con perdidas auditivas. Es nuestra
responsabilidad conocerlas y conocer su mecanismo de funcionamiento, para poder ofrecer la
mejor solución posible a cada paciente en cada momento determinado. Esto implica que el
audioprotesista tiene la obligación moral de estar al día y en continuo aprendizaje.

Si analizamos los datos y los estudios realizados en la ultima década, parece evidente
que la inteligencia artificial constituye una gran base de posibilidades de aplicación en
dispositivos auditivos que quizás aún no nos atrevemos ni a imaginar. Todo apunta a que la
utilización de nuevas tecnologías basadas en la Inteligencia Artificial conducirá a un modelo
de mayor información y mayos acceso a dicha información, en el que el bienestar de cada
paciente podrá ser determinado a partir de un completo análisis de datos de distinta
procedencia.

Para que todos estos avances tecnológicos se puedan aplicar con la mayor eficacia
posible para cada paciente, será imprescindible aunar esfuerzos y crear unas bases de uso
adecuadas. Por lo que será imprescindible desarrollar un código deontológico que incluya
todas las consideraciones éticas que deben estar presentes en una buena práctica del manejo
de la información digital, para sí evitar actividades fraudulentas, para preservar la privacidad,
para definir responsabilidades, etc.

Parece ser que los vínculos entre la audición artificial y la audición biológica estarán
tan íntimamente unidas que se podría llegar a disponer y gestionar una red muy completa y
útil de datos para el cuidado auditivo global a nivel mundial lo que a su vez seguiría aportado
información para continuar avanzando en los nuevos desafíos, cada vez más complejos, que
puedan surgir en el ámbito de la investigación sobre el cuidado del sistema auditivo.

25
La aplicación más apasionante de la Inteligencia Artificial en el ámbito de la
Audiología está relacionada con la investigación de los complejos mecanismos
subyacentes a la experiencia auditiva y el audioprotesista es el máximo
responsable de poner en práctica en el día a día, todo este conocimiento para
ofrecer la mejor solución posible a cada persona que lo precise.

8. REFERENCIAS.

1. Gubin MV. Using Convolutional Neural Networks to Classify Audio Signal in Noisy
Sound Scenes. En: 2018 Global Smart Industry Conference (GloSIC) [Internet].
Chelyabinsk: IEEE; 2018. p. 1-6. Disponible en:
https://ieeexplore.ieee.org/document/8570117/

2. Kuo TY, Liao Y, Li K, Hong B, Hu X. Inferring Mechanisms of Auditory Attentional


Modulation with Deep Neural Networks. Neural Comput. 7 de octubre de
2022;34(11):2273-93.

3. Bing D, Ying J, Miao J, Lan L, Wang D, Zhao L, et al. Predicting the hearing outcome in
sudden sensorineural hearing loss via machine learning models. Clin Otolaryngol.
2018;43(3):868-74.

4. Hawley ML, Litovsky RY, Culling JF. The benefit of binaural hearing in a cocktail party:
Effect of location and type of interferer. J Acoust Soc Am. febrero de 2004;115(2):833-43.

5. Kalluri S, Edwards B. Impact of hearing impairment and hearing aids on benefits due to
binaural hearing. En: Proceedings of the International Congress on Acoustics. 2007.

6. Tóth B, Farkas D, Urbán G, Szalárdy O, Orosz G, Hunyadi L, et al. Attention and speech-
processing related functional brain networks activated in a multi-speaker environment.
PLoS ONE. 28 de febrero de 2019;14(2):e0212754.

7. Cherry EC. Some Experiments on the Recognition of Speech, with One and with Two
Ears. J Acoust Soc Am. septiembre de 1953;25(5):975-9.

8. Mesgarani N, Chang EF. Selective cortical representation of attended speaker in multi-


talker speech perception. Nature. 1 de mayo de 2012;485(7397):233-6.

26
9. Tian Y, Ma L. Auditory attention tracking states in a cocktail party environment can be
decoded by deep convolutional neural networks. J Neural Eng. 12 de junio de
2020;17(3):036013.

10. Bronkhorst AW. The cocktail-party problem revisited: early processing and selection of
multi-talker speech. Atten Percept Psychophys. julio de 2015;77(5):1465-87.

11. Turri S, Rizvi M, Rabini G, Melonio A, Gennari R, Pavani F. Orienting Auditory


Attention through Vision: the Impact of Monaural Listening. Multisensory Res. 11 de
agosto de 2021;35(1):1-28.

12. Tang HS, Yang CY, Liu CW, Chien CC. Binaural-cue-based noise reduction using
multirate quasi-ANSI filter bank for hearing aids. En: 2016 IEEE Asia Pacific Conference
on Circuits and Systems (APCCAS) [Internet]. Jeju, South Korea: IEEE; 2016. p. 21-4.
Disponible en: http://ieeexplore.ieee.org/document/7803885/

13. Fischer T, Caversaccio M, Wimmer W. Multichannel acoustic source and image dataset
for the cocktail party effect in hearing aid and implant users. Sci Data. 17 de diciembre de
2020;7(1):440.

14. McCullagh EA, Kaczmarek LK, Tollin DJ, Klug A. Editorial: Alterations in the Sound
Localization Pathway Related to Impaired Cocktail-Party Performance. Front Neurosci. 25
de abril de 2022;16:902197.

15. Wang D. Deep learning reinvents the hearing aid. IEEE Spectr. 1 de marzo de
2017;54:32-7.

27

También podría gustarte