Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Curso 2022/23
Sumario
INTRODUCCIÓN......................................................................................................................5
JUSTIFICACIÓN.......................................................................................................................7
OBJETIVOS...............................................................................................................................8
ANTECEDENTES......................................................................................................................8
METODOLOGÍA.......................................................................................................................9
DESARROLLO........................................................................................................................10
Explicación del mecanismo cocktail party...........................................................................10
Palabras clave en el entorno sonoro....................................................................................13
Cómo afecta la hipoacusia en el funcionamiento del efecto cocktail party........................15
El efecto cocktail party y los audífonos..............................................................................17
Nuevos avances en el desarrollo de dispositivos de ayuda.................................................18
El futuro, el Deep Learning: un algoritmo para reproducir el mecanismo del cerebro.......19
Retos futuros.........................................................................................................................23
CONCLUSIONES....................................................................................................................24
REFERENCIAS........................................................................................................................26
RESUMEN
Cuando nos encontramos en un ambiente muy ruidoso, existe un
mecanismo que nos permite centrarnos en una conversación obviando
todas las demás. Este mecanismo es conocido como efecto “cocktail
party” y se basa, principalmente, en el funcionamiento neuronal. Las
personas con audición normal, poseen esta habilidad, que funciona de
manera inconsciente e innata, únicamente al intentar centrarnos en una
conversación en concreto. Según las investigaciones científicas de los
últimos años, se ha podido verificar que la fusion binaural tiene una gran
influencia para poder conseguir un óptimo funcionamiento de este
mecanismo. Del mismo modo que cuando los estímulos sonoros que se
reciben no tienen la intensidad suficiente, no es posible lograr distinguir el
habla del ruido, como les ocurre a las personas con deficiencias auditivas,
que tienen muchas dificultades para centrarse en una sola conversación,
ya que la manera en la que se mezclan los sonidos percibidos por ambos
oídos resulta inteligible para ellos. Actualmente, se sigue investigando en
este campo y se plantea como una línea para el desarrollo y la mejora de
dispositivos basados en el “deep learning”, que sean capaces de emular
este funcionamiento, para de este modo, conseguir una mejora
significativa en la ayuda a las personas con pérdidas auditivas, así como,
para mejorar las técnicas de rehabilitación auditiva que se usan en la
actualidad.
3
ABSTRACT
When we find ourselves in a very noisy environment, there is a mechanism
that allows us to focus on one conversation while ignoring all the others. This
mechanism is known as the “cocktail party” effect and is mainly based on
neuronal functioning. People with normal hearing have this ability, which
works unconsciously and innately, only when trying to focus on a specific
conversation. According to the scientific investigations of the last years, it
has been possible to verify that the binaural fusion has a great influence to be
able to achieve an optimal functioning of this mechanism. In the same way
that when the sound stimuli received are not strong enough, it is not possible
to distinguish speech from noise, as happens to people with hearing
impairments, who have great difficulty concentrating on a single
conversation, since they the way in which the sounds perceived by both ears
are mixed is intelligible to them. Currently, research continues in this field
and it is proposed as a line for the development and improvement of devices
based on "deep learning", which are capable of emulating this operation, in
order to achieve a significant improvement in help people with hearing loss,
as well as to improve hearing rehabilitation techniques that are currently
used.
4
1. INTRODUCCIÓN
El efecto cóctel party se refiere a la capacidad del sentido del oído humano para
centrarse en una fuente específica de sonido dentro de una mezcla de ruidos de fondo en
situaciones acústicas complejas. La facilidad con la que las personas con audición normal
realizan esta tarea, que en principio puede resultar muy compleja a nivel neuronal, contrasta
con las dificultades que tienen las personas con deficiencias auditivas ante estos mismos
escenarios.
Según los estudios realizados (1,2), sabemos que la atención auditiva se produce,
principalmente, en el giro temporal superior del hemisferio derecho, que es dónde se localiza
la corteza auditiva primaria. Sin embargo, en el proceso de localización de los sonidos en
ambientes ruidosos, interviene una extensa red frontoparietal que incluye, el giro frontal, el
surco parietal superior y el surco interparietal. En concreto, el efecto cocktail party ocurre en
el hemisferio izquierdo, junto a todo el proceso de discriminación de sonidos.
5
Figura 1: Áreas cerebrales del procesamiento auditivo primario y secundario
https://tienda.elsevier.es/guyton-y-hall-tratado-de-fisiologia-medica-9788491130246.html
Para que este fenómeno funcione correctamente, debe existir una funcionalidad total
de ambos oídos, es decir, se debe disponer de una adecuada audición binaural (4,5).
Recordemos, que la correcta audición binaural nos permite localizar espacialmente las fuentes
del sonido, así como, distinguir sus propiedades acústicas y la distancia a la que se encuentran
estas fuentes sonoras.
6
Figura 2: Procesamiento central de la audición.
https://o.quizlet.com/kY-o3Ca4ucg.SfIfbwp7qA_b.jpg
Es por ello que las personas con pérdidas auditivas tendrán dificultades significativas
para localizar las fuentes sonoras y para distinguir las conversaciones que desean seguir,
respecto al ruido de fondo (6). Cualquier avance que se produzca en este campo podría
aplicarse en el desarrollo de nuevos dispositivos o en la mejora de las técnicas empleadas para
mejorar la audición de las personas con algún tipo de pérdida auditiva.
2. JUSTIFICACIÓN
7
También debemos añadir que las investigaciones en este campo y la aplicación de
estos descubrimientos en la práctica de la audiología actual, se desarrollan a gran velocidad, y,
de manera mucho más sustancial, a lo largo de los últimos años. Por lo que resulta de gran
interés recopilar toda esa información y evaluar cómo ha evolucionado este conocimiento que
cada vez está más presente en el día a día de la adaptación audioprotésica.
3. OBJETIVOS.
También se realizará una descripción de las vías de estudio actuales y las aplicaciones
en la actualidad y las posibles aplicaciones futuras en el campo de la audiología, según las
distintas líneas de investigación, que dichos avances puedan suponer.
4. ANTECEDENTES
El efecto fue definido por primera vez y bautizado como "el problema cocktail party"
por Colin Cherry en 1953 (7). Cherry dirigió experimentos de atención dirigida en donde los
participantes escuchaban dos mensajes simultáneos en un solo altavoz y trataban de
separarlos. A este estudio experimental siguieron muchos otros a lo largo de varias décadas
que fueron aclarando algunos conceptos básicos del funcionamiento del efecto “cocktail
party”.
8
nuestra atención auditiva. El algoritmo decodificador desarrollado para este estudio era capaz
de predecir qué hablante, e incluso qué palabras específicas, estaba oyendo el sujeto
participante en el estudio.
5. METODOLOGÍA
Los términos MESH utilizados han sido: cocktail party effect - hearing aid - hearing
aids - bilateral hearing loss - bilateral hearing losses - unilateral hearing loss - hearing
impairment - efecto cocktail party – pérdidas auditivas binaurales – deep learning – ayudas
auditivas.
Los criterios de inclusión de los artículos seleccionados han sido que la publicación de
los mismos se haya realizado en las bases de datos citadas anteriormente, lo que significa que
únicamente se han elegido publicaciones científicas. Sin embargo para desarrollar el aspecto
de los nuevos campos de aplicación sí que se han elegido textos comerciales y divulgativos de
revistas profesionales y marcas comerciales debido que es un campo muy reciente para el que
todavía no se han realizado estudios en profundidad con carácter riguroso como para obtener
datos de mayor fiabilidad para su análisis.
9
recogen los avances y conocimientos de las investigaciones de los últimos seis años, es decir,
desde el año 2018 hasta el 2023, ambos incluidos. Sin embargo, para la descripción de
aspectos generales, sí que se han incluido artículos de cualquier año de publicación, siendo los
más antiguos de la década de los 90.
6. DESARROLLO
10
son relevantes en cada momento según la voluntad del oyente, especialmente en
ambiente ruidosos.
https://image.jimcdn.com/app/cms/image/transf/none/path/sa014c1f81b4024bd/image/i1f5e4c7b033ceb75/
version/1600185316/image.gif
11
Figura 4: Recorrido auditivo desde el órgano de Corti hasta los subsistemas cerebrales
https://www.revistagacetaudio.es/wp-content/webp-express/webp-images/uploads/2020/09/brain-hearing-
GA.jpg.webp
Por lo tanto, el código neural es crucial para dar sentido a los sonidos, ya que este
código, es transformado en objetos sonoros significativos en la corteza auditiva. Estos
códigos, son las unidades con las que los subsistemas de orientación y enfoque pueden
trabajar para generar el mapa espacial sonoro que rodea a la persona y para llegar a
comprender el mensaje que se transmite en el foco sonoro que resulta elegido para centrar la
atención de la escucha.
12
Figura 5: Recorrido del código neural a través del nervio auditivo hasta la corteza auditiva.
https://image.jimcdn.com/app/cms/image/transf/dimension=426x1024:format=gif/path/sa014c1f81b4024bd/
image/ieddbb068a4e39935/version/1600443672/image.gif
13
entorno dice nuestro nombre. Cuando esto ocurre, nuestra atención se centra en esa otra
conversación para saber que es lo que esa persona está diciendo de nosotros.
Figura 6: Representación gráfica del funcionamiento de los subsistemas de localización y enfoque auditivo
https://image.jimcdn.com/app/cms/image/transf/dimension=1040x10000:format=png/path/sa014c1f81b4024bd/
image/i21eda0446806d619/version/1600187118/image.png
14
Cómo afecta la hipoacusia en el funcionamiento del efecto cocktail party
En las persona que sufren una hipoacusia este mecanismo no llega a funcionar
correctamente, ya que, no pueden procesar la escena sonora completa porque las señales
sonoras no se perciben con la intensidad suficiente, e incluso, algunas se pierden en su
totalidad al encontrarse por debajo de su umbral de audición.
Esta falta de información auditiva tiene unas consecuencias importantes a nivel
cerebral en la persona hipoacúsica.
15
A su vez, todos estos problema cerebrales terminan derivando, antes o después, en
problemas en la vida diaria directamente relacionados con los efectos a nivel cerebral
provocados. Las principales consecuencias que se generan son:
16
El efecto cocktail party y los audífonos
Para las personas con pérdidas auditivas, lo más usual es la adaptación de audífonos,
aunque no todos trabajan de la misma forma. Para estas personas, incluso el más mínimo
ruido puede ser una fuente de confusión. Esto sucede porque los dispositivos artificiales no
pueden replicar lo que ejecuta el cerebro humano de forma inconsciente. Es decir, separar ese
sonido concreto que queremos escuchar, del resto de los ruidos que entran en nuestros oídos.
Estos dispositivos tampoco pueden mantenernos enfocados en una voz, mientras que otras
personas conversan a nuestro alrededor.
https://www.brainlatam.com/uploads/tinymce/el-efecto-de-fiesta-de-coctel-como-el-cerebro-se-enfoca-en-una-
de-muchas-conversaciones-al-mismo-tiempo-0.webp
17
más inmediato de todo esto es que, en lugar de reducir de forma suficiente el esfuerzo de
escucha, generan una mayor carga mental y su consecuente fatiga.
Los investigadores, argumentan que las ondas cerebrales pueden ser captadas por el
nuevo software incluso con sensores ubicados fuera de los canales auditivos. El estudio
apunta que se puede incluir el sistema en una nueva generación de audífonos inteligentes. Un
dispositivo externo puede no ser igual de preciso, pero tiene la ventaja de poder ser utilizado
incluso por personas sin problemas de audición. Como deportistas o profesionales que quieran
mejorar su capacidad de atención (14).
18
Según los estudios iniciales lo más difícil de resolver era el intervalo de tiempo entre
que la persona deja de fijar su atención en un estímulo sonoro para concentrarse en otro y el
tiempo que el algoritmo reacciona a este cambio. Que, aunque no era demasiado significativo,
era suficiente como para perderse la comienzo de la conversación. Pero, según los avances
más recientes, este problema ha quedado solventado ya que el tiempo se ha reducido lo
suficiente como para que no afecte de manera significativa en el cambio del enfoque auditivo.
https://www.smartpanel.com/wp-content/uploads/2018/04/red-neuronas-artificiales.png
19
La mayoría de los fabricantes de dispositivos de ayuda auditiva ya han empezado a
introducir, aunque de forma limitada, ciertos sistemas predictivos y de análisis de datos
procedentes de la Inteligencia Artificial. Estos mecanismos son los responsables de que las
prótesis auditivas realizan ajustes automáticamente analizando los entornos auditivos del
usuario (3), de esta forma el patrón de amplificación se mantiene siempre actualizado y
aprende continuamente de resultados y datos previos por su propia retroalimentación. Para
conseguir ésto, puede utilizar básicamente dos sistemas, ambos basados en la Inteligencia
Artificial.
El primero de ellos, utiliza las llamadas redes neuronales profundas (DNNs en inglés),
y este sistema se ha utilizado para mejorar la inteligibilidad, tanto en audífonos como en
implantes cocleares. En el caso de los audífonos, el sistema realiza un aprendizaje de forma
automática a partir del análisis de los datos auditivos de millones de escenas auditivas
pertenecientes a la vida real para organizar, equilibrar y dar prioridad a los estímulos auditivos
necesarios con vistas a mejorar la sensación sonora y la inteligibilidad, y todo este proceso se
realiza de forma instantánea. En el caso de los implantes, se han añadido sistemas de redes
neuronales profundas que mejoran la inteligibilidad en escenas con ruido. Ésto se consigue
descomponiendo en unidades de tiempo respecto a la frecuencia, las señales correspondientes
a los sonidos de la voz en entornos ruidosos y configurando un nuevo conjunto de
características que son verificadas por mecanismos psicoquímicos y se introducen en una red
neuronal profunda para, de este modo, poder seleccionar canales de frecuencia con una mejor
relación señal/ruido. Con ello se ha obtenido una mejora significativa del entendimiento con
implantes cocleares, incluso en el caso de que la voz del estímulo no le resulta familiar al
paciente. Los investigadores que han desarrollado esta red neuronal han conseguido limitar la
potencia y la memoria requerida para el funcionamiento de su modelo, de esta forma se puede
implementar también en dispositivos móviles sin grandes requerimientos específicos.
20
Figura 9: Representación de la captación del audífono de la distintas escenas auditivas
https://wdh01.azureedge.net/-/media/oticon/main/images/about/presse/b2c-oticon-blog_thumb_what_is_dnn.jpg?
rev=C263&la=es-ES&hash=2F4F69FA759EBD4FCE46CB4C110DC370
El segundo de estos sistemas, que ha sido diseñado para la aplicación de las prótesis
auditivas para favorecer la inteligibilidad y el confort auditivo partiendo de la Inteligencia
Artificial, consiste en un aprendizaje activo con procesos gaussianos que lo que hace es
rastrear las preferencias individuales de cada usuario a lo largo del tiempo de uso del
dispositivo, recogiendo información de las distintas escena sonoras a las que el usuario está
sometido en su día a día para así poder aplicar estas preferencias personales en le modo de
funcionamiento del audífono de manera totalmente autónoma.
Los estudios más recientes enfocan sus esfuerzos en un modelo que sea capaz de
combinar ambos sistemas, es decir, la capacidad de procesamiento de las redes neuronales
profundas, con una adaptación personalizada y adaptativa que se fundamente en la recogida
continua de datos de cada usuario.
Las redes neuronales profundas, que están siendo diseñadas para la eliminación del
ruido, llegarán en poco tiempo a ser capaces de analizar entornos acústicos complejos, de un
21
modo muy similar a como lo haría el cerebro humano, separando cada una de las fuentes
sonoras y convirtiendo así los entornos de habla en ruido, en entornos de habla en silencio.
https://healthcare-in-europe.com/media/story_section_image/506/image-01-mesgarani-fig-2-journal-of-neural-
engineeringweb.jpg
22
Figura 11: ¿cómo el deep learning aísla la fuente sonora seleccionada por el usuario filtrando las demás?
https://spectrum.ieee.org/media-library/image-mjgzodi5na-png.png?id=25581999&width=768&quality=80
Retos futuros
23
conseguir monitorizar la capacidad del cerebro a la hora de desarrollar una atención selectiva
a los diferentes estímulos de la escena sonora.
Muchos investigadores creen que esto podría llegar a conseguirse en un futuro no muy
lejano; Y una de las razones por las cuales están convencidos de ello es porque parece ser que
nuestro cerebro infiere la fuente de sonido que nos interesa, a partir de las relaciones entre
nuestra actividad neuronal registrada y nuestros posibles centros de interés. La otra razón lo la
que creen que es un reto asumible es porque aparentemente todas estas grabaciones o registros
que permiten identificar la fuente sonora de interés podrían llegar a obtenerse gracias a un
simple electrodo colocado dentro del canal auditivo, lo que significa que podría integrarse
fácilmente en un audífono.
7. CONCLUSIONES
Los audífonos de ultima generación son cada vez más sofisticados desde un punto de
vista tecnológico e incorporan nuevas características que son capaces de mejorar la
experiencia auditiva de las personas con cualquier tipo de déficit auditivo. En la actualidad
existen tres marcas comerciales que tienen en el mercado dispositivos con tecnología basada
en el deep learning y, lo más normal, sería que en breve el resto de fabricantes desarrollen su
24
propio audífono implementando esta nueva característica que supone una gran ayuda para las
personas con deficiencias auditivas.
Los audiólogos tienen a su alcance cada vez mayor número de herramientas con las
que mejorar la calidad de vida de las personas con perdidas auditivas. Es nuestra
responsabilidad conocerlas y conocer su mecanismo de funcionamiento, para poder ofrecer la
mejor solución posible a cada paciente en cada momento determinado. Esto implica que el
audioprotesista tiene la obligación moral de estar al día y en continuo aprendizaje.
Si analizamos los datos y los estudios realizados en la ultima década, parece evidente
que la inteligencia artificial constituye una gran base de posibilidades de aplicación en
dispositivos auditivos que quizás aún no nos atrevemos ni a imaginar. Todo apunta a que la
utilización de nuevas tecnologías basadas en la Inteligencia Artificial conducirá a un modelo
de mayor información y mayos acceso a dicha información, en el que el bienestar de cada
paciente podrá ser determinado a partir de un completo análisis de datos de distinta
procedencia.
Para que todos estos avances tecnológicos se puedan aplicar con la mayor eficacia
posible para cada paciente, será imprescindible aunar esfuerzos y crear unas bases de uso
adecuadas. Por lo que será imprescindible desarrollar un código deontológico que incluya
todas las consideraciones éticas que deben estar presentes en una buena práctica del manejo
de la información digital, para sí evitar actividades fraudulentas, para preservar la privacidad,
para definir responsabilidades, etc.
Parece ser que los vínculos entre la audición artificial y la audición biológica estarán
tan íntimamente unidas que se podría llegar a disponer y gestionar una red muy completa y
útil de datos para el cuidado auditivo global a nivel mundial lo que a su vez seguiría aportado
información para continuar avanzando en los nuevos desafíos, cada vez más complejos, que
puedan surgir en el ámbito de la investigación sobre el cuidado del sistema auditivo.
25
La aplicación más apasionante de la Inteligencia Artificial en el ámbito de la
Audiología está relacionada con la investigación de los complejos mecanismos
subyacentes a la experiencia auditiva y el audioprotesista es el máximo
responsable de poner en práctica en el día a día, todo este conocimiento para
ofrecer la mejor solución posible a cada persona que lo precise.
8. REFERENCIAS.
1. Gubin MV. Using Convolutional Neural Networks to Classify Audio Signal in Noisy
Sound Scenes. En: 2018 Global Smart Industry Conference (GloSIC) [Internet].
Chelyabinsk: IEEE; 2018. p. 1-6. Disponible en:
https://ieeexplore.ieee.org/document/8570117/
3. Bing D, Ying J, Miao J, Lan L, Wang D, Zhao L, et al. Predicting the hearing outcome in
sudden sensorineural hearing loss via machine learning models. Clin Otolaryngol.
2018;43(3):868-74.
4. Hawley ML, Litovsky RY, Culling JF. The benefit of binaural hearing in a cocktail party:
Effect of location and type of interferer. J Acoust Soc Am. febrero de 2004;115(2):833-43.
5. Kalluri S, Edwards B. Impact of hearing impairment and hearing aids on benefits due to
binaural hearing. En: Proceedings of the International Congress on Acoustics. 2007.
6. Tóth B, Farkas D, Urbán G, Szalárdy O, Orosz G, Hunyadi L, et al. Attention and speech-
processing related functional brain networks activated in a multi-speaker environment.
PLoS ONE. 28 de febrero de 2019;14(2):e0212754.
7. Cherry EC. Some Experiments on the Recognition of Speech, with One and with Two
Ears. J Acoust Soc Am. septiembre de 1953;25(5):975-9.
26
9. Tian Y, Ma L. Auditory attention tracking states in a cocktail party environment can be
decoded by deep convolutional neural networks. J Neural Eng. 12 de junio de
2020;17(3):036013.
10. Bronkhorst AW. The cocktail-party problem revisited: early processing and selection of
multi-talker speech. Atten Percept Psychophys. julio de 2015;77(5):1465-87.
12. Tang HS, Yang CY, Liu CW, Chien CC. Binaural-cue-based noise reduction using
multirate quasi-ANSI filter bank for hearing aids. En: 2016 IEEE Asia Pacific Conference
on Circuits and Systems (APCCAS) [Internet]. Jeju, South Korea: IEEE; 2016. p. 21-4.
Disponible en: http://ieeexplore.ieee.org/document/7803885/
13. Fischer T, Caversaccio M, Wimmer W. Multichannel acoustic source and image dataset
for the cocktail party effect in hearing aid and implant users. Sci Data. 17 de diciembre de
2020;7(1):440.
14. McCullagh EA, Kaczmarek LK, Tollin DJ, Klug A. Editorial: Alterations in the Sound
Localization Pathway Related to Impaired Cocktail-Party Performance. Front Neurosci. 25
de abril de 2022;16:902197.
15. Wang D. Deep learning reinvents the hearing aid. IEEE Spectr. 1 de marzo de
2017;54:32-7.
27