Está en la página 1de 23

Traducido del inglés al español - www.onlinedoctranslator.

com

iCiencia todos
ACCESO ABIERTO

Artículo
La sustitución sensorial activa permite un aprendizaje rápido a través de
estrategias motoras sensoriales efectivas

Yael Zilbershtain-
Kra, Shmuel Graffiti,
Ehud Ahisar,
amos arieli

ehud.ahissar@weizmann.ac.il
(EA)
amos.arieli@weizmann.ac.il
(AA)

Reflejos
Describimos sensorial
sustitución basada en
Principios de detección activa
(ASenSub)

Percepción a través de ASenSub


surge rápidamente y
se transfiere fácilmente de
objetos 2D a 3D

Los usuarios videntes y ciegos


emplean estrategias visuales
y táctiles,
respectivamente

Uso de estrategias
motorsensoriales naturales
facilita el aprendizaje y el
rendimiento

Zilbershtain-Kra et al., iScience


24,101918
22 de enero de 2021ª2020 Los
Autores.
https://doi.org/10.1016/
j.isci.2020.101918
iCiencia todos
ACCESO ABIERTO

Artículo
La sustitución sensorial activa permite un
aprendizaje rápido a través de
estrategias motoras-sensoriales
Yael Zilbershtain-Kra,1Shmuel Graffiti,1Ehud Ahisar,1,2,*y Amos Arieli1,2,3,*

RESUMEN
Examinamos el desarrollo de nuevas habilidades sensoriales en adultos entrenando a los
participantes para que perciban objetos remotos a través de sus dedos. Usando un dispositivo
de sustitución sensorial basado en detección activa (ASenSub), los participantes aprendieron
rápidamente a percibir rápidamente a través de la nueva modalidad y mantuvieron su alto
rendimiento durante más de 20 meses. Tanto los participantes videntes como los ciegos
exhibieron una transferencia casi completa del rendimiento de las imágenes 2D a los nuevos
objetos físicos 3D. La precisión y la velocidad de percepción con el uso de ASenSub fueron, en
promedio, un 300 % y un 600 % mejores que los informes anteriores para imágenes 2D y
objetos 3D. Esta mejora se atribuye a la capacidad de los participantes para emplear sus
propias estrategias motoras-sensoriales. La estrategia dominante de los participantes videntes
se basó en la convergencia sensorial motora en las regiones más informativas de los objetos,
de manera similar a los patrones de fijación en la visión. Congénitamente, los participantes
ciegos no mostraron tal tendencia y muchos de sus procedimientos exploratorios se parecían a
los observados con el tacto natural.

INTRODUCCIÓN
La visión y el tacto comparten una estrategia sensorial común: ambas modalidades se basan en matrices
bidimensionales (2D) de receptores que exploran activamente el entorno (Pei et al., 2010;Ahissar y Arieli, 2001;
Collins y Bach-Y-Rita, 1973;Borji et al., 2013). Los humanos, y los primates en general, normalmente mueven los
ojos y las manos mientras perciben objetos externos, en patrones cuyas interacciones con los objetos determinan
las activaciones de los receptores (Ahissar y Vaadia, 1990;Connor y Johnson, 1992;Kelso, 1997;Gamzu y Ahissar,
2001;Visell, 2009;Yoshioka et al., 2011;Ahissar y Arieli, 2012;Mannan et al., 2009). En ambos sistemas, esta
estrategia de detección activa está respaldada por un sistema elaborado de bucles motor-sensoriomotores
paralelos de varios niveles (Ahisar y Assa, 2016) e induce la codificación sensorial espaciotemporal (Ahissar y Arieli,
2001,2012;Pei et al., 2010;Saig et al., 2012;Ahissar y Vaadia, 1990;Gamzu y Ahissar, 2001;Hollins y Bensmaı̈a, 2007;
Cascio y Sathian, 2001;Sathian, 1989). Examinamos las estrategias de exploración motora-sensorial que subyacen al
desarrollo de nuevas habilidades de detección al entrenar a los participantes para que perciban a través de sus
dedos objetos remotos, generalmente percibidos a través de la visión, un método conocido como sistema de
sustitución sensorial de la visión al tacto (SenSub) (Bach-Y-Rita et al., 1969).

SenSub permite la adquisición de información ambiental que normalmente se adquiere a través de un sentido por otro
sentido (Lenay et al., 2003;Zilbershtain-Kra et al., 2015;Collins y Bach-Y-Rita, 1973). SenSub visual a táctil permite a las
personas con problemas de visión ver aspectos de su entorno a través de señales táctiles. Si bien la mayoría de los SenSub 1ElDepartamento de
existentes de visión al tacto conservan la adquisición sensorial 2D, abandonan el componente de detección activa: el usuario Neurobiología, Weizmann
Instituto de Ciencias, 234 Herzl
no mueve el órgano que recibe la estimulación táctil (p. ej., dedo, lengua) y el SenSub generalmente convierte las entradas
Street, Rehovot 76100, Israel
visuales constantes en vibraciones de la piel (aplicado para prevenir la adaptación del receptor). La percepción a través de
2Estos autores contribuyeron
tal SenSub emerge solo después de largos períodos de entrenamiento (Arno et al., 1999;Maidenbaum et al., 2013;Striem- igualmente

Amit et al., 2012;Ziat et al., 2005) y, a menudo, sigue siendo frustrantemente lento incluso después del entrenamiento (Nye y 3Contacto principal

Bliss, 1970;Amedi et al., 2007). La percepción se vuelve más fácil cuando a los participantes se les permite mover el sensor * Correspondencia:
artificial (p. ej., la cámara) con las manos (Lenay et al., 2003;Doel et al., 2004;Auvray et al., 2007;Marrón et al., 2011;Ptito et ehud.ahissar@weizmann.ac.il
(EA),
al., 2005). Solo en un estudio, hasta donde sabemos, el circuito de sensación de movimiento se cerró para imitar el tacto
amos.arieli@weizmann.ac.il (AUTOMÓVIL CLUB

activo. En ese estudio, los participantes colocaron sus dedos en un carro que podía moverse sobre la superficie del BRITÁNICO)

dispositivo para revelar una forma virtual (Chan https://doi.org/10.1016/j.isci.


2020.101918

iCiencia24,101918, 22 de enero de 2021ª2020 Los Autores. 1


Este es un artículo de acceso abierto bajo la licencia CC BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/).
todos iCiencia
ACCESO ABIERTO
Artículo

et al., 2007). Tal mimetismo del toque activo permitió un buen desempeño con poco entrenamiento (verDiscusióny Tabla S1
).

Aunque los SenSubs existen desde hace más de 50 años, ninguno de ellos ha sido adaptado hasta ahora por la comunidad
ciega para el uso práctico diario. En este estudio, asumimos que la principal barrera es la incompatibilidad de estos
dispositivos con las estrategias perceptivas naturales y su incapacidad para permitir el uso de mecanismos de sentido
común. Por lo tanto, construimos un SenSub que se basa en dos principios principales de detección activa natural: el órgano
sensorial (táctil) adquiere activamente su información (visual) y no se utiliza ayuda artificial para evitar la adaptación del
receptor. Nuestro SenSub permitía, y de hecho forzaba, la detección activa: los participantes tenían que mover las manos
para sentir objetos fijos, al igual que lo harían para palpar un objeto proximal a través del tacto o para verlo con los ojos, y la
sensación ocurrió en la mano en movimiento.

Como este dispositivo SenSub basado en detección activa (ASenSub) presenta una modalidad sensorial desconocida para los
participantes ingenuos, permitió el seguimiento de los principios que subyacen al desarrollo y el uso de estrategias
perceptivas en adultos. Mostramos aquí que practicar con nuestro ASenSub conduce rápidamente a una percepción precisa
y rápida, que a simple vista se basa principalmente en el escaneo enfocado de una región informativa del objeto, similar a
un patrón de fijación observado con la visión natural (Reinagel y Zador, 1999;Schumann et al., 2008; Parkhurst y Niebur,
2003).

RESULTADOS

Utilizamos un gran prototipo de ASenSub, que permitió un buen control de estímulos y un seguimiento de alta resolución. El
actuador táctil se adjuntó a la mano de cada participante de manera que tres dedos estuvieran constantemente en contacto
con tres matrices táctiles de 32 pines cada una, con distancias fijas entre los dedos (Figura 1,
# 1), lo que da como resultado una matriz de 96 (12*8) pines en los tres dedos. La matriz de pines se asignó a una matriz fija
de 192 x 128 píxeles en el centro de la cámara de video que estaba conectada a la misma mano (Figura 1,
# 2). La altura de cada pin era directamente proporcional al nivel de iluminación medio capturado por su matriz
correspondiente de 16*16 píxeles de video. Por lo tanto, la información externa se proporcionó constantemente a través de
ASen-Sub simplemente traduciendo los contrastes externos a las hendiduras de la piel; no se agregó ningún procesamiento
adicional. En consecuencia, los niveles de iluminación constante produjeron niveles de deflexión constantes (sin vibraciones)
y los movimientos de la mano indujeron patrones espaciotemporales de desviaciones de la piel similares a los inducidos
durante el escaneo táctil natural de un objeto (Connor y Johnson, 1992;Weber et al., 2013;Mackevicius et al., 2012).

El uso de nuestro ASenSub se probó en seis experimentos de cinco tareas alternativas de identificación de elección forzada,
con dos grupos de seis participantes cada uno. En cada experimento, se utilizó un conjunto diferente de objetos, incluidos
dos conjuntos de imágenes de computadora en 2D que se presentaron en una pantalla de computadora y un conjunto de
objetos físicos en 3D que se presentaron en una mesa (Figura 2A). Los participantes eran libres de mover sus manos (con el
ASenSub) en tres dimensiones (Figura 1, #4) así también para cambiar la distancia entre el ASenSub y el objeto. No se
requirió ningún cambio en la configuración al pasar de la exploración 2D a la exploración de objetos 3D, excepto para
reemplazar los objetos. En cada sesión se puso a prueba la percepción de 20 objetos. Los movimientos de las manos, las
desviaciones de los alfileres, los informes de audio introspectivos en curso de los participantes, los niveles de confianza en sí
mismos y las decisiones se registraron para cada prueba.

Aprendizaje rápido, alto rendimiento y retención a largo plazo de los participantes videntes con los
ojos vendados
En el primer experimento (EXP 1), los participantes videntes (n = 6) mostraron una rápida mejora en el rendimiento, alcanzando 86,7
GRAMO5,4% en las quintas sesiones de entrenamiento, cada una con 20 intentos. Los niveles de autoconfianza aumentaron y los
tiempos de reconocimiento disminuyeron en paralelo al aumento de la tasa de éxito, alcanzando 16,4GRAMO
1,6 s en la quinta sesión (Figura 2B, 'EXP 1'). EXP 2, que siguió inmediatamente a EXP 1, era similar a EXP 1
pero con objetos 3D (Figura 2A, segunda columna). Sorprendentemente, aunque los objetos 3D no tenían
nada en común con las imágenes 2D, los niveles de rendimiento se transfirieron casi por completo de EXP 1
a la primera sesión de EXP 2 (Figura 2B, día 6).

Además, durante las siguientes dos sesiones experimentales (7 y 8), los participantes mejoraron aún más, alcanzando una
tasa de éxito de 95GRAMO2,6% en la octava sesión (Vídeo S1), con su confianza aumentando aún más (Figura 2B, ''EXP 2'').
Los tiempos de adquisición en EXP 2 comenzaron en el nivel alcanzado para la misma duración de prueba (30 s) en EXP 1
(sesión 3) y disminuyeron ligeramente con el entrenamiento (a 22,2GRAMO2.1 s). En EXP 1 y 2 los participantes

2 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

Figura 1. Configuración experimental


Una imagen de la configuración experimental con una ilustración esquemática de un participante con los ojos vendados mientras identifica una manzana (#3). El actuador táctil (n.º 1), una serie de

clavijas que estimulan con una presión variable, está firmemente sujeto a la mano del participante de modo que los tres dedos medios estén constantemente en contacto con tres matrices táctiles de 32

clavijas cada una (4 x 8). La altura de cada pin (4 niveles) está directamente relacionada con el nivel de iluminación capturado por una matriz de píxeles correspondiente en la cámara activa (#2). Un cable

de un equilibrador (n.° 4) conectado al techo toma parte del peso del sistema, al tiempo que permite el movimiento de la mano en 3D sin esfuerzo. Una cámara de video fija de campo amplio (#5) está

estacionada para fotografiar la totalidad de la escena experimental. Análisis fuera de línea del flujo de video de las dos cámaras habilitadas para rastrear la ruta del participante, en coordenadas

absolutas, incluido el objeto. Se coloca un pequeño micrófono en el pecho del participante (#6). Abajo a la izquierda: haga zoom en el ASenSub con la cámara activa [VQ25B-P37P; Corporación Filtech;

Yangchon-Gu Seúl, Corea, velocidad de fotogramas de 28 Hz]. Abajo a la derecha: imagen del mouse táctil [VTMouse, Tactile World, frecuencia de actualización de 10 Hz] e ilustración esquemática de la

matriz de clavijas. La figura muestra un ejemplo al identificar la imagen del triángulo (los pines negros están hacia arriba). El círculo rojo denota la imagen capturada por la cámara activa que se

transfiere al actuador. y una ilustración esquemática de la matriz de pines. La figura muestra un ejemplo al identificar la imagen del triángulo (los pines negros están hacia arriba). El círculo rojo denota

la imagen capturada por la cámara activa que se transfiere al actuador. y una ilustración esquemática de la matriz de pines. La figura muestra un ejemplo al identificar la imagen del triángulo (los pines

negros están hacia arriba). El círculo rojo denota la imagen capturada por la cámara activa que se transfiere al actuador.

el nivel de confianza estuvo altamente correlacionado con su tasa de éxito tanto en los objetos (r = 0,86, p = 0,001) como en los
participantes (r = 0,72, p = 0,02). Además, el nivel de confianza fue significativamente mayor en los ensayos correctos (p < 0,0001;
prueba t de 2 muestras).

Además, los niveles de rendimiento de los participantes se mantuvieron durante un largo período: cuando se evaluaron después
> 20 meses con las mismas formas que en EXP 1, los participantes (n = 4 de los participantes originales) nuevamente
comenzaron con el nivel obtenido al final de EXP 1 y mejoraron rápidamente (Figura 2B, ''EXP 3''). Luego, los mismos
participantes fueron probados con formas novedosas que no habían visto antes, formas cuyos relieves

iCiencia24,101918, 22 de enero de 2021 3


todos iCiencia
ACCESO ABIERTO
Artículo

Figura 2. Estímulos y desempeño


(A) Los 3 conjuntos de 5 estímulos utilizados en los diferentes experimentos. El conjunto de EXP 2 contenía objetos físicos tridimensionales y los
otros dos conjuntos contenían formas bidimensionales presentadas en una pantalla de computadora.
(B) Curvas de aprendizaje que muestran la tasa de éxito (rojo sólido), el nivel de confianza en sí mismo (azul punteado) y el tiempo de identificación
(verde punteado) de los participantes videntes (mediasGRAMOSEM entre los participantes; n = 6 en EXP 1–2 y n = 4 en EXP 3–4). (C) EXP1-2 [igual
que en (B)] con participantes ciegos (n = 6).

Las imágenes fueron palpadas táctilmente por los participantes antes de que comenzara el experimento (Figura 2B, ''EXP 4'';
ver Métodos). Con estas formas invisibles, su tasa media de éxito alcanzó un techo del 100 % y el tiempo de reconocimiento
se redujo a valores excepcionalmente cortos (10,9GRAMO1,9 s;Figura 2B, ''EXP 4''), con el participante más rápido
identificando formas en 6.9GRAMO0,7 s.

Aprendizaje rápido y alto rendimiento de participantes con ceguera congénita


Aunque el ASenSub permitió un aprendizaje rápido y una percepción rápida y precisa con los participantes videntes con los
ojos vendados, no estaba del todo claro que sería igualmente ventajoso para los participantes ciegos, y especialmente para
los ciegos congénitos, que no pueden confiar en ningún previo visual. Por lo tanto, entrenamos a un grupo de 6
participantes con ceguera congénita con nuestro ASenSub, utilizando el mismo protocolo utilizado con los participantes con
los ojos vendados. A los participantes se les permitió palpar objetos que tenían el mismo perfil que las imágenes durante
unos segundos antes de la primera sesión. Usando ASenSub, estos participantes mostraron curvas de aprendizaje rápidas y
altas tasas de éxito, similares a nuestros participantes videntes (Figura 2C, ''EXP 1''). Nuevamente, al pasar a nuevos objetos
3D (Figura 2C, ''EXP 2''), los niveles de rendimiento se transfirieron y continuaron aumentando, mientras que la duración
perceptiva continuó disminuyendo.

4 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

Estrategia de escaneo de objetos: escaneo focal versus escaneo extendido

Por lo tanto, con un breve entrenamiento de varias horas con nuestro ASenSub, los participantes ciegos y con los ojos
vendados pudieron percibir formas 2D y objetos 3D de forma rápida y precisa. La rápida transferencia entre la percepción
2D y 3D podría reflejar un aprendizaje eficiente de estrategias de exploración apropiadas. Para dilucidar las estrategias
motoras que subyacen a esta rápida percepción activa, analizamos las trayectorias de exploración de las manos de nuestros
participantes durante las tareas. En general, nuestros participantes exhibieron una gran cantidad de patrones de escaneo
(ver también (Ziat et al., 2005;Chan et al., 2007)), cuyos detalles y características generales cambiaron de juicio en juicio y de
sesión en sesión. A pesar de esta gran variabilidad, varios componentes consistentes del escaneo fueron evidentes: las
manos escanearon a lo largo de los contornos y, a menudo, se detuvieron en ciertas regiones del objeto.

Clasificamos los segmentos de movimiento según sus relaciones con las formas o el contorno del objeto, siendo la principal
distinción entre los movimientos que seguían los contornos y los que los cruzaban (figura 3A). En general, tanto los
participantes videntes como los ciegos exhiben patrones mixtos de exploración, con una regla general común: cuanto
mayor era la proporción de seguimiento del contorno en una prueba, más lenta era la velocidad media de exploración (
figura 3B, r = -0,93, p < 0,0001).

Los participantes videntes y ciegos, sin embargo, diferían en su tendencia a detenerse en las características sobresalientes de los
objetos. Los patrones de escaneo comunes de cada par participante-objeto fueron representados por los grandes promedios de la
tasa de visitas en cada píxel de la sección transversal del objeto. Las tasas de visitas de los participantes videntes, en particular en los
ensayos correctos, demostraron un patrón de escaneo focal de una región específica del objeto (región focal o FocR) (Figura 4Una
izquíerda); los participantes escanearon el FocR con más frecuencia y se demoraron más que en otras regiones. Para cada objeto, el
FocR se definió como la región alrededor del punto focal principal (FocP,Figura 5B asteriscos rojos, consulteMétodos transparentes). La
cuantificación de la tendencia a permanecer en un punto focal por la distancia FocP (la distancia media desde el FocP durante la
prueba; ver Métodos STAR) reveló una diferencia significativa entre las pruebas correctas y las incorrectas (Figura 4B izquierda; 86.7
GRAMO2,8 frente a 102,3GRAMO2,8 píxeles; p < 0,01, prueba t pareada).

En contraste con los participantes videntes, el escaneo focal no fue una estrategia destacada de nuestros participantes
ciegos (Figura 4un derecho). Esto se indica por su gran distancia FocP en los ensayos correctos en relación con la de los
participantes videntes (Figura 4B), y la falta de una diferencia consistente entre los intentos correctos e incorrectos (Figura 4
Brillante; videntes: p < 0,01; ciego: p = 0,6; prueba t pareada).

Convergencia en las regiones informativas de los objetos.


Esta estrategia de escaneo focal fue aprendida por experiencia, como lo demuestra la disminución gradual en la distancia media de la
trayectoria de escaneo desde el FocP en paralelo al aprendizaje (Figura 5A, magenta y rojo, respectivamente; EXP 1: r = -0,98, n = 5
sesiones, p < 0,001, ANOVA de 1 vía). Además, con el aprendizaje, los errores de percepción se volvieron gradualmente más
dependientes de esta estrategia (Figura 5A, curvas cian; los asteriscos indican efectos significativos).

Para examinar la dinámica del escaneo en relación con el FocR, cuantificamos un "índice de convergencia" como el
porcentaje de tiempo pasado dentro del FocR durante la segunda mitad de la prueba menos el tiempo durante la primera
mitad (verMétodos transparentes). Para la mayoría de los objetos, el índice de convergencia fue positivo (Figura 5C, abscisa),
es decir, los participantes pasaron más tiempo escaneando el FocR durante la segunda mitad de la prueba. En todos los
objetos, el índice de convergencia se correlacionó con la tasa media de éxito, de modo que los objetos asociados con más
éxito también se asociaron con una convergencia más fuerte en el FocR (Figura 5C; r = 0,86, p = 0,001).

Para investigar las posibles fuentes de las grandes diferencias en los índices de convergencia entre objetos, analizamos la
estructura de la información espacial en cada objeto mediante el cálculo de mapas de entropía, utilizando la entropía como
medida de la cantidad de información espacial (verMétodos transparentes). Conjeturando que nuestros participantes
intentaron enfocarse en regiones con alta entropía, identificamos los sitios dentro de cada objeto que mostraban la mayor
entropía (pico de entropía o EP). Los objetos diferían en el número de PE que exhibían (Figura 5B, asteriscos verdes): cinco
objetos (tr, rh, sc, gl, ap) exhibieron un solo EP y se denominaron "objetos de EP único" y cinco exhibieron múltiples EP y se
denominaron "objetos de EP múltiple". Fundamentalmente, los FocP de nuestros participantes se superpusieron con los EP
de los objetos de un solo EP de manera sorprendente, pero no con los de los objetos de múltiples EP (Figura 5B). La
distancia media entre los FocP y los EP más cercanos fue un excelente predictor de las tasas de éxito entre objetos (Figura 5
D; r = -0,816, p = 0,003).

Consistentemente, los participantes videntes exhibieron diferentes dinámicas de identificación al escanear objetos de EP único y
múltiple. Mientras escaneaban objetos de un solo EP, los participantes estaban en promedio más cerca del FocP durante

iCiencia24,101918, 22 de enero de 2021 5


todos iCiencia
ACCESO ABIERTO
Artículo

Figura 3. Patrones de escaneo en ensayos individuales


(A) Pruebas individuales de la primera sesión de dos participantes (AK, 76 % correcto en la sesión 1 y GK, 50 % correcto en la sesión 1) escaneando
(de arriba a abajo) un círculo, un rectángulo y un paralelogramo. Cada punto representa la posición de la mano en un solo cuadro de video
superpuesto en la sección transversal del objeto (solo se muestra el contorno del objeto, en blanco). Los puntos están coloreados de acuerdo con
su contexto de escaneo de la siguiente manera: Amarillo, siguiendo el contorno; magenta, escaneado horizontal; exploración vertical cian; azul,
indefinido. En dos ensayos (arriba a la izquierda), los 5 primeros cuadros están coloreados en rojo.
(B) La velocidad de escaneo promedio para cada participante para todas las formas en función del porcentaje de tiempo de prueba dedicado al seguimiento del
contorno. Las formas de estrella denotan a los participantes videntes.

la segunda mitad de cada ensayo correcto (Figura 5F, línea verde sólida), y pasó relativamente más tiempo allí (Figura 5G,
línea verde continua). Estas dinámicas no se exhibieron durante las pruebas equivocadas (Figuras 5F y 5G, líneas verdes
discontinuas) o al escanear varios objetos EP (Figuras 5F y 5G, líneas negras). La convergencia en FocP evolucionó a lo largo
de los ensayos al palpar objetos de un solo EP; la distancia desde el FocP en objetos de un solo EP disminuyó gradualmente
durante los últimos segundos de cada prueba (Figura 5H, curva verde; verMétodos transparentes). Tal dinámica de
convergencia no se exhibió con objetos de múltiples EP (Figura 5H, curva negra). Discriminación de diferentes objetos.

6 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

Figura 4. Estrategias de escaneo en participantes videntes y ciegos


(A) Tasas normalizadas de visita manual para todos los ensayos correctos (columna izquierda) e incorrectos (columna derecha) de todos los participantes
videntes (izquierda) y ciegos (derecha) para una forma y dos objetos.
(B) Distancia media desde el punto focal (FocPdistanceGRAMOSEM) en pruebas correctas e incorrectas para cada participante (izquierda, vidente: p
< 0,001; derecha, ciega: p = 0,6; prueba t pareada).

en un conjunto dado requiere no solo la convergencia en un FocR, si existiera, sino también la identificación de la
información espacial única en esa región a un nivel que permita la discriminación. Por lo tanto, calculamos para cada objeto
su similitud EP, que refleja la similitud media entre su área EP y la de cada uno de los demás objetos del conjunto (ver
Métodos transparentes). Como era de esperar, las tasas de éxito fueron más altas para los objetos cuyas áreas EP eran
espacialmente únicas dentro de su conjunto (Figura 5MI; r = -0,91, p = 0,0002.).

Diferencias en la dinámica de la detección activa entre participantes videntes ciegos y con los ojos
vendados
Hemos cuantificado las diferencias en la dinámica de la detección activa usando tres variables principales de escaneo:
FocPdistance, FocRtime, VerHozMovement y segmentTime (verMétodos transparentes). Para cada variable, calculamos la
diferencia entre su valor medio durante la primera y la segunda mitad del ensayo, por separado para objetos de EP único y
múltiple (Figura 6). Estas comparaciones revelan varias diferencias clave, las más reveladoras de las cuales son
probablemente las observadas al escanear objetos de un solo EP: (i) los videntes redujeron su FocPdistance en la segunda
mitad, como resultado de la convergencia; los ciegos no; (ii) los videntes aumentaron sus movimientos de exploración
horizontal y vertical durante la segunda mitad; los ciegos no lo hicieron; (iii) los ciegos acortaron sus segmentos de escaneo
durante la segunda mitad, los videntes no.

Los participantes videntes exhibieron una fuerte correlación entre la cantidad de tiempo dedicado al seguimiento del
contorno y su velocidad media de escaneo (Figura 6B, arriba). Sorprendentemente, no se observó tal correlación con
nuestros participantes ciegos (Figura 6B, abajo).

iCiencia24,101918, 22 de enero de 2021 7


todos iCiencia
ACCESO ABIERTO
Artículo

Figura 5. Convergencia a puntos focales (FocPs) en participantes videntes


(A) Tasa de éxito (rojo), FocPdistance (magenta) y la diferencia entre FocPdistance en ensayos incorrectos y correctos (cian) en función
del número de sesión (significaGRAMOSEM en todos los participantes videntes, n = 6; los asteriscos indican una diferencia significativa
de FocPdistance [FocPdistance (incorrecto) – FocPdistance (correcto); p < 0,01; prueba t de dos muestras].
(B) FocPs (asteriscos rojos) y puntos de entropía (EntPs) (asteriscos verdes) superpuestos a las instantáneas de los objetos tomadas con la cámara
adjunta a las manos de los participantes.
(C) Tasa de éxito en función del índice de convergencia por objeto; r = 0,86, p = 0,001.
(D) Tasa de éxito global por objeto en función de la distancia entre FocP y EntP (r = -0,816, p = 0,003).
(E) Tasa de éxito en función del índice de similitud de EntP por objeto; r = -0,91, p = 0,0002.
(F–H) Comportamiento de convergencia al percibir objetos con EntP únicos y múltiples. Datos promediados por separado en la primera y segunda
mitad de cada prueba correcta e incorrecta, mostrando (mediaGRAMOSEM): (F) FocPdistancia; (G) Porcentaje de tiempo de prueba pasado dentro
de la región focal (FocR). (H) FocPdistance en función del tiempo que precede al "tiempo de identificación" (t = 0, véase Métodos transparentes); las
curvas se normalizaron a los valores iniciales.

8 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

Figura 6. Comparaciones de estrategias de escaneo de participantes videntes y ciegos


(A) Convergencia en ensayos correctos de PE único y múltiple. Las diferencias entre la segunda y la primera mitad de cada prueba (segunda menos
primera) en cuatro variables (los nombres de las variables aparecen como etiquetas ordenadas; la mediaGRAMOSEM entre participantes, todos los
objetos incluidos para cada participante.
(B) La relación entre la velocidad media de escaneo por objeto y el porcentaje de tiempo dedicado al contorno del objeto (N
= 10 objetos en cada panel).

DISCUSIÓN
Este estudio proporciona información sobre dos dominios: la sustitución sensorial y el desarrollo de estrategias de percepción a través
de modalidades para explorar el mundo y reconocer objetos. La aplicación de principios de detección activa a SenSub mejoró el
rendimiento a un nivel sin precedentes, lo que permitió el reconocimiento preciso de objetos en menos de 20 s después de un
entrenamiento de menos de 2,5 horas en participantes ciegos y con los ojos vendados; este nivel de rendimiento se mantuvo durante
al menos 20 meses en los participantes videntes. Además, mostramos que los participantes videntes emplearon una estrategia similar
a la visual, centrándose en las subregiones informativas, mientras que los participantes ciegos generalmente emplearon el escaneo
extendido, una estrategia que es común en la percepción táctil.

Comparación con otros dispositivos SenSub


Comparamos el tiempo de entrenamiento, el tiempo de percepción y la precisión (evaluada por la tasa de éxito) con 10
estudios previos sobre imágenes 2D y 6 estudios previos sobre objetos 3D (Tabla S1). Con imágenes 2D, estudios previos
mostraron rendimientos comparables a nuestro ASenSub en precisión o tiempo de percepción (Bach-Y-Rita et al., 1998;
Bach-Y-Rita et al., 1969;Tang y Beebe, 1998;van den Doel et al., 2004;Ziat et al., 2005; Chan et al., 2007;Silva et al., 2011). Sin
embargo, ningún dispositivo informado anteriormente se acerca al rendimiento combinado logrado con ASenSub. Esto se
muestra calculando un factor de éxito combinado (CBF, ver Métodos transparentes). El CBF de ASenSub fue, en promedio,
un 300 % y un 600 % mejor que los informes anteriores para imágenes 2D y objetos 3D, respectivamente (Tabla S1).
Además, aunque todos los dispositivos anteriores exhibieron una menor precisión en la percepción de objetos 3D, también
requirieron tiempos de entrenamiento mucho más largos que nuestro ASenSub (Tabla S1). Es importante destacar que los
tiempos cortos de percepción y aprendizaje sin precedentes logrados con el ASen-Sub pueden estar en un nivel que puede
ser práctico para los ciegos.

Los participantes que usaron un dispositivo con principios similares a nuestro ASenSub, pero en el que el escaneo estaba limitado a
una mesa, exhibieron tasas de éxito similares después del entrenamiento, con tiempos de percepción aproximadamente dos veces
más largos (Chan et al., 2007). Es posible que estas diferencias estén relacionadas con las diferencias en el contexto motor-sensorial en
los dos estudios: ''escaneado de mesa'' versus ''ver a distancia''. Este último contexto permite la externalización, lo que puede facilitar
el aprendizaje y la percepción (Lenay et al., 2003). El contexto diferente también puede

iCiencia24,101918, 22 de enero de 2021 9


todos iCiencia
ACCESO ABIERTO
Artículo

ser un factor importante en la elección de las estrategias sensoriales-motoras. Al escanear una tabla, los participantes suelen optar
por centrarse principalmente en el seguimiento del contorno (Chan et al., 2007). Nuestros participantes videntes optaron
principalmente por converger en regiones informativas de los objetos (Figuras 4y5), una estrategia que puede adaptarse mejor a la
teledetección, como en la visión natural (Tierra et al., 1999). Los participantes informaron previamente que esta estrategia orientada a
funciones era fácil (Auvray et al., 2007) y ahorro de tiempo (Guarniero, 1974;Rovira et al., 2010) estrategia.

Los estudios muestran mejores desempeños (precisión y tiempo de reconocimiento) en tareas hápticas para participantes con
discapacidad visual que para controles videntes (Picard et al., 2014). Nuestra investigación muestra niveles de éxito similares (Figura 2
B) pero diferentes patrones de exploración para los participantes videntes y ciegos (Figuras 3B,4, y6). Así, por ejemplo, los
participantes videntes generalmente convergieron en puntos focales visualmente informativos, mientras que los ciegos congénitos
prefirieron un escaneo más uniforme. Esta comparación sugiere que las estrategias sensoriales activas se desarrollan de acuerdo con
los recursos disponibles y parecen preferir la funcionalidad a las señales específicas de la modalidad (Pascual-Leone y Hamilton, 2001).

Estrategias activas
La información se ve afectada en gran medida por el patrón de exploración (Findlay y Brown, 2006;Noton y Stark, 1971; Yang
et al., 2016). Las diferencias de estrategia se mostraron previamente entre participantes ciegos y videntes al reconocer un
objeto al tacto. Algunos de estos estudios reivindicaban la superioridad, a través de estrategias adaptativas, de los ciegos
sobre los videntes (D'anggiulli y Kennedy, 2001;Davidson, 1972;Davidson y Whitson, 1974; Ruso, 1999;Rovira et al., 2011); en
general, se demostró que las estrategias de los videntes contienen una exploración más enfocada y secuencial que las de
los ciegos.

De acuerdo con lo anterior, la estrategia que desarrollaron nuestros participantes videntes se basó en un escaneo más
denso de las regiones informativas de los objetos, que se asemejan a la visión natural (Reinagel y Zador, 1999;Krieger et al.,
2000;Parkhurst y Niebur, 2003;Mack et al., 2003;O'Bryan y Boersma, 1971). En consecuencia, los objetos en los que el patrón
espacial de información tenía una única región informativa distinta eran más fáciles de percibir. Secuencias de palpación de
nuestros participantes videntes, cuando no habitan en una región focal (FocR;Figura 4), incluido el escaneo a lo largo y
ancho del contorno del objeto (figura 3A), de una manera que se asemeja a las trayectorias oculares en participantes
humanos con visión de túnel inducida artificialmente (Gruber y Ahissar, 2020). Estos últimos movimientos probablemente
proporcionaron información valiosa sobre el objeto, información que probablemente se verificó durante el escaneo focal de
FocR.

La transición general de una región informativa a otra (p. ej., contornos y FocR) puede parecerse a las trayectorias típicas de los
movimientos sacádicos del ojo (Walker-Smith et al., 1977;Ko et al., 2010), donde la selección de objetivos parece verse afectada por la
prominencia de características de abajo hacia arriba y las heurísticas de arriba hacia abajo (Navalpakkam e Itti, 2007), como fue a
menudo evidente en los informes introspectivos de nuestros participantes (Vídeo S1). En la mayoría de los casos, al palpar objetos con
un solo pico de entropía (EP;Figura 5B), nuestros participantes pudieron encontrar las regiones con la mayor entropía (mayor cantidad
de información espacial) a pesar de que nuestro ASenSub no contenía ninguna información periférica.

La adquisición de información sensorial local probablemente no involucró ninguna planificación consciente, ya que los informes
introspectivos de nuestros participantes no contenían ninguna descripción de cómo identificaron las características locales, lo que
sugiere que las características locales se percibieron a través de rutinas perceptivas motoras y sensoriales de bajo nivel. Sin embargo,
nuestros datos no pueden decir si la mejora permitida por nuestro enfoque ASenSub se debió a un mejor enfoque en las
características sensoriales relevantes, o más bien a la mejor adecuación del protocolo con la naturaleza de circuito cerrado de la
somatosensación.

Comparación de estrategias para ciegos y videntes


La comprensión del material del objeto es dominante en el tacto, mientras que la comprensión de las características
geométricas es dominante en la visión (Lederman y Klatzky, 1990). Por lo tanto, la imaginación visual ayuda en tareas de
características geométricas pero no en tareas materiales (Heller, 1989). La forma más eficiente de obtener las características
del objeto mediante el tacto es agarrar y levantar, que brindan información sobre la forma y el material del objeto (
Lederman y Klatzky, 1990). Específicamente, se demostró que la detección simultánea de varios puntos del contorno es
preferible al seguimiento del contorno con un dedo (Abravanel, 1968;Hatwell, 1960). Estos hallazgos están de acuerdo con la
estrategia de escaneo desarrollada por nuestros participantes ciegos que intentan abarcar todos los lados del objeto en
lugar de enfocarse en una región del objeto (Figura 4).

10 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

Los ciegos probablemente logren una sensibilidad táctil superior a través del aprendizaje y la plasticidad intermodal (Subvención et al.,
2000; Wong et al., 2011). Esta superioridad se expresa en niveles de precisión, velocidad de aprendizaje o ambos (Goldreich y Kanics,
2003;Norman y Bartolomé, 2011;Withagen et al., 2012;Rovira et al., 2011;Roder et al., 1996). Como tanto nuestros participantes
videntes como ciegos se acercaron a la precisión perfecta, las únicas comparaciones significativas aquí son la velocidad de aprendizaje
y la velocidad de percepción. Nuestros participantes ciegos aprendieron tan rápido como nuestros participantes videntes (Figuras 2B y
2C). En cuanto a la velocidad de percepción, nuestros resultados revelan una mayor variabilidad dentro de nuestros participantes
ciegos (Figuras 2B y 2C, EXP1), algunos de ellos exhibiendo una percepción extremadamente rápida. Posiblemente, estas diferencias
estén relacionadas con las diferentes estrategias exploratorias utilizadas por nuestros participantes videntes y ciegos, lo que plantea la
posibilidad de que, para los participantes videntes, la estrategia focal fuera más confiable y repetible que el escaneo global al intentar
reconocer objetos familiares desde ángulos de visión familiares. . En general, pensamos que las diferencias reveladas aquí podrían
explicarse por la diferente percepción espacial en relación con el cuerpo perceptor en movimiento (Morris, 2004).

Una cuestión metodológica debe ser discutida en este contexto. Antes de que comenzaran los experimentos, los
participantes videntes vieron los objetos (EXP 1–3), mientras que los participantes ciegos palparon táctilmente un
modelo físico uno a uno de las formas 2D (en EXP 1) o los propios objetos 3D (en EXP 2) . Esta diferencia de
procedimiento se tomó para permitir que los participantes reconocieran primero los objetos de la manera en que
estaban acostumbrados y en los que se basaba su estilo natural de informe. Sin embargo, esta diferencia podría
introducir un posible sesgo incontrolado. Por lo tanto, en EXP 4, los mismos participantes videntes fueron probados
con formas novedosas que no habían visto antes, y solo se les permitió palpar táctilmente sus modelos físicos uno
a uno antes de que comenzara el experimento (el mismo procedimiento que se usó con el participantes ciegos en
EXP 1 y 2).

Resumen concluyente
En resumen, mostramos aquí la sustitución sensorial que permite el empleo de estrategias perceptivas motoras-sensoriales naturales
(O'Regan y Noe, 2001;Ahissar y Arieli, 2001) puede acortar enormemente el tiempo de adquisición y el tiempo de entrenamiento. Las
estrategias sensoriales-motoras naturales difieren entre sujetos ciegos y videntes. Sin embargo, ambos grupos pudieron adaptar
rápidamente el dispositivo a sus estrategias naturales, lo que sugiere que la percepción de los objetos está mediada por estrategias de
movimiento del sensor que dependen de la experiencia. Además, los mismos participantes podían percibir los mismos objetos a través
de diferentes patrones motor-sensoriales (en diferentes ensayos), lo que sugiere que su percepción hizo uso de mecanismos
adaptativos de circuito cerrado (Uexkull, 1926;Viena, 1949;Poderes, 1973;Ahissar y Vaadia, 1990;Saig et al., 2012). El rápido aprendizaje
de la percepción intermodal que se observa aquí, y específicamente las indicaciones para una rápida adaptación de las estrategias
visuales para la sensación táctil, sugieren que los principios de la percepción visual y táctil comparten componentes críticos. La
sorprendente similitud entre las tasas de aprendizaje, las precisiones y las velocidades de percepción de los sujetos videntes
congénitamente ciegos y con los ojos vendados significa que la visión previa no es un requisito previo aquí. El rápido entrenamiento y
las velocidades de percepción que permiten estas estrategias sugieren que el dispositivo basado en la detección activa puede ser
fundamental para hacer que la sustitución sensorial sea práctica para el uso diario de las personas ciegas. Para que sea práctico, el
prototipo grande que usamos en el laboratorio (para obtener un control de estímulo adecuado y seguimiento de movimiento) debe
ser reemplazado por un ASenSub en miniatura al que se le agrega, o será parte de un bastón para caminar o un artículo portátil
similar a un guante. Dicha tecnología permitirá una participación más fácil de las personas ciegas en nuestra sociedad.

Limitaciones del estudio


La limitación más importante de este estudio es probablemente la falta de pruebas en condiciones naturales de la
vida diaria. Dicha prueba requiere la implementación de ASenSub utilizando tecnología portátil, una tecnología que
aún no está disponible para la actuación táctil a una resolución razonable. Otra limitación importante es la falta de
referencia a la detección periférica. A partir de la visión, se espera que la sensación periférica sea crucial para un
uso eficiente de ASenSub en condiciones naturales. La implementación de la sensación periférica en ASen-Sub es
un desafío y requiere un proyecto dedicado que convergerá en combinaciones eficientes de arquitectura receptora,
principios de activación e interacción fóvea-periferia. Además, el alcance del estudio actual está limitado en los
espectros de tipos de objetos, tamaños y distancias probadas.

Disponibilidad de recursos
Contacto principal

Más información y solicitudes de recursos deben dirigirse al contacto principal, Amos Arieli (amós
arieli@weizmann.ac.il).

iCiencia24,101918, 22 de enero de 2021 11


todos iCiencia
ACCESO ABIERTO
Artículo

Disponibilidad de materiales

Este estudio no generó nuevos reactivos/materiales únicos.

Disponibilidad de datos y códigos

El conjunto de datos y el código que respaldan el estudio actual están disponibles a través del contacto principal previa solicitud
razonable.

MÉTODOS
Todos los métodos se pueden encontrar en el adjuntoArchivo complementario de métodos transparentes.

INFORMACIÓN SUPLEMENTARIA
La información complementaria se puede encontrar en línea enhttps://doi.org/10.1016/j.isci.2020.101918.

EXPRESIONES DE GRATITUD
Agradecemos a Avi Saig por ayudar a configurar el sistema y los consejos, a Yonatan Kra por los debates y consejos
útiles, a Daniel Goldian por el excelente soporte técnico, a Shira Ozana por los consejos y a Roy Harpaz por la
consulta estadística. Esta investigación recibió financiación del Consejo Europeo de Investigación (ERC) en el marco
del Programa de Investigación e Innovación Horizonte 2020 de la UE (acuerdo de subvención n.º 786949). EA ocupa
la Cátedra de Neurobiología de la Familia Helen Diller. AA ocupa la Cátedra Sam y Frances Belzberg en Memoria y
Aprendizaje.

CONTRIBUCIONES DE AUTOR
conceptualización,AA y EA y ZKY;Diseño experimental,AA y EA y YZK;Metodología,
AA y EA y SG y YZK;Recopilación de datos,YZK y SG;Software/Análisis,AA y YZK; Escritura,AA y EA y YZK;
adquisición de fondos,AA y EA;Supervisión,AA y EA

DECLARACIÓN DE INTERESES
Los autores declaran no tener conflictos de intereses.

Recibido: 17 de agosto de 2020


Revisado: 25 de octubre de 2020
Aceptado: 7 de diciembre de 2020
Publicado: 22 de enero de 2021

REFERENCIAS
Abravanel, E. (1968). Integración intersensorial de la posición la sustitución activa el complejo occipital Borji, A., Sihite, DN e Itti, L. (2013). ¿Qué destaca en
espacial durante la primera infancia. Percepción. Agudeza. lateral. Nat. Neurosci.10,687–689. una escena? Un estudio del juicio de prominencia
habilidades26,251–256. explícito humano. Vis. Res.91,62–77.
Arno, P., Capelle, C., Wanet-Defalque, M.-C., Catalan-
Ahissar, E. y Arieli, A. (2001). Calcular el espacio por el Ahumada, M. y Veraart, C. (1999). Codificación Brown, D., Macpherson, T. y Ward, J. (2011). ¿Ver con
tiempo. Neurona32,185–201. auditiva de patrones visuales para ciegos. sonido? explorar diferentes características de un
Percepción28,1013-1030. dispositivo de sustitución sensorial visual a auditivo.
Ahissar, E. y Arieli, A. (2012). Ver a través de movimientos Percepción40,1120-1135.
oculares en miniatura: una hipótesis dinámica para la
Auvray, M., Hanneton, S. y O'regan, JK (2007).
visión. Frente. computar Neurosci.6,89. Cascio, C. y Sathian, K. (2001). Las señales temporales
Aprender a percibir con un sistema de sustitución
contribuyen a la percepción táctil de la aspereza.
visuo-auditivo: localización y reconocimiento de
Ahissar, E. y Assa, E. (2016). La percepción como un J. Neurosci.21,5289–5296.
objetos con 'la VOZ'. Percepción36, 416–430.
proceso de convergencia en bucle cerrado. eLife5,
e12830. Chan, JS, Maucher, T., Schemmel, J., Kilroy, D., Newell,
FN y Meier, K. (2007). La pantalla háptica virtual: un
Ahissar, E. y Vaadia, E. (1990). Actividad oscilatoria de Bach-Y-Rita, P., Collins, CC, Saunders, FA, White, B. y dispositivo para explorar formas virtuales 2-D en la
unidades individuales en una corteza somatosensorial de Scadden, L. (1969). Sustitución de la visión por modalidad táctil. Comportamiento Res. Métodos39,
un mono despierto y su posible papel en el análisis de proyección de imágenes táctiles. Naturaleza 802–810.
textura. proc. nacional Academia ciencia EE.UU87, 8935– 221,963–964.
8939. Collins, CC y Bach-Y-Rita, P. (1973). Transmisión de
Bach-Y-Rita, P., Kaczmarek, KA, Tyler, ME y García-Lara, J. información pictórica a través de la piel. Adv. Biol.
Amedi, A., Stern, WM, Camprodon, JA, Bermpohl, F., (1998). Percepción de formas con una matriz de estímulos Medicina. física14,15.
Merabet, L., Rotman, S., Hemond, C., Meijer, P. y electrotáctiles de 49 puntos en la lengua: una nota técnica.
Pascual-Leone, A. (2007). Forma transmitida por los J. rehabilitación. Res. desarrollo35, 427–430. Connor, CE y Johnson, KO (1992). Codificación
sentidos visuales a auditivos. neuronal de textura táctil: comparación de espacial

12 iCiencia24,101918, 22 de enero de 2021


iCiencia todos

Artículo ACCESO ABIERTO

y mecanismos temporales para la percepción de Lederman, SJ y Klatzky, RL (1990). Clasificación se da información categórica: una comparación
la rugosidad. J. Neurosci.12,3414–3426. háptica de objetos comunes: exploración impulsada entre niños con discapacidad visual y videntes.
por el conocimiento. Cog. psicol.22,421–459. Psicológica: Int. J. Methodol. Exp. psicol.35, 277–
D'anggiulli, A. y Kennedy, JM (2001). Exploración 290.
táctil infantil y copia sin visión. En t. J. Lenay, C., Gapenne, O., Hanneton, S., Marque, C.
rehabilitación. Res.24,233–234. y Geouelle, C. (2003). Sustitución sensorial: Poderes, WT (1973). Retroalimentación: más
Límites y Perspectivas. En Tocar para saber, allá del conductismo. Ciencias179,351–356.
Davidson, PW (1972). Juicios hápticos de curvatura Psicología cognitiva de la percepción manual
por parte de humanos ciegos y videntes. Exp. J. háptica (John Benjamins Publishing Company). Ptito, M., Moesgaard, SM, Gjedde, A. y Kupers, R.
psicol.93,43. (2005). Plasticidad transmodal revelada por
estimulación electrotáctil de la lengua en ciegos
Mack, M., Castelhano, MS, Henderson, JM & Oliva, A. congénitos. Cerebro128,606–614.
Davidson, PW y Whitson, TT (1974). Coincidencia de
Lo que ve el sistema visual: la relación entre las
equivalencia háptica de curvatura por humanos
posiciones de fijación y las propiedades de la
ciegos y videntes. Exp. J. psicol.102,687. Reinagel, P. y Zador, AM (1999). Estadísticas del
imagen durante una tarea de búsqueda en escenas
escenario natural en el centro de la mirada. Neto.
del mundo real. proc. Ana. Objeto, Percepción,
Doel, KVD, Smilek, D., Bodnar, A., Chita, C., computar Sistema neural.10,341–350.
Atención y Memoria Conf, 2003.
Corbett, R., Nekrasovski, D. y Mcgrenere, J.
(2004). Detección de formas geométricas con Röder, B., Rösler, F., Hennighausen, E. y Näcker, F.
Mackevicius, EL, Best, MD, Saal, HP y Bensmaia, SJ
soundview. En Actas de la 10.ª Conferencia (1996). Potenciales relacionados con eventos durante
(2012). El tiempo de picos de precisión de
Internacional sobre Exhibición Auditiva la discriminación auditiva y somatosensorial en
milisegundos da forma a la percepción táctil. J.
(ICAD2004). sujetos humanos videntes y ciegos. Cog. Res.
Neurosci.32, 15309–15317.
cerebral.4,77–93.
Findlay, JM y Brown, V. (2006). Escaneo ocular de pantallas de Maidenbaum, S., Abboud, S. y Amedi, A. (2013).
elementos múltiples: II. Planificación de movimientos sacádicos. Sustitución sensorial: cerrar la brecha entre la Rovira, K., Deschamps, L. y Baena-Gomez, D. (2011).
Vis. Res.46,216–227. investigación básica y la rehabilitación visual práctica Rotación mental en adolescentes ciegos y videntes:
generalizada. Neurosci. biocomportamiento Rvdo.41, los efectos de las estrategias hápticas. EUR.
3–15. Aplicación Rev. psicol.61,153–160.
Gamzu, E. y Ahissar, E. (2001). Importancia de las señales
temporales para la discriminación de frecuencia espacial
táctil. J. Neurosci.21,7416–7427. Mannan, SK, Kennard, C. y Husain, M. (2009). El papel de la Rovira, K., Gapenne, O. y Ammar, AA (2010).
prominencia visual en la dirección de los movimientos oculares Aprendiendo a reconocer formas con un sistema de
en la agnosia de objetos visuales. actual Biol. sustitución sensorial: un estudio longitudinal con 4
Goldreich, D. y Kanics, IM (2003). La agudeza
19,R247–R248. adolescentes no videntes. En 2010 IEEE 9th
táctil aumenta en la ceguera. J. Neurosci.23,
International Conference on Development and
3439–3445.
Morris, D. (2004). El sentido del espacio (SUNY Learning (IEEE), págs. 1–6.
Press).
Grant, AC, Thiagarajah, MC y Sathian, K. (2000).
Russier, S. (1999). Discriminación háptica de formas
Percepción táctil en lectores ciegos de Braille: un
Navalpakkam, V. e Itti, L. (2007). El objetivo de búsqueda ajusta las bidimensionales de líneas elevadas por adultos ciegos y
estudio psicofísico de la agudeza y la hiperagudeza
características visuales de manera óptima. Neurona53, 605–617. videntes. J. Vis. Ceguera por discapacidad93, 421–426.
utilizando rejillas y patrones de puntos. Percepción.
psicofísica.62,301–312.

Norman, JF y Bartholomew, AN (2011). La ceguera mejora Saig, A., Gordon, G., Assa, E., Arieli, A. y Ahissar, E.
Gruber, LZ y Ahissar, E. (2020). Dinámica motor-
la agudeza táctil y la discriminación háptica de formas (2012). Confluencia motor-sensorial en la
sensorial de bucle cerrado en la visión humana. Más
tridimensionales. Atención Percepción. percepción táctil. J. Neurosci.32,14022–14032.
uno15,e0240660.
psicofísica.73,2323–2331.
Sathian, K. (1989). Detección táctil de las características
Guarniero, G. (1974). Experiencia de visión táctil. Noton, D. y Stark, L. (1971). Scanpaths en los movimientos de la superficie. Tendencias Neurosci.12,513–519.
Percepción3,101–104. oculares durante la percepción de patrones. Ciencias
171,308–311. Schumann, F., Einhäuser, W., Vockeroth, J., Bartl, K.,
Hatwell, Y. (1960). Étude de quelques illusions Schneider, E. y König, P. (2008). Características destacadas
géométriques tactiles chez les aveugles. L'année Nye, PW y Bliss, JC (1970). Ayudas sensoriales para en grabaciones alineadas con la mirada de la entrada
psicologique60,11–27. ciegos: un problema desafiante con lecciones para el visual humana durante la exploración libre de entornos
futuro. proc. IEEE58,1878–1898. naturales. J. Vis.8,12.
Heller, MA (1989). Percepción de imágenes y
patrones en videntes y ciegos: la ventaja de O'Bryan, KG y Boersma, FJ (1971). Movimientos
Silva, PM, Pappas, TN, Atkins, J. y West, JE (2011).
los ciegos tardíos. Percepción18, 379–389. oculares, actividad perceptual y desarrollo de la
Percepción de información gráfica y pictórica a
conservación. Exp. J. Psicología infantil.
través del tacto y el oído. En 2011 IEEE
12,157-169.
International Conference on Acoustics, Speech
Hollins, M. y Bensmaı̈a, SJ (2007). La codificación de la and Signal Processing (ICASSP) (IEEE), págs.
rugosidad. Pueden. Exp. J. psicol.61,184. O'Regan, JK y Noe, A. (2001). Una cuenta sensoriomotora
2292– 2295.
de la visión y la conciencia visual. Comportamiento Ciencia
del cerebro.24,939–973, discusión 973-1031.
Kelso, JS (1997). Patrones dinámicos: la autoorganización Striem-Amit, E., Dakwar, O., Reich, L. y Amedi, A.
del cerebro y el comportamiento (prensa del MIT). (2012). La organización a gran escala de los flujos
Parkhurst, DJ y Niebur, E. (2003). Contenido de escena
"visuales" surge sin experiencia visual. cerebro.
Ko, HK, Poletti, M. y Rucci, M. (2010). Las microsacadas seleccionado por visión activa. Escupió. Vis.dieciséis,
Corteza22,1698-1709.
reubican con precisión la mirada en una tarea de alta 125–154.
agudeza visual. Nat. Neurosci.13,1549-1553. Tang, H. y Beebe, DJ (1998). Una pantalla háptica
Pascual-Leone, A. y Hamilton, R. (2001). La electrostática microfabricada para personas con
Krieger, G., Rentschler, I., Hauske, G., Schill, K. y organización metamodal del cerebro. prog. Res. discapacidad visual. Trans. IEEE. rehabilitación Ing.
Zetzsche, C. (2000). Análisis de objetos y escenas por cerebral.134,427–446. 6,241–248.
movimientos oculares sacádicos: una investigación con
estadísticas de orden superior. Escupió. Vis.13,201–214. Pei, Y.-C., Hsiao, SS, Craig, JC y Bensmaia, SJ (2010). Uexkull, JV (1926). Biología teórica (Londres, K.
Codificación invariable de forma de la dirección del Paul, Trench, Trubner & co. ltd).
movimiento en la corteza somatosensorial. PLoS Biol.8,
Land, MF, Mennie, N. y Rusted, J. (1999). Los movimientos e1000305. van den Doel, K., Smilek, D., Bodnar, A., Chita, C.,
oculares y las funciones de la visión en las actividades de Corbett, R., Nekrasovski, D. y Mcgrenere, J. (2004).
la vida diaria: preparar una taza de té. Percepción28, Picard, D., Albaret, J.-M. y Mazella, A. (2014). Identificación Detección de formas geométricas con Soundview
1311-1328. háptica de dibujos de líneas en relieve cuando (Instituto de Tecnología de Georgia).

iCiencia24,101918, 22 de enero de 2021 13


todos iCiencia
ACCESO ABIERTO
Artículo

Visell, Y. (2009). Sustitución sensorial táctil: modelos para Withagen, A., Kappers, AM, Vervloed, MP, Knoors, H. y Yoshioka, T., Craig, JC, Beck, GC y Hsiao, SS
la promulgación en HCI. Cómputo interactivo.21, 38–53. Verhoeven, L. (2012). Emparejamiento de objetos (2011). Constancia perceptiva de la rugosidad de
hápticos por adultos y niños ciegos y videntes. Acta la textura en el sistema táctil. J. Neurosci.31,
Psychol.139,261–271. 17603–17611.
Walker-Smith, GJ, Gale, AG y Findlay, JM (1977). Estrategias
de movimiento ocular involucradas en la percepción del
Wong, M., Gnanakumaran, V. y Goldreich, D. Ziat, M., Gapenne, O., Stewart, J. y Lenay, C. Una comparación de
rostro. Percepción6,313–326.
(2011). Mejora de la agudeza espacial táctil en la dos métodos de escalado en la percepción de la forma a través
ceguera: evidencia de mecanismos dependientes de una interfaz háptica. 7mo
Weber, AI, Saal, HP, Lieber, JD, Cheng, J.-W., Manfredi,
de la experiencia. J. Neurosci.31, 7028–7037. conferencia internacional sobre interfaces multimodales,
LR, Dammann, JF y Bensmaia, SJ (2013). Los códigos
octubre de 2005, Torento, Italia. 236-243.
espaciales y temporales median la percepción táctil
de las texturas naturales. proc. nacional Academia
ciencia EE.UU110,17107–17112. Yang, SC-H., Lengyel, M. y Wolpert, DM (2016). Zilbershtain-Kra, Y., Arieli, A. y Ahissar, E.
Detección activa en la categorización de (2015). Sustitución táctil de la visión.
Wiener, N. (1949). Cibernética (JohnWiley & Sons). patrones visuales. elife5,e12215. Scholarpedia10,32457.

14 iCiencia24,101918, 22 de enero de 2021


iScience, Volumen24

Información suplementaria

La sustitución sensorial activa permite

aprendizaje rápido a través de efectivo

estrategias motoras-sensoriales

Yael Zilbershtain-Kra, Shmuel Graffi, Ehud Ahissar y Amos Arieli


1

Tabla suplementaria y leyenda

Referencia SenSub norte Oportunidad Éxito Éxito Éxito IdentTim IdentTim Tiempo Capacitación (CBF)
visión a: nivel Empezar % Final % promedio % Empezar Final límite tiempo

(segundo.) (segundo.) (segundo.) (horas.)

2D
Bach –Y- Rita, tocar 6 33 ____ ____ ____ ____ ____ ____ 1 ____
1969
Espiga, 1998 tocar 4 33 61.8*1 76.4*1 72.1 -- -- -- 0.5+? --
Doel, 2004 auditivo 60 16.66 66.2 -- 66.2 90 0.33 0,55
Doel, 2004 auditivo 12 25 75 -- 75 47 90 0.75 0,55
Ziat, 2005 tocar 10 33 -- -- 77 -- -- 90 -- 0.48
Chan, 2007 tocar 10 25 46 84 sesenta y cinco 60 60 60+ 1.5 0,66
Marrón, 2011 auditivo 18 25 28 34 31 -- -- -- 3 --
Silva, 2011 auditivo 10 33 -- -- 83.3 -- -- -- -- --
Pietrzak, 2009 tocar 8 10 -- -- 90 -- 95.95 180 -- 0.44
Bach –Y- Rita, tocar 5 33 ____ ____ 79.8 ____ ____ ____ ____ ____
1998
EXP vidente 1 tocar 6 20 53 87 74 27 17 26 2.5 2.07
EXP vidente 4 tocar 4 20 100 100 99.2 18.6 10.9 30 4*2+3 2.64
Experiencia ciega 1 tocar 6 20 40 74.16 62.7 27.48 25.61 30 4 1.42
Experiencia ciega 2 tocar 6 20 80 90.83 84.44 23.7 20.67 30 5.5 2.14
3D
Bach –Y- Rita, tocar 6 4 ____ ____ ____ ____ 5-20 ____ 11 ____
1969
Shinohara, 1998 tocar 6 10 -- -- -- -- -- -- --
4
Auvray, 2007*3 auditivo 6 10 -- -- * -- -- 120 11 --
Auvray, 2007*5 auditivo 6 10 -- -- *6 -- -- 120 15 --
Marrón, 2011 auditivo 18 25 60 60 60 90 49 90 4 0.39
Marrón, 2011 auditivo 24 11 44 44 44 63 43 90 6 0.36
EXP 2 para videntes tocar 6 20 83 95 90.56 25 22 30 4 2.35

Tabla S1. Nuestros participantes se desempeñaron notablemente mejor que lo que se informó anteriormente en
formas 2D y objetos 3D. Relacionado con la discusión: 'Comparación con otros dispositivos SenSub'.La FBC
(columna derecha, ver Métodos STAR) se calculó para todos los estudios que informaron sobre la tasa de éxito, el nivel
de probabilidad y el límite de tiempo.Encabezados de tabla:N, número de participantes. Nivel de azar, se relaciona con
el número de objetos diferentes que se presentaron para su identificación. Success Begin, tasa de éxito promedio en la
primera sesión experimental. Success End, tasa de éxito promedio en la última sesión experimental. Promedio de éxito,
tasa de éxito promedio en todos los experimentos. IdenTim Begin, tiempo de identificación promedio (seg.) en la
primera sesión experimental. IdenTim End, tiempo medio de identificación (seg.) en la última sesión experimental.
Límite de tiempo, para la identificación (seg.). EnNegrita cursiva, EXP de este estudio de 1 a 4.Comentarios:En todas
las referencias presentamos el mejor resultado excepto en*1donde solo se publicó el resultado promediado.*2, estos
participantes fueron entrenados durante 4 horas ~ 2 años antes.*3, Exp. 3 en Auvray, 2007.*4, la tasa de éxito no se
informó en este estudio, sin embargo, se informaron ~ 1.6 objetos en promedio antes de la respuesta correcta y el 12%
no respondió antes de que finalizara la prueba.*5, Exp. 4 en Auvray, 2007.*6, ~1.7 objetos en promedio fueron
reportados antes de la respuesta correcta y el 13% no respondió antes de que terminara la prueba.
2

Métodos transparentes

Participantes

Seis participantes sanos con visión de 23 a 33 años (media 26,6 ± 4) de ambos sexos (4 hombres y 2

mujeres) y seis participantes sanos con ceguera congénita de 28 a 40 años (media 32,5 ± 4) de ambos

sexos (1 hombre y 5 mujeres) se ofreció a participar en el experimento. Todos los participantes

videntes tenían una visión normal o corregida a normal y todos menos uno eran diestros. Todos los

participantes ciegos eran ciegos congénitos (aparición de la ceguera entre los 0 y los 2 años) y todos

leían brail. Las tareas se llevaron a cabo con la comprensión y el consentimiento de los participantes.

Se obtuvieron formularios de consentimiento informado de todos los participantes, de acuerdo con la

Declaración de Helsinki aprobada para este proyecto. Los Participantes fueron pagados por su

participación.

Aparato

El dispositivo de sustitución sensorial basado en detección activa (ASenSub), que se adjuntó a la

mano del participante, incluía un sensor y un actuador (Figura 1). El sensor era una cámara de

video en miniatura (#2 “cámara activa”, WAT-230A, Watec, Japón; 30 cuadros por segundo, fps). El

actuador (#1 VTMouse; Tactile World, Israel), tenía tres matrices táctiles para

tres dedos, cada uno con 32 pines (4∗8); la altura de cada pin se puede establecer en uno de los cuatro

niveles diferentes. el conjunto de 12∗8 pines se asignaron a un conjunto de 192∗128 píxeles en el campo

central de la cámara activa (Figura 1abajo a la derecha), de modo que cada pin fue activado por el

brillo medio de una matriz de 16∗16 píxeles de vídeo. Esta región central cubrió 2.6°∗1.7° del

campo visual, correspondiente a un área de 4,5∗3,0 cm a una distancia de 1 m del ASenSub

(donde se presentaron los objetos,Figura 1#3). La configuración también incluyó una cámara fija

(#5 DCC1645C, cámara USB, Thorlabs, Alemania), que se instaló inmediatamente debajo de la

ubicación del ASenSub y capturó un cuadro de campo completo para cada objeto antes de que

comenzara el experimento.

Los principios operativos de detección activa se aplicaron mediante dos principios de diseño principales.

Primero, el mismo órgano del cuerpo que se movió para escanear el entorno (en nuestro experimento, la

mano) recibió la estimulación táctil. En segundo lugar, no se añadieron componentes activos artificiales

(como vibraciones mecánicas); el nivel de elevación de cada pasador del actuador fue directamente
3

relacionado con el nivel de iluminación captado por su píxel correspondiente en la cámara, sin

añadir ninguna vibración (Fig. 1 abajo a la derecha).

El ASenSub fue programado y operado usando el software MATLAB. El peso del ASenSub se equilibró

en parte con un equilibrador de resorte (VGL, SB02, rango de capacidad de 1,0 a 2,0 kg) que se adjuntó

a un sistema de rieles XY en el techo (distancia de cobertura de 1 metro), lo que permitió el

movimiento de la mano en 3D sin esfuerzo (Figura 1#4).

Objetos y procedimiento

Los participantes videntes fueron invitados primero a ocho sesiones experimentales (EXP 1 y 2), seguidas de

6 sesiones experimentales ~ 20 meses después (EXP 3 y 4). Los participantes ciegos fueron invitados a 8

sesiones experimentales (EXP 1 y 2).

En todos los experimentos, se pidió a los participantes que identificaran un objeto de 5 objetos

posibles. En EXP 2 los objetos eran objetos físicos en 3D (por ejemplo, una manzana enFigura 1#3)

mientras que en todos los demás experimentos los objetos eran formas negras en 2D que se

presentaban en una pantalla de computadora; a lo largo de este artículo el término genérico “objeto”

se refiere a ambos tipos. El fondo de los objetos siempre era blanco (mapa blanco sobre una mesa

cerca de una pared blanca y un fondo de pantalla blanco, respectivamente). La distancia entre el

objeto y el ASenSub era de alrededor de 1 m. Se tendió una serpentina delante de los participantes

para evitar que se acortara la distancia.

En EXP 1-3, los participantes videntes vieron los objetos antes de que comenzara el experimento. En

EXP 4 los participantes nunca vieron los objetos. En cambio, pudieron palpar un modelo físico uno a

uno de las formas 2D antes de que comenzara el experimento. A los participantes ciegos también se

les permitió palpar esos objetos antes de que comenzara cada experimento. Cada participante recibió

una explicación general sobre el sistema ASenSub al comienzo de la primera sesión y pudo practicar el

sistema durante un máximo de 10 minutos al comienzo de cada experimento con objetos novedosos.

En cada sesión, fueron evaluados en 20 pruebas con un breve descanso de 5 minutos entre la

primera y las últimas diez pruebas. Durante el descanso, los participantes podían quitarse el

ASenSub y la venda de los ojos y sentarse en una silla sin ver los objetos. En cada prueba
4

A los participantes se les presentó un objeto elegido al azar y se les pidió que lo identificaran lo más

rápido posible. Durante los juicios se les animó a expresar sus pensamientos y estrategias; sus

informes fueron grabados por un pequeño micrófono que se adjuntó a su pecho (Figura 1#6). El

ensayo terminó con la declaración de identificación del participante, o después de que se pasó el

límite de tiempo (lo que ocurriera primero). Al final de cada prueba, los participantes informaron su

identificación y su nivel de confianza (0-100 por ciento). Luego se les dio una retroalimentación

detallada (si su respuesta fue correcta o incorrecta y cuál fue la respuesta correcta).

EXP 1. El primer experimento - 5 sesiones. Conjunto de objetos: 5 imágenes 2D (cuadrado, rectángulo, triángulo,

paralelogramo y círculo;Figura 2A). El límite de tiempo de prueba fue de 30 segundos durante las primeras 3

sesiones y de 20 segundos durante las últimas 2 sesiones.

EXP 2. Comenzó inmediatamente después de EXP 1 - 3 sesiones. Conjunto de objetos: 5 objetos físicos en 3D (gafas,

cinta adhesiva, manzana, tijeras y un rinoceronte de juguete;Figura 2A). El límite de tiempo de prueba fue de 30

segundos.

EXP 3. Comenzó para los participantes videntes 20 - 20,5 meses después EXP 2 - 3 sesiones. Conjunto de objetos:

como en EXP 1. El límite de tiempo de prueba fue de 30 segundos.

EXP 4. Comenzó para los participantes videntes inmediatamente después de EXP 3 - 3 sesiones. Conjunto de

objetos: cinco imágenes 2D (corazón, trapezoide, luna, flecha y el dígito l;Figura 2A). El límite de tiempo de prueba

fue de 30 segundos.

Cada pin en el ASenSub cubrió un área de 0.37∗0,37 cm a una distancia de 1 m del

ASenSub (fig. 1). Las imágenes 2D ocuparon 6,7-10,0 cm horizontalmente (media = 8,3 cm; 4,7°)y

8,6-12,1 cm verticalmente (media = 10,3 cm; 5,9°)mientras que los objetos 3D abarcaban 8,3-17,9 cm

horizontalmente (media = 14,2 cm; 8,1°)y 6,7-13,1 cm verticalmente (media = 9,5 cm; 5,5°).

Análisis de los datos

Los datos adquiridos de la cámara activa se analizaron para caracterizar las estrategias

motorsensoriales aplicadas por nuestros participantes.

Trayectoria de escaneo.Se desarrolló un código MATLAB para rastrear la trayectoria de


escaneo a través del objeto. El algoritmo se basó en calcular la correlación espacial entre
5

el cuadro tomado de la cámara fija y cada 2Dakota del Nortecuadro tomado de la cámara activa. Los dos

fotogramas se recortaron alrededor del objeto, se convirtieron en imágenes binarias en blanco y

negro y se acondicionaron (usando las funciones de MATLAB 'imfill', 'bwareaopen', 'imresize' e

'imdilate') antes de la correlación. Los fotogramas tomados de la cámara activa ("fotogramas

dinámicos") con < 10 píxeles de muestra del objeto se omitieron y la trayectoria se interpoló sobre

ellos. El código se ejecutó de forma semiautomática; se examinó la trayectoria resultante mientras se

adaptaban los parámetros construidos y acondicionados para abordar cambios significativos, como

cambios sustanciales en la distancia de visualización.

Categorización de los movimientos de escaneo.Las trayectorias de escaneo de cada prueba se

analizaron en secuencias de movimiento (SEQ), en relación con el contorno de la sección transversal

del objeto y la "mirada" de la mano (definida como el centro del marco dinámico). Primero, se redujo la

muestra del video de la cámara dinámica a 15 fps tomando cada 2Dakota del Nortecuadro. Luego, cuatro

tipos de SEQ: "contorno", "horizontal", "vertical" y "otro" (Fig. 3) – se definieron utilizando los

siguientes algoritmos heurísticos. Los SEQ de contorno incluyeron secuencias de al menos 15

fotogramas (1 s) cuyas miradas se distanciaron < D1 píxeles del contorno más cercano del objeto. D1

se fijó en 20 píxeles para imágenes 2D y 15 píxeles para objetos físicos 3D (los últimos ocupaban

menos píxeles que los primeros, con una relación media de 3:4 entre los ejes largos de sus contornos).

Los SEQ de contorno adyacentes se combinaron si la distancia entre el último cuadro del SEQ principal

y el primer cuadro del SEQ siguiente era < D2 (D2 = 25 píxeles para imágenes 2D y 20 píxeles para

objetos físicos 3D).VerHozMovimientose calculó para cada ensayo como el porcentaje del número de

fotogramas que eran SEQ horizontales y verticales del número total de fotogramas en ese período.

Los SEQ horizontales y verticales incluían secuencias de al menos 10 cuadros que no estaban definidos

dentro de ningún SEQ de contorno y cuya "pendiente de movimiento" era consistentemente mayor

("vertical") o menor ("horizontal") que 1. La pendiente de movimiento se calculó como la cambio

absoluto (desde el cuadro anterior) de la mirada en la dirección vertical dividido por el de la dirección

horizontal. Se aplicó un promedio de furgón de cinco puntos a SEQ horizontales y verticales.

Mapas de visitas, puntos focales (FocPs) y regiones focales (FocRs).Las trayectorias de escaneo se promediaron

y normalizaron por objeto para todas las pruebas de cada participante y cada sesión por separado, o para todos los

participantes y todas las sesiones juntas, en contenedores de 10 × 10 píxeles. A cada contenedor se le asignó una

'tasa de visitas' (VR), que era el número total de visitas en ese contenedor dividido
6

por duración del ensayo (T). Cada mapa de visitas se normalizó dividiendo cada uno de sus valores por el

valor máximo de VR en ese mapa.

La región con los valores de tasa más altos en cada mapa se cuantificó como la región en la que todos los

contenedores tenían tasas de visita > 0,95; Se excluyeron las regiones que contenían un contenedor de este

tipo rodeado de contenedores con tasas < 0,55. El centro de masa de esta región se definió como el FocP

primario de ese mapa. Se definió un FocP secundario utilizando el mismo procedimiento después de

eliminar el FocP primario del mapa. El FocR se definió como la región de píxeles incluida dentro de un radio

de 40 píxeles desde el FocP.

Mapa de entropía y punto de entropía (EP).El EP se definió como el píxel en la sección transversal del

objeto alrededor del cual la entropía de la imagen táctil es máxima. La entropía de la imagen táctil se calculó

para cada objeto a partir de un marco dinámico representativo de la siguiente manera. Se construyó una

imagen binaria, en la que los píxeles que tenían niveles de iluminación que inducen la desviación máxima

del pin (consulte "Sustitución sensorial basada en detección activa" más arriba) se configuraron en "1" y

todos los demás píxeles se configuraron en "0". La imagen se acondicionó (utilizando la función 'imfill' de

MATLAB) para reducir el efecto del muestreo ruidoso. La entropía local de cada píxel se calculó utilizando la

función 'entropyfilt' de MATLAB, para una vecindad de 3∗3 píxeles

Momento de identificación.Cada prueba fue finalizada por el experimentador presionando un botón

inmediatamente después de escuchar al participante reportar la identificación (verbalmente). Un límite

superior para el tiempo de prueba en el que el participante identificó el objeto (tidentificación) se evaluó como t

identificación= tR– tmi, donde TRfue el momento de presionar el botón por parte del experimentador, y tmies el

tiempo de reacción estimado del experimentador. tmise evaluó como 0,55 ± 0,04 s (media ± SE; n = 20

mediciones independientes).

Variables de análisis adicionales:

EPsimilitud. Se determinó la similitud del EP entre dos objetos (EPsimilarity)


calculando la información mutua entre las áreas 'táctiles' (8∗12 píxeles) alrededor del EP. Para

objetos de múltiples EP, el EP utilizado para este cálculo fue el más cercano al FocP. Para cada

objeto, el índice de similitud fue el promedio de sus similitudes por pares con todos los demás

miembros del conjunto.


7

FocPdistancia. La distancia FocP de un píxel en un objeto dado es la distancia euclidiana


entre el píxel y el FocP más cercano en ese objeto (fuera de los FocP primario y secundario,

si existe).

Distancia FocP-EP.Esta es la distancia euclidiana entre el FocP (traducido al mapa de entropía usando

un procedimiento de correlación como en "Mapas de visitas, puntos focales (FocP) y regiones focales

(FocR)" arriba) y su EP más cercano.

tiempo de enfoque. El porcentaje de tiempo dedicado a escanear un FocR (FocRtime) se calculó para cada

medio ensayo como el porcentaje del número de fotogramas que formaban parte de las SEQ de contorno y

estaban dentro del FocR durante ese período del número total de fotogramas en ese período. .

Índice de convergencia. El índice de convergencia se definió como FocRtime durante la segunda mitad

de la prueba menos FocRtime durante la primera mitad de la prueba.

Factor de Éxito Combinado (CBF). El éxito en relación a las limitaciones experimentales:

tasa de éxito − nivel de probabilidad


=
tiempo de prueba

En nuestros experimentos, el nivel de probabilidad fue 0,2 (una de cada 5 formas u objetos) dividido por el límite de

tiempo de la prueba (en nuestros experimentos, 30 o 20 segundos). Los FBC se presentan enTabla S1.

Segmento y SegmentoTiempo.Segmentose definió como el movimiento entre dos cambios de dirección

secuenciales. Un cambio de dirección es un cambio brusco de movimiento de menos de ᴨ/3 tanto en el

primer como en el segundo orden.SegmentoTiempoes la duración del segmento (tiempo en segundos

desde un cambio de dirección al siguiente).

análisis estadístico.Todos los análisis estadísticos se llevaron a cabo utilizando el software MATLAB. A menos que

se indique lo contrario, la significación estadística de las comparaciones se evaluó mediante la prueba t no pareada

de dos colas, y las correlaciones fueron correlaciones de Pearson. Los valores de p <0,05 se consideraron

estadísticamente significativos. Los valores de población se describen como media ± SEM.

También podría gustarte