¿Cómo reconocen los ciegos los rostros a través del sonido?

¿Cómo reconocen los ciegos los rostros a través del sonido?

resumen: Un nuevo estudio revela que las personas ciegas pueden reconocer rostros utilizando patrones auditivos procesados ​​por el área fusiforme de la cara, una región del cerebro importante para el procesamiento facial en personas videntes.

El estudio utilizó un dispositivo sensorial alternativo para traducir imágenes en sonido, lo que demuestra que el reconocimiento facial en el cerebro no depende únicamente de la experiencia visual. Los participantes ciegos y videntes se sometieron a resonancias magnéticas funcionales, que mostraron que el área fusiforme de la cara codifica el concepto de cara, independientemente de la información sensorial.

Este descubrimiento desafía la comprensión de cómo se desarrolla y funciona el reconocimiento facial en el cerebro.

Hechos clave:

  1. El estudio muestra que el área fusiforme de la cara del cerebro puede procesar el concepto de cara a través de patrones auditivos, no solo visualmente.
  2. Las resonancias magnéticas funcionales revelaron que esta región está activa tanto en personas ciegas como en personas videntes durante las tareas de reconocimiento facial.
  3. La investigación utilizó un dispositivo especializado para traducir información visual en sonido, lo que permitió a los participantes ciegos reconocer configuraciones faciales básicas.

fuente: Centro médico de la Universidad de Georgetown

Utilizando un dispositivo especializado que traduce imágenes en sonido, neurocientíficos y colegas del Centro Médico de la Universidad de Georgetown han demostrado que las personas ciegas reconocen rostros básicos utilizando una parte del cerebro conocida como área fusiforme de la cara, una importante área del cerebro para el procesamiento de rostros. Personas videntes.

Los resultados aparecieron en uno más El 22 de noviembre de 2023.

Actualmente, las personas ciegas, utilizando sus dispositivos, pueden reconocer una cara básica de “dibujos animados” (como una cara feliz con un emoji) cuando se convierte en patrones de audio. Crédito: Noticias de neurociencia

«Se sabe desde hace algún tiempo que las personas ciegas pueden compensar su pérdida de visión, hasta cierto punto, utilizando sus otros sentidos», dice Joseph Raushecker, Ph.D., profesor del departamento. en neurociencia en la Universidad de Georgetown y autor principal de este estudio.

«Nuestro estudio probó hasta qué punto existe esta plasticidad, o compensación, entre la visión y la audición codificando patrones visuales básicos en patrones auditivos con la ayuda de un dispositivo técnico al que nos referimos como dispositivo de sustitución sensorial. Usando imágenes de resonancia magnética funcional ( fMRI), podemos determinar dónde se produce esta plasticidad compensatoria en el cerebro.

READ  Misteriosa enfermedad similar al parvovirus infecta perros en Michigan, mata hasta 60 perros

La percepción facial en humanos y primates no humanos se produce a través de una mezcla de áreas corticales especializadas. La forma en que se desarrollaron estas regiones sigue siendo controvertida. Dada su importancia en el comportamiento social, muchos investigadores creen que los mecanismos neuronales del reconocimiento facial son innatos en los primates o dependen de la experiencia visual temprana con los rostros.

«Nuestros hallazgos en personas ciegas sugieren que el desarrollo del área fusiforme de la cara no depende de la experiencia con rostros visuales reales, sino más bien de la exposición a la geometría de las configuraciones faciales, que pueden transmitirse a través de otras modalidades sensoriales», añade Raushecker.

«Nuestro estudio muestra que el área fusiforme de la cara codifica el ‘concepto’ de la cara independientemente del canal de entrada o la experiencia visual, lo cual es un hallazgo importante», dice Paola Plaza, Ph.D., una de las autoras principales del estudio. en la Universidad Andrés Bello de Chile.

Seis personas ciegas y 10 personas videntes, que sirvieron como grupo de control, se sometieron a tres rondas de exploraciones por resonancia magnética funcional para ver qué partes del cerebro se activaban durante la traducción de imagen a sonido.

Los científicos descubrieron que la activación cerebral por sonido en personas ciegas se encontraba principalmente en el área fusiforme izquierda de la cara, mientras que el procesamiento facial en personas videntes se producía principalmente en el área fusiforme derecha de la cara.

«Creemos que la diferencia izquierda-derecha entre personas ciegas y no ciegas puede tener algo que ver con cómo se procesan los lados izquierdo y derecho del área fusiforme, ya sea como patrones conectados o como partes separadas, lo que podría ser una pista importante. ”, dice Rauschecker, quien también es codirector del Centro de Arquitectura Neural de la Universidad de Georgetown: “Para ayudarnos a mejorar nuestro sistema de sustitución sensorial”.

READ  La misión Euclides compartirá las primeras imágenes a todo color del universo el 7 de noviembre

Actualmente, las personas ciegas, utilizando sus dispositivos, pueden reconocer una cara básica de “dibujos animados” (como una cara feliz con un emoji) cuando se convierte en patrones de audio. Reconocer rostros a través de voces fue un proceso que llevó mucho tiempo y requirió muchas sesiones de capacitación.

Cada sesión comenzó haciendo que los sujetos identificaran formas geométricas simples, como líneas horizontales y verticales; Luego, la complejidad de los estímulos aumentó gradualmente, de modo que las líneas formaron formas, como casas o caras, que luego se volvieron más complejas (casas altas frente a casas anchas, caras felices frente a caras tristes).

Con el tiempo, los científicos quieren utilizar imágenes de rostros y casas reales con su dispositivo, pero los investigadores señalan que primero tendrán que aumentar significativamente la precisión del dispositivo.

«Nos gustaría poder ver si es posible que las personas ciegas aprendan a reconocer individuos a partir de sus imágenes. Esto puede necesitar más entrenamiento en nuestras máquinas, pero ahora que hemos identificado el área del cerebro donde se realiza la traducción lugar, es posible que tengamos una mejor manera de ajustar mejor nuestros procesos”, concluye Roschecker.

Además de Rauschiker, los otros autores de Georgetown son Laurent René y Stephanie Roseman. Anne J. de Volder, quien falleció durante la preparación de este manuscrito, se encontraba en el Laboratorio de Neurorrehabilitación del Instituto de Neurociencia de la Universidad Católica de Lovaina, Bruselas, Bélgica.

Financiación: Este trabajo fue apoyado por una subvención del Instituto Nacional del Ojo (#R01 EY018923).

Los autores no declaran ningún interés financiero personal relacionado con el estudio.

Acerca de las noticias de investigación en neurociencia visual y auditiva.

autor: Karen Tepper
fuente: Centro médico de la Universidad de Georgetown
comunicación: Karen Tepper – Centro médico de la Universidad de Georgetown
imagen: Imagen acreditada a Neuroscience News.

READ  La Tierra completa su rotación en menos de 24 horas y vuelve a chocar por el día más corto

Búsqueda original: Acceso abierto.
«Los rostros codificados por voz activan el área fusiforme izquierda de la cara en la etapa temprana de ceguera“Por Joseph Rauschecker et al. uno más


un resumen

Los rostros codificados por voz activan el área fusiforme izquierda de la cara en la etapa temprana de ceguera

La percepción facial en humanos y primates no humanos se produce a través de una mezcla de áreas corticales especializadas. La forma en que se desarrollaron estas regiones sigue siendo controvertida. En las personas videntes, la información facial se transmite principalmente a través de la modalidad visual. Por otro lado, las personas con ceguera temprana pueden reconocer formas mediante señales auditivas y táctiles.

Aquí mostramos que estos individuos pueden aprender a discriminar entre caras, casas y otras formas utilizando un dispositivo de sustitución sensorial (SSD) que presenta caras esquemáticas como estímulos codificados fonológicamente en la modalidad auditiva.

Usando fMRI, a continuación preguntamos si una región del cerebro selectiva para la cara, como el área fusiforme de la cara (FFA), muestra selectividad para las caras en los mismos sujetos y, de hecho, encontramos evidencia de activación preferencial del área selectiva para la cara izquierda por la voz. caras codificadas.

Estos hallazgos sugieren que el desarrollo de FFA no depende de la experiencia con rostros visuales per se, sino que puede depender de la exposición a la geometría de las configuraciones faciales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *