El audífono controlado por el cerebro identifica a quién quieres escuchar
El audífono controlado por el cerebro identifica a quién quieres escuchar
Nuestros cerebros tienen una habilidad extraordinaria para elegir voces individuales en un ambiente ruidoso, como una cafetería llena de gente o una calle concurrida de la ciudad. Esto es algo que incluso los audífonos más avanzados tienen dificultades para hacer. Pero ahora los ingenieros de Columbia están anunciando una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar cualquier voz de muchas. Impulsado por inteligencia artificial, este audífono controlado por el cerebro actúa como un filtro automático, monitoreando las ondas cerebrales de los usuarios y aumentando la voz en la que quieren enfocarse.
¿Como son los audífonos modernos?
Los audífonos modernos son excelentes para amplificar el habla y suprimir ciertos tipos de ruido de fondo, como el tráfico. Pero luchan por aumentar el volumen de una voz individual sobre otras. Los científicos llaman a esto el problema del cóctel, llamado así por la cacofonía de voces que se mezclan durante las fiestas ruidosas.
"En lugares concurridos, como fiestas, los audífonos tienden a amplificar todos los altavoces a la vez", dijo el Dr. Mesgarani, quien también es profesor asociado de ingeniería eléctrica en Columbia Engineering. "Esto dificulta severamente la capacidad del usuario para conversar de manera efectiva, esencialmente aislándolos de las personas que lo rodean".
¿Como es el audífono controlado?
El audífono controlado por el cerebro del equipo Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como micrófonos, también monitorea las ondas cerebrales propias del oyente.
El equipo combinó potentes algoritmos de separación del habla con redes neuronales, modelos matemáticos complejos que imitan las habilidades computacionales naturales del cerebro. Crearon un sistema que primero separa las voces de los hablantes individuales de un grupo, y luego compara las voces de cada hablante con las ondas cerebrales de la persona que escucha. El hablante cuyo patrón de voz se asemeja más a las ondas cerebrales del oyente se amplifica sobre el resto.
"Nuestro resultado final fue un algoritmo de separación de voz que funcionó de manera similar a las versiones anteriores pero con una mejora importante", dijo el Dr. Mesgarani. "Podría reconocer y decodificar una voz, cualquier voz, desde el principio".
Para probar la efectividad del algoritmo se probó este dispositivo en pacientes con epilepsia. Estos pacientes se ofrecieron para escuchar a diferentes oradores mientras se monitoreaban sus ondas cerebrales directamente a través de electrodos implantados en los cerebros de los pacientes para luego aplicar el algoritmo recientemente desarrollado a esos datos"
Animados por sus resultados, los investigadores ahora están investigando cómo transformar este prototipo en un dispositivo no invasivo que se pueda colocar externamente en el cuero cabelludo o alrededor del oído. También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar en una gama más amplia de entornos.
Deja un comentario