¿Cómo convertir las señales cerebrales en un discurso?
El poder de la mente es uno de los aspectos más llamativos en la ciencia ficción. La posibilidad de leer los pensamientos o de traducir las señales del cerebro en sonidos y texto suele ser un tema que causa mucha curiosidad.
Para los científicos, esa realidad podría no estar muy lejos; ya que algunos trabajan con algoritmos e inteligencia artificial para encontrar la manera de apoyar a las personas con problemas de habla por medio de señales cerebrales.
Hay investigaciones en las que se han logrado decodificar algunas señales del cerebro para convertirlas en palabras. Para hacerlo, se han basado en patrones de las redes neuronales; aunque no han sido muy precisas.
A pesar de ello, el potencial de crear un discurso a partir de sólo pensamientos o la imaginación está presente. Basta con mirar los avances en la computación, por ejemplo:
Existe un algoritmo denominado vocoder, el cual sintetiza el habla después de ser entrenado en humanos hablando.
En otras palabras, es el algoritmo que se usa para obtener respuesta de las asistentes virtuales como Siri, de iOS, y Alexa de Amazon.
Según los expertos en el tema, el que Siri o Alexa puedan responder a nuestras preguntas no quiere decir que tengan cada palabra programada; más bien, utilizan el vocoder para crear un sonido real basado en el texto necesario.
Con esa inspiración y esos principios informáticos, investigadores de la Universidad de Columbia han combinado los avances en el aprendizaje profundo con tecnologías de síntesis de voz para reconstruir el habla en un conjunto cerrado de la corteza auditiva.
Reconstruir los sonidos
La reconstrucción del estímulo auditivo a partir de la corteza auditiva humana brinda la posibilidad de neuroprótesis del habla; en otras palabras, permite establecer una comunicación directa con el cerebro.
Estudios anteriores han demostrado que eso es posible. No obstante, la baja calidad del habla había limitado la utilidad de ese método para aplicarse en interfaces entre el cerebro y una computadora.
En cambio, la nueva técnica de la Universidad de Columbia demostró ser mucho más efectiva que otros esfuerzos.
De acuerdo con los autores, el vocoder utilizado no está entrenado por el habla humana; pero sí por la actividad neuronal del córtex auditivo del cerebro. Dicha actividad se midió en pacientes de cirugías cerebrales mientras escuchaban oraciones en voz alta.
Con esa información, y con el apoyo de otras herramientas de inteligencia artificial, se lograron representaciones casi tan exactas como los sonidos escuchados.
Los científicos compararon la precisión de reconstrucción de rangos de frecuencia neural baja y alta. En las conclusiones se muestra que ese modelo de red neuronal profunda tuvo gran sensibilidad; asimismo, mejoró la inteligibilidad de los sonidos en un 65%.
Mucho trabajo por hacer
Aun cuando los resultados fueron positivos, este sistema todavía no es capaz de transformar los pensamientos en palabras; además, el sonido final se escucha computarizado. Sin embargo, con más investigación, personas sin voz, debido a síndrome de enclaustramiento, o que se estén recuperando de un derrame cerebral o esclerosis lateral amiotrófica (como Stephen Hawking); podrían contar con un discurso verbal sintetizado a partir de sus señales cerebrales en un futuro no muy lejano.
Los hallazgos se publicaron en la revista Scientific Reports.