Convierten emociones de personas con parálisis cerebral en música

Share

ESPAÑA: Convierten emociones de personas con parálisis cerebral en música / El Mundo / Sonidos y notas que convierten en música las emociones de un colectivo con el que resulta de especial complejidad establecer una comunicación directa y llegar a un entendimiento. Nace con la motivación de que personas con discapacidad cerebral o cognitiva puedan comunicarse y, este factor, unido a la musicalización de las señales eléctricas cerebrales lo convierten en un proyecto único en el mundo: Brain Polyphony. Una iniciativa interdisciplinaria que traduce el arte musical en un instrumento para la comunicación basada en la neurociencia. 

Mindtunes-crea-música-con-la-mente

El proyecto impulsado por el Centro de Regulación Genómica -CRG-, la empresa de investigación en neurociencia Starlab y el grupo de la Universitat de Barcelona, Barcelona Research Art & Creation, consigue trasladar a frecuencias audibles las ondas de electroencefalograma de personas con parálisis cerebral . El avance viene también de la mano de aplicarlo a un colectivo con el que no se había trabajado hasta ahora en este campo, precisamente por las complicaciones motoras y poco estudiadas que presentan. 

Concibiendo el cerebro, en su configuración básica, como un generador de electricidad a través de las conexiones que se establecen entre neuronas, el proyecto Brain Polyphony utiliza el casco desarrollado por Starlab para captar la actividad cerebral de los individuos y relacionarla con una serie de estímulos de índole emocional . En ese sentido, la presidenta de la Asociación Española de Neurociencia y científica del CRG, Mara Dierssen, resalta que uno de los retos con los que se han encontrado ha sido precisamente la adaptación morfológica del casco a la estructura craneal de las personas con parálisis cerebral. La herramienta, desarrollada Starlab y bajo el nombre de Enobio, es capaz de realizar las mediciones de las zonas que se activan en el cerebro a través de su actividad eléctrica. No obstante, según explican sus promotores, la sonificación se realiza, no sólo a través de los neurosensores, sino también gracias a y medidores cardíacos que transmiten los impulsos de los latidos y la actividad muscular a un ordenador, que analiza la reacción emocional en tiempo real en función de unos parámetros establecidos previamente.

Esta segunda parte del proyecto la constituye la plataforma, y es que una serie de algoritmos posibilitan la traducción de estos estímulos para “extraer información con sentido” aclara David Ibáñez, investigador de Starlab. Para poder realizar una interpretación acertada de las variaciones, miden lo que determinan como estado neutro, es decir, realizan un cálculo basal de la respuesta del paciente y los patrones con los que se comparará y medirá la intensidad emocional referenciada. 

Será en base a unos estímulos visuales y sonoros que se medirán estas emociones, en una pantalla de respuesta en la que se valora la valencia y arousal. Esto que puede sonar desconocido, explican los expertos, se traduce en si un sentimiento es agradable o desagradable y si es excitante o tranquilizante, respectivamente. En una primera incursión, el software no diferencia entre tipología de emociones, sólo reconoce sus vertientes más extremas, sin embargo, pretenden avanzar en la profundización de este análisis para caracterizarlo.

La mayor parte de sistemas similares necesitan un control motor por parte de un paciente, que en este caso, no es requerida. Y es que los espasmos que no consiguen controlar son excluidos de la muestra gracias al acelerómetro introducido por este equipo de neurocientíficos. Además, permite realizar un análisis emocional en tiempo real sin un prostprocesado de la información.

El prototipo de Brain Polyphony se ha puesto en práctica con dos sujetos, un hombre y una mujerque, tal y como afirman los impulsores del proyecto, no se sabía si eran capaces de comprender lo que sucede a su alrededor y han logrado comunicarse. Ahora pasarán a la prueba de concepto que realizarán durante un año con un grupo de 15 personas y con el que esperan disponer de una máquina funcional. Los impulsores anunciaron que trabajarán en este proyecto con la Associació Pro-Persones amb Discapacitats fisiques i Psíquiques de Sant Cugat del Vallès (ASDI) de Valldoreix. La finalidad, aclara Dierssen, es que si bien estos pacientes suelen tener una comunicación más estrecha con sus cuidadores o con sus familiares que se han acostumbrado a entenderles, la interfaz pueda convertirse en una plataforma que les permita comunicar sensaciones básicas. “Buscamos que sea trasladable, no sólo a entornos hospitalarios, sino también a la atención primaria” adelanta Dierssen.

De hecho, en un futuro mundo del Internet de las Cosas y las smart cities , comentan los científicos, esta actividad cerebral podría traducirse en controlar otros aspectos de la vida como “apagar la luz si tiene sueño” y convertir, finalmente, Brain Polyphony en una interfaz comunicativa. En todo caso, Dierssen considera que el proyecto es producto de la unión de tres mundos, “la sanificación, la tecnología relacionada con computer interface y la neurociencia más básica” y su innovación es la unión en un mismo escenario de tres actores que nunca se habían relacionado.



Con Información de El Mundo

Deja un comentario