
"El sonido es el vocabulario de la naturaleza". Pierre Schaeffer
Dentro de todo proyecto, uno de los puntos más importantes, y en el que siempre hacemos hincapié, es en el de la representación de los datos. En este blog ya hemos escrito sobre algunas de las herramientas relevantes en lo que a visualización de datos se refiere. Pero, ¿sabías que también existe la posibilidad de representar los datos a través del sonido? Para que nos cuente un poco más sobre este tema, tenemos a Sara Lenzi, investigadora en el ámbito del sonido e Inteligencia Artificial y experta en Data Sonification.
¿Qué es la sonificación?
La sonificación es una forma de representar los datos a través de parámetros acústicos como notas musicales, ritmo, intensidad etc, los cuales van acompañados de una combinación visual. Es decir, es el equivalente acústico de la visualización de datos en el que se representaría un conjunto de datos de forma auditiva.
Esta disciplina nació en el entorno científico de la mano de especialidades como la sismología, la física o la astronomía. ¿Por qué? En estas ciencias, los fenómenos físicos que se estudian son ondas, y el sonido al ser también una onda que se mueve a través del aire, transmite una información suplementaria que no suele ser registrada debido a la gran cantidad de datos que hay para controlar, estudiar y analizar y que no son captados por el ojo humano.
La sonificación es una disciplina con muchas posibilidades ya que la sensibilidad del ser humano hacia el sonido es muy diferente, al igual que la manera de diseñarlo, y por ello tiene aplicación en varias áreas, como por ejemplo:
- Poder dar acceso a las personas con discapacidad visual al mundo de los datos en real time.
- Obtener información adicional de datos que no suelen ser captados por representaciones visuales.
Para poder conocer más de cerca estas sonificaciones, Sara y su equipo han creado el Data Archive Sonification, un archivo en el que recolectan los proyectos de sonificaciones que existen, el cual crece cada día. Todos ellos van principalmente dirigidos a científicos o astrónomos que tienen una discapacidad visual y que, gracias a este fichero, pueden seguir haciendo su trabajo de investigación a través del sonido.
Sonificación e integración
Como podemos comprobar, a lo largo de su experiencia dentro del área de la sonificación, Sara ha creado y colaborado en muchos proyectos. Uno en el que nos queremos centrar es el proyecto de accesibilidad sonora para la integración de personas con discapacidad visual en el que colaboró junto con la división de innovación e Inteligencia Artificial i3B, de Ibermática.
Aunque en un principio el proyecto tenía como objetivo facilitar el trabajo de los operadores monitorizaban el funcionamiento de redes digitales del área de ciberseguridad del área de ciberseguridad, luego se dieron cuenta de la gran oportunidad que se les brindaba en lo que respecta a la inclusión de personas con discapacidad visual. Pero ¿en qué consiste este proyecto? Como hemos comentado, con este piloto se buscaba facilitar el trabajo de monitorización de datos en seguridad. Es decir, junto con los dashboards con los que ya trabajaban los operadores, además se añadió uno más con información de potenciales ciberataques. Esta pantalla de más suponía para el operador un esfuerzo cognitivo sobre su canal visual, lo que generaba un rechazo debido a la saturación de información. Para poder hacer frente a esta situación, el equipo de i3B y Sara trabajaron en añadir a esta nueva pantalla una capa sonora la cuál incluía una modalidad sensorial no invasiva a oídos del operador para que así pudiera seguir con su trabajo. De esta manera, en el momento en que la red estuviera en peligro, los parámetros de este sonido se modificaban, dando lugar a un sonido con parámetros diferentes y poco invasivo capaz de alertar al operador de la anomalía o amenaza en los datos. A lo largo del proyecto, la parte que Sara desarrolló fue la aplicación que convierte los parámetros que vienen de los datos en sonido, es decir, la interfaz entre dato y sonido. Mientras tanto, el departamento de i3B se encargó de crear un modelo inclusivo de Inteligencia Artificial basado en un algoritmo inteligente que se encarga de decodificar los datos. A partir de ahí, se diseñó la aplicación y también los diferentes sonidos que acompañan a los grupos de datos y su intensidad, dependiendo siempre de la información que lanzaba el algoritmo.
Cabe destacar que el sonido con el que trabaja el operador, es decir la capa sonora, funciona como un elemento más del ambiente para que parezca que la experiencia sea lo más real posible. Es decir, que el sonido en sí crea un paisaje sonoro para que la mente del operador no tenga que hacer un esfuerzo cognitivo más para decir: “este sonido es un poco raro”. Al final, lo que se busca con esta capa es que la persona se sienta a gusto para que, cuando salgan las señales de peligro, la atención se ponga en el sonido. Es por eso que debe de pasar desapercibido y no parecer artificial.
Como podemos comprobar, gracias a proyectos como este, el mundo de la investigación ha podido avanzar hacia una mayor inclusividad. Es más, gracias a la sonificación, se puede llegar a un nivel bastante sofisticado de codificación de datos a través de sonidos, lo que a su vez se ha comprobado que está abierto a un modelo inclusivo de Inteligencia Artificial. Es por esto que otro de los retos para el futuro cercano es que la aplicación se pueda desarrollar de una manera que se pueda enganchar a cualquier algoritmo de machine learning para llevar a otras ramas.
¿Te gustaría saber más del proyecto o sobre Data Sonification? Entonces no te pierdas la conversación entre Sara y Eduardo a continuación:
![]() |
![]() |
![]() |