La inteligencia artificial traduce el llanto del bebé

Una gráfica dentro de la aplicación permite distinguir, conforme a la intensidad y sonido del llanto, qué tipo de necesidad manifestaria el bebé en ese momento. :: r. c./
Una gráfica dentro de la aplicación permite distinguir, conforme a la intensidad y sonido del llanto, qué tipo de necesidad manifestaria el bebé en ese momento. :: r. c.

Una científica de datos española 'entrena' un algoritmo para vincular el tipo de llanto de los niños con distintos tipos de necesidades

ISAAC ASENJO

Estando aún embarazada de su primer hijo, comenzó a plantearse las típicas dudas de los padres primerizos. Cómo iba a entenderle o si sabría lo que querría cuando llorase. Ana Laguna Pradas aún no se había enfrentado a la realidad del llanto y ya le daba vueltas. Sí, hay trucos de toda la vida y algunos parecen tener un don. Pero la duda es saber si llora por sueño o hambre, o tiene algún dolor.

A esta científica de datos en el BBVA Data y Analytics, su intuición y experiencia con la inteligencia artificial le decía que todos los llantos de un niño tienen patrones, por lo que es probable que puedan interpretarse 'entrenando' algún algoritmo. De modo que si Jane Goodall podía comprender el lenguaje de los chimpancés, ¿por qué no iba ella a poder traducir las necesidades de su recién nacido? Se puso en marcha y lo que comenzó como un 'hobby' con su primer hijo, con el que creó una pequeña base de datos individualizada, se ha convertido ahora en la creación de una ONG (sogooddata.org) para hacer trabajos de datos, donde hay un formulario para que otros bebés colaboren.

Ahí se juntarán multitud de ejemplos de lloros y se administrarán por etiquetas, que identificarán el tipo de llanto: si pertenece a dolor, hambre, sueño o mimos. Éstas deberán ponerlas los padres para que el modelo busque los patrones y el algoritmo funcione.

La aplicación ayudará a padres primerizos y también a progenitores con problemas auditivos

¿El objetivo? Sacar una aplicación que sea capaz de traducir el llanto de un bebé y saber qué necesita, algo que no solo ayudará a los padres primerizos sino también a progenitores con problemas auditivos.

Ana empezó a grabar a su hijo. Cada muestra de llanto debía durar al menos 10 segundos. Así hasta los cinco meses. «A partir de ahí los sonidos cambian, por lo que los datos ya no me servirían. El cerebro desarrolla otros sentimientos como el miedo, que hasta entonces no lo percibe», cuenta la científica, a un mes de dar a luz a su segundo hijo. Éste le ayudará a aumentar su base de información, pero corre el riesgo de tener que llorar algo más que su hermano.

En la primera ocasión reunió unos 70 audios, pero un algoritmo necesita más detalles para encontrar patrones y ser eficaz. «Al principio quería recoger hasta el lloro por la picadura de un mosquito. Terminé por pasar de un algoritmo multiclasificación a uno binario de hambre o no hambre, porque no le molestaba ni el cambio de pañal», dice.

Prosodia

«Actualmente, estamos recopilando en la ONG una media de siete audios al día. Por suerte hay mamás muy implicadas. Los audios se validan antes de pasárselos al algoritmo, pero aun así la etiqueta de la madre suele ser fiable en un 85%-90% de las veces. Las mamás y papás, aparte de por instinto y porque conocen bien a su bebé, también ayudan mucho a etiquetar por contexto. Esto se comprueba porque cuando cubres esa necesidad, el bebé deja de llorar», detalla.

Cuando Ana comenzó con la idea de crear una 'app' que interpretase los llantos, pues solo existía una china. «Por cuestiones de prosodia, un algoritmo chino quizás no alcance el mismo nivel de precisión en niños españoles», apunta. En estos últimos dos años ha aparecido una aplicación similar en EE UU, creada por un equipo californiano de neonatología de California: Chatterbaby. Diferencia entre dolor (con un 90% de éxito), inquietud (85%) y hambre (60%). Aunque tiene sus limitaciones. «Se necesita trabajar con audios específicos de cada lengua», advierte.