¿Aprenderán los humanos alguna vez a hablar ballenas?

Los cachalotes se encuentran entre los animales vivos más ruidosos del planeta, y producen crujidos, golpes y chasquidos entrecortados para comunicarse con otras ballenas que se encuentran a unos pocos metros o incluso a unos pocos cientos de millas de distancia.

Esta sinfonía de clics con patrones, conocida como codas, podría ser lo suficientemente sofisticada como para calificar como un lenguaje completo. Pero, ¿entenderán los humanos alguna vez lo que dicen estos cetáceos?

La respuesta es tal vez, pero primero los investigadores tienen que recopilar y analizar una cantidad sin precedentes de comunicaciones de cachalotes, dijeron los investigadores a WordsSideKick.com.

Relacionados: Historia de 2 colas: ¿Por qué los tiburones y las ballenas nadan de manera tan diferente?

Con cerebros seis veces más grandes que el nuestro, los cachalotes (Physeter macrocephalus) tienen estructuras sociales intrincadas y pasan gran parte de su tiempo socializando e intercambiando codas. Estos mensajes pueden ser tan breves como 10 segundos o durar más de media hora. De hecho, «La complejidad y duración de las vocalizaciones de las ballenas sugieren que, al menos en principio, son capaces de exhibir una gramática más compleja» que otros animales no humanos, según un artículo de abril de 2021 sobre cachalotes publicado en el servidor de preimpresión. arXiv.org.

Este artículo, de un proyecto interdisciplinario conocido como CETI (Iniciativa de traducción de cetáceos), describe un plan para decodificar las vocalizaciones de los cachalotes, primero mediante la recopilación de grabaciones de cachalotes y luego mediante el uso del aprendizaje automático para intentar decodificar las secuencias de clics de estos. otros mamíferos utilizan para comunicarse. CETI eligió estudiar a los cachalotes sobre otras ballenas porque sus clics tienen una estructura similar a un código Morse, que la inteligencia artificial (IA) podría tener más facilidad para analizar.

Rompiendo la superficie

Lo poco que los humanos saben sobre los cachalotes se ha aprendido recientemente. Fue solo en la década de 1950 que notamos que hacían sonidos, y no se supo que estaban usando esos sonidos para comunicarse hasta la década de 1970, según la nueva investigación publicada por CETI.

Este clic parece tener un doble propósito. Los cachalotes pueden sumergirse a profundidades de 4.000 pies (1.200 metros), o tres veces más profundo que los submarinos nucleares. según la Institución Oceanográfica Woods Holes. Debido a que está completamente oscuro en estas profundidades, han evolucionado para buscar calamares y otras criaturas marinas mediante clics para la ecolocalización, un tipo de sonar. Este mismo mecanismo de clic también se utiliza en sus vocalizaciones sociales, aunque los clics de comunicación están más empaquetados, según el documento CETI.

Descubrir incluso esto ha sido un desafío, ya que los cachalotes «han sido tan difíciles de estudiar para los humanos durante tantos años», dijo a WordsSideKick.com David Gruber, biólogo marino y líder del proyecto CETI. Pero ahora, «realmente tenemos las herramientas para poder analizar esto con más profundidad de una manera que no habíamos podido antes». Esas herramientas incluyen inteligencia artificial, robótica y drones, dijo.

Pratyusha Sharma, investigadora de ciencia de datos para CETI y candidata a doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, contó a Live Science más sobre desarrollos recientes en inteligencia artificial y modelos de lenguaje, como GPT-3, que utiliza el aprendizaje profundo para construir textos o historias similares a los humanos a pedido, y el año pasado tomó por asalto a la comunidad de IA. Los científicos esperan que estos mismos métodos se puedan aplicar a las vocalizaciones de los cachalotes, dijo. El único problema: estos métodos tienen un apetito voraz por los datos.

El proyecto CETI tiene actualmente grabaciones de unos 100.000 clics de cachalotes, minuciosamente recopilados por biólogos marinos durante muchos años, pero los algoritmos de aprendizaje automático podrían necesitar unos 4.000 millones. Para cerrar esta brecha, CETI está estableciendo numerosos canales automatizados para recolectar grabaciones de cachalotes. Estos incluyen micrófonos subacuáticos colocados en aguas frecuentadas por cachalotes, micrófonos que pueden ser lanzados por drones aéreos con ojos de águila tan pronto como detectan una manada de cachalotes congregándose en la superficie, e incluso peces robóticos que pueden seguir y escuchar a las ballenas discretamente. desde una distancia.

Pero incluso con todos estos datos, ¿seremos capaces de descifrarlos? Muchos de los algoritmos de aprendizaje automático han encontrado que el audio es más difícil de analizar que el texto. Por ejemplo, puede resultar difícil analizar dónde comienza y termina una palabra. Como explicó Sharma, «Supongamos que hay una palabra ‘paraguas’. ¿Es ‘um’ la palabra o es ‘umbrell’ o es ‘paraguas’? » Las barreras entre las palabras habladas son más ambiguas y menos regulares y, por lo tanto, los patrones pueden requerir más datos para detectarlos.

Esa no es la única dificultad que enfrentará el CETI. «Ya sea que alguien venga de, digamos, Japón o de Estados Unidos o de cualquier lugar, los mundos de los que hablamos son muy similares; hablamos de personas, hablamos de sus acciones», dijo Sharma. «Pero los mundos en los que viven estas ballenas son muy diferentes, ¿verdad? Y los comportamientos son muy diferentes».

Además, se sabe que los cachalotes tienen dialectos, según un estudio de 2016 en la revista Ciencia Abierta de la Royal Society, que analizó codas de nueve grupos de cachalotes en el Caribe durante seis años.

Pero estas dificultades son también las que hacen que el proyecto valga la pena. Lo que exactamente un cachalote le dice a otro sigue siendo tan oscuro y turbio como las aguas en las que nadan, pero este misterio hace que cualquier respuesta que encuentre CETI sea aún más intrigante. Como dijo Gruber, «Aprendemos mucho cuando tratamos de ver el mundo desde la perspectiva del otro».

Publicado originalmente en Live Science.

Salir de la versión móvil