AI News

Perch 2.0 de Google DeepMind transforma la acústica marina utilizando datos de aves

En un desarrollo sorprendente para el campo de la bioacústica (Bioacoustics), Google DeepMind ha revelado que su último modelo de IA, Perch 2.0 —diseñado originalmente para identificar cantos de aves y animales terrestres— demuestra una capacidad excepcional para detectar sonidos de ballenas bajo el agua. Este avance destaca el poder del aprendizaje por transferencia (Transfer Learning), donde un modelo fundacional (Foundation Model) entrenado en un dominio aplica con éxito su conocimiento a un entorno completamente diferente sin exposición previa directa.

Los hallazgos, detallados en un nuevo artículo de investigación y en una publicación de blog de Google Research y Google DeepMind, sugieren que las características acústicas aprendidas al distinguir vocalizaciones sutiles de aves son altamente efectivas para clasificar paisajes sonoros marinos complejos. Este progreso promete acelerar los esfuerzos de conservación marina al proporcionar a los investigadores herramientas ágiles y eficientes para monitorear especies en peligro de extinción.

Cerrando la brecha: De los bosques a los océanos

Perch 2.0 funciona como un modelo fundacional de bioacústica, un tipo de IA entrenada con grandes cantidades de datos para comprender las estructuras fundamentales del sonido. A diferencia de sus predecesores o de los modelos marinos especializados, Perch 2.0 fue entrenado principalmente con vocalizaciones de aves y otros animales terrestres. No estuvo expuesto a audio submarino durante su fase de entrenamiento.

A pesar de esto, cuando los investigadores probaron el modelo en tareas de validación marina, Perch 2.0 funcionó notablemente bien. Rivalizó y, a menudo, superó a los modelos diseñados específicamente para entornos submarinos. Este fenómeno sugiere que los patrones subyacentes de la producción de sonidos biológicos comparten características universales, lo que permite a una IA "transferir" su experiencia del aire al agua.

Lauren Harrell, científica de datos en Google Research, señaló que la capacidad del modelo para distinguir entre cantos de aves similares —como los distintos "arrullos" de 14 especies diferentes de palomas de América del Norte— lo obliga a aprender características acústicas detalladas. Estas mismas características parecen ser críticas para diferenciar los matices de las vocalizaciones de los mamíferos marinos.

Desglose técnico: El poder del aprendizaje por transferencia

El núcleo de esta innovación reside en una técnica conocida como aprendizaje por transferencia. En lugar de construir una nueva red neuronal profunda desde cero para cada nueva especie marina descubierta, los investigadores pueden usar Perch 2.0 para generar "embeddings".

Las incrustaciones (Embeddings) son representaciones numéricas comprimidas de datos de audio. Perch 2.0 procesa grabaciones submarinas sin procesar y las convierte en estas características manejables. Luego, los investigadores entrenan un clasificador simple y computacionalmente económico (como una regresión logística) sobre estas incrustaciones para identificar sonidos específicos.

Los beneficios de este enfoque incluyen:

  • Eficiencia: Reduce drásticamente el cálculo requerido en comparación con el entrenamiento de nuevos modelos de aprendizaje profundo.
  • Velocidad: Permite un "modelado ágil", lo que permite a los investigadores crear clasificadores personalizados en horas en lugar de semanas.
  • Flexibilidad: Efectivo incluso con el aprendizaje con pocos ejemplos (few-shot learning), donde solo se dispone de un pequeño número de ejemplos etiquetados.

Rendimiento en conjuntos de datos marinos

Para validar las capacidades del modelo, el equipo evaluó Perch 2.0 frente a varios otros modelos de bioacústica, incluidos Perch 1.0, SurfPerch y modelos especializados en ballenas. La evaluación utilizó tres conjuntos de datos primarios que representan diversos desafíos acústicos submarinos.

Tabla 1: Principales conjuntos de datos marinos utilizados para la evaluación

Nombre del conjunto de datos Fuente/Descripción Clasificaciones objetivo
NOAA PIPAN Centro de Ciencias Pesqueras de las Islas del Pacífico de la NOAA Especies de misticetos: ballenas azul, rorcual común, rorcual boreal, yubarta y rorcual de Bryde
Incluye el misterioso sonido "biotwang"
ReefSet Google Arts & Culture "Calling in Our Corals" Ruidos de arrecifes (croares, crujidos)
Especies de peces específicas (Damiselas, Meros)
DCLDE Diversos sonidos biológicos y abióticos Ecotipos de orca (Residente, Transeúnte, De alta mar)
Distinción entre ruido biológico y abiótico

En estas pruebas, Perch 2.0 se posicionó constantemente como el mejor o el segundo mejor modelo en varios tamaños de muestra. Cabe destacar que sobresalió en la distinción entre diferentes "ecotipos" o subpoblaciones de orcas, una tarea notoriamente difícil que requiere detectar diferencias sutiles de dialecto.

Las técnicas de visualización que utilizan gráficos t-SNE revelaron que Perch 2.0 formó grupos distintos para diferentes poblaciones de orcas. Por el contrario, otros modelos a menudo produjeron resultados mezclados, fallando en separar claramente las firmas acústicas distintivas de las orcas residentes del norte frente a las transeúntes.

Por qué la IA de aves entiende a las ballenas

Los investigadores proponen varias teorías para esta transferencia exitosa entre dominios. El motor principal es probablemente la escala masiva del modelo. Los modelos fundacionales grandes tienden a generalizar mejor, aprendiendo representaciones de características robustas que se aplican ampliamente.

Además, la "lección del avetoro" (bittern lesson) juega un papel importante. En ornitología, distinguir el canto resonante de un avetoro de sonidos similares de baja frecuencia requiere una alta precisión. Al dominar estos desafíos terrestres, el modelo se entrena eficazmente para prestar atención a las diminutas modulaciones de frecuencia que también caracterizan los cantos de las ballenas.

Además, existe una base biológica: la evolución convergente. Muchas especies, independientemente de si viven en los árboles o en los océanos, han desarrollado mecanismos similares para la producción de sonido. Un modelo fundacional que captura la física de una siringe (órgano vocal de las aves) puede capturar inadvertidamente la física de la vocalización de los mamíferos marinos.

Implicaciones para la conservación

La capacidad de utilizar un modelo terrestre preentrenado para la investigación marina democratiza el acceso a herramientas avanzadas de IA. Google ha lanzado un tutorial de extremo a extremo a través de Google Colab, permitiendo a los biólogos marinos utilizar Perch 2.0 con datos del Archivo de Datos Acústicos Pasivos del NCEI de la NOAA.

Este flujo de trabajo de "modelado ágil" elimina la barrera de necesitar una amplia experiencia en aprendizaje automático o recursos informáticos masivos. Los conservacionistas ahora pueden desplegar rápidamente clasificadores personalizados para rastrear poblaciones de ballenas migratorias, monitorear la salud de los arrecifes o identificar sonidos nuevos y desconocidos —como el recientemente identificado "biotwang" del rorcual de Bryde— con una velocidad y precisión sin precedentes.

Al demostrar que el sonido es un lenguaje universal para la IA, Perch 2.0 de Google DeepMind no solo hace avanzar la informática, sino que también proporciona un salvavidas vital para comprender y proteger los misterios ocultos del océano.

Destacados