
Em um desenvolvimento surpreendente para o campo da bioacústica (bioacoustics), a Google DeepMind revelou que seu modelo de IA mais recente, o Perch 2.0 — originalmente projetado para identificar cantos de pássaros e animais terrestres — demonstra uma capacidade excepcional na detecção de sons subaquáticos de baleias. Este avanço destaca o poder do aprendizado por transferência (transfer learning), onde um modelo de fundação (foundation model) treinado em um domínio aplica com sucesso seu conhecimento a um ambiente completamente diferente sem exposição prévia direta.
As descobertas, detalhadas em um novo artigo de pesquisa e postagem no blog da Google Research e da Google DeepMind, sugerem que os recursos acústicos aprendidos ao distinguir vocalizações sutis de pássaros são altamente eficazes para classificar paisagens sonoras marinhas complexas. Este progresso promete acelerar os esforços de conservação marinha ao fornecer aos pesquisadores ferramentas ágeis e eficientes para monitorar espécies ameaçadas.
O Perch 2.0 serve como um modelo de fundação de bioacústica, um tipo de IA treinada em vastas quantidades de dados para entender as estruturas fundamentais do som. Ao contrário de seus antecessores ou modelos marinhos especializados, o Perch 2.0 foi treinado principalmente em vocalizações de aves e outros animais terrestres. Ele não foi exposto a áudio subaquático durante sua fase de treinamento.
Apesar disso, quando os pesquisadores testaram o modelo em tarefas de validação marinha, o Perch 2.0 teve um desempenho notável. Ele rivalizou e, muitas vezes, superou modelos projetados especificamente para ambientes subaquáticos. Este fenômeno sugere que os padrões subjacentes da produção de som biológico compartilham características universais, permitindo que uma IA "transfira" sua especialidade do ar para a água.
Lauren Harrell, Cientista de Dados da Google Research, observou que a capacidade do modelo de distinguir entre cantos de pássaros semelhantes — como os "arrulhos" distintos de 14 espécies diferentes de pombas da América do Norte — o força a aprender recursos acústicos detalhados. Esses mesmos recursos parecem ser críticos para diferenciar as nuances das vocalizações de mamíferos marinhos.
O cerne desta inovação reside em uma técnica conhecida como aprendizado por transferência (transfer learning). Em vez de construir uma nova rede neural profunda do zero para cada nova espécie marinha descoberta, os pesquisadores podem usar o Perch 2.0 para gerar "embeddings".
Embeddings são representações numéricas compactadas de dados de áudio. O Perch 2.0 processa gravações subaquáticas brutas e as converte nesses recursos gerenciáveis. Os pesquisadores então treinam um classificador simples e computacionalmente barato (como regressão logística) sobre esses embeddings para identificar sons específicos.
Os benefícios desta abordagem incluem:
Para validar as capacidades do modelo, a equipe avaliou o Perch 2.0 em relação a vários outros modelos de bioacústica (bioacoustics), incluindo o Perch 1.0, SurfPerch e modelos especializados em baleias. A avaliação utilizou três conjuntos de dados primários que representam diversos desafios acústicos subaquáticos.
Tabela 1: Principais Conjuntos de Dados Marinhos Utilizados para Avaliação
| Nome do Conjunto de Dados | Fonte/Descrição | Classificações Alvo |
|---|---|---|
| NOAA PIPAN | Centro de Ciência Pesqueira das Ilhas do Pacífico da NOAA | Espécies de baleias de barbatana (Baleen species): Azul, Fin, Sei, Jubarte e de Bryde Inclui o misterioso som "biotwang" |
| ReefSet | Google Arts & Culture "Calling in Our Corals" | Ruídos de recife (coaxares, estalos) Espécies específicas de peixes (Donzelas, Garoupas) |
| DCLDE | Sons biológicos e abióticos diversos | Ecótipos de orca (Residente, Transiente, Offshore) Distinção entre ruído biológico vs. abiótico |
Nesses testes, o Perch 2.0 classificou-se consistentemente como o melhor ou o segundo melhor modelo em vários tamanhos de amostra. Notavelmente, ele se destacou na distinção entre diferentes "ecótipos" ou subpopulações de orcas — uma tarefa notoriamente difícil que exige a detecção de diferenças sutis de dialeto.
Técnicas de visualização usando gráficos t-SNE revelaram que o Perch 2.0 formou clusters distintos para diferentes populações de orcas. Em contraste, outros modelos frequentemente produziam resultados misturados, falhando em separar claramente as assinaturas acústicas distintas das orcas Residentes do Norte versus as Transientes.
Os pesquisadores propõem várias teorias para essa transferência bem-sucedida entre domínios. O principal impulsionador é provavelmente a escala massiva do modelo. Grandes modelos de fundação tendem a generalizar melhor, aprendendo representações de recursos robustas que se aplicam amplamente.
Além disso, a "lição do abetouro" desempenha um papel. Na ornitologia, distinguir o chamado estrondoso de um abetouro (bittern) de sons de baixa frequência semelhantes requer alta precisão. Ao dominar esses desafios terrestres, o modelo efetivamente treina a si mesmo para prestar atenção às minúsculas modulações de frequência que também caracterizam os cantos das baleias.
Além disso, há uma base biológica: a evolução convergente. Muitas espécies, independentemente de viverem em árvores ou oceanos, desenvolveram mecanismos semelhantes para a produção de som. Um modelo de fundação (foundation model) que captura a física de uma siringe (órgão vocal das aves) pode, inadvertidamente, capturar a física da vocalização de mamíferos marinhos.
A capacidade de usar um modelo terrestre pré-treinado para a pesquisa marinha (marine research) democratiza o acesso a ferramentas avançadas de IA. A Google lançou um tutorial ponta a ponta via Google Colab, permitindo que biólogos marinhos utilizem o Perch 2.0 com dados do Arquivo de Dados Acústicos Passivos da NOAA NCEI.
Este fluxo de trabalho de "modelagem ágil" remove a barreira da necessidade de ampla experiência em aprendizado de máquina ou recursos computacionais massivos. Os conservacionistas podem agora implantar rapidamente classificadores personalizados para rastrear populações de baleias em migração, monitorar a saúde dos recifes ou identificar sons novos e desconhecidos — como o "biotwang" recentemente identificado da baleia de Bryde — com velocidade e precisão sem precedentes.
Ao provar que o som é uma linguagem universal para a IA, o Perch 2.0 da Google DeepMind não apenas avança a ciência da computação, mas também fornece uma linha de vida vital para compreender e proteger os mistérios ocultos do oceano.