
Uma nova investigação gerou críticas significativas em relação à implementação das Visões Gerais de IA (AI Overviews) do Google, especificamente no que diz respeito à forma como a gigante das buscas lida com informações médicas. De acordo com um relatório do The Guardian, o Google não exibe avisos de segurança críticos quando os usuários recebem pela primeira vez conselhos médicos gerados por IA. Essa omissão acendeu um alerta entre especialistas em segurança de IA e profissionais médicos, que argumentam que o design atual prioriza uma experiência de usuário contínua em detrimento da segurança do paciente, expondo potencialmente os usuários a informações de saúde enganosas ou perigosas.
À medida que a IA continua a remodelar o cenário da informação digital, a integração de modelos de IA Generativa (Generative AI) em motores de busca tem sido um ponto focal de inovação. No entanto, esta última controvérsia destaca a tensão persistente entre a rápida implantação de tecnologias de IA e os rigorosos padrões de segurança exigidos para domínios sensíveis como a saúde.
O cerne da crítica decorre do design da interface do usuário das AI Overviews do Google. Quando um usuário faz uma consulta sobre um tópico relacionado à saúde — que varia de verificações de sintomas de derrames a perguntas sobre ataques cardíacos — o resumo gerado por IA aparece no topo dos resultados de pesquisa, muitas vezes deslocando os links tradicionais da web.
A investigação do The Guardian revelou que na tela inicial, conhecida como "acima da dobra" (above the fold), não há isenções de responsabilidade (disclaimers) visíveis alertando os usuários de que a informação é gerada por uma IA e pode ser imprecisa. Para ver qualquer aviso de segurança, o usuário deve interagir ativamente com a interface clicando em um botão "Mostrar mais". Mesmo assim, o aviso não é exibido com destaque no topo do texto expandido. Em vez disso, ele está localizado na parte inferior do conteúdo gerado, renderizado em uma fonte menor e mais clara que é fácil de ignorar.
O aviso oculto diz: "Isto é apenas para fins informativos. Para aconselhamento médico ou um diagnóstico, consulte um profissional. As respostas da IA podem incluir erros."
Os críticos argumentam que esse design pressupõe um nível de escrutínio do usuário que raramente existe em buscas casuais na web. No momento em que um usuário chega ao final de uma visualização expandida, ele já consumiu o resumo da IA, aceitando-o potencialmente como fato sem ver a ressalva de que o sistema é propenso a erros.
A decisão de enterrar isenções de responsabilidade de saúde atraiu duras repreensões de vozes importantes na ética da IA e na pesquisa médica. O consenso entre esses especialistas é que a ausência de atrito imediato — como um rótulo de aviso proeminente — incentiva os usuários a confiar cegamente na saída gerada pela máquina.
Pat Pataranutaporn, professor assistente e tecnólogo no Massachusetts Institute of Technology (MIT), destacou os perigos duplos dessa escolha de design. Ele observou que os modelos de IA são conhecidos por exibir "comportamento sicofanta" (sycophantic behavior), priorizando respostas que satisfaçam a consulta do usuário em vez de uma precisão rigorosa. Em um contexto de saúde, esse desejo de agradar pode ser desastroso.
"Primeiro, mesmo os modelos de IA mais avançados hoje ainda sofrem de alucinações (hallucinations) de informações incorretas... Em contextos de saúde, isso pode ser genuinamente perigoso", afirmou Pataranutaporn. Ele explicou ainda que os avisos servem como um "ponto de intervenção" necessário para interromper a confiança automática e estimular o pensamento crítico. Sem eles, os usuários podem interpretar mal os sintomas ou falhar em fornecer o contexto necessário, levando a IA a gerar conselhos irrelevantes ou prejudiciais.
Gina Neff, professora de IA responsável na Queen Mary University of London, ecoou essas preocupações, sugerindo que o problema é estrutural e não acidental. "As AI Overviews são projetadas para velocidade, não para precisão", observou Neff, sugerindo que a busca por uma interface de usuário simplificada comprometeu os protocolos de segurança necessários para consultas médicas.
O impacto psicológico do posicionamento da AI Overview não pode ser superestimado. Ao posicionar o resumo da IA no topo absoluto da página de resultados de pesquisa, o Google sinaliza implicitamente que este conteúdo é a resposta mais relevante e autoritária.
Sonali Sharma, pesquisadora do Center for AI in Medicine and Imaging da Stanford University, apontou que esse posicionamento cria uma "sensação de tranquilidade". Usuários que buscam respostas rápidas em um momento de ansiedade — como ao investigar um sintoma súbito — tendem a ler o resumo inicial e parar por ali. Esse comportamento, conhecido como "satisfação suficiente" (satisficing), significa que os usuários se contentam com a primeira resposta aceitável que encontram.
"O principal problema é que estas Google AI Overviews aparecem no topo da página de pesquisa e muitas vezes fornecem o que parece ser uma resposta completa", explicou Sharma. "Torna-se muito difícil dizer o que é preciso ou não, a menos que você já esteja familiarizado com o assunto."
Se o aviso estiver oculto atrás de um clique e uma rolagem, ele efetivamente não existe para a maioria dos usuários que dependem da visão inicial.
A tabela a seguir contrasta as escolhas de design atuais do Google com as recomendações feitas por defensores da segurança do paciente e especialistas em ética de IA.
| Implementação Atual do Google | Melhores Práticas de Segurança | Fator de Risco Potencial |
|---|---|---|
| Aviso oculto atrás do botão "Mostrar mais" | Aviso visível imediatamente ao carregar | Usuários podem agir com base em conselhos sem ver os avisos Alto risco de aceitação de desinformação |
| Aviso localizado na parte inferior do texto | Aviso colocado no topo (Cabeçalho) | O comportamento de "satisficing" leva a avisos perdidos O contexto crítico é perdido |
| Fonte pequena, cinza claro | Mesmo tamanho/peso do texto principal ou negrito | A hierarquia visual diminui a importância da segurança Mais difícil de ler para deficientes visuais |
| Reativo (usuário deve clicar para ver) | Proativo (sempre visível) | Depende da ação do usuário para revelar informações de segurança Pressupõe alta diligência do usuário |
Em resposta às críticas, o Google manteve que seu sistema é projetado para ser responsável. Um porta-voz da empresa afirmou que as AI Overviews "incentivam as pessoas a buscar aconselhamento médico profissional" e frequentemente mencionam a necessidade de atenção médica dentro do próprio texto do resumo. A empresa negou que minimize a segurança, argumentando que o conteúdo se destina a ser informativo.
No entanto, esta não é a primeira vez que o Google enfrenta reações adversas sobre seus recursos de pesquisa com IA. Em janeiro, uma investigação separada revelou que a IA do Google estava gerando informações de saúde falsas e enganosas, levando a empresa a remover resumos de IA para certas consultas médicas. Apesar desses ajustes, a persistência do problema do aviso oculto sugere que a filosofia de design subjacente — priorizar uma interface limpa e desimpedida — continua sendo uma prioridade em relação ao atrito de segurança explícito.
A controvérsia em torno das AI Overviews do Google toca em uma questão fundamental na implantação da inteligência artificial: o conceito de E-E-A-T (Experiência, Especialidade, Autoridade e Confiabilidade). No campo médico, a confiabilidade é primordial. Quando um motor de busca atua como intermediário para aconselhamento médico, ele assume um nível de responsabilidade comparável ao de um editor de literatura médica.
Tom Bishop, chefe de informações ao paciente na instituição de caridade para câncer no sangue Anthony Nolan, pediu mudanças urgentes na interface. Ele argumentou que, para consultas de saúde, o aviso deveria ser a "primeira coisa que você vê" e deveria corresponder ao tamanho da fonte do texto principal.
"Sabemos que a desinformação é um problema real, mas quando se trata de desinformação sobre saúde, é potencialmente muito perigoso", disse Bishop. Seus comentários refletem uma demanda crescente para que as gigantes da tecnologia sejam responsabilizadas pela "arquitetura da informação" que criam. Não basta ter os dados corretos em algum lugar do sistema; a apresentação desses dados deve levar em conta a psicologia humana e o potencial de erro.
À medida que a IA continua a se integrar mais profundamente em nossas vidas diárias, os mecanismos pelos quais acessamos informações estão passando por uma mudança radical. A luta do Google para equilibrar a elegância das AI Overviews com a realidade complexa da segurança médica serve como um conto de advertência.
Para a Creati.ai, este incidente ressalta a necessidade de "segurança por design" (safety by design). Avisos e salvaguardas não devem ser pensamentos tardios ou textos legais ocultos; eles devem ser partes integrantes da experiência do usuário, especialmente quando a saúde e a segurança estão em jogo. Até que esses avisos sejam trazidos das sombras e colocados na frente e no centro, os usuários permanecem em risco de confundir um palpite algorítmico com o diagnóstico de um médico.