Estudo do Mount Sinai revela que grandes modelos de linguagem de IA são suscetíveis a desinformação médica
Pesquisa do Mount Sinai mostra que LLMs de IA acreditam em desinformação médica em 32–46% das vezes, especialmente quando apresentada como conselho de especialista.


