마운트시나이 연구, AI 대형 언어 모델이 의료 허위정보에 취약하다고 밝혀
마운트시나이 연구에 따르면 AI LLM은 의료 허위정보를 32~46%의 확률로 사실로 받아들이며, 특히 이를 전문가 조언으로 제시할 때 그 비율이 높았습니다.
마운트시나이 연구에 따르면 AI LLM은 의료 허위정보를 32~46%의 확률로 사실로 받아들이며, 특히 이를 전문가 조언으로 제시할 때 그 비율이 높았습니다.
AI 선구자 얀 르쿤은 메타를 떠나면서 AI 산업이 대형 언어 모델(LLM)에 과도하게 집중하고 있어 잘못된 방향으로 가고 있다고 경고했다. 그는 예측적 세계 모델로의 전환을 촉구한다.