마운트시나이 연구, AI 대형 언어 모델이 의료 허위정보에 취약하다고 밝혀
마운트시나이 연구에 따르면 AI LLM은 의료 허위정보를 32~46%의 확률로 사실로 받아들이며, 특히 이를 전문가 조언으로 제시할 때 그 비율이 높았습니다.
마운트시나이 연구에 따르면 AI LLM은 의료 허위정보를 32~46%의 확률로 사실로 받아들이며, 특히 이를 전문가 조언으로 제시할 때 그 비율이 높았습니다.
옥스퍼드 대학교 연구에 따르면 AI 챗봇은 일관성 없는 의료 조언을 제공해 사용자가 신뢰할 수 있는 건강 정보를 식별하기 어렵게 만듭니다.
하버드 연구진이 Nature Neuroscience에 BrainIAC 기초 모델을 발표했으며, 48,900개의 MRI 스캔으로부터 치매, 뇌졸중 및 암을 예측합니다.
유타주는 헬스테크 스타트업 Doctronic과 협력해 임상 평가를 수행한 후 약 200가지의 일반 의약품을 자율적으로 갱신하는 AI 시스템을 출시했습니다. Doctronic은 자사 AI 의사가 규제 승인을 필요로 하지 않는다고 주장해 이번 계획은 FDA의 감독 권한에 대한 중대한 의문을 제기합니다.
이 딥러닝 도구는 달팽이관의 유모세포를 전례 없는 3D로 시각화하여 난청 치료 연구를 진전시킵니다.
MIT 연구진은 가장 성능이 우수한 기계 학습 모델도 새로운 데이터 환경에 적용되면 최악의 성능을 보일 수 있으며, 의료 AI 및 기타 중요한 응용 분야에서 잘못된 상관관계로 인한 숨겨진 위험을 드러낸다고 보여줍니다.