主要内容
- 人工智能在骨科考试中的表现:本文评估了一种生成型人工智能模型ChatGPT在美国骨科学会(AAOS)开发的骨科住院医师培训考试(OITE)和自我评估考试(SAE)中的表现,作为美国骨科外科医师委员会(ABOS)考试的代理。
- 方法:本文从AAOS数据库中选取了301道SAE题目和相关文献,以问答和多项选择的形式输入到ChatGPT的界面中,然后分析了模型选择的答案,并与OITE和SAE考试的答案进行了比较。
- 结果:在301道题目中,ChatGPT正确回答了183道(60.8%)。在不同的专科领域中,模型在肩肘、基础科学、运动和肿瘤方面表现最好,而在儿科和手外科方面表现最差。在不同类型的问题中,模型在诊断方面表现最好,而在管理方面表现最差。
- 结论:ChatGPT有潜力为骨科教育者和学习者提供准确的临床结论,但其推理过程应该仔细分析其准确性和临床有效性。因此,其在临床教育环境中的作用目前有限,但在快速发展。
原文链接
https://www.sciencedirect.com/science/article/pii/S0972978X23002593