医生还是庸医?
快速阅读: 《班加罗尔镜报》消息,越来越多 Australians 使用 ChatGPT 查询健康问题,尤其在低健康素养群体中更为普遍。常见查询包括健康状况和症状解释。研究显示,39% 的受访者计划未来六个月内使用此类工具。生成式人工智能虽便捷,但其准确性仍需谨慎对待。建立“人工智能健康素养”技能,确保人们能安全使用这些工具,变得尤为重要。
更多人用生成式人工智能询问健康问题,但错误的回答可能有风险。越来越多的人开始利用生成式人工智能(人工智能)来帮助他们在日常生活和职业中。ChatGPT是最著名且广泛可用的人工智能工具之一。它免费提供针对任何问题的个性化、合理的答案。生成式人工智能工具有巨大潜力帮助人们了解自己的健康状况,但答案并不总是正确的。仅仅依赖ChatGPT获取健康建议可能是危险的,并可能导致不必要的担忧。生成式人工智能仍然是一项相对较新的技术,并且在不断变化。我们的新研究表明了哪些人在使用ChatGPT回答健康问题,以及他们的目的。这些结果可以帮助人们了解如何安全地使用这项新技术,并需要哪些新技能——换句话说,就是建立“人工智能健康素养”。
谁在使用ChatGPT进行健康咨询?他们问了什么?
2024年6月,我们调查了一千多名澳大利亚人是否使用过ChatGPT回答健康问题。十分之一的人(百分之九点九)在2024年上半年向ChatGPT询问过健康问题。平均而言,他们对ChatGPT的信任度为“一般”(三点一/五)。我们还发现,使用ChatGPT进行健康咨询的比例在低健康素养人群、非英语国家出生的人或在家讲其他语言的人中更高。这表明ChatGPT可能正在支持那些在澳大利亚难以接触传统健康信息的人群。
人们最常询问的问题包括:了解某种健康状况(百分之四十八)、了解症状含义(百分之三十七)、询问行动措施(百分之三十六)或理解医学术语(百分之三十五)。超过一半的人(百分之六十一)至少提出过一个通常需要临床建议的问题。我们将这些问题归类为“风险较高”。询问ChatGPT症状含义可以给你大致的想法,但不能替代临床建议。在非英语国家出生或在家讲其他语言的人更有可能提出这类问题。
为什么这很重要?
使用生成式人工智能获取健康信息的人数可能会增加。在我们的研究中,百分之三十九尚未使用ChatGPT进行健康咨询的人表示在未来六个月内会考虑这样做。如果考虑其他工具如谷歌Gemini、微软Copilot和Meta AI,使用生成式人工智能工具获取健康信息的总体人数甚至更高。值得注意的是,在我们的研究中,来自文化和语言多样性社区的人们可能更倾向于使用ChatGPT获取健康信息。如果他们要求ChatGPT翻译健康信息,则会增加另一层复杂性。生成式人工智能工具在其他语言中的准确性通常较低。我们需要投资于服务(无论人工还是机器),以确保说另一种语言不会成为获得高质量健康信息的障碍。
什么是“人工智能健康素养”?
生成式人工智能将长期存在,为那些将其用于健康信息的人带来机遇和风险。一方面,这项技术吸引了那些已经面临显著医疗保健和健康信息获取障碍的人。其主要优势之一是能够即时提供易于理解的健康信息。最近的一项研究表明,生成式人工智能工具越来越能够使用通俗语言回答一般的健康问题,尽管它们在复杂的健康话题上准确性较低。这对大多数人来说是有益的,因为大多数健康信息的编写水平超出了普通人群的理解范围,尤其是在疫情期间也是如此。
另一方面,人们转向通用型人工智能工具寻求健康建议。对于需要临床判断和患者全面理解的问题,这更加危险。已经有案例研究表明,使用通用型人工智能工具决定是否去医院的风险。还可以去哪里获取这些信息?
我们需要帮助人们仔细思考他们向人工智能工具提出的问题,并将他们与能够回答这些风险较高的问题的适当服务联系起来。我们迫切需要为社区提供人工智能健康素养技能。随着更多人使用人工智能工具进行健康咨询,这种需求会增长,同时也会随着人工智能工具的发展而变化。
(以上内容均由Ai生成)