研究:ChatGPT 给出的癌症治疗方案充满错误信息
OpenAI 的谈天机器人 ChatGPT 虽然风行全球,但一项新的研讨标明,它在一个要害范畴还远不能替代人类专家。美国哈佛医学院隶属的布里格姆妇女医院的研讨人员发现,ChatGPT 生成的癌症医治计划充满了过错。
这项研讨宣布在《美国医学会肿瘤学杂志》上,研讨人员向 ChatGPT 提出了各种癌症病例的医治计划,成果发现三分之一的答复中包含了不正确的信息。研讨还指出,ChatGPT 倾向于将正确和过错的信息混合在一起,因而很难辨认哪些信息是精确的。
该研讨的合著者 Danielle Bitterman 博士称,他们“对过错信息与正确信息混合在一起的程度感到震动,这使得即使是专家也很难发现过错。”她弥补说,“大型言语模型经过训练能够供给听起来十分有说服力的答复,但它们并不是为了供给精确的医疗主张而规划的。过错率和答复的不稳定性是临床范畴需求处理的要害安全问题。”
ChatGPT 于 2022 年 11 月推出后一夜成名,两个月后就达到了 1 亿活泼用户。虽然 ChatGPT 取得了成功,但生成型人工智能模型依然简单呈现“错觉”,即自傲地给出误导性或彻底过错的信息。
将人工智能融入医疗范畴的尽力现已在进行中,首要是为了简化办理使命。本月早些时候,一项严峻研讨发现,运用人工智能筛查乳腺癌是安全的,而且或许将放射科医师的工作量削减近一半。哈佛大学的一位计算机科学家最近发现,最新版别的模型 GPT-4 能够轻松经过美国医学执照考试,并暗示它比一些医师具有更好的临床判断力。
虽然如此,因为 ChatGPT 等生成型模型存在精确性问题,它们不太或许在近期替代医师。《美国医学会肿瘤学杂志》上的研讨发现,ChatGPT 的答复中有 12.5% 是“错觉”,而且在被问及晚期疾病的部分医治或免疫疗法时,最有或许给出过错的信息。
OpenAI 现已供认 ChatGPT 或许不可靠,该公司的运用条款正告说,他们的模型并非旨在供给医疗信息,也不应该用于“为严峻的医疗情况供给确诊或医治服务”。
来历:
IT之家