第一生活网

什么时候应该相信人工智能助手的预测

齐壮紫
导读 在一家繁忙的医院里,一位放射科医生正在使用人工智能系统根据患者的 X 射线图像来帮助她诊断医疗状况。使用人工智能系统可以帮助她更快

在一家繁忙的医院里,一位放射科医生正在使用人工智能系统根据患者的 X 射线图像来帮助她诊断医疗状况。使用人工智能系统可以帮助她更快地做出诊断,但她怎么知道什么时候可以相信人工智能的预测呢?

她没有。相反,她可能会依靠她的专业知识、系统本身提供的置信度或对算法如何做出预测的解释——这可能看起来很有说服力,但仍然是错误的——来做出估计。

为了帮助人们更好地理解何时应该信任人工智能“队友”,麻省理工学院的研究人员创造了一种引导人类更准确地理解机器做出正确预测和错误预测的情况的引导技术。

通过向人们展示人工智能如何补充他们的能力,训练技术可以帮助人类在与人工智能代理合作时做出更好的决策或更快地得出结论。

计算机科学和人工智能临床机器学习小组的研究生 Hussein Mozannar 说:“我们提出了一个教学阶段,我们逐渐将人类引入这种人工智能模型,以便他们自己看到它的弱点和优势。”实验室(CSAIL)和医学工程与科学研究所。“我们通过模仿人类在实践中与 AI 交互的方式来做到这一点,但我们会进行干预以向他们提供反馈,以帮助他们理解他们与 AI 进行的每一次交互。”

Mozannar 与领导 CSAIL 可视化小组的计算机科学助理教授 Arvind Satyanarayan 一起撰写了这篇论文;麻省理工学院电气工程和计算机科学副教授、临床机器学习小组负责人、资深作者大卫·桑塔格。该研究将于 2 月在人工智能促进协会上发表。

心智模型

这项工作的重点是人类建立的关于他人的心智模型。如果放射科医生对某个病例不确定,她可能会询问某个领域的专家同事。根据过去的经验和她对这位同事的了解,她有一个关于他的优点和缺点的心智模型,她用它来评估他的建议。

Mozannar 说,人类在与 AI 代理交互时会构建相同类型的心智模型,因此这些模型的准确性非常重要。认知科学表明,人类通过记住过去的互动和经历来为复杂的任务做出决定。因此,研究人员设计了一个入职流程,提供了人类和人工智能协同工作的代表性示例,作为人类未来可以借鉴的参考点。他们首先创建了一种算法,该算法可以识别最能向人类传授人工智能知识的示例。