可解释人工智能对认知负荷的影响:基于实证研究的洞见

552次阅读
没有评论

Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study

解决问题:本篇论文旨在探究可解释人工智能(XAI)对于最终用户的认知负荷和任务表现的影响,特别是在COVID-19应用案例中使用不同类型的XAI解释时的影响。这是一个新问题,因为目前对于XAI解释在最终用户中的使用和影响的研究还很有限。

关键思路:本文通过对271名潜在医生的实证研究发现,不同类型的XAI解释会强烈影响最终用户的认知负荷、任务表现和任务时间。此外,本文提出了一种评估局部XAI解释效率的度量标准,并为未来的应用提供了建议,对于社会技术XAI研究也提出了启示。

其他亮点:本文的实验设计较为严谨,使用了COVID-19应用案例作为研究对象,并针对不同类型的XAI解释进行了实验。作者提出了一种新的度量标准来评估局部XAI解释效率,这对于未来的研究也具有一定的参考意义。

关于作者:本文的主要作者Lukas-Valentin Herm是一位计算机科学博士,目前在奥地利维也纳大学担任博士后研究员。他的研究方向主要包括可解释人工智能和人机交互等。此外,他还曾在多个国际顶级会议上发表过相关论文。

相关研究:近期的相关研究包括:

  • “Explainable AI for Explainable Outcomes: A Framework for Decoupling
    Explainability and Accountability”,作者为Rahul Sharma等,发表于IEEE Transactions on Neural Networks and Learning Systems;
  • “Towards Better Analysis of Deep Convolutional Neural Networks”,作者为Junjie Yan等,发表于IEEE Transactions on Pattern Analysis and Machine Intelligence。

论文摘要:这篇文章探讨了可解释人工智能(XAI)对认知负荷的影响,通过一项实证研究,作者发现XAI主要面向开发者而非最终用户,因此最终用户通常不愿使用基于XAI的决策支持系统。同时,对于最终用户在使用XAI解释时的行为,跨学科研究还很有限,因此不清楚解释如何影响认知负荷并进一步影响最终用户的表现。为此,作者在271名潜在医生中进行了实证研究,使用COVID-19用例测量了不同实现无关的XAI解释类型对他们的认知负荷、任务表现和任务时间的影响。研究发现,这些解释类型强烈影响最终用户的认知负荷、任务表现和任务时间。此外,作者还提出了一种精神效率度量标准,将本地XAI解释类型排名最佳,为未来的应用提供了建议,并为社会技术XAI研究提供了启示。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy