报告题目:大语言模型能否成为博弈论中的理性玩家?一个系统性的分析 (Can Large Language Models Serve as Rational Players in Game Theory? A Systematic Analysis)
报告日期:2024年1月3日(周三)14:30-15:30
主题简介:
博弈论作为一种分析工具,在社会科学研究中经常被用来分析人类行为。由于大语言模型(LLMs)的行为与人类高度一致,一个有前景的研究方向是在博弈实验中使用LLMs来替代人类,从而促进社会科学领域的研究。然而,尽管对大型语言模型与博弈论的结合进行了大量实证研究,大型语言模型在博弈论中的能力边界仍不清晰。在本研究中,我们致力于系统地分析博弈论背景下的LLMs。具体来说,理性作为博弈论的基本原则,是评价玩家行为的标准——建立明确的愿望、精炼对不确定性的信念、采取最优行动。因此,我们选择了三个经典博弈(独裁者博弈、剪刀石头布和环网博弈)来分析LLMs在这三个方面的理性程度。实验结果表明,即使是目前最先进的LLM(GPT-4),在博弈论方面与人类相比也有很大差距。例如,LLMs难以建立基于不常见偏好的欲望,无法从许多简单模式中精炼信念,并且在采取行动时可能会忽略或修改提炼出的信念。因此,我们认为在社会科学领域的博弈实验中引入LLMs应更加谨慎。
论文:https://arxiv.org/abs/2312.05488
个人介绍:范曹耘,上海交通大学人工智能研究院的四年级博士生,由金耀辉教授指导。他在AAAI,ACL,EMNLP,ICASSP,COLING,ESWA,APIN等会议和期刊上发表多篇论文。目前,他的研究兴趣包括:基于大语言模型的智能代理、大语言模型在社会科学中的应用、因果驱动的自然语言处理。
扫描下方二维码
或点击「阅读原文」报名