Google DeepMind 提出新方法,解决大模型答案的奉承行为

554次阅读
没有评论

品玩8月10日讯,据 Arxiv 页面显示,一群来自 Google DeepMind  的研究者近日发表论文,公布了一项全新的研究技术,可用于提高生成式大模型回答的准确性。

研究指出,大语言模型会在一定程度上根据用户的观点来调整自己的答案,这将会影响答案的客观性和正确性。该研究团队通过对公共NLP任务进行轻量级微调,鼓励模型对用户在这些任务上的观点更加稳健。

Google DeepMind 提出新方法,解决大模型答案的奉承行为

研究显示,添加这些数据可以显著减少在回答中的奉承行为。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy