AI治理必修8月(下)第37刊发布!
AAIG的专家们用多学科的专业视角,每月从全球收集和筛选关于算法治理和可持续发展的全球态势。重点关注算力时代的新技术、新风险、新实践、以及对它们新解释。
8月(下)共16篇文章3947字,分【本月洞察、行业动态、前沿技术、产业实践】四个板块展开。
最近工作趋势开始用AI管理和提升AI,OpenAI的两位重要技术人物,Andrej Karpathy和Lilian Weng,向外界传递出一个令人振奋重要信号:基于LLM的AI Agents将成为AGI领域未来的重要发展方向。坏消息是,新的系统对我们来说 不可解释变成了不可解释^2。无论是AI本身还是AI Agents (AI improves AI),其中的解释性都是欠缺的。例如在GPT technique report中,关于GPT为何突然有了类人般的能力,原文用了“Emergent Ability” 即模糊掉了。又或者再早些年的AI improves AI的另一典范—-知识蒸馏,用一个模型给另一个模型从开始训练阶段打标签,以此获得了原本任务上准确率新的增长。
而增长的这部分,研究员们称之为“dark knowledge”。过去十年里,AI的发展一直都是“效果换取意义”。大概是觉得模型总是在人的能力的范围,无论学界还是业界在可解释性问题上总是稍显纵容。然而模型真的还在人的能力范围内吗?以LLM为例,我们的语言是词和感觉的映射,我们先有了开心的体验,才有了相应的语言。一些人认为缺乏世界经验LLM只是学会了语言模型的形式而不是意义。然而,LLM在缺乏现实世界经验的情况下,通过庞大的统计相关性系统产生与人类理解功能相当的能力。不也是无法企及的新智能了吗?
当AI智能不可解释性积累到一定阈值,我们可能是创造一个“人工克苏鲁”。克苏鲁基本是这样一个模式:调查员偶然间接触到了未知文明;好奇心使得他继续深挖探索,随着他越来越接近真相,他看到的景象越来越诡异,没有逻辑,无法理解,最终,他发现背后的真相就是人类无法理解的宇宙庞大的真实,他疯掉了。人类的科学认为一切都是可以理解分析的,克苏鲁小说反对的即这种态度:认为一切都可以用科学来理解,是理性的狂妄。
有趣的是,我们在现在的创造人工克苏鲁的路上,也是反应如此这般理性的狂妄,我们总是假设我们终将用科学理解AI。假如最终我们创造出超出人类理解的具有高级智能AGI,当它向你展示出某种超出你理解的高级科学理论,你愿意相信吗?科学是什么,科学的基础是“实证”,要被验证,要被理解。而当人类其实受限于自己的智能,有且只有一个选择,是否去相信。而是否“相信”,其实是神学。在过去几十年里,我们一直致力于让AI更强大。然而,当AGI真正实现的时候,我们等来是否是彻底的劳动力解放,还是前所未有的恐慌和失控感。
点击题目即可查看全文
1. 《人工智能法示范法1.0(专家建议稿)》发布 提出负面管理清单等多项创新措施
全球人工智能治理日益重要,美欧等国出台相关文件应对挑战。中国发布《人工智能法示范法1.0》,坚持发展与安全底线并提出多项措施解决责任划分等问题。
大语言模型发展快速,受到监管的关注。中美欧要求大语言模型进行信息披露,包括数据来源、算法模型、风险排查和控制措施等。这反映了对AI技术合法、安全使用的重视。各国监管要求存在差异,但都强调数据合规的重要性。
1. LaCLIP:大语言模型重写本文输入,让CLIP重焕光彩!
该论文介绍了一种名为LaCLIP的方法,通过文本重写来增强CLIP算法的性能。利用大型语言模型的上下文学习能力,重新编写与每个图像相关的文本描述。实验证明,使用语言重写的CLIP预训练显著提高了迁移学习性能。
2. 直接压缩一切!OpenAI首席科学家Ilya Sutskever这么看无监督学习
OpenAI首席科学家Ilya Sutskever提出了一连串有关「学习」的广义问题:学习究竟是什么?为什么学习有用?为什么学习应该有用?计算机为什么应该具备学习能力?为什么神经网络可以学习?为什么机器学习模型可以学习到数据的规律?我们能否用数学形式来描述学习?
3. 重磅!GPT-3.5 Turbo推出微调功能,可以打造专属ChatGPT啦!
微调是目前企业应用大语言模型的主要方法,可以提高性能和可操纵性,在某些任务上,微调版本性能可以匹配或超越GPT-4,目前定价为0.008美元/1K tokens的训练成本和0.012美元/1K tokens的输入使用成本。
4. ChatGPT企业版来了:历史最强版本,2倍速GPT-4使用无限制、32k上下文
ChatGPT已推出9个月,增加了插件和Code Interpreter等功能。企业担忧隐私安全问题,限制了员工使用。OpenAI推出ChatGPT企业版,提供强大的安全功能和适用于大规模部署的特点。OpenAI承诺保护隐私数据,并提供管理控制台和分析仪表板等功能。尚未公布定价。OpenAI面临技术变现压力,计划提高收入。
5. AI革新之路:14篇AI-Agents论文,探讨人工智能未来
1. HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace;2. Generative Agents: Interactive Simulacra of Human Behavior;3.Introspective Tips: Large Language Model for In-Context Decision Making;4.Interactive Natural Language Processing…
1. 《追AI的人》
这是一档由AAIG联合高校和产业界发起的AI治理交互栏目。重点关注分享人工智能新技术、AI治理新观点、可持续发展新风向。
1)第27期:AAIG洪海文《多模态大模型的发展与攻防一体》
1.不许在脑海里想一头粉红色的大象,你想的是什么?聊聊多模态是什么?2.你是怎么看懂《长安三万里》的?聊聊多模态大模型在识别侧的发展;3.请你画一头粉红色的大象?聊聊多模态大模型在生成侧的发展…
2)第28期:阿里巴巴媒体安全技术研究团队《图像取证探秘:P图假证无处遁形,揭开“美女荷官”骗局》
1.图像取证面临的三大挑战:美颜P图,AI“美女”,引流刷单,你是否中招过?2.如何一眼识破P图?揭秘图片背后的真相;3.AIGC生成的图像真能以假乱真?识破AI“美女”的秘密武器;4.你是否被《孤注一掷》中“在线荷官”骗过?揭开引流欺诈图像检测的秘密;5.图像取证之路漫漫:在这场揭示真相的战斗中,我们还需做些什么?
阿里云开源大规模视觉语言模型Qwen-VL,支持图文输入和多模态任务评测,具备视觉定位、图像中文字理解等能力。用户可免费下载并使用,广受关注。
3. 首次引入视觉定位,实现细粒度多模态联合理解,已开源&demo可玩
BuboGPT是一个支持文本、图像和音频三种模态的大模型,能够进行细粒度的多模态联合理解。它可以准确判断声音来源,合理描述图像和音频之间的关系,并指出图像中对象的具体位置。研究人员通过学习共享的语义空间和视觉定位pipeline,实现了多模态理解。BuboGPT的代码和数据集已经开源,可以通过demo页面进行体验。
本文探讨的是英伟达人工智能红队的理念和机器学习系统的总体框架。通过制定信息安全框架,实现英伟达想要负责任应用AI的目标。
5. “智海-录问”法律大模型正式发布,行业首个法律大模型评估指标体系公开
由浙江大学联合阿里云、华院计算联合研制面向司法领域开源开放的法律大模型——智海-录问为开展智能司法理论研究与技术创新、推动智慧法院与平台建设提供服务,同时也积极为浙江大学数字法治新型司法人才培养提供新路径。
面壁智能在AGICF发布了大模型Luca,具备与ChatGPT相当的语言模型能力和强大的多模态处理能力。Luca 2.0正式开启公测,远超其他支持中文的大模型。
7. 文心一言向全社会开放
百度的生成式AI产品文心一言在8月31日全面开放。用户可以下载应用或在官网体验。百度计划开放更多AI应用,提供理解、生成、逻辑、记忆四大核心能力。百度投入超1400亿元进行研发,成为全栈布局的AI公司。
国内11家通过《生成式人工智能服务管理暂行办法》备案的AI大模型产品将陆续上线,面向全社会开放。其中,北京5家,上海3家,广东省2家,其他省市1家。这一举措标志着生成式AI监管进入新阶段。
📺直播预告
📌往期推荐
🌟《人工智能治理与可持续发展实践白皮书》 精华大图集锦版 | 如何维护电商平台信息真实和竞争公平…👉点击查收白皮书全书连载
🔥《追AI的人》系列直播教你掌握互联网的“流量密码” | 如何避免ChatGPT被滥用…👉点击查收过往28期直播的全部文字回放
🎈《算法治理制度》系列丛书内容和电商领域推荐算法的应用与治理差异|“大数据杀熟” 的背后…👉点击阅读更多算法治理干货
📚《AI治理必修》月刊为什么现在的LLM都是Decoder-only的架构? | 大脑视觉信号被Stable Diffusion复现成图像!”AI读脑术”来了…👉点击阅读往期37刊月刊全文
📺 AI治理科普短视频流量为王的时代,教你如何“破圈”创作 | 信息茧房和马太效应是什么…👉点击观看往期20期精彩视频
👇AAIG课代表,获取最新动态就找她
关注公众号发现更多干货❤️
有启发点在看喔👇