大模型 | CVer 转 LLMer 学习笔记:GPT 系列

1,242次阅读
没有评论

这篇是我对 GPT 系列文章的一个学习笔记,从个人角度梳理了 GPT 系列的迭代逻辑,相对来说更关注整体的技术逻辑连续性和关联性,对于部分个人感兴趣的内容也会稍微展开多列举一些。

这个系列的笔记主要面向像我一样已经具备一定的深度学习基础,但是新接触 NLP 和大模型领域的读者,目的是能提纲挈领地快速把握这个领域的一系列关键工作节点。

这篇笔记涵盖的内容有:

  • GPT-1 论文
  • GPT-2 论文
  • GPT-3 论文
  • InstructGPT 论文(GPT-3.5 背后的技术)
  • GPT-4 技术报告
  • GPT-4 微软评测报告
  • GPT-4V 微软评测报告

作为一个从 CV 转到 LLM 的新人,难免犯一些常见或低级的错误,欢迎任何读者及时指出和斧正,也欢迎任何留言讨论。

TL;DL

  • 注重能力,而非过程:预训练任务其实形式不重要,可以是 classification,可以是预测 next token,真正重要的是 model 和 data 的 scaling up,以此快速高效地得到一个有优异泛化能力的特征提取器:
  • data:找到/设计一个能把海量的数据用起来的任务,能用的数据越多越好,训练越快越好
  • model:模型性能可以随着参数量巨量地提升而不会快速饱和,一个优秀的模型架构是 scaling up 的基础保障
  • 三种范式
    • 我们可以将专属任务上微调得到的模型,看成一种用户输入 0 个特殊 token,解决 1 种任务的范式,所以第一范式下的每个模型只能用于解决一个专属任务。
    • 第二范式的模型是为每一种任务准备 1 个特殊 token,因此通过改变输入 token,就能用一个模型解决不同的任务。
    • 第三范式的模型把特殊 token 替换成了特殊 token 序列,而自然语言正好就是一种最符合人类习惯和直觉的特殊 token 序列。
  • RLHF
    • SFT 模型(16 epoch)
    • RM
    • PPO 继续训练出来的最终模型
    • SFT 数据(13k 条):人工设计的问题,人工标注答案
    • Feedback 数据(33k 条):针对上面人工设计的问题,模型输出的几份答案的排序(打分)
    • PPO 使用的数据(31k 条):人工设计的问题(上面的模型没见过的新问题),用 RM 的评分来继续训练,这份数据不需要人工标注答案
  • 对 GPT-4 的全面探索
    • 心理学角度:人类思维是快思考与慢思考两个系统的混合体,而 GPT-4 目前更类似于单纯的快思考
    • GPT-4 还有哪些局限性,以及哪些可以改进的地方(见 GPT-4 微软报告)
  • GPT-4V 的全面探索
    • 支持哪些输入和工作模式
    • 在不同领域和任务上的能力质量和通用性如何
    • 有效使用和提示方法
    • 未来方向

    1. Improving Language Understanding by Generative Pre-Training (2018.06)

    GPT 系列的第一篇论文,定下了纯 Transformer-Decoder 路线。

    深度学习的早期突破很多来自于 CV 领域,其中很重要的一个原因是 CV 有 ImageNet 这个百万量级的有标注数据集,在 ImageNet 上训练分类任务得到的模型 Backbone 天然就是一个优秀的图片特征提取器,基于这个特征提取器去任意的子任务上做 fine-tuning 效果都不会太差(至少能展现出一定的泛化能力)。而 NLP 领域缺少这样大的数据集,因此一直以来 NLP 模型发力卡在了特征提取器的构筑上,GPT 提出用训练语言模型的方式来得到这个特征提取器,然后用它来做子任务上的微调。

    语言模型由于做的是“预测下一个词”这样的一个任务,因此不依赖于人工标注,可以实现海量数据的预训练和泛化。

    GPT 工作是在 BERT 之前的,很多的 setting 都被 BERT 直接沿用了,比如 12 层 Transformer,768 的维度,800M 的 BookCorpus 数据集 等。

    文章剩余部分介绍了如何在 NLP 四大主流任务类型上运用 GPT,即如何把不同形式的任务都表示成一个序列+对应的标签的形式。

    对笔者的启示:

    • 注重能力,而非过程:预训练任务其实形式不重要,可以是 classification,可以是预测 next token,真正重要的是 model 和 data 的 scaling up,以此快速高效地得到一个有优异泛化能力的特征提取器:
    • data:找到/设计一个能把海量的数据用起来的任务,能用的数据越多越好,训练越快越好
    • model:模型性能可以随着参数量巨量地提升而不会快速饱和,一个优秀的模型架构是 scaling up 的基础保障

    2. Language Models are Unsupervised Multitask Learners (2019.02)

    GPT 系列的第二篇工作。

    参数量提升到了 1.5B,也用了更大量的数据。GPT-2 最大的贡献是把研究的重点从单个任务上的针对性调参刷榜,转向了 zero-shot,即,训练好的模型不再需要微调就能去做不同任务了,尽管性能上距离每个任务的 SOTA 都还有距离,但方案的可行性已经验证了。要实现这一点,原来为特殊任务准备特殊 token 的做法就不合适了,因为预训练阶段模型是没见过这些 token 的,毕竟语言模型预训练阶段只见过自然语言,所以非常自然地就引出了 prompt 的概念,用自然语言来替代原本的任务 token,实现不同任务的 zero-shot。

    可以看到,在这个时候 GPT-2 就已经初具 ChatGPT 的雏形了,只不过用户的输入还不完全是任意自然语言,而是类似于这样的模板输入。:

    翻译任务:
    (translate to
    french, english text, french text)

    QA 任务:
    (answer the question, document,
    question, answer)

    3. Language Models are Few-Shot Learners (2005.14165)

    GPT 系列的第三篇工作。

    GPT-3 的参数量来到了 175B,训练数据从一开始 GPT-1 的几千本书的数据集,开始进入到了网站爬虫数据和清洗的模式。

    其实在 GPT-2 中就已经提到了一个叫 Common Crawl 的公开网络数据,但是因为他们觉得这份数据实在太脏了所以放弃了,而现在为了训练更大的模型也不得不用起来,因此清洗数据是免不了的。

    数据清洗经历了两个过程:

    1. 过滤:他们将原来 GPT-2 训练用的数据作为正样本,Common Crawl 作为负样本训练了一个二分类器,然后用这个分类器来做数据筛选,过滤掉一些特别显著的脏数据。
    2. 去重:用经典的 LSH 算法进行去重

    另一方面,GPT-3 也正式提出了“in-context learning”的概念,在模型参数不进行更新的情况下,通过输入的上下文来帮助模型提升表现。

    对于笔者而言,这张图相当形象:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    这揭示了模型学习的另一个维度,提升模型表现并不只有 SGD 梯度更新这一个优化方向。结合 GPT-2 中 prompt 的由来,prompt 的前身是语言模型做多任务 zero-shot 时,针对不同任务给的特殊 token,因此一个更加富有信息量的“特殊 token 序列”能提升模型表现似乎是一件非常符合直觉的事情。

    相比于过去使用一个特殊 token 来代表某一种特定的任务,GPT-3 的 few-shot prompt,或者说 in-context learning 形式,在笔者看来是一种推广,用户输入的自然语言和 few-shot 样例可以看成是一组特殊 token 的序列,因为自然语言的 token 具有语义和逻辑关联性,一个强大的预训练模型做到了“特殊 token”之间的泛化。

    通过实验我们也可以观察到,随着给出的示例样本数变多,模型的表现也在提升:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    从笔者个人的角度来总结:

    • 我们可以将专属任务上微调得到的模型,看成一种用户输入 0 个特殊 token,解决 1 种任务的范式,所以第一范式下的每个模型只能用于解决一个专属任务。
    • 第二范式的模型是为每一种任务准备 1 个特殊 token,因此通过改变输入 token,就能用一个模型解决不同的任务。
    • 第三范式的模型把特殊 token 替换成了特殊 token 序列,而自然语言正好就是一种最符合人类习惯和直觉的特殊 token 序列。

    4. Training language models to follow instructions with human feedback (2203.02155)

    InstructGPT 被认为是 ChatGPT(GPT3.5) 背后的技术,核心点是把 RLHF,即基于人类反馈的强化学习,用到了语言模型上来进行人类喜好对齐。经过 RLHF 的 1.3B GPT 模型能在人类主观评分上超过 175B 的 GPT-3.

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    这篇工作里将模型输出与人类意愿不一致的这个现象称为“misaligned”,并分析原因在于语言模型的训练目标只是预测下一个 token,这跟我们希望模型“follow the user’s instructions helpfully and safely”的目标之间显然是存在差距的。

    用 Anthropic 的工作里的话来说,大模型应该遵循 3H 原则,即:

    • helpful:帮助用户解决问题
    • honest:不能伪造信息或误导用户
    • harmless:不能对人或环境造成身体、心理或社会伤害

    语言模型之所以存在这个问题,原因也很简单,因为使用的是无监督学习,本身的学习目标里就没有人为控制,所以很直观地可以想到用监督微调(SFT)的方式来把缺失的人类监督信号加进来。

    但是前面 GPT 三篇工作好不容易才把模型做到 175B 这么大,现在又重新开始标数据做监督学习显然是有点不聪明的,而且模型大了以后也更容易过拟合,对于人类偏好这一类的问题标注起来难度又很大,简单地全靠 SFT 肯定是行不通的。所以很自然地,OpenAI 想到了用他们家的拿手好戏强化学习,要知道 OpenAI 本身就是做强化学习起家的,本文使用的强化学习方法 PPO 也全是之前他们已经提出的算法,没有任何新的算法被提出,甚至论文里都没有对已有的算法进行太多的解释和铺垫,需要你感兴趣自己去翻他们的论文。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    他们的方法整体可以概括如下:

    1. 人工标一批 SFT 数据(包含问题和回答),对 GPT-3 模型(在强化学习里对应 Policy)进行微调
    2. 用 SFT 得到的模型,针对每个问题生成几份回答,然后人工给这些回答质量打分(排序)
    3. 用这份打分数据训练一个奖励模型(Reward Model, RM),让奖励模型代替人工打分
    4. 采用 PPO 算法,基于奖励模型的评分来继续训练 GPT-3 模型

    换言之,他们一共造了三份数据

    • SFT 数据(13k 条):人工设计的问题,人工标注答案
    • Feedback 数据(33k 条):针对上面人工设计的问题,模型输出的几份答案的排序(打分)
    • PPO 使用的数据(31k 条):人工设计的问题(上面的模型没见过的新问题),用 RM 的评分来继续训练,这份数据不需要人工标注答案

    训练三个模型

    • SFT 模型(16 epoch)
    • RM
    • PPO 继续训练出来的最终模型

    他们甚至对问题类型进行了一些分类:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    模型训练部分,个人觉得值得注意的点有:

    1. SFT 阶段,在训了 1 epoch 后模型就已经过拟合了,但他们发现继续训练过拟合的模型依然可以提升 RM 性能,所以他们训练了 16 epoch
    2. RM 的权重是直接用 SFT 模型初始化的,因为评分模型也需要语言能力,直接拷贝一份权重是比较省事的。RM 的输入是问题+几份答案,输出是排序。
    3. RM 模型只有 6B,因为 175B 的 RM 很难训
    4. 强化学习阶段加了一个逐 token 的 KL 散度,用来让最终模型跟第一版 SFT 模型的要输出分布尽量保持一致,因为 RM 是在训练 SFT 模型的数据上训的,如果分布差异太大,RM 的评分就不准了

    强化学习的目标函数如下:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    简单翻译一下:

    其中:

    • RM 评分是 RM 对当前正在训练的模型在新问题(第三份数据)上的输出的评分
    • KL 散度是当前模型跟旧的 SFT 模型输出之间计算的
    • 旧问题 SFT 损失是用第一份数据集继续按 SFT 方法训当前模型得到的

    另外,关于训练数据和评测方面的取舍也有所不同,训练中他们更看重 helpful,而评测阶段则更看重 honest 和 harmless。

    5. GPT-4 Technical Report (2303.08774)

    多模

    基于上面笔者三种模型范式的思路,多模态的模型可以看成是让特殊 token 的类型从文本 token 拓宽到了视觉 token,将模型解决的任务从 NLP 任务拓宽到了 CV 任务,而两种模态 token 对齐的技术也早被 OpenAI 研究过了,也就是大名鼎鼎的 CLIP。因此,GPT-4 具备多模能力本身并不是一件意外的事情。

    RLHF

    在笔者看来,RLHF 等技术更多地是在不限制输入 token 序列的情况下,去约束模型输出的技术,当然从某种意义上,也可以看成是在监督 prompts -> task 的映射关系的技术(其实发展到现在,task 这个词已经不太准确了,可以意会一下)。

    GPT-4 的报告中明确指出,RLHF 并不能提升模型解决任务的质量(不会增加知识),甚至很多时候调的不好还会损害各个任务上的指标。RLHF 更多地是在构建一些明确的 prompts -> task 映射关系,因为自然语言是具有歧义性的,尤其是在输入信息较少的情况下,模型根据 prompts “理解”到的那个 task,并不一定是人类真正心里的那个意图,RLHF 实现了一种定制化的映射搭建,或者说,人类喜好对齐。

    Predictable scaling

    由于大模型实验的成本日渐高昂,我们不再能像小模型那样随便起实验调参了。因此 OpenAI 的大部分实验应该是在一个比 GPT-4 小很多倍的模型上进行的,然后通过这个小模型的训练 loss,来预测大模型最终训练出来的 loss

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    同样的, predictable scaling laws 也在很多 HumanEval 集上得到了观察。当然,在一部分的任务上也还无法被拟合的性能曲线,因此 OpenAI 说后续还会进一步优化他们模型性能预测的方法。

    6. Sparks of Artifificial General Intelligence: Early experiments with GPT-4 (2303.12712)

    智能(Intelligence)是一个多方面且难以捉摸的概念,长期以来缺乏一个共识性的定义。1994 年 52 名 心理学家组成的公式小组出版的关于智力科学的社论中,将只能定义为一种非常普遍的心理能力,包括推理、计划、解决问题、抽象思考、理解复杂想法、快速学习和从经验中学习的能力

    这篇是微软关于 GPT-4 的研究报告,长达 55 页,文中的实验都是在 早期的文本单一模态版的 GPT-4 上进行的(而不是后面更新的多模态版本), 其目标是生成一些新颖而困难的任务和问题,来证明 GPT-4 的能力并不是单纯的记忆,并且它对概念、技能和领域有深刻而灵活的理解。另外还旨在探索 GPT-4 的响应和行为,以验证其一致性、连贯性和正确性,揭示其局限性和偏差

    如何衡量 GPT-4 的智能

    传统机器学习的标准做法是准备一组标准评测数据集,确保它们独立于训练数据之外,覆盖一系列的任务和领域。

    但这种方法并不太适用于 GPT-4,因为 GPT-4 是闭源模型,相关的训练数据集信息不公开,并且可以预见地非常庞大,因此我们不能保证目前公开的基准测试集不在它的训练数据里。也正因为此,本文采用的研究方法更接近于传统心理学,而不是机器学习方法。

    多模态与跨学科整合

    智能的一个重要衡量指标是综合不同领域信息的能力,以及跨学科地应用知识和技能的能力。这一节中作者举了四个例子来说明 GPT-4 具有很强的多模态与跨学科整合能力:

    1. JavaScript 代码来生成画家 Wassily Kandinsky 风格的作品。图一是该画家的原作,后面分别是 GPT-4 和 ChatGPT 写的代码画出的。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    1. 用莎士比亚的文风来证明素数无穷定理

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    1. 以圣雄甘地的口吻写一封信给他的妻子,内容是支持“电子”成为美国总统候选人

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    1. Python 代码,以年龄、性别、体重、身高和血液测试结果向量作为输入,来预测用户是否有患糖尿病的风险

    这些对比可以体现 GPT-4 能创新性地整合不同领域的概念,并且显著强于 ChatGPT。除此之外作者也测试了 GPT-4 在音乐、绘图、空间理解方面的能力。

    代码

    除了常见的 leetcode 刷题,作者测试了 GPT-4 生成逆向工程代码、解释已有代码、用自然语言模拟代码执行过程、运行伪代码等能力。

    数学

    在一系列的分析实验后,作者从以下三方面总结了GPT-4的数学能力:

    1. 创造性推理:识别每个阶段可能相关的参数、中间步骤、计算或代数操作的能力。该组件通常基于启发式猜测或直觉,通常被认为是数学解决问题的最实质性和最深刻的方面
    2. 技术熟练程度:执行遵循指定步骤集的常规计算或操作的能力
    3. 批判性推理:批判性地检查论点的每个步骤的能力,将其分解为其子组件,解释它需要的内容,它与其余论点相关以及为什么是正确的

    这一节作者发现 GPT-4 的很多缺陷,如:

    • 在执行一些很常规且机械的计算时经常算错和混淆
    • GPT-4 由于是自回归模型,因此是实时线性输出的,而没有办法“打腹稿”

    与世界的交互

    智能的另一重要方面是交互能力,即跟外界环境和智能体进行交互的能力,作者主要通过工具调用具身交互两个维度来评估。

    工具调用这里不多赘述了,具身交互方面测试了文字跑团游戏,以及交互式地指导人员找到天花板漏水的地方并进行修补,逐步根据人类的每一步反馈,给出行动建议和指示。

    与人类的交互

    GPT-4 在推理他人心理状态方面表现非常突出,特别是在模拟现实场景中,它的解释能力也很强,能对自己的判断和言论进行自我解释。

    判别能力

    判别能力主要指模型区别不同事物、概念和情景的能力。比如,区分两个食物哪个是可以安全食用,哪个是有毒的。

    这一节的测试里,揭示出当前的评测指标存在的缺陷:对于语句相似度捕捉不够,依然严重依赖单词和短句的相似度,因此在很多时候参考答案很短,而 GPT-4 生成的答案很长,会被 ROUGE 这样的指标判定为答案不匹配,而人工检查后发现 GPT-4 的答案更加高质量和具有说服力。

    另一方面作者也测试了用 GPT-4 作为评分员,对回答进行打分,实验现实尽管距离人类打分还存在一些差距,但在一些强约束的场景下已经很具有竞争力了。

    自回归结构的局限性

    自回归结构的输出是实时进行的,因此不存在“打草稿”的机会,因此无法“step-by-step”地处理问题,而引入思维链则可以显著地提升模型准确度。

    对于一些依赖递归回溯的问题,比如一步一步输出汉诺塔问题的解法,GPT-4 表现非常差,在解决不能以连续方式处理的复杂或创造性问题时,都暴露出了严重的局限性。

    比如要求 GPT-4 修改“9 * 4 + 6 * 6 = 72”这个等式左边的一个数字,来让等式计算结果变成 99,这就是一个无法简单“step-by-step”推理得到答案的问题,GPT-4 最后的准确率也非常低。

    这一节的讨论中,作者指出,理解这些局限性的一个方法是类比诺奖作者卡尼曼提出的“快思考”和“慢思考”的概念。卡尼曼认为人类思维分成快、慢两个系统,快思考是一种自动的、直观的、不需要花费精力的思考方式,速度快但是容易出错和偏见。慢思考是一种受控的、理性的、耗费精力的思考方式,虽然速度慢但是准确可靠。

    当前的 GPT-4 很大程度上可以看成是在执行快思考,但缺少慢思考能力。

    未来方向

    作者在这一节总结了未来 GPT-4 可以研究和改进的方向:

    • 置信度校验:模型的输出缺乏置信度,既会编造训练集中没有的内容(open-domain 幻觉),也会生成与 Prompt 不一致的内容(close-domain 幻觉)

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    • 长期记忆:即长的上下文
    • 持续学习:当前微调和自我更新成本过高、缺乏有效且稳定的手段(保持已有能力不丢失和遗忘)
    • 个性化:根据应用和需求进行定制、扮演、调整风格等
    • 提前规划和概念性跳跃:推理过程过于线性,在需要思维跳跃性的任务上表现不佳
    • 透明度、可解释性和一致性
    • 认知谬误和非理性:数据中存在的偏见、成见或错误引入了认知偏差和非理性
    • 对输入的敏感性:对于 Prompt 过于敏感,鲁棒性不够

    这些局限性均指向一个核心问题:哪些缺陷是自回归架构的先天缺陷,哪些是在已有架构上可以通过处理数据、增加外挂的组件和增大参数量解决的。

    7. The Dawn of LMMs: Preliminary Explorations with GPT-4V(ision) (2309.17421)

    微软发布的 166 页的 GPT-4V 报告,主要围绕以下四个点进行展开研究:

    1. GPT-4V 支持哪些输入和工作模式?
    2. GPT-4V 在不同领域和任务上的能力质量和通用性如何?
    3. GPT-4V 有效使用和提示方法有哪些?
    4. 未来有哪些有前途的方向?

    GPT-4V 的输入模式

    • 纯文本
    • 单个图像-文本对
    • 图像文本交替输入

    前两种相对来说比较简单,第三种交替输入的情况,已经非常接近于人的聊天模式了。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    GPT-4V 的工作模式和提示技术

    实验证明,在 LLM 上研究出来上各种提示技术,在 GPT-4V 上也是好使的,比如思维链、few-shot 提示等。

    这一节提到了一个“LLMs don’t want to succeed”的理论,貌似是来自于 Andrej Karpathy 的某次演讲,里面展示了一种类似于催眠一样的提示技术,即,你想要你的 LLM 表现更出色,你就要用直接的提示词说“你是xxx方面的专家”,否则它之后表现出一般普通人水平的能力

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    完整的 PPT 可以看这里:https://karpathy.ai/stateofgpt.pdf

    在论文中作者是举了一个数苹果的案例,让 GPT-4V 来数一下画面中有几个苹果。一开始 GPT-4V 并不能轻易得到正确答案,但经过一系列我们已知的 LLM Prompt 技巧加强后,GPT-4V 变得可靠,能够正确计数:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    在日常的人和人交互中,在图片中画圈、画箭头来指向关键信息是一种很自然且常见的方式, 经实验 GPT-4V 在这方面的理解能力非常强大。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    作者实验了一些很有挑战性的 case,发现基本上难不倒它:大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    在 In-context few-shot learning 方面,作者也用一个很有代表性的例子说明了提供示例样本的重要性。作者给了一张仪表的图,让 GPT-4V 读出当前仪表指针指向的数值,一开始不论如何改良 prompt 都无法得到正确的结果。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    甚至在给出一个示例的情况下模型仍然表现不佳,但当示例增加到两个后,GPT-4V 就突然能成功读数了,可见提供上下文示例对于提升大模型性能至关重要

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    视觉语言能力

    在大部分已有的 CV 子任务上,GPT-4V 都表现出了不错的能力,常见的场景描述等更是表现出色,在相对小众的领域,如医学图像上,同样让人印象深刻,GPT-4V 可以根据 CT 图判断出智齿和骨折等。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    当然,在一些已经被做得非常深入的子任务上,GPT-4V 相较于 SOTA 模型还有不小的差距,但还是那句话,潜力大于绝对精度,目前 GPT-4V 已经展现出了让人鼓舞的性能,优化个别任务上的表现只是时间问题。

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    GPT-4V 甚至能看懂梗图,解释其中的笑点:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    借助 GPT-4V 强大的推理能力和具备的常识,我们甚至可以“假如你是一名侦探,你可以从图中推理出哪些线索?

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    时间序列和视频理解

    作者实验了多图像序列,GPT-4V 能够识别出这是一组动态图像序列,并且能结合起来判断画面中的人正在做俯卧撑:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    情商测试

    在这一节,GPT-4V 可以基于予以内容和图像样式解释视觉情感,如满意、愤怒、敬畏和恐惧等:

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    甚至可以一张图片让 GPT-4V 用两种不同方式来描述,分别让人感到不安和感到舒适(新闻学让它玩明白了):

    大模型 | CVer 转 LLMer 学习笔记:GPT 系列

    新兴应用亮点

    • 行业:
    • 缺陷检测
    • 安全检查
    • 杂货结账
  • 医疗
  • 汽车保险
    • 损害评估
    • 保险报告
  • 定制化
    • 照片组织
    • 密集标注与分割
  • 图像生成
    • 生成图像的评估
    • 图像编辑的提示生成
  • 具象化智能体
    • 操作机器
    • 导航
  • GUI 导航(软件层面的交互和导航)
  • 整篇报告篇幅较多,并且举了大量详细的例子,在这里就不一一展开了,感兴趣的同学可以自行翻阅。

    至此,我总结了 GPT 系列工作里一些我关注到的点,从中可以感受到 OpenAI 的工作之间都有着很深的逻辑链条,很多推广都似乎是最符合直觉的。OpenAI 早期公开的论文里各种细节还是很丰富的,不仅细致地告诉你如何清洗和构造数据,甚至还教你如何找到一个合适的标注员给你标数据。

    作为一个从 CV 转到 LLM 的新人,难免犯一些常见或低级的错误,欢迎任何读者及时指出和斧正,也欢迎任何留言讨论。

    本篇笔记的写作参考了沐神的几期 B 站视频,以及知乎@苏打的文章,特此感谢

    如果你觉得我写得还有点意思,欢迎给我点一个赞~

     

    Read More 

    正文完
    可以使用微信扫码关注公众号(ID:xzluomor)
    post-qrcode
     0
    评论(没有评论)

    文心AIGC

    2023 年 11 月
     12345
    6789101112
    13141516171819
    20212223242526
    27282930  
    文心AIGC
    文心AIGC
    人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
    文章搜索
    热门文章
    潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

    潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

    潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
    面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

    面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

    面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
    商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

    商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

    商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026 一水 2025-1...
    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了

    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了

    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了 一水 2025-12-12 13:56:19 ...
    最新评论
    ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
    tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
    ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
    ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
    ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
    ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
    Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
    ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
    ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
    ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
    热评文章
    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

    跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026 一水 2025-1...
    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了

    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了

    10亿美元OpenAI股权兑换迪士尼版权!米老鼠救Sora来了 一水 2025-12-12 13:56:19 ...
    IDC MarketScape: 容联云位居“中国AI赋能的联络中心”领导者类别

    IDC MarketScape: 容联云位居“中国AI赋能的联络中心”领导者类别

    IDC MarketScape: 容联云位居“中国AI赋能的联络中心”领导者类别 量子位的朋友们 2025-1...