网站建设的活动方案,哪个网站做外贸假发好,网站图片加水印,网站开通银行支付接口作者#xff1a;Sebastian Raschka 博士#xff0c;
翻译#xff1a;张晶#xff0c;Linux Fundation APAC Open Source Evangelist
编者按#xff1a;本文并不是逐字逐句翻译#xff0c;而是以更有利于中文读者理解的目标#xff0c;做了删减、重构和意译#xff0c…作者Sebastian Raschka 博士
翻译张晶Linux Fundation APAC Open Source Evangelist
编者按本文并不是逐字逐句翻译而是以更有利于中文读者理解的目标做了删减、重构和意译并替换了多张不适合中文读者的示意图。
原文地址https://magazine.sebastianraschka.com/p/understanding-multimodal-llms
《一文理解多模态大语言模型 - 上》介绍了什么是多模态大语言模型以及构建多模态 LLM 有两种主要方式之一统一嵌入解码器架构(Unified Embedding Decoder Architecture)。本文将接着介绍第二种构建多模态 LLM 的方式跨模态注意架构(Cross-modality Attention Architecture approach)。 一跨模态注意架构 《一文理解多模态大语言模型 - 上》 讨论了通过统一嵌入解码器架构来构建多模态大语言模型LLM的方法并且理解了图像编码背后的基本概念下面介绍另一种通过交叉注意力机制实现多模态LLM的方式如下图所示 在上图所示的跨模态注意力架构方法中我们仍然使用之前介绍的图像向量化方式。然而与直接将图像向量作为LLM的输入不同我们通过交叉注意力机制在多头注意力层中连接输入的图像向量。
这个想法与2017年《Attention Is All You Need》论文中提出的原始Transformer架构相似在原始《Attention Is All You Need》论文中的Transformer最初是为语言翻译开发的。因此它由一个文本编码器下图的左部分组成该编码器接收要翻译的句子并通过一个文本解码器图的右部分生成翻译结果。在多模态大语言模型的背景下图的右部分的编码器由之前的文本编码器更换为图像编码器(图像编码后的向量)。
文本和图像在进入大语言模型前都编码为嵌入维度和尺寸(embedding dimensions and size)一致的向量。
“我们可以把多模态大语言模型看成“翻译”文本和图像或文本和其它模态数据 --- 译者。” 二统一解码器和交叉注意力模型训练 与传统仅文本的大语言模型LLM的开发类似多模态大语言模型的训练也包含两个阶段预训练和指令微调。然而与从零开始不同多模态大语言模型的训练通常以一个预训练过且已经过指令微调的大语言模型作为基础模型。
对于图像编码器通常使用CLIP并且在整个训练过程中往往保持不变尽管也存在例外我们稍后会探讨这一点。在预训练阶段保持大语言模型部分冻结也是常见的做法只专注于训练投影器(Projector)——一个线性层或小型多层感知器。鉴于投影器的学习能力有限通常只包含一两层因此在多模态指令微调第二阶段期间大语言模型通常会被解冻以允许进行更全面的更新。然而需要注意的是在基于交叉注意力机制的模型方法B中交叉注意力层在整个训练过程中都是解冻的。
在介绍了两种主要方法方法A统一嵌入解码器架构和方法B跨模态注意力架构之后你可能会好奇哪种方法更有效。答案取决于具体的权衡 统一嵌入解码器架构方法A通常更容易实现因为它不需要对LLM架构本身进行任何修改。 跨模态注意力架构方法B通常被认为在计算上更高效因为它不会通过额外的图像分词(Token)来过载输入上下文而是在后续的交叉注意力层中引入这些标记。此外如果在训练过程中保持大语言模型参数冻结这种方法还能保持原始大语言模型的仅文本性能。
下图总结了常见多模态大语言模型使用的组件和技术 三总结 “多模态LLM可以通过多种不同的方式成功构建核心思路在于把多模态数据编码为嵌入维度和尺寸一致的向量使得原始大语言模型可以对多模态数据“理解并翻译”。--- 译者”。
如果你有更好的文章欢迎投稿
稿件接收邮箱nami.liupasuntech.com
更多精彩内容请关注“算力魔方®”