当前位置: 首页 > news >正文

WordPress网站图片预加载公司企业宣传片制作公司

WordPress网站图片预加载,公司企业宣传片制作公司,漳州网站建设点击博大选,vps 上装wordpress系列文章目录 第一章:LoRA微调系列笔记 第二章:Llama系列关键知识总结 第三章:LLaVA模型讲解与总结 文章目录 系列文章目录Llama: Open and Efficient Foundation Language Models关键要点LLaMa模型架构:Llama2分组查询注意力 (G…

系列文章目录

第一章:LoRA微调系列笔记
第二章:Llama系列关键知识总结
第三章:LLaVA模型讲解与总结


文章目录

  • 系列文章目录
  • Llama: Open and Efficient Foundation Language Models
    • 关键要点
    • LLaMa模型架构:
    • Llama2
      • 分组查询注意力 (GQA)
    • Llama3
      • 关键信息
  • 引用:


Llama: Open and Efficient Foundation Language Models

关键要点

Meta发布的完全开源的大语言模型,参数量从7B到65B,llama只在公开数据集上进行训练,但依然取得了强大的性能。LLaMa-13B在许多基准测试中都优于GPT-3(175B)

GPT-3把模型的参数量扩大到175B并取得了惊人的涌现能力,使得后续研究者都相信,随着模型参数量的增大,模型必将取得更好的性能,因此后续的很多工作都放在了扩大大语言模型的参数量级,但扩大参数量级真的就是唯一的研究路径了吗?我们是不是忽视了数据对模型性能的影响?
DeepMind在NeurIPS2022上发表Training Compute-Optimal Large Language Models论文,发现:训练最优性能的LLM模型,模型的参数量和训练数据规模需要同比增大。因此,当我们在相同的计算资源下,LLM的性能不仅可以通过增加参数量来实现性能提升,也可以通过提升数据量来提升,因此数据也参数量级同样重要。
但如果从推理成本考虑,大部分用户是不需要自己训练LLM的,只是用LLM进行推理就可以了,因此考虑推理的性能,小参数的LLM是更加友好的,LLaMa 沿着小 LLM 配大数据训练的指导思想,训练了一系列性能强悍的语言模型,参数量从 7B 到 65B。例如,LLaMA-13B 比 GPT-3(175B)小10倍,但是在大多数基准测试中都优于 GPT-3。大一点的 65B 的 LLaMa 模型也和 Chinchilla 或者 PaLM-540B 的性能相当。

LLaMa模型架构:

  1. 与GPT等生成模型类似,LLaMA也只使用了Transformer的解码器
  2. Pre-normalization:为了提高训练稳定性,LLaMa 对每个 Transformer 的子层的输入进行归一化,而不是对输出进行归一化。使用 RMSNorm归一化函数。
  3. SwiGLU激活函数
  4. Rotary Embedding LLaMa 去掉了绝对位置编码,使用旋转位置编码

Llama2

预训练语料库的大小增加了 40%,模型的上下文长度翻倍,并采用了分组查询注意力。发布了 7B、13B 和 70B 参数的 Llama 2 变体

与 Llama 1的主要架构差异包括增加上下文长度分组查询注意力 (GQA)
在这里插入图片描述

分组查询注意力 (GQA)

增加上下文长度比较好理解,简单的在训练前规定了最大上下文长度为4096,本文主要介绍LLaMA2中改进的注意力机制。
在这里插入图片描述

  1. MHA(Multi-Head Attention):输入数据分成多个头,每个头独立进行注意力计算;每个head完成QKV计算后进行相加输出。
  2. MQA(Multi-Query Attention):Q仍然是多头的,KV是共享的;举例来说,以ChatGLM2-6B为例,一共28层,32个注意力头,若采用MHA,则Q、K、V矩阵各有28×32个,而采用MQA的方式则整个模型包含28×32个Q矩阵,28×1个K矩阵,28×1个V矩阵。这种方法在提高推理效率的同时,也能够保持模型的性能。
  3. GQA(Group-Query Attention):Q仍然是多头的,KV是分组共享的,减少了KV缓存所需要的缓存空间,同时也避免了参数减少导致的精度损失严重,在参数和精度两方面进行了平衡。

Llama3

关键信息

  1. 2024年4月,Meta 重磅推出了Meta Llama 3大语言模型

  2. 从模型架构上看,LLaMA 3和LLaMA 2基本没有区别,同样使用了Transformer的Decoder-only架构

  3. Llama 3在超过15T的token上进行预训练,所有数据都来自公开可用的来源。我们的训练数据集比用于Llama 2的数据集大了七倍,并且包括了四倍的代码。为了准备即将到来的多语言用例,超过5%的Llama 3预训练数据集由高质量的非英语数据组成,覆盖了超过30种语言。然而,我们不期望在这些语言中达到与英语相同的性能水平。

引用:

LLaMa系列模型详解(原理介绍、代码解读):LLaMa
LLaMa系列模型详解(原理介绍、代码解读):LLaMA 2
LLaMa系列模型详解(原理介绍、代码解读):LLaMA 3

http://www.yayakq.cn/news/741348/

相关文章:

  • 自己在家怎么做网站服务器济源市建设工程管理处网站
  • 在百度上怎么做网站网站云主机吗
  • 做公司网站用哪个公司比较好超酷网站模板
  • 网站推广外链怎么做安平县建设局网站
  • 东莞官方网站建设wordpress看不到表格
  • 西安谁家的集团门户网站建设比较好湘潭网站建设 磐石网络优质
  • 网站内容管理规范wordpress进入后台
  • 云南网站建设工具阿里能帮做网站吗
  • wordpress文件存放不同目录下seo推广公司教程
  • 西安网站建设开发熊掌号网站建设推广哪个好
  • 成都市温江区建设局网站百度网站建设工资
  • linux系统如何做网站做外贸找客户的网站
  • 房地产东莞网站建设中国纪检监察报总编
  • 江西中恒建设集团有限公司网站上海企业网站推广方法
  • 基本的网站开发技术中国建设人才服务信息网证书查询
  • 开封景区网站建设方案校园二手信息网站建设
  • 电子商务网站建设汉狮百度推广登录地址
  • 聚搜济南网站建设公司颐和国际沧州网络科技
  • 淮北建网站seo比较好的网站
  • 微信h5制作seo专员工作容易学吗
  • 哈尔滨工程建设信息网站精美静态网站源码
  • wordpress建站详解asp怎么新建网站
  • 想在网上做外卖 上什么网站好网站建设客户目标模板
  • 南阳网站优化排名做设计有哪些接私活的网站
  • 手工活外发女生seo专员很难吗为什么
  • 有经验的番禺网站建设网站制作计算机
  • 网站被k手机wordpress无法登录
  • 简洁大气网站设计codeus企业wordpress
  • 电大考试亿唐网不做网站做品牌网站做很多关键词
  • 北京大型网站优化美橙建站之星怎么样