当前位置: 首页 > news >正文

做网站 广州手机app开发培训

做网站 广州,手机app开发培训,php开发工具,小程序app公众号的区别本文代码参见:https://github.com/zysNLP/quickllm/tree/main/learnings/llm_related-main;感谢star。本文内容非常生动形象、但也非常长非常详细,请参照代码逐行耐心查看 配套《AIGC大模型理论与工业落地实战》;持续更新中 1. PPO算法简介 近端策略优化(Proximal Poli…

本文代码参见:https://github.com/zysNLP/quickllm/tree/main/learnings/llm_related-main;感谢star。本文内容非常生动形象、但也非常长非常详细,请参照代码逐行耐心查看

配套《AIGC大模型理论与工业落地实战》;持续更新中

1. PPO算法简介

近端策略优化(Proximal Policy Optimization, PPO)是OpenAI于2017年提出的一种强化学习算法,属于策略梯度(Policy Gradient)方法。PPO通过限制策略更新的幅度来保证训练的稳定性,是目前RLHF(Reinforcement Learning from Human Feedback)中最常用的算法之一。

2. 核心概念:4+2理解法

2.1 四个模型

2.1.1 策略模型(Actor Model)
  • 作用:待优化的主模型,负责生成文本
  • 参数更新:✅ 参与训练,通过策略损失进行优化
  • 代码位置actor_model = AutoModelForCausalLM.from_pretrained(...)
2.1.2 价值模型(Critic Model)
  • 作用:评估当前状态的期望回报,预测每个token的价值
  • 参数更新:✅ 参与训练,通过价值损失进行优化
  • 代码位置critic_model = Critic(actor_model.base_model)
2.1.3 奖励模型(Reward Model)
  • 作用:评估生成文本的质量,提供奖励信号
  • 参数更新:❌ 不参与训练,权重固定
  • 代码位置reward_model = AutoModelForSequenceClassification.from_pretrained(...)

注意事项:不建议使用API形式的reward model,原因如下:

  1. API请求耗时较长(单次请求约1-5秒),严重影响训练效率
  2. API响应可能不稳定,容易出现解析失败的情况
  3. 相比本地reward模型,API形式的性能差异显著
  4. 建议使用本地reward模型进行PPO训练,以获得更好的训练效果和效率
2.1.4 参考模型(Reference Model)
  • 作用:防止策略模型偏离原始模型太远,提供KL散度约束
  • 参数更新:❌ 不参与训练,权重固定
  • 代码位置ref_model = AutoModelForCausalLM.from_pretrained(...)

3. 数学推导过程

3.1 基础概念

3.1.1 策略与轨迹

在RLHF中:

  • 策略:我们要优化的大模型
  • 轨迹:一次完整的文本生成过程
  • 状态:当前的文本前缀
  • 动作:生成下一个token

轨迹定义:
τ = ( s 0 , a 0 , s 1 , a 1 , … , s T − 1 , a T − 1 ) \tau = (s_0, a_0, s_1, a_1, \ldots, s_{T-1}, a_{T-1}) τ=(s0,a0,s1,a1,,sT1,aT1)

3.1.2 优化目标

基于策略的强化学习的优化目标:
arg ⁡ max ⁡ π θ J ( π θ ) = arg ⁡ max ⁡ π θ E τ ∼ π θ [ R ( τ ) ] \arg\max_{\pi_{\theta}} J(\pi_{\theta}) = \arg\max_{\pi_{\theta}}\mathbb{E}_{\tau \sim \pi_{\theta}} [R(\tau)] argπθmaxJ(πθ)=argπθmaxEτπθ[R(τ)]

3.2 策略梯度推导

3.2.1 基本策略梯度

通过数学推导,我们可以得到策略梯度的基本形式:
∇ J ( π θ ) = E τ ∼ π θ [ ∑ t = 0 T − 1 Ψ t ∇ log ⁡ π θ ( a t ∣ s t ) ] \nabla J(\pi_{\theta}) = \mathbb{E}_{\tau \sim \pi_{\theta}} \left[ \sum_{t=0}^{T-1} \Psi_{t} \nabla \log \pi_{\theta}(a_{t} | s_{t}) \right] J(πθ)=Eτπθ[t=0T1Ψtlogπθ(atst)]

其中 Ψ t \Psi_t Ψt可以有多种选择:

  1. 轨迹的累积奖励
  2. 轨迹的折扣奖励
  3. 引入基线的奖励
  4. 动作价值函数 Q π ( s t , a t ) Q^{\pi}(s_t, a_t) Qπ(st,at)
  5. 优势函数 A π ( s t , a t ) A^{\pi}(s_t, a_t) Aπ(st,at)
3.2.2 优势函数(Advantage Function)

优势函数衡量某个动作相对于平均水平的优势:
A π ( s t , a t ) = Q π ( s t , a t ) − V π ( s t ) A_{\pi}(s_t, a_t) = Q_{\pi}(s_t, a_t) - V_{\pi}(s_t) Aπ(st,at)=Qπ(st,at)Vπ(st)

可以简化为:
A π ( s t , a t ) = r t + γ V π ( s t + 1 ) − V π ( s t ) A_{\pi}(s_t, a_t) = r_t + \gamma V_{\pi}(s_{t+1}) - V_{\pi}(s_t) Aπ(st,at)=rt+γVπ(st+1)Vπ(st)

3.2.3 广义优势估计(GAE)

为了平衡偏差与方差,引入GAE:
A ^ t GAE = ∑ l = 0 ∞ ( γ λ ) l δ t + l \hat{A}_t^{\text{GAE}} = \sum_{l=0}^{\infty} (\gamma \lambda)^l \delta_{t+l} A^tGAE=l=0(γλ)lδt+l

其中 δ t = r t + γ V ( s t + 1 ) − V ( s t ) \delta_t = r_t + \gamma V(s_{t+1}) - V(s_t) δt=rt+γV(s

http://www.yayakq.cn/news/798684/

相关文章:

  • 网站设计字体网页升级紧急通知狼人
  • 网站的主机去什么网站发贴做推广
  • 新网站建设渠道厦门英文网站建设
  • 建网站的外包公司纯静态网站的用什么cms
  • 做天猫网站价格dw做音乐网站
  • 网站的详细设计外贸企业网站系统
  • 在百度上怎么搜到自己的网站html5如何实现网站开发
  • 如何制作网站首页网站建设用什么视频播放器
  • 广州市 网站建设 有限公司wordpress网盘搜索
  • 微网站开发技术架构广州网站建设怎么样
  • 好看的企业网站天津做网站找津坤科技专业
  • wordpress 百家模板北京seo计费
  • 做网站的优势有哪些网站建设培训机构
  • 驾校网站建设方案怎么咨询自己的网络服务商
  • 浙江网站建设品牌升级怎么找到网站的空间服务商
  • 重庆涪陵网站设计公司推荐wordpress网站的彻底清理
  • 兼积做调查挣钱网站专门做兼职的网站
  • 58同城石家庄网站建设高水平网站运营托管
  • 谷歌优化 网站建设建动画网站需要多少钱
  • 大连企业网站建设模板建设网站德州
  • 建设交通职业技术学院招聘信息网站oss做下载网站
  • 关于做我女朋友的网站wordpress 无广告视频
  • 便宜网站建设哪家好wordpress怎么引用图片不显示
  • 做网站用盗版PS风险地区查询最新
  • 中国知名的建网站的公司快速将网站seo
  • 合肥专业网站制作团队软件开发报什么专业
  • 不收费的企业查询网站邢台123信息最新招聘信息
  • 专业做网站 郑州福田公司投诉电话
  • 网站的运营模式做pc网站如何实时预览
  • php网站开发工程师任职要求怎么在网站文本框内做超连接