当前位置: 首页 > news >正文

深圳市网站建设科技公司郑州新闻头条最新消息

深圳市网站建设科技公司,郑州新闻头条最新消息,电商设计工资,网页版微信登陆入口消息传递神经网络(Message Passing Neural Networks, MPNN) 一、引言二、消息传递框架概述1.消息传递阶段(1)消息生成与传播-message(2)消息聚合-aggregate(3)消息更新-update&#…

消息传递神经网络(Message Passing Neural Networks, MPNN)

  • 一、引言
  • 二、消息传递框架概述
    • 1.消息传递阶段
      • (1)消息生成与传播-message
      • (2)消息聚合-aggregate
      • (3)消息更新-update
      • (4)消息传递机制小结
    • 2.读出阶段
  • 三、参考资料

一、引言

GNN中的消息传递机制是借助PyG、DGL之类的图神经网络框架来编写自己的消息传播GNN的基础,只有对其了解比较深刻,才能更好的设计自己的GNN模型。

二、消息传递框架概述

消息传递神经网络是Gilmer等人在Neural Message Passing for Quantum Chemistry中提出来的从空域角度定义GNN的范式(框架)。原文以量子化学为例,根据原子的性质(对应节点特征)和分子的结构(对应边特征)预测了13种物理化学性质。

MPNN的前向传播包括两个阶段,第一个阶段称为 message passing(消息传递)阶段,第二个阶段称为readout(读出)阶段。

1.消息传递阶段

假设 X i ( k − 1 ) ∈ R F X_i^{(k-1)} \in \R^F Xi(k1)RF表示节点i在第k-1层的特征 e j , i ∈ R D e_{j,i}\in \R^D ej,iRD表示节点j到节点i的边上的特征,则消息传递机制可以用如下公式来描述:
X i ( k ) = γ ( k ) ( X i ( k − 1 ) , ⨁ j ∈ N ( i ) ϕ ( k ) ( X i ( k − 1 ) , X j ( k − 1 ) , e j , i ) ) (1) X_i^{(k)} = \gamma^{(k)} \left(X_i^{(k-1)},\bigoplus _{j\in {\mathcal {N(i)}}} \phi^{(k)} \left( X_i^{(k-1)}, X_j^{(k-1) }, e_{j,i} \right) \right) \tag {1} Xi(k)=γ(k) Xi(k1),jN(i)ϕ(k)(Xi(k1),Xj(k1),ej,i) (1)
在消息传递机制中,主要分为三大步骤:消息生成(message)、消息聚合(aggregate)、消息更新(update)
message passing阶段会执行多次信息传递过程。

(1)消息生成与传播-message

在本阶段中,每个节点将生成自己的消息,然后向自己的邻居节点“传播”自己的消息,也就是公式(1)中的:
ϕ ( k ) ( X i ( k − 1 ) , X j ( k − 1 ) , e j , i ) \phi^{(k)} \left( X_i^{(k-1)}, X_j^{(k-1) }, e_{j,i} \right) ϕ(k)(Xi(k1),Xj(k1),ej,i)
其中, ϕ ( k ) \phi^{(k)} ϕ(k)可微函数,例如MLP。在消息生成的过程中,可能会用到:

  • 节点自己当前的特征 ( X i ( k − 1 ) ) (X_i^{(k-1)}) (Xi(k1))
  • 节点邻居当前的特征 ( X j ( k − 1 ) ) (X_j^{(k-1)}) (Xj(k1))
  • 节点自己当前的特征 ( e j , i ) (e_{j,i}) (ej,i)

当然上述三者并不都是必须的,具体使用什么来生成节点的消息取决于GNN的构建者。

(2)消息聚合-aggregate

在本阶段,每个节点会聚合来自邻居的消息,也就是公式(1)中的:

⨁ j ∈ N ( i ) ( M e s s a g e ) \bigoplus _{j\in {\mathcal {N(i)}}} \left( Message \right) jN(i)(Message)

其中Message指代消息生成与传播中每个节点的消息, N ( i ) \mathcal {N(i)} N(i)表示节点i的领域, ⨁ \bigoplus 表示可微(可导)的、置换不变(permutation invariant)函数。置换不变指聚合邻居的消息的结果与邻居的聚合顺序无关(结点的输入顺序不改变最终结果,这也是为了保证MPNN对图的同构有不变性),常见的包括sum、max、min、mean等。

(3)消息更新-update

在本阶段,每个节点利用聚合自邻居节点的消息生成自己的消息,也就是公式(1)中的:

γ ( k ) ( X i ( k − 1 ) , N e i g h b o r M s g ) \gamma^{(k)} \left(X_i^{(k-1)},NeighborMsg\right) γ(k)(Xi(k1),NeighborMsg)

其中NeighborMsg指代消息聚合中每个节点聚合自邻居的消息, γ ( k ) \gamma^{(k)} γ(k)也表示可微函数,例如MLP。

(4)消息传递机制小结

经过前面的介绍可知:空域角度定义的GNN间的不同之处便在于它们关于消息生成、消息聚合和消息更新的实现不同。
总的来说,基于消息传递图神经网络框架设计的图神经网络模型,就是通过设计不同的消息生成、消息聚合和消息更新函数实现的,从而用不同的方式聚合自身和邻居特征。

2.读出阶段

readout阶段计算基于整张图的特征向量,可以用如下公式来描述:
y ^ = R ( { X v k ∣ v ∈ G } ) (2) \hat{y} = R\left(\lbrace X_v^k | v \in G \rbrace\right) \tag{2} y^=R({XvkvG})(2)
其中, y ^ \hat{y} y^是最终的输出向量, R R R是读出函数,这个函数是可微的、满足置换不变性的。

在设计基于消息传递图神经网络框架设计图神经网络模型的时候可以根据自己的需要设计这个readout函数。

三、参考资料

  • PyG中关于MPNN的理解
  • Neural Message Passing for Quantum Chemistry
http://www.yayakq.cn/news/846235/

相关文章:

  • 小白怎样建设公司网站手游网站怎么做
  • 网站建设评比文章住房和规划建设局网站
  • 如何修改网站备案信息信息型网站
  • dj网站建设网站建设预算表样本
  • 优设网站怎么下载百度搜索名字排名优化
  • 下载了源码怎么做网站网站建设国际深圳
  • 昆山市做网站的公司网站相关知识
  • 网站备案号显示红色系统网站怎么做
  • 北京做兼职网站西安旅游景点排名前十名
  • 郑州网站托管公司哪家好西安网页制作培训机构
  • 没有工信部备案的网站是骗子吗php做网站首页修改
  • 会展类网站模板免费建站网页无需登陆
  • 厦门建站系统建设响水哪家专业做网站
  • 海宁长安网站开发网站描文本
  • 网站建设共享ip益阳学校网站建设
  • 开拓网站建设公司任县企业做网站
  • 网站建设终稿确认书免费商城小程序
  • 利用地图建网站程序员培训多少钱
  • 网页制作网站首页做网站东莞选哪家公司好
  • 东台市住房和城乡建设局网站首页设计培训班
  • 做机械设备销售的那个网站好织梦绿色企业网站模板
  • 网站策划的基本过程做网站用什么编程语言好
  • 青岛市做网站小学生摘抄新闻2024
  • 《网站开发实践》 实训报告南京高淳开展规模性核酸检测
  • 莱芜做网站的公司浦东网站建设
  • 龙华做网站联系电话巢湖自助建站系统
  • 哈尔滨道里建设局网站做网站烧钱吗
  • 深圳福田区房价2022最新房价鞍山seo外包
  • 成都企业建站系统模板利用google地图标注做网站
  • 长沙建长沙建网站公司佛山网站排名优化