GNN学习 Node Classification(持续更新中)
GNN学习 Node Classification
任务:已知图中一部分节点的标签,如何将分配标签到其它节点上
Node Classification
给一部分节点的标签,预测没有标签的节点的标签,这是一个半监督节点分类任务
message passing
相似的节点中存在链接
集体分类(collective classification):一起给网络中的所有节点分配标签
有三种实现技术
- Relational classification
- Iterative classification
- Belief classification
Correlations Exists in Networks
相似的行为在网络中会互相关联
Correlation:相近的节点有相同的分类
导致关联性的主要以来类型
- 同质性(homophily):个体特征影响社交连接
- 影响(influence)社交连接影响个体特征
Homophily
相似节点会倾向于交流和关联
例子:同领域的研究者更容易建立联系
Influence
社交链接会影响个人行为
例子:用户将喜欢的音乐推荐给朋友
Classification with Network Data
相似的节点会在网络中更加靠近,或者直接相连
Guilt-by-association:如果我与具有X的标签相连,那么我很可能也具有标签X
预测节点v的标签要
- v的特征
- v邻居的标签
- v邻居的特征
Collective Classification
是一个概率框架
根据马尔科夫假设:节点v的标签\(Y_v\)取决于其邻居\(N_v\)的标签,也就是\(P(Y_v)=P(Y_v\mid N_v)\)
Collective Classification有三个步骤:
- 分配节点初始标签(Local Classifier)
- 捕获关系(Relational Classifier)
- 传播关系(Collective Inference)
Local Classifier
- 基于节点的属性预测标签
- 标准分类任务
- 不使用网络结构信息
Relational Classifier
- 基于邻居节点的标签和特征来预测节点标签
- 使用了网络结构信息
Collective Inference
- 在每个节点上迭代的应用relational classifier
- 迭代至邻居间标签不一致最小化
- 网络结构影响最终预测结果
Relational Classification and Iterative Classification
Relational classifiers
基本思想:节点v的类概率\(Y_v\)是其邻居类概率的加权平均值
对应有标签节点,就初始化为其真实标签
对于无标签节点。就初始化为0.5
以随机顺序更新所有无标签节点,直至收敛或达到最大迭代次数
对于每个节点v和标签c,我们采用公式
$P(Y_v=c)=\frac{1}{ {\textstyle \sum_{(v,u)\in E}}} {\textstyle \sum_{(v,u)\in E}}A_{v,u}P(Y_u=c) $
来对其进行更新
其中\(A_{v,u}\)是边v到u的权重
\(P(Y_v=c)\)表示节点v有标签c的概率
当然,对于最开始已经有标签的节点就不进行更新,只更新最开始没有标签,需要我们去预测的节点
当有节点连续两次迭代不发生变化,我们认为这个节点已经收敛了,之后我们就不再更新这个节点的值了
缺点:
- 可能不会收敛
- 无法利用节点的特征信息