一种网络表示学习模型的实现与应用文献综述

 2023-08-28 04:08
  1. 文献综述(或调研报告):
  2. 前言

信息网络是一种常见的信息载体和形式,信息社会中很多网络节点拥有丰富的外部信息,形成典型的复杂信息网络,对这类网络信息进行研究与分析具有很高的学术价值与应用价值[4]。

有关概念及定义:

网络表示学习的定义:网络表示是衔接网络原始数据和网络应用任务的桥梁。网络表示学习算法负责从网络数据中学习得到网络中每个节点的向量表示,之后这些节点表示作为节点的特征应用于网络应用任务,如节点分类和链接预测[4]。

将网络记作G=(V,E),V是节点集合,E是边的集合[4]。

网络表示学习的目标就是对每个节点学习一个实数向量,其中向量的维度远远小于节点总个数|V|。网络表示学习的过程可以是无监督或半监督的[4]。

  1. 网络表示学习现状

2.1. 基于矩阵特征向量计算

较早的用于网络表示学习的算法主要归于此类,谱聚类算法通过计算关系矩阵的前 k 个特征向量或奇异向量来得到 k 维的节点表示。关系矩阵一般就是网络的邻接矩阵或者 Laplace 矩阵. 这类方法强烈的依赖于关系矩阵的构建。不同的关系矩阵的评测结果差异很大,一般来讲,基于谱聚类方法的时间复杂度较高,特征向量和奇异向量的计算时间是非线性的。另一方面, 谱聚类方法需要将关系矩阵整体存于内存之中,所以空间复杂度也是不能忽略的。这些局限性阻止了这类算法在大规模数据和在线平台上的扩展应用。现在将展示几种谱聚类算法的实例[4]。

局部线性表示 (locally linear embedding) [8][14]。假设节点的表示是从同一个流形中采样得到的,局部线性表示假设一个节点和它邻居的表示都位于该流形的一个局部线性的区域,也就是说, 一个节点的表示可以通过它的邻居节点的表示的线性组合来近似得到。局部线性表示使用邻居节点表示的加权和与中心节点表示的距离作为损失函数,最小化损失函数的优化问题最终转化成某个关系矩阵特征向量计算问题求解。

Laplace 特征表 (Laplace eigenmap) [9][15]简单的假设两个相连的节点的表示应该相近. 特别地, 这里表示相近是由向量表示的欧氏距离的平方来定义. 该优化问题可以类似地转化为 Laplace 矩阵的特征向量计算问题。

有向图表示 (directed graph embedding [16]进一步扩展了 Laplace 特征表方法, 给不同点的损失函数以不同的权重,其中点的权重是由基于随机游走的排序方法来决定, 如 PageRank。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。