Spark GraphX顶点和边RDDs
GraphX暴露保存在图中的顶点和边的RDD。然而,因为GraphX包含的顶点和边拥有优化的数据结构,这些数据结构提供了额外的功能。顶点和边分别返回VertexRDD
和EdgeRDD
。这一章我们将学习它们的一些有用的功能。
VertexRDDs
VertexRDD[A]
继承自RDD[(VertexID, A)]
并且添加了额外的限制,那就是每个VertexID
只能出现一次。此外,VertexRDD[A]
代表了一组属性类型为A的顶点。在内部,这通过保存顶点属性到一个可重复使用的hash-map数据结构来获得。所以,如果两个VertexRDDs
从相同的基本VertexRDD
获得(如通过filter或者mapValues),它们能够在固定的时间内连接而不需要hash评价。为了利用这个索引数据结构,VertexRDD
暴露了一下附加的功能:
class VertexRDD[VD] extends RDD[(VertexID, VD)] {
// Filter the vertex set but preserves the internal index
def filter(pred: Tuple2[VertexId, VD] => Boolean): VertexRDD[VD]
// Transform the values without changing the ids (preserves the internal index)
def mapValues[VD2](map: VD => VD2): VertexRDD[VD2]
def mapValues[VD2](map: (VertexId, VD) => VD2): VertexRDD[VD2]
// Remove vertices from this set that appear in the other set
def diff(other: VertexRDD[VD]): VertexRDD[VD]
// Join operators that take advantage of the internal indexing to accelerate joins (substantially)
def leftJoin[VD2, VD3](other: RDD[(VertexId, VD2)])(f: (VertexId, VD, Option[VD2]) => VD3): VertexRDD[VD3]
def innerJoin[U, VD2](other: RDD[(VertexId, U)])(f: (VertexId, VD, U) => VD2): VertexRDD[VD2]
// Use the index on this RDD to accelerate a `reduceByKey` operation on the input RDD.
def aggregateUsingIndex[VD2](other: RDD[(VertexId, VD2)], reduceFunc: (VD2, VD2) => VD2): VertexRDD[VD2]
}
举个例子,filter
操作如何返回一个VertexRDD。过滤器实际使用一个BitSet
实现,因此它能够重用索引以及保留和其它VertexRDDs
做连接时速度快的能力。同样的,mapValues
操作不允许map
函数改变VertexID
,因此可以保证相同的HashMap
数据结构能够重用。当连接两个从相同的hashmap
获取的VertexRDDs和使用线性扫描而不是昂贵的点查找实现连接操作时,leftJoin
和innerJoin
都能够使用。
从一个RDD[(VertexID, A)]
高效地构建一个新的VertexRDD
,aggregateUsingIndex
操作是有用的。概念上,如果我通过一组顶点构造了一个VertexRDD[B]
,而VertexRDD[B]
是一些RDD[(VertexID, A)]
中顶点的超集,那么我们就可以在聚合以及随后索引RDD[(VertexID, A)]
中重用索引。例如:
val setA: VertexRDD[Int] = VertexRDD(sc.parallelize(0L until 100L).map(id => (id, 1)))
val rddB: RDD[(VertexId, Double)] = sc.parallelize(0L until 100L).flatMap(id => List((id, 1.0), (id, 2.0)))
// There should be 200 entries in rddB
rddB.count
val setB: VertexRDD[Double] = setA.aggregateUsingIndex(rddB, _ + _)
// There should be 100 entries in setB
setB.count
// Joining A and B should now be fast!
val setC: VertexRDD[Double] = setA.innerJoin(setB)((id, a, b) => a + b)
EdgeRDDs
EdgeRDD[ED]
继承自RDD[Edge[ED]]
,使用定义在PartitionStrategy的各种分区策略中的一个在块分区中组织边。在每个分区中,边属性和相邻结构被分别保存,当属性值改变时,它们可以最大化的重用。
EdgeRDD
暴露了三个额外的函数
// Transform the edge attributes while preserving the structure
def mapValues[ED2](f: Edge[ED] => ED2): EdgeRDD[ED2]
// Revere the edges reusing both attributes and structure
def reverse: EdgeRDD[ED]
// Join two `EdgeRDD`s partitioned using the same partitioning strategy.
def innerJoin[ED2, ED3](other: EdgeRDD[ED2])(f: (VertexId, VertexId, ED, ED2) => ED3): EdgeRDD[ED3]
在大多数的应用中,我们发现,EdgeRDD操作可以通过图操作者(graph operators)或者定义在基本RDD中的操作来完成。
作者:terry,如若转载,请注明出处:https://www.web176.com/spark/11900.html