在Spark中,reduceByKey
函式是一種常用的轉換操作,它執行資料聚合。它接收鍵值對(K,V)作為輸入,基於鍵聚合值並生成(K,V)對的資料集作為輸出。
在此範例中,我們基於鍵聚合值。要在Scala模式下開啟Spark,請按照以下命令操作。
$ spark-shell
使用並行化集合建立RDD。
scala> val data = sc.parallelize(Array(("C",3),("A",1),("B",4),("A",2),("B",5)))
現在,可以使用以下命令讀取生成的結果。
scala> data.collect
應用reduceByKey()
函式來聚合值。
scala> val reducefunc = data.reduceByKey((value, x) => (value + x))
現在,可以使用以下命令讀取生成的結果。
scala> reducefunc.collect