千家信息网

spark中怎么实现二次排序

发表于:2025-02-08 作者:千家信息网编辑
千家信息网最后更新 2025年02月08日,这篇文章给大家介绍spark中怎么实现二次排序,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。import org.apache.spark._ import SparkConte
千家信息网最后更新 2025年02月08日spark中怎么实现二次排序

这篇文章给大家介绍spark中怎么实现二次排序,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

import org.apache.spark._ import SparkContext._ object SecondarySort {  def main(args: Array[String]) {    val sparkConf = new SparkConf().setAppName(" Secondary Sort ")    sparkConf.set("mapreduce.framework.name", "yarn");        sparkConf.set("spark.rdd.compress", "true");        sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer");        sparkConf.set("spark.storage.memoryFraction", "0.5");        sparkConf.set("spark.akka.frameSize", "100");        sparkConf.set("spark.default.parallelism", "1");     val sc = new SparkContext(sparkConf)    val file = sc.textFile("hdfs://namenode:9000/test/secsortdata")    val rdd = file.map(line => line.split("\t")).      map(x => (x(0),x(1))).groupByKey().      sortByKey(true).map(x => (x._1,x._2.toList.sortWith(_>_)))    val rdd2 = rdd.flatMap{      x =>      val len = x._2.length      val array = new Array[(String,String)](len)      for(i <- 0 until len) {        array(i) = (x._1,x._2(i))      }      array      }    sc.stop()  }}

关于spark中怎么实现二次排序就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

0