千家信息网

Spark中怎么自定义函数

发表于:2025-01-23 作者:千家信息网编辑
千家信息网最后更新 2025年01月23日,本篇文章为大家展示了Spark中怎么自定义函数,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。UDF函数def myUdf(id: Int) = s"tag$i
千家信息网最后更新 2025年01月23日Spark中怎么自定义函数

本篇文章为大家展示了Spark中怎么自定义函数,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

UDF函数

def myUdf(id: Int) = s"tag$id"sqlContext.udf.register("myUdf", myUdf(_:Int))df.registerTempTable("tb1")sqlContext.sql("select myUdf(col1) from tb1 ")val myUdf = udf((vec: Int) => s"tag$vec")df.withColumn("newId",myUdf($"item")).show()spark.udf.register("myfunction", (str: String) => {...})

SparkSessionUDF

val spark: SparkSession = SparkSession.builder().master("local")  .appName(getClass.getSimpleName)  .enableHiveSupport()  .getOrCreate()import org.apache.spark.sql.functions._val userData = Array(("A", 16), ("B", 21), ("C", 14), ("D", 18))val userDF = spark.createDataFrame(userData).toDF("name", "age")val strLen = udf((str: String) => str.length())userDF.withColumn("name_len", strLen(col("name")))userDF.show(false)

上述内容就是Spark中怎么自定义函数,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注行业资讯频道。

0