大家好,今天给各位分享高效数据转换:Spark中RDD向DataFrame的转换方法详解的一些知识,其中也会对进行解释,文章篇幅可能偏长,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在就马上开始吧!
编程分为三步:
从原始RDD 创建一个Rows 的RDD;创建由与步骤1 中创建的RDD 中的Rows 结构相匹配的StructType 表示的模式。通过SparkSession.Text 数据提供的createDataFrame 方法将模式应用到Rows 的RDD
10000,PK,0,100000,200000
10001,杰普森,0,99999,199999
10002,17er,1,2000,5
10003,老儿,2,2001,6
10004,老梁,1,2002,7code
com.soul.bigdata.spark.sql02 包
导入org.apache.spark.sql.{行,SparkSession}
导入org.apache.spark.sql.types.{LongType、StringType、StructField、StructType}
对象TextRDDApp {
def main(args: 数组[字符串]): 单位={
val Spark=SparkSession.builder().master("local[2]").appName("TextRDDApp").getOrCreate()
val rowRDD=Spark.sparkContext.textFile("file:///D:\RZ-G6\CustomText\test01.txt").map(x=x.split(",").toSeq)
.map(属性={
排(
属性(0).trim(),
属性(1).trim(),
属性(2).trim(),
属性(3).trim().toLong,
属性(4).trim()
)
})
val schema=StructType(Array(StructField("id",StringType,false),
StructField("名称",StringType,false),
StructField("性别",StringType,false),
StructField("工资",LongType,false),
StructField("comm",StringType,false)))
val df=Spark.createDataFrame(rowRDD,模式)
df.show()
Spark.stop()
}
}image.png错误
【高效数据转换:Spark中RDD向DataFrame的转换方法详解】相关文章:
用户评论
感觉这个标题好干货啊,想了解一下Spark RDD和DataFrame的区别
有12位网友表示赞同!
Rdd转DF到底要怎么操作? 有没有什么需要注意的点啊
有18位网友表示赞同!
我正在做数据处理项目,用到Scala编程,这个转换方法挺有用听上去
有11位网友表示赞同!
最近在学习Spark,学习RDD和DF是重点方向,这个标题看起来很实用
有7位网友表示赞同!
以前一直在用Rdd,感觉DataFrame更方便操作吧,希望能看到具体实例
有10位网友表示赞同!
RDD转DataFrame能提高效率吗?我看能不能在我的项目中应用一下
有17位网友表示赞同!
我比较好奇这个转换过程的复杂度和时间消耗情况
有13位网友表示赞同!
期待文章详细讲解每个步骤,最好包含代码例子啊
有11位网友表示赞同!
最近对Spark编程不太了解,这个标题很吸引人,希望文章能讲得通俗易懂
有6位网友表示赞同!
我尝试过RDD转DF,但是遇到了一些问题,希望能通过这篇解读解决
有20位网友表示赞同!
DataFrame的优势在哪里?和RDD相比有什么区别?
有5位网友表示赞同!
学习Spark之前有没有什么基础知识需要先了解一下呢?
有13位网友表示赞同!
代码示例最好用我熟悉的语言写出来啊,例如python或Scala
有6位网友表示赞同!
文章能涵盖多种转换方法吗?不同的场景下应该选择哪种方法比较好?
有14位网友表示赞同!
这个转换过程会不会对数据的格式产生影响呢?
有13位网友表示赞同!
Rdd转DF有什么实际应用案例吗?能够给我一些启发性?
有20位网友表示赞同!
Spark编程真复杂啊,看来还要多学习才能掌握
有20位网友表示赞同!
分享一下你学习Spark的一些经验教训吧!
有8位网友表示赞同!
希望能看到文章的评论区,和其他人交流一下学习心得
有12位网友表示赞同!
学习Spark是一个长期的过程,需要不断的积累和实践
有17位网友表示赞同!