1.在本地创建一个文件,有id、name、age三列,用空格分隔,然后上传到hdfs上.
vim /root/person.txt
1 zhangsan 20
2 lisi 29
3 wangwu 25
4 zhaoliu 30
5 tianqi 35
6 kobe 40
上传数据文件到HDFS上:
hadoop fs -put /root/person.txt /
2.打开spark-shell
/export/servers/spark/bin/spark-shell
创建RDD:
3.定义case class
4.将RDD和case class关联
5.将RDD转换成DataFrame
6.查看数据和schema
7.注册表
8.执行SQL
9.也可以通过SparkSession构建DataFrame