博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
38、数据源Parquet之使用编程方式加载数据
阅读量:5220 次
发布时间:2019-06-14

本文共 3487 字,大约阅读时间需要 11 分钟。

一、概述

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。列式存储和行式存储相比有哪些优势呢?1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。 2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。 3、只读取需要的列,支持向量运算,能够获取更好的扫描性能。 这里讲解Parquet数据源的第一个知识点,使用编程的方式加载Parquet文件中的数据。

二、代码

1、java实现

package cn.spark.study.sql;import java.util.List;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.Function;import org.apache.spark.sql.DataFrame;import org.apache.spark.sql.Row;import org.apache.spark.sql.SQLContext;/** * Parquet数据源之使用编程方式加载数据 * @author Administrator * */public class ParquetLoadData {    public static void main(String[] args) {        SparkConf conf = new SparkConf()                .setAppName("ParquetLoadData");          JavaSparkContext sc = new JavaSparkContext(conf);        SQLContext sqlContext = new SQLContext(sc);                // 读取Parquet文件中的数据,创建一个DataFrame        DataFrame usersDF = sqlContext.read().parquet(                "hdfs://spark1:9000/spark-study/users.parquet");                // 将DataFrame注册为临时表,然后使用SQL查询需要的数据        usersDF.registerTempTable("users");          DataFrame userNamesDF = sqlContext.sql("select name from users");                  // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来        List
userNames = userNamesDF.javaRDD().map(new Function
() { private static final long serialVersionUID = 1L; @Override public String call(Row row) throws Exception { return "Name: " + row.getString(0); } }).collect(); for(String userName : userNames) { System.out.println(userName); } } }##打包、上传##运行脚本cat parquet_load_data.sh/usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \--class cn.spark.study.sql.ParquetLoadData \--num-executors 3 \--driver-memory 100m \--executor-memory 100m \--executor-cores 3 \--files /usr/local/hive/conf/hive-site.xml \--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \/usr/local/spark-study/java/sql/saprk-study-java-0.0.1-SNAPSHOT-jar-with-dependencies.jar \

2、scala实现

package cn.spark.study.sqlimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.SQLContextobject ParquetLoadData {  def main(args: Array[String]) {    val conf = new SparkConf().setAppName("ParquetLoadData")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)        // 读取Parquet文件中的数据,创建一个DataFrame    val usersDF = sqlContext.read.parquet("hdfs://spark1:9000/spark-study/users.parquet")        // 将DataFrame注册为临时表,然后使用SQL查询需要的数据    usersDF.registerTempTable("users")    val userNameDF = sqlContext.sql("select * from users")        // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来    userNameDF.rdd.map( row => "Name: " + row(0)).collect()      .foreach( userName => println(userName))      }}##Export-->打jar包-->上传##运行脚本[root@spark1 sql]# cat parquet_load_data.sh /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \--class cn.spark.study.sql.ParquetLoadData \--num-executors 3 \--driver-memory 100m \--executor-memory 100m \--executor-cores 3 \--files /usr/local/hive/conf/hive-site.xml \--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \/usr/local/spark-study/scala/sql/spark-study-scala.jar \

转载于:https://www.cnblogs.com/weiyiming007/p/11275841.html

你可能感兴趣的文章
新的开始
查看>>
java Facade模式
查看>>
NYOJ 120校园网络(有向图的强连通分量)(Kosaraju算法)
查看>>
SpringAop与AspectJ
查看>>
Leetcode 226: Invert Binary Tree
查看>>
http站点转https站点教程
查看>>
解决miner.start() 返回null
查看>>
关于MFC中窗口的销毁
查看>>
bzoj 2007: [Noi2010]海拔【最小割+dijskstra】
查看>>
BZOJ 1001--[BeiJing2006]狼抓兔子(最短路&对偶图)
查看>>
C# Dynamic通用反序列化Json类型并遍历属性比较
查看>>
128 Longest Consecutive Sequence 一个无序整数数组中找到最长连续序列
查看>>
定制jackson的自定义序列化(null值的处理)
查看>>
auth模块
查看>>
javascript keycode大全
查看>>
前台freemark获取后台的值
查看>>
log4j.properties的作用
查看>>
游戏偶感
查看>>
Leetcode: Unique Binary Search Trees II
查看>>
C++ FFLIB 之FFDB: 使用 Mysql&Sqlite 实现CRUD
查看>>