博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark使用Hive表操作
阅读量:5298 次
发布时间:2019-06-14

本文共 860 字,大约阅读时间需要 2 分钟。

spark Hive表操作

之前很长一段时间是通过hiveServer操作Hive表的,一旦hiveServer宕掉就无法进行操作。

比如说一个修改表分区的操作

一.使用HiveServer的方式

val tblName = "hive_table"def dropPartitions(tblName: String): Unit = {  val HIVE_SERVER = "jdbc:hive2://192.168.xx.xxx:10000"  import java.sql.DriverManager  Class.forName("org.apache.hive.jdbc.HiveDriver")  val conn = DriverManager.getConnection(HIVE_SERVER, "xxx", "")  val stmt = conn.createStatement()  val addSQL = s"msck repair table $tblName"  stmt.execute(addSQL)  conn.close()}

二.使用HiveContext的方式

后来发现通过HiveContext可以实现同样的功能,却方便的多,也不用通过hiveServer,再也不怕hiveServer宕机啦~

先创建一个HiveContext,当然hiveContext也是可以对Hive表进行查询操作的

val sqlContext = new HiveContext(sc)

同样功能的函数

val tblName = "hive_table"def dropPartitions(tblName: String,sqlContext :HiveContext): Unit = {  sqlContext.sql(s"msck repair table $tblName")}

转载于:https://www.cnblogs.com/wuwuwu/p/6162568.html

你可能感兴趣的文章
Java Session 介绍;
查看>>
spoj TBATTLE 质因数分解+二分
查看>>
Django 模型层
查看>>
dedecms讲解-arc.listview.class.php分析,列表页展示
查看>>
Extjs6 经典版 combo下拉框数据的使用及动态传参
查看>>
【NodeJS】http-server.cmd
查看>>
研磨JavaScript系列(五):奇妙的对象
查看>>
面试题2
查看>>
selenium+java iframe定位
查看>>
P2P综述
查看>>
第五章 如何使用Burp Target
查看>>
Sprint阶段测试评分总结
查看>>
sqlite3经常使用命令&语法
查看>>
linux下编译openjdk8
查看>>
【python】--迭代器生成器装饰器
查看>>
Pow(x, n)
查看>>
安卓当中的线程和每秒刷一次
查看>>
每日一库:Modernizr.js,es5-shim.js,es5-safe.js
查看>>
ajax连接服务器框架
查看>>
wpf样式绑定 行为绑定 事件关联 路由事件实例
查看>>