Spark SQL的CLI(命令终端)是一个方便的工具,以本地方式运行在Hive的元数据服务上,可以直接在命令行中输入查询语句进行查询。不过需要注意的是,SparkSQL的CL不能操作Thrift JDBC Server。下面介绍如何使用CLI。
首先进入Spark安装目录下的bin目录,启动Spark SQL。
./spark-sql
运行成功后将看到Spark SQL命令提示符:
spark-sql>
接下来进行Spark SQL CLI的操作。
1)列出Hive中的数据库列表。
在Spark SQL CLI中的操作几乎和在DBMS中的操作一样,列出Hive中有哪些数据库。
spark-sql>show databases;
结果如下所示(在显示结果之前CLI中会打印很多日志信息,这里忽略日志信息,直接显示结果):
default
hive
2)选择使用Hive数据库。
spark-sql>use hive;
3)查看数据库中有哪些表,结果中表名后的false表示不是临时表。
spark-sql>show tables;
//结果如下
sogouq1 false
sogouq2 false
tbdate false
tbstock false
tbstockdetail false
4)查看tbdate表中有多少条数据。
spark-sql>select count(∗)from tbdate;
4383
5)查看tbdate表的结构。(www.xing528.com)
spark-sql>desc tbdate;
结果如下:
dateid string NULL
theyearmonth string NULL
theyear string NULL
themonth string NULL
thedate string NULL
theweek string NULL
theweeks string NULL
theqout string NULL
thetenday string NULL
thehalfmonth string NULL
6)查看tbdate表的前10条数据。
spark-sql>select count(∗)from tbdate limit 10;
结果如下:
2003-1-1 200301 2003 1 1 3 1 1 1 1
2003-1-2 200301 2003 1 2 4 1 1 1 1
2003-1-3 200301 2003 1 3 5 1 1 1 1
2003-1-4 200301 2003 1 4 6 1 1 1 1
2003-1-5 200301 2003 1 5 7 1 1 1 1
2003-1-6 200301 2003 1 6 1 2 1 1 1
2003-1-7 200301 2003 1 7 2 2 1 1 1
2003-1-8 200301 2003 1 8 3 2 1 1 1
2003-1-9 200301 2003 1 9 4 2 1 1 1
2003-1-10 200301 2003 1 10 5 2 1 1 1
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。