【摘要】:数据从MySQL 表中导入Hive 中,其过程是先导入HDFS,再load 到Hive。无须提前创建Hive 表,Sqoop 会自动进行创建。--hive-table mysql_employee2:设置导入的Hive 表名,默认为MySQL 表名,可以自定义。通过HDFS Web 查看Hive 数据表文件,如图9. 13 所示,在“/user/hive/warehouse/apachedb/”目录下新增了一个“mysql_employee2”目录,里面包括了两个文件,这个就是导入的Hive 表数据文件。图9.13导入的Hive 表数据文件也可以在Hive 命令行中查询结果,如图9.14 所示。图9.14MySQL 表数据导入Hive 结果图9.14MySQL 表数据导入Hive 结果
数据从MySQL 表中导入Hive 中,其过程是先导入HDFS,再load 到Hive。无须提前创建Hive 表,Sqoop 会自动进行创建。其执行命令为:
上述命令中的参数说明如下:
--hive-import:指定Hive 导入。
--hive-overwrite:Hive 覆写导入,将原来Hive 表中的数据覆盖。
--hive-database apachedb:指定导入的Hive 数据库为apachedb。
--hive-table mysql_employee2:设置导入的Hive 表名,默认为MySQL 表名,可以自定义。
--fields-terminated-by ',':设置列分隔符为“,”。(www.xing528.com)
--lines-terminated-by '\n':设置行分隔符为“\n”。
通过HDFS Web 查看Hive 数据表文件,如图9. 13 所示,在“/user/hive/warehouse/apachedb/”目录下新增了一个“mysql_employee2”目录,里面包括了两个文件,这个就是导入的Hive 表数据文件。
图9.13 导入的Hive 表数据文件
也可以在Hive 命令行中查询结果,如图9.14 所示。
图9.14 MySQL 表数据导入Hive 结果
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。