时间: 2020-09-19|46次围观|0 条评论

Hadoop命令的方式:get、text

hive> dfs -get /user/hive/warehouse/testtable/* /liguodong/dataimport;
hive> !ls /liguodong/dataimport/;
datatest
datatest_copy_1

Hive数据导出插图

Hive数据导出插图1

通过INSERT … DIRECTORY方式

insert overwrite [local] directory '/tmp/ca_employees' [row format delimited fields terminated by '\t'] select name,salary,address from employee
导出到本地目录
insert overwrite local directory '/liguodong/hiveimport' select name,addr from testtable;

有分隔符
insert overwrite local directory '/liguodong/hiveimport' row format delimited fields terminated by '\t' select name,addr from testtable;

导出到hdfs目录 (不允许row format)
insert overwrite directory '/liguodong/hiveimport' select name,addr from testtable;

Hive数据导出插图2

Hive数据导出插图3

Hive数据导出插图4

Shell命令加管道

hive -f/e | sed/grep/awk > file

hive -S -e "select * from testtable" | grep liguodong

Hive数据导出插图5

第三方工具Sqoop

将数据导出到mysql中

sqoop export --connect jdbc:mysql://hadoop1:3306/qt --username root --password liguodong 
--table resultshow --fields-terminated-by '\001' 
--export-dir '/user/hive/warehouse/addressall_2015_07_09'

Hive数据导出插图6

原文链接:https://blog.csdn.net/scgaliguodong123_/article/details/46934265

本站声明:网站内容来源于网络,如有侵权,请联系我们,我们将及时处理。

本博客所有文章如无特别注明均为原创。
复制或转载请以超链接形式注明转自起风了,原文地址《Hive数据导出
   

还没有人抢沙发呢~