使用SQOOP将hive的数据导入到mysql
使用SQOOP将hive的数据导入到mysql使用SQOOP将hive的数据导入到mysql我们一般会使用sqoop 将mysql的数据导入到hive中,但是有时候也会有需求使用。使用的脚本如下:(一种方式)sqoop export--connect jdbc:mysql://127.0.0.1:3306/test?serverTimezone=Asia/Shanghai\&tinyInt
·
使用SQOOP将hive的数据导入到mysql
使用SQOOP将hive的数据导入到mysql
我们一般会使用sqoop 将mysql的数据导入到hive中,但是有时候也会有需求使用。
使用的脚本如下:(一种方式)
sqoop export
--connect jdbc:mysql://127.0.0.1:3306/test?serverTimezone=Asia/Shanghai\&tinyInt1isBit=false\&autoReconnect=true
--username root
--password root #如果有特殊符号,需要将添加单引号
--table test_sqoop # mysql的table 名称
--update-mode allowinsert #数据抽取 默认是 updateonly
--hcatalog-table #ods_tese_mall_order_info # hive的表名字
--hcatalog-database ods #hive数据库名称
--hcatalog-partition-keys dt #hive的分区
--hcatalog-partition-values '2021-03-01' #hive 分区值
--fields-terminated-by ',' #分割符
--columns 'last_modify_time' #指定导入的列 (如果不指定,那么就会导入mysql中包含所有的列,如果hive中不存在,那么就会报错)
--num-mappers 1 #指定mapper数量
第二种方式
sqoop export
--connect jjdbc:mysql://127.0.0.1:3306/test?serverTimezone=Asia/Shanghai\&tinyInt1isBit=false\&autoReconnect=true
--username root
--password root
--table docter_order_recipe_info
--fields-terminated-by ','
--export-dir 'hdfs://dc/user/hive/warehouse/dws.db/dws_docter_order_recipe_info/' #指定hive在hdfs上存在的目录
--m 1
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献1条内容
所有评论(0)