sqoop从hive导出到mysql卡在一直卡在INFO mapreduce.Job: Running job,改容量不行试试这个方法。
1-1.用$hadoop job -list查看进程,当时本人遇到已经是011了,初始是001.1.如果之前可以运行,大概率排除配置问题,先考虑是否进程过多一直在排队,($代表是命令)1-2.用$hadoop job -kill杀掉进程,再运行试一下。1-3.如果还不行就再重启一次,大概率就解决了。
·
1.如果之前可以运行,大概率排除配置问题,先考虑是否进程过多一直在排队,($代表是命令)
1-1.用
$hadoop job -list
查看进程,当时本人遇到已经是011了,初始是001.
1-2.用
$hadoop job -kill
杀掉进程,再运行试一下。
1-3.如果还不行就再重启一次,大概率就解决了。
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献2条内容
所有评论(0)