求助,Sqoop的Unknown rpc kind RPC_WRITABLE问题!急!

查看数: 26015 | 评论数: 10 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2014-6-27 15:38

正文摘要:

本帖最后由 star4g 于 2014-6-27 15:43 编辑 最近公司使用Kettle。 但是Big Data插件中Sqoop import一直出现问题。 Google了几天了,也没查到解决方法。 求助大家,有遇到这样的问题的么? 2014/06/27 15:25:5 ...

回复

liuzhixin137 发表于 2016-7-5 11:10:43
star4g 发表于 2014-7-2 17:17
版主你好,我想问一下,如果客户端kettle提交的请求是基于MR1的,服务端配置是YARN,提交到8032端口,会 ...

应该是这个问题,但是我不知道如何去修改配置让她两边的 提交请求是一致。

请问解决了吗
wubaozhou 发表于 2015-1-1 21:27:07
nettman 发表于 2014-7-5 16:42:43
star4g 发表于 2014-7-5 16:17
不是sqoop2,是sqoop1.
也没用Cloudera Manager管理。
服务端用的CDH4.4版本。
没有连上看看端口、防火墙、主机名(hostname)、ip这些是基本的。一遍遍屡屡,说不定就是一个不起眼的小错误。
star4g 发表于 2014-7-5 16:17:10
nettman 发表于 2014-7-4 01:02
用的是Cloudera Manager (CM) 管理的集群吗?如果是的话,你的配置需要改改。

是sqoop2吗?

不是sqoop2,是sqoop1.
也没用Cloudera Manager管理。
服务端用的CDH4.4版本。


现在好像是在终端连接 hadoop服务端没连接上,或者连接上被拒绝了的感觉。


想解决问题,但是没有方向没有头绪。


真心求帮助,不然经理要弄死我了。

点评

hyj
实在解决不了,你加入群问一下,39327136  发表于 2014-7-5 16:47
nettman 发表于 2014-7-4 01:02:47
star4g 发表于 2014-7-2 17:17
版主你好,我想问一下,如果客户端kettle提交的请求是基于MR1的,服务端配置是YARN,提交到8032端口,会 ...
用的是Cloudera Manager (CM) 管理的集群吗?如果是的话,你的配置需要改改。

是sqoop2吗?
改一下下面两个配置试一下。

  1. org.apache.sqoop.connector.autoupgrade=true
  2. org.apache.sqoop.framework.autoupgrade=true
复制代码




star4g 发表于 2014-7-2 17:17:23
hyj 发表于 2014-6-28 06:54
检查下通信,hostname等,好像是连接不上。

版主你好,我想问一下,如果客户端kettle提交的请求是基于MR1的,服务端配置是YARN,提交到8032端口,会不会出现这样的情况?
感觉可能是这样的问题。
拜谢了!快被这问题逼疯了。

点评

hyj
YARN不知道兼容性好不好,你最好使用MR2,这样更稳定。  发表于 2014-7-2 23:57
star4g 发表于 2014-6-29 20:50:17
hyj 发表于 2014-6-28 06:54
检查下通信,hostname等,好像是连接不上。

测试过。通信啊什么的都没有问题的。
hyj 发表于 2014-6-28 06:54:53
star4g 发表于 2014-6-28 01:48
应该不是语句的问题。
看了日志上是本地打好了jar包连接hadoop然后出错的。
检查下通信,hostname等,好像是连接不上。
star4g 发表于 2014-6-28 01:48:22
howtodown 发表于 2014-6-27 23:05
SELECT * FROM TBLS WHERE 1 AND  (1 = 0)

你这个sql语句在看看是不是有问题

应该不是语句的问题。
  1. --target-dir /user/impala/kettle/sqoop --split-by TBL_ID --query "SELECT * FROM TBLS WHERE 1 AND $CONDITIONS" --connect jdbc:mysql://192.168.128.51:3306/hive --driver com.mysql.jdbc.Driver --username hive --password hive --verbose --fields-terminated-by ~
复制代码

看了日志上是本地打好了jar包连接hadoop然后出错的。
关闭

推荐上一条 /2 下一条