Greenplum XF连接hadoop最近正在做Greenplum连接hadoop,采用了pxf 插件。首先添加hadoop的参数:$ gpconfigcgp _hadoop_ target _ version hvdp 2 $ gpconfigcgp _hadoop_ home v/usr/lib/hadoop。
hdfs的地址和端口错误。只需修改配置。提示连接DFS myhadoopproject文件时出现网络错误。请检查可用的网络。eclipse 插件的版本很有问题。你可以在网上找找别人搭建的环境。确保eclipse hadoop的版本对应于eclipse的版本。我记得eclipse3.3和hadoop0.20.2在网上有售。其次,如果你在其他版本,需要用hadoop编译你开发使用的eclipse插件代码,生成一个Eclipse插件,但是会包含报错,网上有解决方案。你自己去找。
error:Java . lang . classcastexception:org . Apache .hadoop. MapReduce . lib . input .包引入错误。mapreduce包下的类是新版API,mapred是旧版API。换成mapreduce包下的类就行了。
1。不建议先在window/cygwin上测试。直接用这个环境会有很多问题,很难理解。2,比较合理的做法,如果没有真实的linux环境,先用vmware虚拟23个linux虚拟机,按照网上的教程对它们进行操作,弄清楚所有的属性配置和细节,然后转移到cygwin就很简单了。让我们再看一看。
4、Greenplumpxf 连接 hadoop最近做了Greenplum连接hadoop,采用了pxf 插件。hadoop Cluster已经过kerberos身份验证,首先添加hadoop的参数:$ gpconfigcgp _hadoop_ target _ version hvdp 2 $ gpconfigcgp _hadoop_ home v/usr/lib/hadoop。
文章TAG:插件 连接 报错 hadoop kettle hadoop插件连接报错