在前面的文中我们分别搭建了单机和集群的Hadoop环境,今天我们将实践使用Eclispe开发工具安装
hadoop的开发插件,并且使用hadoop插件连接Hadoop远程集群,文中有什么不对的地方,请大家指出来
共同学习。
一、环境准备
1.Eclipse Java EE IDE for Web Developers- Oxygen.2 Release (4.7.2)
2.Eclipse的Hadoop插件hadoop-eclipse-plugin-2.6.0.jar
3.Hadoop集群环境
4.deepin15.5稳定版linux系统
注:以上都是本次实践的版本,大家可以选择适合自己的版本
二、安装Eclispe的Hadoop开发插件
1.下载Eclipse的Hadoop插件hadoop-eclipse-plugin-2.6.0.jar,下载地址:
https://github.com/winghc/hadoop2x-eclipse-plugin

2.将插件复制到eclipse安装目录下的plugins目录

3.启动或者重启Eclispe开发工具

4.打开eclipse的show View窗口,看到了我们安装的Hadoop的插件

5.点击Map/Reduce Locations打开视图

出现的是hadoop的Map/Reduce开发相关的视图,在视图区域右上方有蓝色小象的添加按钮,此时插
件工作配置完成
三、启动Hadoop集群环境
1.SSH连接Hadoop集群的master节点机器,启动hadoop集群
2.验证集群是否正常启动
在master节点执行hadoop dfsadmin -report验证

打开yarn的web查看

hadoop集群搭建可参考《hadoop(04)、Hadoop 集群模式搭建实践 》
四、创建配置Map/Reduce Locations
1. 打开eclispe到Map/Reduce Locations视图窗口

2.点击蓝色小大象按钮

3.配置Map/Reduce Locations信息

注意填写参数:
Lacation Name:为该位置命名
MapReduce Master:与$HADOOP_DIRCONF/mapred-site.xml配置保持一致;
HDFS Master:与$HADOOP_DIRCONF/core-site.xml配置保持一致
User Name:登录hadoop用户名,可以填写其他的
4.点击完成即可

5.验证配置,点击DFS Locations
五、总结
本文主要实践了eclispe安装hadoop的插件,和在eclispe下使用hadoop插件连接远程hadoop集群的
操作,后面我们将使用改开发环境开发hadoop的作业任务。