最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501
当前位置: 首页 - 科技 - 知识百科 - 正文

hadoop2.3.0HA配置

来源:懂视网 责编:小采 时间:2020-11-09 08:18:12
文档

hadoop2.3.0HA配置

hadoop2.3.0HA配置:环境:rehl 6.4 ,apache hadoop 2.3.0 三台主机gtx1,gtx2,gtx3 构成hadoop集群,zookeeper已经正确配置并启动 1.1修改core-site.xml配置: property namefs.defaultFS/name valuehdfs://gtxcluster/value/p
推荐度:
导读hadoop2.3.0HA配置:环境:rehl 6.4 ,apache hadoop 2.3.0 三台主机gtx1,gtx2,gtx3 构成hadoop集群,zookeeper已经正确配置并启动 1.1修改core-site.xml配置: property namefs.defaultFS/name valuehdfs://gtxcluster/value/p

环境:rehl 6.4 ,apache hadoop 2.3.0 三台主机gtx1,gtx2,gtx3 构成hadoop集群,zookeeper已经正确配置并启动 1.1修改core-site.xml配置: property namefs.defaultFS/name valuehdfs://gtxcluster/value/propertyproperty nameha.zookeeper.quorum/name

环境:rehl 6.4 ,apache hadoop 2.3.0

三台主机gtx1,gtx2,gtx3 构成hadoop集群,zookeeper已经正确配置并启动

1.1修改core-site.xml配置:


 fs.defaultFS
 hdfs://gtxcluster


 ha.zookeeper.quorum
 gtx1:2181,gtx2:2181,gtx3:2181

1.2修改hdfs-site.xml,添加如下配置:

 dfs.nameservices
 gtxcluster


 dfs.ha.namenodes.gtxcluster
 nn1,nn2


 dfs.namenode.rpc-address.gtxcluster.nn1
 gtx3:9009


 dfs.namenode.rpc-address.gtxcluster.nn2
 gtx2:9009


 dfs.namenode.http-address.gtxcluster.nn1
 gtx3:50070


 dfs.namenode.http-address.gtxcluster.nn2
 gtx2:50070


 dfs.namenode.shared.edits.dir
 qjournal://gtx3:8485;gtx2:8485;gtx1:8485/gtxcluster


 dfs.client.failover.proxy.provider.gtxcluster
 org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider


 dfs.ha.fencing.methods
 shell(/bin/true)


 fs.defaultFS
 hdfs://gtxcluster


 dfs.journalnode.edits.dir
 /data/hadoop/data/journal


 dfs.ha.automatic-failover.enabled
 true

2启动服务

2.1初始化zookeeper

在nn1上执行:

hdfs zkfc -formatZK

2.2在所有journalnode节点上启动journalnode
hadoop-daemon.sh start journalnode

2.3格式化nn1(如果是新集群),在nn1上执行
hadoop namenode -format 


*初始化journalnode*实测结果表明在2.3.0中此步做不做都不影响,考虑到操作完整性还是建议做
hdfs namenode -initializeSharedEdits

2.4启动nn1:在nn1节点上执行:
hadoop-daemon.sh start namenode

2.5让nn2从nn1上拉去fsimage,在nn2上执行:
hdfs namenode -bootstrapStandby

2.6启动nn2,在nn2上执行:
hadoop-daemon.sh start namenode


此时nn1和nn2都处于standby状态,因为在hdfs-site.xml中配置了dfs.ha.automatic-failover.enabled参数为true,所以不能通过手工方式切换状态,需要依赖zkfc


2.7启动所有datanode,在nn1上执行:
hadoop-daemons.sh start datanode

2.8 启动zkfc,实现HA的自动切换,启动zkfc后,先启动的nn会自动进入active状态,另一个仍保持standby状态

在nn1上和nn2上分别执行:

hadoop-daemon.sh start zkfc

3 检查集群状态和进程状态

3.1 在任意nn上执行 jps显示进程如下:

hadoop@GTX3 bin]$ jps
6496 Jps
6439 DFSZKFailoverController
5712 JournalNode
6077 NameNode
6293 DataNode
23504 QuorumPeerMain

3.2查看nn状态

在任意nn上执行:

hdfs haadmin -getServiceState nn1 结果显示为active

hdfs haadmin -getServiceState nn2 结果显示为stanby

备注:如果没有配置自动ha,则可以通过hdfs dfsadmin -transitionToActive nnx 将其中一个nn手动切换为active状态,切换成standby状态同理,使用 -transitionToStandby参数、

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文档

hadoop2.3.0HA配置

hadoop2.3.0HA配置:环境:rehl 6.4 ,apache hadoop 2.3.0 三台主机gtx1,gtx2,gtx3 构成hadoop集群,zookeeper已经正确配置并启动 1.1修改core-site.xml配置: property namefs.defaultFS/name valuehdfs://gtxcluster/value/p
推荐度:
标签: ha 配置 环境
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top