iis服务器助手广告广告
返回顶部
首页 > 资讯 > 数据库 >hadoop ha+zookeeper+hbase
  • 390
分享到

hadoop ha+zookeeper+hbase

2024-04-02 19:04:59 390人浏览 独家记忆
摘要

一、环境1、系统:Red Hat Enterprise linux Server release 6.42、所需软件包    hadoop-2.2.0.tar.gz

一、环境

1、系统:Red Hat Enterprise linux Server release 6.4


2、所需软件包

    hadoop-2.2.0.tar.gz  

    HBase-0.98.2-hadoop2-bin.tar.gz  

    jdk-7u67-linux-x64.tar.gz  

    ZooKeeper-3.4.6.tar.gz


3、各机器运行服务

192.168.10.40 master1 namenode resourcemanager   ZKFC   hmaster  

192.168.10.41 master2 namenode                   ZKFC   hmaster(backup)

192.168.10.42 slave1  datanode nodemanager  journalnode  hregionserver  zookeeper

192.168.10.43 slave2  datanode nodemanager  journalnode  hregionserver  zookeeper

192.168.10.44 slave3  datanode nodemanager  journalnode  hregionserver  zookeeper


二、安装步骤:(为了便于同步,一般都是在master1上操作)

1、ssh无密码登录

(mkdir -m700 .ssh)


2、jdk的安装(每台都是)

1)、解压

tar zxf jdk-7u67-linux-x64.tar.gz 

ln -sf jdk1.7.0_67 jdk


2)、配置

sudo vim /etc/profile

export JAVA_HOME=/home/richmail/jdk

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


3)执行,使生效

source /etc/profile


3、zookeeper的安装

1)解压

tar zxf zookeeper-3.4.6.tar.gz 

ln -sf zookeeper-3.4.6 zookeeper


2)、配置

vim zookeeper/bin/zkEnv.sh

ZOO_LOG_DIR="/home/richmail/zookeeper/logs"


cd zookeeper/conf

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/richmail/zookeeper/data

dataLogDir=/home/richmail/zookeeper/logs

clientPort=2181

server.1=slave1:2888:3888

server.2=slave2:2888:3888

server.3=slave3:2888:3888


mkdir -p /home/richmail/zookeeper/{data,logs}


3)、复制到slave1,slave2,slave3上 

cd

scp -rv zookeeper slave1:~/ 

ssh slave1 ‘echo 1 > /home/richmail/zookeeper/data/myid’

scp -rv zookeeper slave2:~/  

ssh slave1 ‘echo 2 > /home/richmail/zookeeper/data/myid'

scp -rv zookeeper slave3:~/  

ssh slave1 ‘echo 3 > /home/richmail/zookeeper/data/myid’


4)、启动zookeeper

分别去slave1,slave2,slave3区启动zookeeper

cd ~/zookeeper/bin

./zkServer.sh start


4、hadoop的安装

1)、解压

tar zxf hadoop-2.2.0.tar.gz

ln -sf hadoop-2.2.0 hadoop


2)、配置

cd /home/richmail/hadoop/etc/hadoop

vim core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://cluster</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/richmail/hadoop/storage/tmp</value>

</property>

<property>

<name>ha.zookeeper.quorum</name>

<value>slave1:2181,slave2:2181,slave3:2181</value>

</property>

</configuration>


mkdir -p /home/richmail/hadoop/storage/tmp

vim hadoop-env.sh 

export JAVA_HOME=/home/richmail/jdk

export HADOOP_PID_DIR=/var/hadoop/pids  //默认 /tmp下


vim hdfs-site.xml 

<configuration>

<property>

<name>dfs.nameservices</name>

<value>cluster</value>

</property>

<property>

<name>dfs.ha.namenodes.cluster</name>

<value>master1,master2</value>

</property>

<property>

<name>dfs.namenode.rpc-address.cluster.master1</name>

<value>master1:9000</value>

</property>

<property>

<name>dfs.namenode.rpc-address.cluster.master2</name>

<value>master2:9000</value>

</property>

<property>

<name>dfs.namenode.Http-address.cluster.master1</name>

<value>master1:50070</value>

</property>

<property>

<name>dfs.namenode.http-address.cluster.master2</name>

<value>master2:50070</value>

</property>

<property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://slave1:8485;slave2:8485;slave3:8485/cluster</value>

</property>

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.client.failover.proxy.provider.cluster</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

<name>dfs.ha.fencing.methods</name>

<value>sshfence</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name>

<value>/home/richmail/.ssh/id_rsa</value>

</property>

<property>

<name>dfs.journalnode.edits.dir</name>

<value>/home/richmail/hadoop/storage/journal</value>

</property>

</configuration>


mkdir -p /home/richmail/hadoop/storage/journal

vim mapred-site.xml

<configuration>

<property>

<name>mapReduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>


vim yarn-env.sh

export YARN_PID_DIR=/var/hadoop/pids


 vim yarn-site.sh

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master1</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>


vim slaves

slave1

slave2

slave3


3)、复制至其他机器

cd

scp -rv hadoop master2:~/

scp -rv hadoop slaver1:~/

scp -rv hadoop slaver2:~/

scp -rv hadoop slaver3:~/


4)、启动hadoop

1)、在slave1,slave2,slave3上执行journalnode

cd ~/hadoop/sbin

./hadoop-daemon.sh start journalnode


2)、在master1上执行

cd ~/hadoop/bin

./hdfs zkfc -fORMatZK

./hdfs namenode -format

cd ../sbin

./hadoop-daemon.sh start namenode

./start-all.sh


3)、在master2上执行

cd ~/hadoop/bin

hdfs namenode -bootstrapStandby

cd ../sbin

hadoop-daemon.sh start namenode


5)、验证

使用浏览器访问192.168.10.40:50070和192.168.10.41:50070,能够看到两个节点。一个是active,一个是standny

或者在名字节点执行命令:

hdfs haadmin -getServiceState master1

hdfs haadmin -getServiceState master2

执行hdfs haadmin –failover –forceactive master1 master2,可以使这两个节点的状态进行交换


5、hbase的安装

1)、解压

tar zxf hbase-0.98.2-hadoop2-bin.tar.gz 

ln -sf hbase-0.98.2-hadoop2 hbase 


2)、配置

cd ~/hbase/conf

vim hbase-env.sh

export JAVA_HOME=/home/richmail/jdk

export HBASE_MANAGES_ZK=false


vim hbase-env.sh 

export HBASE_PID_DIR=/var/hadoop/pids


vim regionservers

slave1

slave2

slave3


vim hbase-site.xml 

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://cluster/hbase</value>

</property>

<property>

<name>hbase.master</name>

<value>60000</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>slave1,slave2,slave3</value>

</property>

<property>

<name>hbase.zookeeper.property.clientPort</name>

<value>2181</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/home/richmail/hbase/zkdata</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.tmp.dir</name>

<value>/home/richmail/hbase/data</value>

</property>

</configuration>


mkdir ~/hbase/{zkdata,data}

hbase有个启动错误需要把hadoop的配置文件hdfs-site.xml复制到hbase/conf下,才能解决


3)、复制至其他机器

cd

scp -rv hbase master2:~/

scp -rv hbase slaver1:~/

scp -rv hbase slaver2:~/

scp -rv hbase slaver3:~/


4)、启动hbase

在master1上执行

cd ~/hbase/bin

./start-hbase.sh


在master2上执行

./bin/hbase-daemon.sh start master --backup

至此这个集群就部署OK啦

您可能感兴趣的文档:

--结束END--

本文标题: hadoop ha+zookeeper+hbase

本文链接: https://www.lsjlt.com/news/40197.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • hadoop ha+zookeeper+hbase
    一、环境1、系统:Red Hat Enterprise Linux Server release 6.42、所需软件包    hadoop-2.2.0.tar.gz ...
    99+
    2022-10-18
  • hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
    创建3台虚拟机 主机为桌面版 其他为迷你版本 ******************************常用命令、进程名称****************************启动集群命令: start-all.sh...
    99+
    2017-03-10
    hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
  • hadoop+hbase+zookeeper+spark+p
    排错日志:解决办法:可能是修改 机器名导致的,修改hosts,写入hostname和IP,然后,try it agin!解决办法:当引入hadoop-common-2.2.0.jar包进行二次开发,比如读写...
    99+
    2022-10-18
  • hadoop+hbase+zookeeper完全分布安装(1)
    版本选择选择 Hadoop 版本对HBase部署很关键。下表显示不同HBase支持的Hadoop版本信息。基于HBase版本,应该选择合适的Hadoop版本。HBase-0.92.xHBase-0.94.x...
    99+
    2022-10-18
  • hadoop+hbase+zookeeper完全分布安装(2)
    一 安装准备     上一篇我们安装完hadoop成功后就可以接着安装hbase了。根据上篇的对应表我们选择下载合适版本的hbase.本案例选择的版本是hbase-0.94.1...
    99+
    2022-10-18
  • Apache Hadoop开启HA
    要在Apache Hadoop上启用高可用性(HA),需要进行以下步骤:1. 安装和配置ZooKeeper:HA依赖于ZooKeep...
    99+
    2023-10-11
    hadoop
  • Hadoop HBase
    一、概述: 1、定义:HBase是Google Bigtable的开源山寨版本。是建立的HDFS之上,提供高可靠性、高性能、列存储、可伸缩、实时、随机读写的数据库系统。   &...
    99+
    2022-10-18
  • Hadoop + Hbase + Zookeeper安装及配置完整版(Hadoop1系列)
    第一步:安装Hadoop集群1、搭建环境所需介质准备   Enterprise-R5-U4-Server-x86_64-dvd.iso   hadoop-1.1.1....
    99+
    2022-10-18
  • Hadoop+HBase+ZooKeeper分布式集群环境搭建步骤
    目录一、环境说明2.1 安装JDK2.2 添加Hosts映射关系2.3 集群之间SSH无密码登陆三、Hadoop集群安装配置3.1 修改hadoop配置3.2 启动hadoop集群四...
    99+
    2022-11-13
  • zookeeper和hbase安装
    一、zookeeper1、/etc/profileHADOOP_PREFIX=/opt/hadoopJAVA_HOME=/opt/jdk18ZOOKEEPER_HOME=/opt/zookeeperHBAS...
    99+
    2022-10-18
  • hbase 0.90.4 + zookeeper 3.3.3 hbase 启动失败
    报错:Couldnt start ZK at requested address of 2181, instead got: 2182. Aborting. Why Because clients (eg ...
    99+
    2022-10-18
  • Hadoop hive sqoop zookeeper hb
    6、问题及解决方案1. 问题描述:WARN util.NativeCodeLoader: Unable to load native-hadoop library foryour platform… usi...
    99+
    2022-10-18
  • hadoop之Hbase安装
    说明:hadoop安装:http://kexl908.blog.51cto.com/605006/812494Hbase接上面的hadoop安装环境之后继续安装,环境 IP 不变...
    99+
    2022-10-18
  • hadoop hbase无法启动
    启动hbase报错 could only be replicated to 0 nodes instead of 1hmaster启动不起来 查了很多类似的问题,大家处理的方式大多比较暴力。 &n...
    99+
    2022-10-18
  • Hadoop数据存储—Hbase
     大家都知道Hadoop是一个数据库,其实说的的就是Hbase。它和我们平常理解的关系型数据库有什么区别呢?1.它是NoSQL的,它没有SQL的接口,有自己的一套API。2.关系型数据库可以做汇总...
    99+
    2022-10-18
  • 《Hadoop The Definitive Guide》ch12 HBase
    ...
    99+
    2022-10-18
  • hadoop hbase无法启动 2
    今天又碰到的问题:Not able to place enough replicas2015-02-08 18:35:43,978 ERROR org.apache.hadoop.security.User...
    99+
    2022-10-18
  • Hadoop 2.x的HA和Federation怎么理解
    这篇文章主要介绍“Hadoop 2.x的HA和Federation怎么理解”,在日常操作中,相信很多人在Hadoop 2.x的HA和Federation怎么理解问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”H...
    99+
    2023-06-03
  • hadoop Zookeeper的优点有哪些
    本篇内容主要讲解“hadoop Zookeeper的优点有哪些”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“hadoop Zookeeper的优点有哪些”吧!(1) Zookeeper 在 Ha...
    99+
    2023-06-03
  • Hadoop、Spark、HBase与Redis的适用性讨论(二):HBase
    接下来说说HBase。对此,经常听到的一个说法是:HBase只适合于支撑离线分析型应用,特别是做为MapReduce任务的后台数据源。持这个观点不少,甚至在国内一个响当当的电信设备提供商中,HBase也是被...
    99+
    2022-10-18
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作