广告
返回顶部
首页 > 资讯 > 前端开发 > html >怎么部署Hadoop集群
  • 513
分享到

怎么部署Hadoop集群

2024-04-02 19:04:59 513人浏览 八月长安
摘要

本篇内容主要讲解“怎么部署hadoop集群”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么部署Hadoop集群”吧!环境准备一共用5台机器作为硬件环境,全都是

本篇内容主要讲解“怎么部署hadoop集群”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么部署Hadoop集群”吧!

环境准备

一共用5台机器作为硬件环境,全都是Centos 6.4

  • namenode & resourcemanager 主服务器: 192.168.1.1

  • namenode & resourcemanager 备服务器: 192.168.1.2

  • datanode & nodemanager 服务器: 192.168.1.100 192.168.1.101 192.168.1.102

  • ZooKeeper 服务器集群(用于namenode 高可用的自动切换): 192.168.1.100 192.168.1.101

  • jobhistory 服务器(用于记录mapReduce日志): 192.168.1.1

  • 用于namenode HA的NFS: 192.168.1.100

环境部署

一、加入CDH4的YUM仓库

1.***的办法是把cdh5的包放到自建的yum仓库中,如何自建yum仓库请看 自建YUM仓库

2.如果不想自建yum仓库,在所有的hadoop机器执行以下操作加入cdn4的yum仓库

wget Http://arcHive.cloudera.com/cdh5/one-click-install/redhat/6/x86_64/cloudera-cdh-4-0.x86_64.rpm sudo yum --nogpGCheck localinstall cloudera-cdh-4-0.x86_64.rpm

二、创建用于namenode HA的NFS服务器

1.登录192.168.1.100,执行以下脚本createNFS.sh

#!/bin/bash yum -y install rpc-bind nfs-utils mkdir -p /data/nn_ha/ echo "/data/nn_ha  *(rw,root_squash,all_squash,sync)" >> /etc/exports /etc/init.d/rpcbind start /etc/init.d/nfs  start chkconfig  --level 234 rpcbind   on chkconfig  -level 234 nfs  on

三、Hadoop Namenode & resourcemanager 主服务器 环境部署

1.登录192.168.1.1,创建脚本目录,把脚本从git仓库复制下来

yum –y install git mkdir –p /opt/ cd /opt/ git clone http://git.oschina.net/snake1361222/hadoop_scripts.git /etc/init.d/iptables stop

2.修改hostname

sh /opt/hadoop_scripts/deploy/AddHostname.sh

3.修改部署脚本的配置文件

vim /opt/kingsoft/hadoop_scripts/deploy/config #添加master服务器的地址,也就是namenode主服务器 master="192.168.1.1" #添加nfs服务器地址 nfsserver="192.168.1.100"

4.编辑hosts文件(此文件会同步到hadoop集群所有机器)

vim /opt/hadoop_scripts/share_data/resolv_host 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.1.1 nn.dg.hadoop.cn 192.168.1.2 nn2.dg.hadoop.cn 192.168.1.100 dn100.dg.hadoop.cn 192.168.1.101 dn101.dg.hadoop.cn 192.168.1.102 dn102.dg.hadoop.cn

5.执行部署脚本CreateNamenode.sh

sh /opt/hadoop_scripts/deploy/CreateNamenode.sh

6.搭建saltstack master

PS:类似于puppet的服务器管理开源工具,比较轻量,在这里用于管理hadoop集群,调度datanode,关于saltstack的详细请看 SaltStack部署与使用

a.安装

yum -y install salt salt-master

b.修改配置文件`/etc/salt/master`,下面标志的是需要修改的项

修改监听IP: interface: 0.0.0.0 多线程池: worker_threads: 5 开启任务缓存:(官方描叙开启缓存能承载5000miNIOn) job_cache 开启自动认证: auto_accept: True

c.开启服务

/etc/init.d/salt-master start chkconfig  salt-master on

7.部署过程中已经把我的sample配置复制过去了,所以只需要修改部分配置文件

a. /etc/hadoop/conf/hdfs-site.xml (其实就是按实际修改主机名地址)

<property>   <name>dfs.namenode.rpc-address.mycluster.ns1</name>   <value>nn.dg.hadoop.cn:8020</value>   <description>定义ns1的rpc地址</description> </property> <property>   <name>dfs.namenode.rpc-address.mycluster.ns2</name>   <value>nn2.dg.hadoop.cn:8020</value>   <description>定义ns2的rpc地址</description> </property> <property>     <name>ha.zookeeper.quorum</name>     <value>dn100.dg.hadoop.cn:2181,dn101.dg.hadoop.cn:2181,dn102.dg.hadoop.cn:2181,</value>     <description>指定用于HA的ZooKeeper集群机器列表</description> </property>

b. mapred-site.xml

<property>  <name>mapreduce.jobhistory.address</name>  <value>nn.dg.hadoop.cn:10020</value> </property> <property>  <name>mapreduce.jobhistory.WEBapp.address</name>  <value>nn.dg.hadoop.cn:19888</value> </property>

c. yarn-site.xml

property>   <name>yarn.resourcemanager.resource-tracker.address</name>   <value>nn.dg.hadoop.cn:8031</value> </property> <property>   <name>yarn.resourcemanager.address</name>   <value>nn.dg.hadoop.cn:8032</value> </property> <property>   <name>yarn.resourcemanager.scheduler.address</name>   <value>nn.dg.hadoop.cn:8030</value> </property> <property>   <name>yarn.resourcemanager.admin.address</name>   <value>nn.dg.hadoop.cn:8033</value> </property>

三、Hadoop Namenode & resourcemanager 备服务器 环境部署

1.登录192.168.1.2,创建脚本目录,从主服务器把脚本同步过来

/etc/init.d/iptables stop mkdir &ndash;p /opt/hadoop_scripts rsync &ndash;avz 192.168.1.1::hadoop_s   /opt/hadoop_scripts

2.执行部署脚本CreateNamenode.sh

sh /opt/hadoop_scripts/deploy/CreateNamenode.sh

3.同步hadoop配置文件

rsync &ndash;avz 192.168.1.1::hadoop_conf  /etc/hadoop/conf

4.部署saltstack客户端

sh /opt/hadoop_scripts/deploy/salt_minion.sh

四、zookeeper服务器集群部署

zookeeper是一个开源分布式服务,在这里用于namenode 的auto fail over功能。

1.安装

yum install zookeeper zookeeper-server

2.修改配置文件/etc/zookeeper/conf/zoo.cfg

maxClientCnxns=50 # The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. dataDir=/var/lib/zookeeper # the port at which the clients will connect clientPort=2181 #这里指定zookeeper集群内的所有机器,此配置集群内机器都是一样的 server.1=dn100.dg.hadoop.cn :2888:3888 server.2=dn101.dg.hadoop.cn:2888:3888

3.指定当前机器的id,并开启服务

#譬如当前机器是192.168.1.100(dn100.dg.hadoop.cn),它是server.1,id是1,SO: echo "1" >  /var/lib/zookeeper/myid chown -R zookeeper.zookeeper /var/lib/zookeeper/ service zookeeper-server init /etc/init.d/zookeeper-server start chkconfig zookeeper-server on #如此类推,部署192.168.1.101

五、datanode & nodemanager 服务器部署

1.登录datanode机器,创建脚本目录,从主服务器把脚本同步过来

/etc/init.d/iptables stop mkdir &ndash;p /opt/hadoop_scripts rsync &ndash;avz 192.168.1.1::hadoop_s   /opt/hadoop_scripts

2.修改hostname,执行部署脚本 CreateDatanode.sh

sh /opt/hadoop_scripts/deploy/AddHostname.sh sh /opt/hadoop_scripts/deploy/CreateDatanode.sh

集群初始化

到这里,hadoop集群的环境已部署完毕,现在开始初始化集群

一、namenode的HA高可用初始化

1.在namenode主服务器(192.168.1.1)执行zookeeper的failover功能格式化

sudo &ndash;u hdfs hdfs zkfc &ndash;fORMatZK

2.把zookeeper集群服务启动(192.168.1.100  192.168.1.101 )

/etc/init.d/zookeeper-server start

3.把namenode主备服务器的zkfc服务起来(192.168.1.1  192.168.1.2)

/etc/init.d/hadoop-hdfs-zkfc start

4.在namenode主服务器(192.168.1.1)格式化hdfs

#确保是用hdfs用户格式化 sudo -u hdfs hadoop namenode &ndash;format

5.***次搭建namenode高可用,需要把name.dir下面的数据复制到namenode备服务器(此坑花了好多时间)

a.在主服务器(192.168.1.1)执行

tar -zcvPf /tmp/namedir.tar.gz /data/hadoop/dfs/name/ nc -l 9999 < /tmp/namedir.tar.gz

b.在备服务器(192.168.1.2)执行

wget 192.168.1.1:9999 -O /tmp/namedir.tar.gz tar -zxvPf /tmp/namedir.tar.gz

6.主从服务都启动

/etc/init.d/hadoop-hdfs-namenode start /etc/init.d/hadoop-yarn-resourcemanager start

7.查看hdfs的web界面

http://192.168.1.1:9080 http://192.168.1.2:9080 #如果在web界面看到两个namenode都是backup状态,那就是auto fail over配置不成功 #查看zkfc日志(/var/log/hadoop-hdfs/hadoop-hdfs-zkfc-nn.dg.s.kingsoft.net.log) #查看zookeeper集群的日志(/var/log/zookeeper/zookeeper.log)

8.现在可以尝试关闭namenode主服务,看是否能主从切换

二、hdfs集群开启

到这里,所有hadoop部署已完成,现在开始把集群启动,验证效果

1.把所有datanode服务器启动

#还记得之前搭建的saltstack管理工具不,现在开始发挥它的作用,登录saltstack master(192.168.1.1)执行 salt -v "dn*" cmd.run "/etc/init.d/hadoop-hdfs-datanode start"

2.查看hdfs web界面,看是否都成为live nodes

3.如果没有问题,现在可以尝试hdfs操作

#创建一个tmp目录 sudo -u hdfs hdfs dfs -mkdir /tmp #创建一个10G大小的空文件,计算它的MD5值,并放入hdfs dd if=/dev/zero of=/data/test_10G_file bs=1G count=10 md5sum /data/test_10G_file sudo -u hdfs hdfs dfs -put /data/test_10G_file  /tmp sudo -u hdfs hdfs dfs -ls /tmp #现在可以尝试关闭一台datanode,然后把刚才的测试文件拉取出来,再算一次MD5看是否一样 sudo -u hdfs hdfs dfs -get /tmp/test_10G_file /tmp/ md5sum /tmp/test_10G_file

三、yarn集群开启

hadoop除了hdfs用于大数据分布式存储,还有更重要的组件,分布式计算(mapreduce)。现在我们来把mapreducev2 yarn集群启动

1.在主服务器把resourcemanager服务起来(192.168.1.1)

/etc/init.d/hadoop-yarn-resourcemanager start

2.把所有nodemanager服务启动

#还是登陆saltstack master,执行 salt -v "dn*" cmd.run "/etc/init.d/hadoop-yarn-nodemanager start"

3.查看yarn 任务追踪界面(http://192.168.1.1:9081/),看是否所有nodes都已加入

4.hadoop自带有基准测试的mapreduce实例,我们利用它来测试yarn环境是否正常

#TestDFSIO测试HDFS的读写性能,写10个文件,每个文件1G. su hdfs - hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.0.0-cdh5.2.1-tests.jar TestDFSIO  -write -nrFiles 10 -fileSize 1000 #Sort测试MapReduce ##向random-data目录输出数据 hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar randomwriter  random-data ##运行sort程序 hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar sort random-data sorted-data ##验证sorted-data 文件是否排好序 hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.0.0-cdh5.2.1-tests.jar testmapredsort -sortInput random-data \ -sortOutput sorted-data

到此,相信大家对“怎么部署Hadoop集群”有了更深的了解,不妨来实际操作一番吧!这里是编程网网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

--结束END--

本文标题: 怎么部署Hadoop集群

本文链接: https://www.lsjlt.com/news/86461.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 怎么部署Hadoop集群
    本篇内容主要讲解“怎么部署Hadoop集群”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么部署Hadoop集群”吧!环境准备一共用5台机器作为硬件环境,全都是...
    99+
    2022-10-19
  • Linux中如何部署Hadoop集群
    这篇文章给大家分享的是有关Linux中如何部署Hadoop集群的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Hadoop 是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下...
    99+
    2023-06-27
  • Linux系统如何部署Hadoop集群
    这篇文章将为大家详细讲解有关Linux系统如何部署Hadoop集群,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Hadoop简介:Hadoop是Apache旗下的一个用java语言实现开源软件框架,是一个...
    99+
    2023-06-28
  • 大数据Hadoop之——Spark集群部署(Standalone)
    目录一、Spark概述二、Spark的运行模式1)Standalone(本章讲解)2)Mesos3)YARN(推荐)4)K8S(新模式)三、Standalone 模式运行机制1)Standalone Client 模式2)Standalo...
    99+
    2020-01-26
    大数据Hadoop之——Spark集群部署(Standalone)
  • Hadoop集群环境部署的示例分析
    这篇文章主要介绍了Hadoop集群环境部署的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。为集群自定义一个名称:在安装集群组建之前安装程序需要对主机进行一些环境检查工...
    99+
    2023-06-02
  • 怎么部署redis集群
    要部署Redis集群,您可以按以下步骤进行操作:1. 安装Redis:在每个节点上安装Redis服务器。您可以从Redis官方网站上...
    99+
    2023-08-31
    redis
  • docker怎么部署redis集群
    要部署 Redis 集群,可以使用 Docker 来简化部署过程。以下是一个基本的步骤:1. 创建 Redis 集群配置文件你可以创...
    99+
    2023-09-22
    docker redis
  • docker swarm集群怎么部署
    要部署Docker Swarm集群,需要按照以下步骤进行操作:1. 安装Docker:在所有要加入Swarm集群的节点上安装Dock...
    99+
    2023-09-20
    docker
  • docker怎么部署zookeeper集群
    这篇“docker怎么部署zookeeper集群”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“docker怎么部署zooke...
    99+
    2023-07-06
  • k8s怎么部署nginx集群
    要部署一个nginx集群,首先需要安装和配置Kubernetes(k8s)环境。以下是部署一个简单nginx集群的步骤:1. 安装和...
    99+
    2023-10-23
    k8s nginx
  • docker怎么部署etcd集群
    本篇内容介绍了“docker怎么部署etcd集群”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!需要安装:dockerdocker-compo...
    99+
    2023-07-05
  • 大数据Hadoop-Spark集群部署知识总结(一)
    大数据Hadoop-Spark集群部署知识总结 一、启动/关闭 hadoop myhadoop.sh start/stop 分步启动: 第一步:在hadoop102主机上 sbin/start-dfs.sh 第二步:在hadoop103主...
    99+
    2015-05-16
    大数据Hadoop-Spark集群部署知识总结(一)
  • php中什么是集群部署?如何实现集群部署?
    随着互联网进入快速发展的时代,各种网站、应用如雨后春笋般出现,人们对于服务的需求越来越高。而随着用户量增加,单一服务器已经无法满足需求,集群部署PHP项目成为解决方案之一。一、什么是集群部署?集群部署是将多台服务器组合在一起,按照特定的方式...
    99+
    2023-05-14
    集群部署 php
  • elasticsearch 集群部署
    Elasticsearch是一个分布式搜索服务,提供Restful API,底层基于Lucene,采用多shard的方式保证数据安全,并且提供自动resharding的功能,github等大型的站点也都采用...
    99+
    2022-10-18
  • Kubernetes集群插件怎么部署
    这篇文章主要介绍“Kubernetes集群插件怎么部署”,在日常操作中,相信很多人在Kubernetes集群插件怎么部署问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Kubernetes集群插件怎么部署”的疑...
    99+
    2023-06-29
  • redis怎么用docker部署集群
    要使用Docker部署Redis集群,您可以按照以下步骤进行操作:1. 首先,您需要确保已经安装了Docker和Docker Com...
    99+
    2023-08-30
    redis docker
  • springboot集群架构怎么部署
    要部署Spring Boot集群架构,可以按照以下步骤进行操作:1. 部署多个Spring Boot应用程序实例:首先,将Sprin...
    99+
    2023-10-11
    springboot
  • Redis7.0部署集群怎么实现
    这篇“Redis7.0部署集群怎么实现”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Redis7.0部署集群怎么实现”文章吧...
    99+
    2023-07-02
  • Docker中怎么部署MySQL8集群
    这篇文章将为大家详细讲解有关Docker中怎么部署MySQL8集群,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。一.CentOS7.9安装Docker20安装yum-utils工具yum&n...
    99+
    2023-06-20
  • 怎么进行Golang集群部署
    本篇内容介绍了“怎么进行Golang集群部署”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!一、集群基础架构1 集群规划在构建Golang集群...
    99+
    2023-07-05
软考高级职称资格查询
推荐阅读
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作