HadoopSpark集群部署手册.docx
《HadoopSpark集群部署手册.docx》由会员分享,可在线阅读,更多相关《HadoopSpark集群部署手册.docx(26页珍藏版)》请在三一办公上搜索。
1、1 软件环境整体情况说明172.16.158.24172.16.158.25172.16.158.26172.16.158.27JDKHadoop(Master)(Slave)(Slave)(Slave)HiveScalaSpark(Master)(Worker)(Worker)(Worker)2 安装包下载路径系统名软件包名下载路径Sparkhadoop-2.2.0.tar.gz开源软件/hive-1.2.1.tar.gzspark-1.5.1.tar.gzscala-2.10.4.tgz3 Hadoop2.2安装和配置3.1 集群网络环境节点IP地址和主机名分布如下:IPHostName用
2、户名172.16.158.24DashDB01.yunvod172.16.158.25spark01.yunvod172.16.158.26spark02.yunvod172.16.158.27spark03.yunvod3.2 环境搭建(每台机器都要操作)3.2.1 修改HostName(非必须)vim /etc/sysconfig/network修改HOSTNAME为需要的名称重启服务器,进行生效reboot3.2.2 设置Host映射文件1.使用root身份编辑/etc/hosts映射文件,设置IP地址及机器名的映射,设置信息如下:vim /etc/hosts172.16.158.24
3、DashDB01.yun172.16.158.25 spark01.yun172.16.158.26 spark02.yun172.16.158.27 spark03.yun 2.使用如下命令对网络设置进行重启/etc/init.d/network restart3.验证设置是否成功3.2.3 设置操作系统环境3.2.3.1 关闭防火墙在Hadoop安装过程中需要关闭防火墙和SElinux,否则会出现异常1.service iptables status查看防火墙状态,如下所示表示iptables已经开启2.以root用户使用如下命令关闭iptableschkconfig iptables o
4、ff3.2.3.2 关闭SElinux1.使用getenforce命令查看是否关闭2.修改/etc/selinux/config文件将SELINUX=enforcing改为SELINUX=disabled,执行该命令后重启机器生效3.2.3.3 JDK安装及配置赋予vod用户/usr/lib/java目录可读写权限,使用命令如下:sudo chmod -R 777 /usr/lib/java把下载的安装包,上传到/usr/lib/java目录下,使用如下命令进行解压tar -zxvf jdk-7u55-linux-x64.tar.gz解压后目录如下图所示:使用root用户配置/etc/prof
5、ile,该设置对所有用户均生效vim /etc/profile添加以下信息:export JAVA_HOME=/usr/lib/java/jdk1.7.0_55export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/binexport CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib修改完毕后,使用source /etc/pro -version3.2.3.4 更新OpenSSLyum update openssl3.2.3.5 无密码验证配置1.以root用户使用vim /etc/ssh/
6、sshd_config,打开sshd_config配置文件,开放4个配置,如下图所示:RSAAuthentication yesPubkeyAuthentication yesAuthorizedKeysStrictModes no2.配置后重启服务service sshd restart3.使用root用户登录在4个节点,在/home/common目录下,执行命令mkdir .ssh4.使用vod用户登录在4个节点中使用如下命令生成私钥和公钥;sudo chown -R vod .sshssh-keygen -t rsa5.进入/home/common/.ssh目录在4个节点中分别使用如下命
7、令cp id_rsa.pub authorized_keys_DashDB01.yun把公钥命名authorized_keys_DashDB01.yunauthorized_keys_spark01.yunauthorized_keys_spark02.yunauthorized_keys_spark03.yun6.把3个从节点(spark01,spark02,spark03)的公钥使用scp命令传送到DashDB01.yun节点的/home/common/.ssh文件夹中;scp authorized_keys_spark01.yun :/home/common/.ssh最终DashDB01
8、.yun节点中文件如下7.把4个节点的公钥信息保存到authorized_key文件中使用cat authorized_keys_DashDB01.yun authorized_keys命令8.把该文件分发到其他两个从节点上使用scp authorized_keys :/home/common/.ssh把密码文件分发出其余三台机器的.ssh文件包含如下:9.在4台机器中使用如下设置authorized_keys读写权限chmod 775 authorized_keys10.测试ssh免密码登录是否生效3.3 配置Hadooop设置3.3.1 准备hadoop文件1.把hadoop-2.2.0目
9、录移到/usr/local目录下cd /home/hadoop/Downloads/sudo cp hadoop-2.2.0 /usr/local2.使用chown命令遍历修改hadoop-1.1.2目录所有者为hadoopsudo chown -R vod /usr/local/hadoop-2.2.0chmod 775 -R /usr/local/hadoop-2.2.0/3.3.2 在Hadoop目录下创建子目录使用vod用户在hadoop-2.2.0目录下创建tmp、name和data目录,保证目录所有者为vodcd /usr/local/hadoop-2.2.0mkdir tmpmk
10、dir namemkdir datals配置/etc/pro vim /etc/profile添加以下内容export HADOOP_HOME=/usr/local/hadoop-2.2.0export PATH=$PATH:$HADOOP_HOME/binexport YARN_HOME=$HADOOP_HOMEexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport YARN_CONF_DIR=$HADOOP_HOMR/etc/hadoop使用命令使其生效source /etc/profile3.3.3 配置hadoop-env.sh1.打开
11、配置文件hadoop-env.shcd /usr/local/hadoop-2.2.0/etc/hadoopsudo vim hadoop-env.sh2.加入配置内容,设置了hadoop中jdk和hadoop/bin路径export JAVA_HOME=/usr/lib/java/jdk1.7.0_55export PATH=$PATH:/usr/local/hadoop-2.2.0/bin3.编译配置文件hadoop-env.sh,并确认生效source hadoop-env.sh3.3.4 配置yarn-env.sh1.在/usr/local/hadoop-2.2.0/etc/hadoo
12、p打开配置文件yarn-env.shcd /usr/local/hadoop-2.2.0/etc/hadoopsudo vim yarn-env.sh2.加入配置内容,设置了hadoop中jdk和hadoop/bin路径export JAVA_HOME=/usr/lib/java/jdk1.7.0_553.编译配置文件yarn-env.sh,并确认生效source yarn-env.sh3.3.5 配置core-site.xml1.使用如下命令打开core-site.xml配置文件sudo vim core-site.xml2.在配置文件中,按照如下内容进行配置 fs.default.name
13、 hdfs:/172.16.158.24:9000 fs.defaultFS hdfs:/172.16.158.24:9000 io. 131072 hadoop.tmp.dir Abase for other temporary directories. hadoop.proxyuser.hduser.hosts * hadoop.proxyuser.hduser.groups * 3.3.6 配置hdfs-site.xml1.使用如下命令打开hdfs-site.xml配置文件sudo vim hdfs-site.xml2.在配置文件中,按照如下内容进行配置 dfs.namenode.sec
14、ondary.http-address 172.16.158.24:9001 dfs.namenode.name.dir dfs.datanode.data.dir dfs.replication 2 dfs.webhdfs.enabled true dfs.permissions false 3.3.7 配置mapred-site.xml1.默认情况下不存在mapred-site.xml文件,可以从模板拷贝一份cp mapred-site.xml.template mapred-site.xml2.使用如下命令打开mapred-site.xml配置文件sudo vim mapred-site
15、.xml3.在配置文件中,按照如下内容进行配置 mapreduce.framework.name yarn mapreduce.jobhistory.address 172.16.158.24:10020 mapreduce.jobhistory.webapp.address 172.16.158.24:19888 3.3.8 配置yarn-site.xml1.使用如下命令打开yarn-site.xml配置文件sudo vim yarn-site.xml2.在配置文件中,按照如下内容进行配置yarn.nodemanager.aux-servicesmapreduce_shuffleyarn.n
16、odemanager.aux-servicesmapreduce_shuffleyarn.nodemanager.aux-services.mapreduce.shuffle.classorg.apache.hadoop.mapred.ShuffleHandleryarn.resourcemanager.address172.16.158.24:8032yarn.resourcemanager.scheduler.address172.16.158.24:8030yarn.resourcemanager.resource-tracker.address172.16.158.24:8031yar
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- HadoopSpark 集群 部署 手册
链接地址:https://www.31ppt.com/p-4219682.html