欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > DOCX文档下载  

    centos安装配置hadoop超详细过程.docx

    • 资源ID:3154385       资源大小:54.11KB        全文页数:37页
    • 资源格式: DOCX        下载积分:6.99金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要6.99金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    centos安装配置hadoop超详细过程.docx

    centos安装配置hadoop超详细过程1、集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统和MapReduce为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构。 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve。一个HDFS集群是由一个NameNode和若干个DataNode组成的。其中NameNode作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的DataNode管理存储的数据。MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点的TaskTracker共同组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前的失败任务;从节点仅负责由主节点指派的任务。当一个Job被提交时,JobTracker接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控TaskTracker的执行。 从上面的介绍可以看出,HDFS和MapReduce共同组成了Hadoop分布式系统体系结构的核心。HDFS在集群上实现分布式文件系统,MapReduce在集群上实现了分布式计算和任务处理。HDFS在MapReduce任务处理过程中提供了文件操作和存储等支持,MapReduce在HDFS的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了Hadoop分布式集群的主要任务。 1.2 环境说明 集群中包括4个节点:1个Master,3个Salve,节点之间局域网连接,可以相互ping通,具体集群信息可以查看"Hadoop集群"。节点IP地址分布如下: 机器名称 IP地址 Master.Hadoop 192.168.1.2 Salve1.Hadoop 192.168.1.3 Salve2.Hadoop 192.168.1.4 Salve3.Hadoop 192.168.1.5 四个节点上均是CentOS6.0系统,并且有一个相同的用户hadoop。Master机器主要配置NameNode和JobTracker的角色,负责总管分布式数据和分解任务的执行;3个Salve机器配置DataNode和TaskTracker的角色,负责分布式数据存储以及任务的执行。其实应该还应该有1个Master机器,用来作为备用,以防止Master服务器宕机,还有一个备用马上启用。后续经验积累一定阶段后补上一台备用Master机器。 1.3 网络配置 Hadoop集群要按照1.2小节表格所示进行配置,我们在"Hadoop集群"的CentOS6.0安装过程就按照提前规划好的主机名进行安装和配置。如果实验室后来人在安装系统时,没有配置好,不要紧,没有必要重新安装,在安装完系统之后仍然可以根据后来的规划对机器的主机名进行修改。 下面的例子我们将以Master机器为例,即主机名为"Master.Hadoop",IP为"192.168.1.2"进行一些主机名配置的相关操作。其他的Slave机器以此为依据进行修改。 1)查看当前机器名称 用下面命令进行显示机器名称,如果跟规划的不一致,要按照下面进行修改。 hostname 上图中,用"hostname"查"Master"机器的名字为"Master.Hadoop",与我们预先规划的一致。 2)修改当前机器名称 假定我们发现我们的机器的主机名不是我们想要的,通过对"/etc/sysconfig/network"文件修改其中"HOSTNAME"后面的值,改成我们规划的名称。 这个"/etc/sysconfig/network"文件是定义hostname和是否利用网络的不接触网络设备的对系统全体定义的文件。 设定形式:设定值=值 "/etc/sysconfig/network"的设定项目如下: NETWORKING 是否利用网络 GATEWAY 默认网关 IPGATEWAYDEV 默认网关的接口名 HOSTNAME 主机名 DOMAIN 域名 用下面命令进行修改当前机器的主机名 vim /etc/sysconfig/network 通过上面的命令我们从"/etc/sysconfig/network"中找到"HOSTNAME"进行修改,查看内容如下: 3)修改当前机器IP 假定我们的机器连IP在当时安装机器时都没有配置好,那此时我们需要对"ifcfg-eth0"文件进行配置,该文件位于"/etc/sysconfig/network-scripts"文件夹下。 在这个目录下面,存放的是网络接口的制御脚本文件,ifcfg- eth0是默认的第一个网络接口,如果机器中有多个网络接口,那么名字就将依此类推ifcfg-eth1,ifcfg-eth2,ifcfg- eth3,。 这里面的文件是相当重要的,涉及到网络能否正常工作。 设定形式:设定值=值 设定项目项目如下: DEVICE 接口名 BOOTPROTO IP的配置方法 HWADDR MAC地址 ONBOOT 系统启动的时候网络接口是否有效 TYPE 网络类型 NETMASK 网络掩码 IPADDR IP地址 IPV6INIT IPV6是否有效 GATEWAY 默认网关IP地址 查看"/etc/sysconfig/network-scripts/ifcfg-eth0"内容,如果IP不复核,就行修改。 如果上图中IP与规划不相符,用下面命令进行修改: vim /etc/sysconfig/network-scripts/ifcgf-eth0 修改完之后可以用"ifconfig"进行查看。 4)配置hosts文件 "/etc/hosts"这个文件是用来配置主机将用的DNS服务器信息,是记载LAN内接续的各主机的对应HostName和IP用的。当用户在进行网络连接时,首先查找该文件,寻找对应主机名对应的IP地址。 我们要测试两台机器之间知否连通,一般用"ping 机器的IP",如果想用"ping 机器的主机名"发现找不见该名称的机器,解决的办法就是修改"/etc/hosts"这个文件,通过把LAN内的各主机的IP地址和HostName的一一对应写入这个文件的时候,就可以解决问题。 例如:机器为"Master.Hadoop:192.168.1.2"对机器为"Salve1.Hadoop:192.168.1.3"用命令"ping"记性连接测试。测试结果如下: 从上图中的值,直接对IP地址进行测试,能够ping通,但是对主机名进行测试,发现没有ping通,提示"unknown host未知主机",这时查看"Master.Hadoop"的"/etc/hosts"文件内容。 发现里面没有"192.168.1.3 Slave1.Hadoop"内容,故而本机器是无法对机器的主机名为"Slave1.Hadoop" 解析。 在进行Hadoop集群配置中,需要在"/etc/hosts"文件中添加集群中所有机器的IP与主机名,这样Master与所有的Slave机器之间不仅可以通过IP进行通信,而且还可以通过主机名进行通信。所以在所有的机器上的"/etc/hosts"文件末尾中都要添加如下内容: 192.168.1.2 Master.Hadoop 192.168.1.3 Slave1.Hadoop 192.168.1.4 Slave2.Hadoop 192.168.1.5 Slave3.Hadoop 用以下命令进行添加: vim /etc/hosts 添加结果如下: 现在我们在进行对机器为"Slave1.Hadoop"的主机名进行ping通测试,看是否能测试成功。 从上图中我们已经能用主机名进行ping通了,说明我们刚才添加的内容,在局域网内能进行DNS解析了,那么现在剩下的事儿就是在其余的Slave机器上进行相同的配置。然后进行测试。 1.4 所需软件 1)JDK软件 下载地址: JDK版本:jdk-6u31-linux-i586.bin 2)Hadoop软件 下载地址:http:/hadoop.apache.org/common/releases.html Hadoop版本:hadoop-1.0.0.tar.gz 1.5 VSFTP上传 在"Hadoop集群"讲了VSFTP的安装及配置,如果没有安装VSFTP可以按照该文档进行安装。如果安装好了,就可以通过FlashFXP.exe软件把我们下载的JDK6.0和Hadoop1.0软件上传到"Master.Hadoop:192.168.1.2"服务器上。 刚才我们用一般用户通过FlashFXP软件把所需的两个软件上传了跟目下,我们通过命令查看下一下是否已经上传了。 从图中,我们的所需软件已经准备好了。 2、SSH无密码验证配置 Hadoop运行过程中需要管理远端Hadoop守护进程,在Hadoop启动以后,NameNode是通过SSH来启动和停止各个DataNode上的各种守护进程的。这就必须在节点之间执行指令的时候是不需要输入密码的形式,故我们需要配置SSH运用无密码公钥认证的形式,这样NameNode使用SSH无密码登录并启动DataName进程,同样原理,DataNode上也能使用SSH无密码登录到NameNode。 2.1 安装和启动SSH协议 在"Hadoop集群"安装CentOS6.0时,我们选择了一些基本安装包,所以我们需要两个服务:ssh和rsync已经安装了。可以通过下面命令查看结果显示如下: rpm qa | grep openssh rpm qa | grep rsync 假设没有安装ssh和rsync,可以通过下面命令进行安装。 yum install ssh 安装SSH协议 yum install rsync service sshd restart 启动服务 确保所有的服务器都安装,上面命令执行完毕,各台机器之间可以通过密码验证相互登。 2.2 配置Master无密码登录所有Salve 1)SSH无密码原理 Master作为客户端,要实现无密码公钥认证,连接到服务器Salve上时,需要在Master上生成一个密钥对,包括一个公钥和一个私钥,而后将公钥复制到所有的Slave上。当Master通过SSH连接Salve时,Salve就会生成一个随机数并用Master的公钥对随机数进行加密,并发送给Master。Master收到加密数之后再用私钥解密,并将解密数回传给Slave,Slave确认解密数无误之后就允许Master进行连接了。这就是一个公钥认证过程,其间不需要用户手工输入密码。重要过程是将客户端Master复制到Slave上。 2)Master机器上生成密码对 在Master节点上执行以下命令: ssh-keygen t rsa P '' 这条命是生成其无密码密钥对,询问其保存路径时直接回车采用默认路径。生成的密钥对:id_rsa和id_rsa.pub,默认存储在"/home/hadoop/.ssh"目录下。 查看"/home/hadoop/"下是否有".ssh"文件夹,且".ssh"文件下是否有两个刚生产的无密码密钥对。 接着在Master节点上做如下配置,把id_rsa.pub追加到授权的key里面去。 cat /.ssh/id_rsa.pub >> /.ssh/authorized_keys 在验证前,需要做两件事儿。第一件事儿是修改文件"authorized_keys"权限,另一件事儿是用root用户设置"/etc/ssh/sshd_config"的内容。使其无密码登录有效。 1)修改文件"authorized_keys" chmod 600 /.ssh/authorized_keys 备注:如果不进行设置,在验证时,扔提示你输入密码,在这里花费了将近半天时间来查找原因。在网上查到了几篇不错的文章,把作为"Hadoop集群_第5期副刊_JDK和SSH无密码配置"来帮助额外学习之用。 2)设置SSH配置 用root用户登录服务器修改SSH配置文件"/etc/ssh/sshd_config"的下列内容。 RSAAuthentication yes # 启用 RSA 认证 PubkeyAuthentication yes # 启用公钥私钥配对认证方式 AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径 设置完之后记得重启SSH服务,才能使刚才设置有效。 service sshd restart 退出root登录,使用hadoop普通用户验证是否成功。 ssh localhost 从上图中得知无密码登录本级已经设置完毕,接下来的事儿是把公钥复制所有的Slave机器上。使用下面的命令格式进行复制公钥: scp /.ssh/id_rsa.pub 远程用户名远程服务器IP:/ 例如: scp /.ssh/id_rsa.pub hadoop192.168.1.3:/ 上面的命令是复制文件"id_rsa.pub"到服务器IP为"192.168.1.3"的用户为"hadoop"的"/home/hadoop/"下面。 下面就针对IP为"192.168.1.3"的Slave1.Hadoop的节点进行配置。 1)把Master.Hadoop上的公钥复制到Slave1.Hadoop上 从上图中我们得知,已经把文件"id_rsa.pub"传过去了,因为并没有建立起无密码连接,所以在连接时,仍然要提示输入输入Slave1.Hadoop服务器用户hadoop的密码。为了确保确实已经把文件传过去了,用SecureCRT登录Slave1.Hadoop:192.168.1.3服务器,查看"/home/hadoop/"下是否存在这个文件。 从上面得知我们已经成功把公钥复制过去了。 2)在"/home/hadoop/"下创建".ssh"文件夹 这一步并不是必须的,如果在Slave1.Hadoop的"/home/hadoop"已经存在就不需要创建了,因为我们之前并没有对Slave机器做过无密码登录配置,所以该文件是不存在的。用下面命令进行创建。 mkdir /.ssh 然后是修改文件夹".ssh"的用户权限,把他的权限修改为"700",用下面命令执行: chmod 700 /.ssh 备注:如果不进行,即使你按照前面的操作设置了"authorized_keys"权限,并配置了"/etc/ssh/sshd_config",还重启了sshd服务,在Master能用"ssh localhost"进行无密码登录,但是对Slave1.Hadoop进行登录仍然需要输入密码,就是因为".ssh"文件夹的权限设置不对。这个文件夹".ssh"在配置SSH无密码登录时系统自动生成时,权限自动为"700",如果是自己手动创建,它的组权限和其他权限都有,这样就会导致RSA无密码远程登录失败。 对比上面两张图,发现文件夹".ssh"权限已经变了。 3)追加到授权文件"authorized_keys" 到目前为止Master.Hadoop的公钥也有了,文件夹".ssh"也有了,且权限也修改了。这一步就是把Master.Hadoop的公钥追加到Slave1.Hadoop的授权文件"authorized_keys"中去。使用下面命令进行追加并修改"authorized_keys"文件权限: cat /id_rsa.pub >> /.ssh/authorized_keys chmod 600 /.ssh/authorized_keys 4)用root用户修改"/etc/ssh/sshd_config" 具体步骤参考前面Master.Hadoop的"设置SSH配置",具体分为两步:第1是修改配置文件;第2是重启SSH服务。 5)用Master.Hadoop使用SSH无密码登录Slave1.Hadoop 当前面的步骤设置完毕,就可以使用下面命令格式进行SSH无密码登录了。 ssh 远程服务器IP 从上图我们主要3个地方,第1个就是SSH无密码登录命令,第2、3个就是登录前后""后面的机器名变了,由"Master"变为了"Slave1",这就说明我们已经成功实现了SSH无密码登录了。 最后记得把"/home/hadoop/"目录下的"id_rsa.pub"文件删除掉。 rm r /id_rsa.pub 到此为止,我们经过前5步已经实现了从"Master.Hadoop"到"Slave1.Hadoop"SSH无密码登录,下面就是重复上面的步骤把剩余的两台Slave服务器进行配置。这样,我们就完成了"配置Master无密码登录所有的Slave服务器"。 2.3 配置所有Slave无密码登录Master 和Master无密码登录所有Slave原理一样,就是把Slave的公钥追加到Master的".ssh"文件夹下的"authorized_keys"中,记得是追加。 为了说明情况,我们现在就以"Slave1.Hadoop"无密码登录"Master.Hadoop"为例,进行一遍操作,也算是巩固一下前面所学知识,剩余的"Slave2.Hadoop"和"Slave3.Hadoop"就按照这个示例进行就可以了。 首先创建"Slave1.Hadoop"自己的公钥和私钥,并把自己的公钥追加到"authorized_keys"文件中。用到的命令如下: ssh-keygen t rsa P '' cat /.ssh/id_rsa.pub >> /.ssh/authorized_keys 接着是用命令"scp"复制"Slave1.Hadoop"的公钥"id_rsa.pub"到"Master.Hadoop"的"/home/hadoop/"目录下,并追加到"Master.Hadoop"的"authorized_keys"中。 1)在"Slave1.Hadoop"服务器的操作 用到的命令如下: scp /.ssh/id_rsa.pub hadoop192.168.1.2:/ 2)在"Master.Hadoop"服务器的操作 用到的命令如下: cat /id_rsa.pub >> /.ssh/authorized_keys 然后删除掉刚才复制过来的"id_rsa.pub"文件。 最后是测试从"Slave1.Hadoop"到"Master.Hadoop"无密码登录。 从上面结果中可以看到已经成功实现了,再试下从"Master.Hadoop"到"Slave1.Hadoop"无密码登录。 至此"Master.Hadoop"与"Slave1.Hadoop"之间可以互相无密码登录了,剩下的就是按照上面的步骤把剩余的"Slave2.Hadoop"和"Slave3.Hadoop"与"Master.Hadoop"之间建立起无密码登录。这样,Master能无密码验证登录每个Slave,每个Slave也能无密码验证登录到Master。 3、Java环境安装 所有的机器上都要安装JDK,现在就先在Master服务器安装,然后其他服务器按照步骤重复进行即可。安装JDK以及配置环境变量,需要以"root"的身份进行。 3.1 安装JDK 首先用root身份登录"Master.Hadoop"后在"/usr"下创建"java"文件夹,再把用FTP上传到"/home/hadoop/"下的"jdk-6u31-linux-i586.bin"复制到"/usr/java"文件夹中。 mkdir /usr/java cp /home/hadoop/ jdk-6u31-linux-i586.bin /usr/java 接着进入"/usr/java"目录下通过下面命令使其JDK获得可执行权限,并安装JDK。 chmod +x jdk-6u31-linux-i586.bin ./jdk-6u31-linux-i586.bin 按照上面几步进行操作,最后点击"Enter"键开始安装,安装完会提示你按"Enter"键退出,然后查看"/usr/java"下面会发现多了一个名为"jdk1.6.0_31"文件夹,说明我们的JDK安装结束,删除"jdk-6u31-linux-i586.bin"文件,进入下一个"配置环境变量"环节。 3.2 配置环境变量 编辑"/etc/profile"文件,在后面添加Java的"JAVA_HOME"、"CLASSPATH"以及"PATH"内容。 1)编辑"/etc/profile"文件 vim /etc/profile 2)添加Java环境变量 在"/etc/profile"文件的尾部添加以下内容: # set java environment export JAVA_HOME=/usr/java/jdk1.6.0_31/ export JRE_HOME=/usr/java/jdk1.6.0_31/jre export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin 或者 # set java environment export JAVA_HOME=/usr/java/jdk1.6.0_31 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin 以上两种意思一样,那么我们就选择第2种来进行设置。 3)使配置生效 保存并退出,执行下面命令使其配置立即生效。 source /etc/profile 3.3 验证安装成功 配置完毕并生效后,用下面命令判断是否成功。 java -version 从上图中得知,我们以确定JDK已经安装成功。 3.4 安装剩余机器 这时用普通用户hadoop通过下面命令格式把"Master.Hadoop"文件夹"/home/hadoop/"的JDK复制到其他Slave的"/home/hadoop/"下面,剩下的事儿就是在其余的Slave服务器上按照上图的步骤安装JDK。 scp /home/hadoop/jdk-6u31-linux-i586.bin 远程用户名远程服务器IP:/ 或者 scp /jdk-6u31-linux-i586.bin 远程用户名远程服务器IP:/ 备注:""代表当前用户的主目录,当前用户为hadoop,所以""代表"/home/hadoop"。 例如:把JDK从"Master.Hadoop"复制到"Slave1.Hadoop"的命令如下。 scp /jdk-6u31-linux-i586 hadoop192.168.1.3:/ 然后查看"Slave1.Hadoop"的"/home/hadoop"查看是否已经复制成功了。 从上图中得知,我们已经成功复制了,现在我们就用最高权限用户root进行安装了。其他的与这个一样。 4、Hadoop集群安装 所有的机器上都要安装hadoop,现在就先在Master服务器安装,然后其他服务器按照步骤重复进行即可。安装和配置hadoop需要以"root"的身份进行。 4.1 安装hadoop 首先用root用户登录"Master.Hadoop"机器,查看我们之前用FTP上传至"/home/Hadoop"上传的"hadoop-1.0.0.tar.gz"。 接着把"hadoop-1.0.0.tar.gz"复制到"/usr"目录下面。 cp /home/hadoop/hadoop-1.0.0.tar.gz /usr 下一步进入"/usr"目录下,用下面命令把"hadoop-1.0.0.tar.gz"进行解压,并将其命名为"hadoop",把该文件夹的读权限分配给普通用户hadoop,然后删除"hadoop-1.0.0.tar.gz"安装包。 cd /usr #进入"/usr"目录 tar zxvf hadoop-1.0.0.tar.gz #解压"hadoop-1.0.0.tar.gz"安装包 mv hadoop-1.0.0 hadoop #将"hadoop-1.0.0"文件夹重命名"hadoop" chown R hadoop:hadoop hadoop #将文件夹"hadoop"读权限分配给hadoop用户 rm rf hadoop-1.0.0.tar.gz #删除"hadoop-1.0.0.tar.gz"安装包 解压后,并重命名。 把"/usr/hadoop"读权限分配给hadoop用户 删除"hadoop-1.0.0.tar.gz"安装包 最后在"/usr/hadoop"下面创建tmp文件夹,把Hadoop的安装路径添加到"/etc/profile"中,修改"/etc/profile"文件,将以下语句添加到末尾,并使其有效: # set hadoop path export HADOOP_HOME=/usr/hadoop export PATH=$PATH :$HADOOP_HOME/bin 1)在"/usr/hadoop"创建"tmp"文件夹 mkdir /usr/hadoop/tmp 2)配置"/etc/profile" vim /etc/profile 配置后的文件如下: 3)重启"/etc/profile" source /etc/profile 4.2 配置hadoop 1)配置hadoop-env.sh 该"hadoop-env.sh"文件位于"/usr/hadoop/conf"目录下。 在文件的末尾添加下面内容。 # set java environment export JAVA_HOME=/usr/java/jdk1.6.0_31 Hadoop配置文件在conf目录下,之前的版本的配置文件主要是Hadoop-default.xml和Hadoop-site.xml。由于Hadoop发展迅速,代码量急剧增加,代码开发分为了core,hdfs和map/reduce三部分,配置文件也被分成了三个core-site.xml、hdfs-site.xml、mapred-site.xml。core-site.xml和hdfs-site.xml是站在HDFS角度上配置文件;core-site.xml和mapred-site.xml是站在MapReduce角度上配置文件。 2)配置core-site.xml文件 修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号。 <configuration> <property> <name>hadoop.tmp.dir</name> <value>/usr/hadoop/tmp</value> <description>A base for other temporary directories.</description> </property> <!- file system properties -> <property> <name>fs.default.name</name> <value>hdfs:/192.168.1.2:9000</value> </property> </configuration> 备注:如没有配置hadoop.tmp.dir参数,此时系统默认的临时目录为:/tmp/hadoo-hadoop。而这个目录在每次重启后都会被干掉,必须重新执行format才行,否则会出错。 用下面命令进行编辑: 编辑结果显示如下: 3)配置hdfs-site.xml文件 修改Hadoop中HDFS的配置,配置的备份方式默认为3。 <configuration> <property> <name>dfs.replication</name> <value>1</value> (备注:replication 是数据副本数量,默认为3,salve少于3台就会报错) </property> <configuration> 用下面命令进行编辑: 编辑结果显示如下: 4)配置mapred-site.xml文件 修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。 <configuration> <property> <name>mapred.job.tracker</name> <value>http:/192.168.1.2:9001</value> </property> </configuration> 用下面命令进行编辑: 编辑结果显示如下: 5)配置masters文件 有两种方案: 第一种 修改localhost为Master.Hadoop 第二种 去掉"localhost",加入Master机器的IP:192.168.1.2 为保险起见,启用第二种,因为万一忘记配置"/etc/hosts"局域网的DNS失效,这样就会出现意想不到的错误,但是一旦IP配对,网络畅通,就能通过IP找到相应主机。 用下面命令进行修改: 编辑结果显示如下: 6)配置slaves文件 有两种方案: 第一种 去掉"localhost",每行只添加一个主机名,把剩余的Slave主机名都填上。 例如:添加形式如下 Slave1.Hadoop Slave2.Hadoop Slave3.Hadoop 第二种 去掉"localhost",加入集群中所有Slave机器的IP,也是每行一个。 例如:添加形式如下 192.168.1.3 192.168.1.4 192.168.1.5 原因和添加"masters"文件一样,选择第二种方式。 用下面命令进行修改: 编辑结果如下: 现在在Master机器上的Hadoop配置就结束了,剩下的就是配置Slave机器上的Hadoop。 一种方式是按照上面的步骤,把Hadoop的安装包在用普通用户hadoop通过"scp"复制到其他机器的"/home/hadoop"目录下,然后根据实际情况进行安装配置,除了第6步,那是Master特有的。用下面命令格式进行。 scp /hadoop-1.0.0.tar.gz hadoop服务器IP:/ 例如:从"Master.Hadoop"到"Slave1.Hadoop"复制Hadoop的安装包。 另一种方式是将 Master上配置好的hadoop所在文件夹"/usr/hadoop"复制到所有的Slave的"/usr"目录下。用下面命令格式进行。 scp -r /usr/hadoop root服务器IP:/usr/ 例如:从"Master.Hadoop"到"Slave1.Hadoop"复制配置Hadoop的文件。 上图中以root用户进行复制,当然不管是用户root还是hadoop,虽然Master机器上的"/usr/hadoop"文件夹用户hadoop有权限,但是Slave1上的hadoop用户却没有"/usr"权限,所以没有创建文件夹的权限。所以无论是哪个用户进行拷贝,右面都是"root机器IP"格式。因为我们只是建立起了hadoop用户的SSH无密码连接,所以用root进行"scp"时,扔提示让你输入"Slave1.Hadoop"服务器用户root的密码。 查看"Slave1.Hadoop"服务器的"/usr"目录下是否已经存在"hadoop"文件夹,确认已经复制成功。查看结果如下: 从上图中知道,hadoop文件夹确实已经复制了,但是我们发现hadoop权限是root,所以我们现在要给"Slave1.Hadoop"服务器上的用户hadoop添加对"/usr/hadoop"读权限。 以root用户登录"Slave1.Hadoop",执行下面命令。 chown -R hadoop:hadoop hadoop 接着在"Slave1 .Hadoop"上修改"/etc/profile"文件,将以下语句添加到末尾,并使其有效: # set hadoop environment export HADOOP_HOME=/usr/hadoop export PATH=$PATH :$HADOOP_HOME/bin 如果不知道怎么设置,可以查看前面"Master.Hadoop"机器的"/etc/profile"文件的配置,到此为此在一台Slave机器上的Hadoop配置就结束了。剩下的事儿就是照葫芦

    注意事项

    本文(centos安装配置hadoop超详细过程.docx)为本站会员(牧羊曲112)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开