菜单

Hadoop伪分布式搭建

2018年11月17日 - LINUX

搭建伪分布式环境,只待平等尊Linux服务器,一般开发测试用

  1. 下载jdk

在单机上套分布式环境

1. 更改hadoop-env.sh

vim hadoop-env.sh

找到export JAVA_HOME,更改为团结的JAVA_HOME目录

export JAVA_HOME=/usr/local/java/jdk

HDFS:主节点 NameNode

2. 更改core-site.xml

vim core-site.xml

找到并转移以下内容

<configuration>

        <property>

                <name>fs.defaultFS</name>

               <value>hdfs://hadoop:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

               <value>/home/hadoop/hadoopdata</value>

        </property>

</configuration>

            从节点 DataNode   SecondaryNameNode

3. 更改hdfs-site.xml

找到并转以下内容

<configuration>

        <property>

               <name>dfs.namenode.name.dir</name>

             
 <value>/home/hadoop/hadoopdata/tmp/dfs/name</value>

        </property>

        <property>

                 <name>dfs.datanode.data.dir/<name>

               
 <value>/home/hadoop/hadoopdata/tmp/dfs/data</value>

        </property>

       <property>

               <name>dfs.replication/name>

              <value>1/value>

       </property>

</configuration>

yarn: 主节点 ResourceManager  

4. 更改mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

找到并更改

<configuration>

         <property>

                   <name>mapreduce.framework.name</name>

                   <value>yarn</value>

        </property>

</configuration>

           从节点 NodeManager

5. 更改yarn-site.xml

vim yarn-site.xml

<configuration>

         <property>

                   
 <name>yarn.nodemanager.aux-services</name>

                   <value>mapreduce_shuffle</value>

        <property>

                 
<name>yarn.resourcemanager.hostname</name>

                   <value>hadoop</value>

          </property>

           </property>

</configuration>

 

6. 初始化namenode

hdfs namenode -format

tools和training是从定义目录

工具:SecureCRT6.5.0

  1. 用Hadoop包上传到Linux服务器上,如~/tools目录下图片 1

     

  2. 解压该滑坡包及~/training目录下           
      图片 2

     

  3. 在~/.bash_profile里设置环境变量,增加红色框内容。 vi
    ~/.bash_profile,按 【i】 入编辑模式,按【esc】退出编辑模式,输入冒号:wq回车保存
     图片 3

     

  4. 执行source ~/.bash_profile  使环境变量生效

  5. 布置jdk路径,找到Hadoop的配置文件hadoop-env.sh,vi 
    /root/training/hadoop-2.7.3/etc/hadoop/hadoop-env.sh回车,加入红色部分,JAVA_HOME就是jdk的路径图片 4

     

  6. 随即安排hdfs-site.xml,加入红色框内容

    <!–配置数据块的冗余度–>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>

    图片 5

     

  7. 部署core-site.xml,加入如下内容

    <!–配置NameNode地址–>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://本机IP:9000</value>
    </property>

    <!–配置数据在Linux上保留之岗位–>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/root/training/hadoop-2.7.3/tmp</value>
    </property>

    图片 6

     

  8. 配备mapred-site.xml,添加如下

    <!–MR运行的框架–>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>                                         
     图片 7

     

  9. 配置yarn-site.xml,添加如下

    <!–yarn的主节点 RM–>
    <property>
    <name>yarn.resouremanager.hostname</name>
    <value>IP地址</value>
    </property>

    <!–NodeManager运行MR程序方法–>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>                               
     图片 8

     

  10. 启航start-all.sh,表示启动所有服务,但意识要输入四糟密码图片 9

     

  11. 停止所有服务,执行stop-all.sh,也只要输入四不良密码,从起步到住服务,一共输入8不善密码。如果开行多令服务器,那怎么不是众多密码图片 10

    伪分布式环境及之就搭建配置好。基于输入多次密码,可以配备免密登录,下一样节约用会见教

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图