hadoop伪分布式集群搭建


1、安装linux系统

我采用虚拟机的方式安装了fedora27 server系统

安装过程略,安装完毕后更新系统

>dnf update -y

>dnf install -y vim

注意:文中所用命令为【>】开头,vim命令编辑本文后需要使用【:wq】命令保存。

2、配置免密登陆

>ssh-keygen
#遇到提示回车回车回车完成key的创建
>cd .ssh
>cat id_rsa.pub >> authorized_keys
>chmod 600 authorized_keys

顺序执行完上述步骤完成免密登陆的设定

3、安装jdk环境(1.8源码)

到官网复制jdk1.8源码安装包下载地址,通过wget命令下载

>cd /opt/
>wget https://download.oracle.com/otn-pub/java/jdk/8u191-b12/2787e4a523244c269598db4e85c51e0c/jdk-8u191-linux-x64.tar.gz?AuthParam=1540892982_f565b47afc3dd7fab40efcfa61b06aeb
>tar zxf jdk-8u191-linux-x64.tar.gz
>mv jdk1.8.0_191/ /usr/local/
>vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_191
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
>source /etc/profile
>java -version

成功输出jdk版本信息则jdk环境安装成功

4、安装配置hadoop

下载hadoop-2.9.0.tar.gz,类似于jdk此处不在展示

>tar zxf hadoop-2.9.0.tar.gz
>cd hadoop-2.9.0/etc/hadoop
>vim hadoop-env.sh
#注释原JAVA_HOME,配置新JAVA_HOME
#export JAVA_HOME=${JAVA_HOME} 
export JAVA_HOME=/usr/local/jdk1.8.0_191
>vim hdfs-site.xml
<configuration>
        <!-- 配置副本的数量 -->
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <!-- 配置namenode路径 -->
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/home/hadoop_data/dfs/name</value>
        </property>
        <!-- 配置datanode路径 -->
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/home/hadoop_data/dfs/data</value>
        </property>
</configuration>
>vim core-site.xml
<configuration>
        <!-- 临时目录 -->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/home/hadoop_data</value>
        </property>
        <!-- hdfs服务地址:端口 -->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://0.0.0.0:9000</value>
        </property>
</configuration>
>cd /home
>mkdir hadoop_data
>cd /opt/hadoop-2.9.0/bin/
>./hdfs namenode -format

执行后输出如下日志,表示格式化成功

18/10/31 01:39:11 INFO common.Storage: Storage directory /home/hadoop_data/dfs/name has been successfully formatted.

>cd ../sbin/
>./start-dfs.sh

第一次执行时会出现免密登陆的提示,输入yes并回车即可

看到如下提示,表示hadoop启动成功

Starting namenodes on [0.0.0.0]
0.0.0.0: starting namenode, logging to /opt/hadoop-2.9.0/logs/hadoop-root-namenode-localhost.localdomain.out
localhost: starting datanode, logging to /opt/hadoop-2.9.0/logs/hadoop-root-datanode-localhost.localdomain.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /opt/hadoop-2.9.0/logs/hadoop-root-secondarynamenode-localhost.localdomain.out

使用jps命令进行验证,至此hadoop已经安装完毕

13889 DataNode
13735 NameNode
14089 SecondaryNameNode
14254 Jps

执行下列命令创建一个test目录

>cd ../bin/
>./hdfs dfs -mkdir /test
>./hdfs dfs -ls /

显示 test 目录被成功创建

Found 1 items
drwxr-xr-x   - root supergroup          0 2018-10-31 01:50 /test

Hadoop 生态系统软件版本关联紧密,在不同的环境中可能会出现一些异常情况,本练习选用环境如下

  • Linux系统:Fedora 27 Server
  • JDK版本:jdk-8u191-linux-x64.tar.gz
  • Hadoop版本:hadoop-2.9.0.tar.gz

下篇将继续介绍在此环境基础上搭建HBASE伪分布式集群搭建


文章作者: Robin
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Robin !
 上一篇
HBase伪分布式集群搭建 HBase伪分布式集群搭建
本篇在上篇的Hadoop伪分布式集群的基础上继续搭建HBase伪分布式集群 5、安装zookeeperzookeeper版本:zookeeper-3.4.11.tar.gz 安装zookeeper的原因:hbase其实自带一个可用的zook
2018-10-31
下一篇 
一起学观察者模式 一起学观察者模式
聊 这期我们一起学学观察者模式,《一起学策咯模式》是第一次写文章,总结了一下经验,感觉就一个字【太罗嗦】,所以这次来点新鲜的,简单的,不同以往的,超级棒的,无与伦比的,让你们读完就和我一样学会观察者模式的,并且还没看完就想点赞的。开始吧。
2018-05-03
  目录