站長資訊網
        最全最豐富的資訊網站

        Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

        本文將介紹如何在基于Ubuntu的系統上安裝多節點Hadoop 3.1.1集群,作者將在Ubuntu 18.04.1上安裝一個包含HDFS的三節點Hadoop集群。

        首先,我們需要為集群創建三個虛擬機,創建一個具有4個vCPU,4 GB內存和40 GB硬盤空間的Hadoop Master服務器;為每個節點創建兩個帶有4個vCPU,8 GB內存和40 GB硬盤空間的Hadoop節點。

        本文的三臺服務器安裝了Ubuntu Server 18.04.1,安裝了所有更新并重新啟動,一定要確保使用靜態IP地址和內部DNS解析配置每個服務器,或將每個服務器添加到/ etc / hosts文件。

        準備運行Hadoop服務器

        首先,我們需要安裝Oracle Java 8,因為從Ubuntu 18.04.1開始,Java 8不再可用。

        # add-apt-repository ppa:webupd8team/java
        # apt update
        # apt install -y oracle-java8-set-default

        接受許可條款,并下載Hadoop二進制文件

        # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz

        解壓縮歸檔并將其移至/ usr / local /

        # tar -xzvf hadoop-3.1.1.tar.gz
        # mv hadoop-3.1.1 /usr/local/hadoop

        更新默認環境變量以包含JAVA_HOME和Hadoop二進制目錄。

        首先,我們需要知道Java的安裝位置,運行以下命令查找。

        # update-alternatives –display java
        java – manual mode
          link best version is /usr/lib/jvm/java-8-oracle/jre/bin/java
          link currently points to /usr/lib/jvm/java-8-oracle/jre/bin/java
          link java is /usr/bin/java
          slave java.1.gz is /usr/share/man/man1/java.1.gz
        /usr/lib/jvm/java-8-oracle/jre/bin/java – priority 1081
          slave java.1.gz: /usr/lib/jvm/java-8-oracle/man/man1/java.1.gz

        如上所示,JAVA_HOME應設置為/ usr / lib / jvm / java-8-oracle / jre。

        打開/etc/environment并更新PATH行以包含Hadoop二進制目錄。

        PATH=”/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/hadoop/bin:/usr/local/hadoop/sbin”

        為JAVA_HOME變量和YARN_RESOURCEMANAGER_OPTS變量添加一行。

        vim
        YARN_RESOURCEMANAGER_OPTS=”–add-modules=ALL-SYSTEM”

        確保該目錄與上面的update-alternatives選項減去bin/java部分的輸出相匹配。

        接下來,我們將添加一個hadoop用戶并為他們提供正確的權限。

        # adduser hadoop
        # usermod -aG hadoop hadoop
        # chown hadoop:root -R /usr/local/hadoop
        # chmod g+rwx -R /usr/local/hadoop

        以hadoop用戶身份登錄并生成SSH密鑰,只需要在Hadoop Master上完成此步驟。

        # su – hadoop
        # ssh-keygen -t rsa

        接受ssh-keygen的所有默認值。

        現在以hadoop用戶身份登錄并將SSH密鑰復制到所有Hadoop節點。 同樣,只需要在Hadoop Master上完成此步驟。

        # su – hadoop
        $ ssh-copy-id hadoop@hadoop1.admintome.lab
        $ ssh-copy-id hadoop@hadoop2.admintome.lab
        $ ssh-copy-id hadoop@hadoop3.admintome.lab

        配置Hadoop主服務器

        打開/usr/local/hadoop/etc/hadoop/core-site.xml文件并輸入以下內容:

        <configuration>
          <property>
            <name>fs.default.name</name>
            <value>hdfs://hadoop1.admintome.lab:9000</value>
          </property>
        </configuration>

        保存并退出。

        接下來,打開/usr/local/hadoop/etc/hadoop/hdfs-site.xml文件并添加以下內容:

        <configuration>
          <property>
            <name>dfs.namenode.name.dir</name>
            <value>/usr/local/hadoop/data/nameNode</value>
          </property>
          <property>
            <name>dfs.datanode.data.dir</name>
            <value>/usr/local/hadoop/data/dataNode</value>
          </property>
          <property>
            <name>dfs.replication</name>
            <value>2</value>
          </property>
        </configuration>

        保存并退出。

        打開/usr/local/hadoop/etc/hadoop/workers文件并添加以下兩行(每個Hadoop節點一行)

        hadoop2.admintome.lab
        hadoop3.admintome.lab

        保存并退出。

        將配置文件從Hadoop Master復制到每個Hadoop節點。

        # scp /usr/local/hadoop/etc/hadoop/* hadoop2.admintome.lab:/usr/local/hadoop/etc/hadoop/
        # scp /usr/local/hadoop/etc/hadoop/* hadoop3.admintome.lab:/usr/local/hadoop/etc/hadoop/

        格式化HDFS文件系統

        $ source /etc/environmnet
        $ hdfs namenode -format

        現在可以啟動HDFS:

        hadoop@hadoop1:~$ start-dfs.sh
        Starting namenodes on [hadoop1.admintome.lab]
        Starting datanodes
        Starting secondary namenodes [hadoop1]
        hadoop@hadoop1:~$

        通過在所有Hadoop服務器上以Hadoop用戶身份運行jps命令來驗證所有內容是否正確啟動。

        在Hadoop Master上你應該可以看到如下結果:

        hadoop@hadoop1:~$ jps
        13634 Jps
        13478 SecondaryNameNode
        13174 NameNode

        在每個Hadoop節點上,你應該可以看到:

        hadoop@hadoop2:~$ jps
        8672 Jps
        8579 DataNode
        HDFS Web UI

        HDFS Web UI

        現在,我們可以通過瀏覽到Hadoop主服務器端口9870來訪問HDFS Web UI。

        http://hadoop1.admintome.lab:9870

        可以看到如下UI:

        Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

        如上所示,我們的HDFS文件系統上有近60 GB的空閑空間。

        開始運行Yarn

        現在HDFS正在運行,我們已準備好啟動Yarn調度程序。

        Hadoop本身需要運行任務,因此我們需要Yarn以在Hadoop集群上合理安排任務。

        export HADOOP_HOME=”/usr/local/hadoop”
        export HADOOP_COMMON_HOME=$HADOOP_HOME
        export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
        export HADOOP_HDFS_HOME=$HADOOP_HOME
        export HADOOP_MAPRED_HOME=$HADOOP_HOME
        export HADOOP_YARN_HOME=$HADOOP_HOME

        運行以下命令以啟動Yarn:

        $ start-yarn.sh
        Starting resourcemanager
        Starting nodemanagers

        我們可以通過以下命令來驗證是否可以正確啟動:

        $ yarn node -list
        2018-08-15 04:40:26,688 INFO client.RMProxy: Connecting to ResourceManager at hadoop1.admintome.lab/192.168.1.35:8032
        Total Nodes:2
                Node-Id      Node-State  Node-Http-Address  Number-of-Running-Containers
        hadoop3.admintome.lab:35337          RUNNING  hadoop3.admintome.lab:8042                            0
        hadoop2.admintome.lab:38135          RUNNING  hadoop2.admintome.lab:8042                            0

        沒有任何正在運行的容器,因為我們還沒有開始任何工作。

        Hadoop Web UI

        我們可以通過以下URL來查看Hadoop Web UI:

        http://hadoop1.admintome.lab:8088/cluster

        替換Hadoop Master主機名:

        Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

        運行Hadoop任務示例

        我們現在可以運行Hadoop任務示例并在集群上安排它,我們將運行的示例是使用MapReduce來計算PI。

        運行以下命令來運行作業:

        yarn jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.1.jar pi 16 1000

        完成整個過程將需要幾分鐘的時間。完成后,應該可以看到它已經開始計算PI:

        Job Finished in 72.973 seconds
        Estimated value of Pi is 3.1425000000000000000

        贊(0)
        分享到: 更多 (0)
        網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
        主站蜘蛛池模板: 国产精品一级片| 国内精品久久久久久久影视麻豆| 2023国产精品自拍| 色欲久久久天天天综合网精品| 国产精品人人做人人爽| 国产精品久久久久久| 欧美午夜精品久久久久免费视| 久久久久久亚洲精品无码| 99久久精品免费看国产| 国产91精品一区二区麻豆网站| 亚洲精品白浆高清久久久久久| 久久97久久97精品免视看| 中文精品一卡2卡3卡4卡| 99国产欧美精品久久久蜜芽| 无码国产精品一区二区免费模式| 精品久久久久久无码人妻蜜桃| 91精品国产综合久久四虎久久无码一级| 55夜色66夜色国产精品视频| 精品日韩亚洲AV无码| 久久久久久国产精品免费无码| 亚洲国产精品嫩草影院在线观看 | 亚洲欧美精品综合中文字幕| 精品国产呦系列在线观看免费 | 国产在线精品网址你懂的| 国产精品美女久久久久久2018 | 国产精品一区在线观看你懂的| 久久精品国产91久久麻豆自制| 99精品国产在热久久无毒不卡| 国产成人亚洲综合无码精品| 69堂国产成人精品视频不卡| 国产精品1区2区3区在线播放| 久久99精品综合国产首页| 欧美精品亚洲精品日韩1818| 四虎精品成人免费观看| 高清在线国产午夜精品| 国产99视频精品免费视频76| 国产精品高清2021在线| 国产这里有精品| 亚洲av午夜精品一区二区三区| 亚洲精品无码MV在线观看| 精品欧洲av无码一区二区三区|