在Ubuntu 20.04 LTS Focal Fossa上安装Apache Hadoop
admin
2023-08-01 00:27:34
0

在Ubuntu 20.04 LTS Focal Fossa上安装Apache Hadoop

步骤1.首先,通过apt在终端中运行以下命令来确保所有系统软件包都是最新的。

sudo apt update
sudo apt upgrade

步骤2.安装Java。

为了运行Hadoop,您需要在计算机上安装Java 8。为此,请使用以下命令:

sudo apt install default-jdk default-jredefault-jdk default-jre

安装后,您可以使用以下命令来验证Java的安装版本:

java -version-version

步骤3.创建Hadoop用户。

首先,使用以下命令创建一个名为Hadoop的新用户:

sudo addgroup hadoopgroup
sudo adduser —ingroup hadoopgroup hadoopuser—ingroup hadoopgroup hadoopuser

接下来,使用Hadoop用户登录并使用以下命令生成SSH密钥对:

su - hadoopuser- hadoopuser
ssh-keygen -t rsa-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys0600 ~/.ssh/authorized_keys

之后,使用以下命令验证无密码的SSH:

ssh localhost

在没有密码的情况下登录后,可以继续执行下一步。

步骤4.在Ubuntu 20.04上安装Apache Hadoop。

现在,我们下载Apache Hadoop的最新稳定版本,在撰写本文时,它是版本3.3.0:

su - hadoop- hadoop
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
tar -xvzf hadoop-3.3.0.tar.gz-xvzf hadoop-3.3.0.tar.gz

接下来,将提取的目录移至:/usr/local/

sudo mv hadoop-3.3.0 /usr/local/hadoop-3.3.0 /usr/local/hadoop
sudo mkdir /usr/local/hadoop/logs/usr/local/hadoop/logs

我们将Hadoop目录的所有权更改为Hadoop:

sudo chown -R hadoop:hadoop /usr/local/hadoop-R hadoop:hadoop /usr/local/hadoop

步骤5.配置Apache Hadoop。

设置环境变量。编辑文件,并在文件末尾附加以下值:~/.bashrc

nano ~/.bashrc~/.bashrc

添加以下行:

export HADOOP_HOME=/usr/local/hadoop HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOMEexport HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_OPTS=\"-Djava.library.path=$HADOOP_HOME/lib/native\"export HADOOP_OPTS=\"-Djava.library.path=$HADOOP_HOME/lib/native\"

将环境变量应用于当前正在运行的会话:

source ~/.bashrc~/.bashrc

接下来,您将需要在其中定义Java环境变量来配置YARN,HDFS,MapReduce和Hadoop相关的项目设置:hadoop-env.sh

sudo nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh/etc/hadoop/hadoop-env.sh

添加以下行:

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64  JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 
export HADOOP_CLASSPATH+=\" $HADOOP_HOME/lib/*.jar\"export HADOOP_CLASSPATH+=\" $HADOOP_HOME/lib/*.jar\"

现在,您可以使用以下命令来验证Hadoop版本:

hadoop version

步骤6.配置文件。core-site.xml

在文本编辑器中打开文件:core-site.xml

sudo nano $HADOOP_HOME/etc/hadoop/core-site.xml/etc/hadoop/core-site.xml

添加以下行:


   
      fs.default.namefs.default.name
      hdfs://0.0.0.0:9000hdfs://0.0.0.0:9000
      The default file system URIThe default file system URI
   

步骤7.配置文件。hdfs-site.xml

使用以下命令打开文件进行编辑:hdfs-site.xml

sudo nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml/etc/hadoop/hdfs-site.xml

添加以下行:


   
      dfs.replicationdfs.replication
      11
   

   
      dfs.name.dirdfs.name.dir
      file:///home/hadoop/hdfs/namenodefile:///home/hadoop/hdfs/namenode
   

   
      dfs.data.dirdfs.data.dir
      file:///home/hadoop/hdfs/datanodefile:///home/hadoop/hdfs/datanode
   

步骤8.配置文件。mapred-site.xml

使用以下命令访问文件:mapred-site.xml

sudo nano $HADOOP_HOME/etc/hadoop/mapred-site.xml/etc/hadoop/mapred-site.xml

添加以下行:


   
      mapreduce.framework.namemapreduce.framework.name
      yarnyarn
   

步骤9.配置文件。yarn-site.xml

在文本编辑器中打开文件:yarn-site.xml

sudo nano $HADOOP_HOME/etc/hadoop/yarn-site.xml/etc/hadoop/yarn-site.xml

添加以下行:


   
      yarn.nodemanager.aux-servicesyarn.nodemanager.aux-services
      mapreduce_shufflemapreduce_shuffle
   

步骤10.格式化HDFS NameNode。

现在,我们以Hadoop用户身份登录,并使用以下命令格式化HDFS NameNode:

su - hadoop- hadoop
hdfs namenode -format-format

步骤11.启动Hadoop集群。

现在,使用以下命令启动NameNode和DataNode:

start-dfs.sh-dfs.sh

然后,启动YARN资源和节点管理器:

start-yarn.sh-yarn.sh

您应该观察输出,以确保它尝试一一启动从属节点上的datanode。要使用\’ jps\’命令检查所有服务是否正常启动:

jps

步骤12.访问Apache Hadoop。

默认端口号9870使您可以访问Hadoop NameNode UI:

http://your-server-ip:9870://your-server-ip:9870

namenode-hadoopnamenode-hadoop

默认端口9864用于直接从浏览器访问单个DataNode:

http://your-server-ip:9864://your-server-ip:9864

hadoop-datanodeshadoop-datanodes

YARN资源管理器可在端口8088上访问:

http://your-server-ip:8088://your-server-ip:8088

yarn-hadoophadoop-datanodes

恭喜你!您已经成功安装了Hadoop。使用本教程在Ubuntu 20.04 LTS Focal Fossa系统上安装Apache Hadoop。有关其他帮助或有用信息,我们建议您检查Apache Hadoop官方网站。

相关内容

热门资讯

Windows 11 和 10... Windows 11/10 文件夹属性中缺少共享选项卡 – 已修复 1.检查共享选项卡是否可用 右键...
Radmin VPN Wind... Radmin VPN 是一款免费且用户友好的软件,旨在牢固地连接计算机以创建一个有凝聚力的虚拟专用网...
如何修复 Steam 内容文件... Steam 内容文件锁定是当您的 Steam 文件无法自行更新时出现的错误。解决此问题的最有效方法之...
在 Windows 11 中打... 什么是链路状态电源管理? 您可以在系统控制面板的电源选项中看到链接状态电源管理。它是 PCI Exp...
iPhone 屏幕上有亮绿色斑... iPhone 是市场上最稳定的智能手机之一,这主要归功于专为它们设计的 iOS 操作系统。然而,他们...
事件 ID 7034:如何通过... 点击进入:ChatGPT工具插件导航大全 服务控制管理器 (SCM) 负责管理系统上运行的服务的活动...
QQ浏览器怎么制作简历 QQ浏览器是腾讯公司开发的一款极速浏览器,支持电脑,安卓,苹果等多种终端;更快的浏览体验,更安全的浏...
Apple Watch Ult... 所有运行 watchOS 7 或更高版本的 Apple Watch 型号都包含一项名为“优化电池充电...
Hive OS LOLMine... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...
统信UOS每次开机后不直接进入... 统信UOS每次开机后不直接进入系统而是进入到recovery模式 按方向上键选择UOS 20 SP1...