我的编程空间,编程开发者的网络收藏夹
学习永远不晚

hadoop 伪分布配置

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

hadoop 伪分布配置

hadoop 伪分布配置

配置 Hadoop 伪分布式

任务配置说明:

    1. VMware 15

    2. Centos 6.5

    3. java -jdk 1.8

    4. hadoop-2.6.0-cdh5.14.0.tar.gz

第一步

自行安装虚拟机

第二步 开始大配置

  1. 修改主机名和用户名

    •  vim /etc/sysconfig/network  --(将HOSTNAME=) 改为master(主机的意思)
    •  vim /etc/hosts  --(增加一行内容 ip    master)
  2. 配置静态ip

    •  vim /etc/sysconfig/network-scripts/ifcfg-eth0
      • 修改内容如下:

         DEVICE=eth0 (网卡名称)
         HWADDR=00:0C:29:63:C3:47
         TYPE=Ethernet
         UUID=7cce5090-6637-40fc-a47e-9f5e2d561b46
         ONBOOT=yes (必须设置 设置启动)
         NM_CONTROLLED=yes
         BOOTPROTO=static (静态)
         IPADDR=192.168.65.21  --(你的ip)
         NETMASK=255.255.255.0 --(子网掩码)
         GATEWAY=192.168.65.1  --(网关)
         DNS1=114.114.114.114  --(DNS)
  3. 配置SSH无密码连接

    • 关闭防火墙

      •  service iptables stop  --(仅一次性关闭防火墙  再次开机防火墙就重新开启了)
      •  chkconfig iptables off  --(永久关闭防火墙  防止重启防火墙自启动)
    • 配置 SSH

      • 安装 ssh

        •  yum install ssh
      • 安装 rsync

        •  yum install rsync
    • 启动 SSH 服务命令

      •  service sshd restart
      • 检查 ssh 是否已经安装成功 可以执行 rpm -qa | grep openssh

      • 出现

        •  [hadoop@master ~]$  rpm -qa | grep openssh
           openssh-server-5.3p1-94.el6.x86_64
           openssh-clients-5.3p1-94.el6.x86_64
           openssh-5.3p1-94.el6.x86_64
           openssh-askpass-5.3p1-94.el6.x86_64
        • 代表成功

      • 检查 rsync 是否安装成功 可执行 rpm -qa | grep rsync

        • 出现

          •  [hadoop@master ~]$ rpm -qa | grep rsync
             rsync-3.0.6-12.el6.x86_64
          • 代表成功

    • 生成 SSH 公钥 (只可以生成当前执行用户的秘钥)

      •  ssh-keygen -t rsa  --(连续回车即可)  
      •  ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop(用户名)@master(主机名)
      • 验证 ssh master

     

    4.配置 java 环境

    • 安装 Java jdk

      • 卸载初始系统存在的jdk

        • 检查 是否安装了jdk

        •  rpm -qa | grep jdk
          • 如果出现了返回值 那么使用 yum -y remove xxx(将返回值输入即可)

      • 安装 JDK (需要实现上传)

        •  tar -zxvf jdk-8u221-linux-x64.tar.gz  --(解压压缩包)
        • 修改环境配置文件

          • vim /etc/profile

            • 文件末尾添加

              • #java --(注释代表java)

                 export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221 --(你java安装目录)
                 export PATH=$PATH:$JAVA_HOME/bin
          • 让配置文件修改后生效

            •  source /etc/profile
      • 验证 java是否安装成功 --(输入java命令即可)

        •  [hadoop@master jdk1.8.0_221]$ java
        • 如若返回一大页东西则安装成功 java -version可以查看当前java版本信息

    5.配置 hadoop 环境

    • 老样子 先解压

      •   tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz
    • 修改配置文件信息

      • 进入 hadoop 配置文件目录 cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/etc/hadoop/

      • 修改 hadoop-env.sh 文件 末尾追加以下内容

        •  export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221
        •  export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
      • 修改 core-site.xml 文件

         <configuration>
                 <property>
                         <name>fs.default.namename>
                         <value>hdfs://master:9000value>
                 property>
         configuration>
      • 修改 hdfs-site.xml

         <configuration>
                 <property>
                         <name>dfs.replicationname>
                         <value>3value>
                 property>
                 <property>
                         <name>dfs.name.dirname>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/namevalue>
                 property>
                 <property>
                         <name>dfs.data.dirname>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/datavalue>
                 property>
         configuration>
      • 修改 mapred-site.xml

        • 可以看到我们目录中没有mapred-site.xml 我们可以通过模板拷贝出来一个

          •  cp mapred-site.xml.template mapred-site.xml
          •  vim mapred-site.xml
        • 添加如下内容

           <configuration>
                   <property>
                           <name>mapreduce.framework.namename>
                           <value>yarnvalue>
                   property>
           configuration>
      • 修改 yarn-site.xml

         <configuration>
         
         
                 <property>
                         <name>yarn.resourcemanager.addressname>
                         <value>master:8080value>
                 property>
                 <property>
                         <name>yarn.resourcemanager.resource-tracker.addressname>
                         <value>master:8082value>
                 property>
                 <property>
                         <name>yarn.nodemanager.aux-servicesname>
                         <value>mapreduce_shufflevalue>
                 property>
                 <property>
                         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.classname>
                         <value>org.apache.hadoop.mapred.ShuffleHandlervalue>
                 property>
         configuration>
      • 修改 slaves

         master
    • 至此,Hadoop 安装配置工作全部完成,为了能在任何路径下使用 Hadoop 命令,还需要配置环境变量

      • 对 /etc/profile 追加如下信息

         export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
         export PATH=$PATH:$HADOOP_HOME/bin
      • 对 环境配置文件生效

         [hadoop@master hadoop]$ source /etc/profile
    • 在第一次启动 Hadoop 之前,必须对 HDFS 格式化,执行命令

       [hadoop@master hadoop]$ hadoop namenode -format

第三步

  • 启动 Hadoop

    • 格式化 Hadoop 完成后,便可以启动 hadoop ,不过首先我们赋予脚本可执行权限

       [hadoop@master hadoop]$ chmod +x -R /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 然后就可以启动集群了 执行启动脚本 --(进入hadoop的sbin脚本目录)

       [hadoop@master sbin]$ cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 执行脚本

       [hadoop@master sbin]$ bash start-all.sh
    • 最后检查要启动的节点是否正常启动

       [hadoop@master sbin]$ jps
       9025 DataNode
       9185 SecondaryNameNode
       8899 NameNode
       9335 ResourceManager
       9432 NodeManager
       9644 Jps
    • 至此 一切完成

第四步

  • 我们可以打开浏览器查看我们的HDFS

    • 如果 linux 有浏览器可以通过浏览器地址输入

       master:50070   --(即可访问)
    • 如果 想在windows访问 打开浏览器

       linuxip:50070
       例如我的:192.168.65.21:50070
  • 大功告成了

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

hadoop 伪分布配置

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

hadoop 伪分布配置

配置 Hadoop 伪分布式任务配置说明:VMware 15Centos 6.5java -jdk 1.8hadoop-2.6.0-cdh5.14.0.tar.gz第一步 自行安装虚拟机第二步 开始大配置修改主机名和用户名 vim /etc/sysconfig
hadoop 伪分布配置
2015-12-19

Hadoop伪分布安装搭建

Hadoop伪分布安装搭建搭建Hadoop的环境======================================一、准备工作1、安装Linux、JDK、关闭防火墙、配置主机名解压:tar -zxvf hadoop-2.7.3.tar.gz -C ~
Hadoop伪分布安装搭建
2017-02-06

hadoop伪分布式如何搭建

要搭建Hadoop伪分布式,需要按照以下步骤进行操作:1. 安装Java开发工具:首先,确保已在计算机上安装了Java开发工具。Hadoop需要Java的支持,因此需要先安装Java并设置JAVA_HOME环境变量。2. 下载Hadoop安
2023-09-21

ubuntu伪分布式怎么配置

本文小编为大家详细介绍“ubuntu伪分布式怎么配置”,内容详细,步骤清晰,细节处理妥当,希望这篇“ubuntu伪分布式怎么配置”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。ubuntu伪分布式的配置示例:1.安
2023-07-04

hadoop伪分布式的安装步骤

本篇内容主要讲解“hadoop伪分布式的安装步骤”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“hadoop伪分布式的安装步骤”吧!1. 解压缩 /opt/software/hadoop-2.8.
2023-06-03

Hadoop如何部署伪分布模式

这篇文章将为大家详细讲解有关Hadoop如何部署伪分布模式,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。 部署方式:1.单机模式standalone 1个java进程2.伪分布模式Pseudo-Dis
2023-06-03

redis伪分布主从环境配置

监控同一个Master的Sentinel会自动连接,组成一个分布式的Sentinel网络,互相通信并交换彼此关于被监视服务器的信息 下图中3个Sentinel监控着S1和它的2个Slave   配置: 承接上篇文章 : redis单机环境搭建  https
redis伪分布主从环境配置
2019-04-21

hadoop伪分布式集群怎么安装

Hadoop伪分布式集群是在单台机器上模拟多台机器的Hadoop集群环境,可以用来进行开发和测试。以下是Hadoop伪分布式集群的安装步骤:下载并解压Hadoop首先,从Hadoop官网下载最新版本的Hadoop压缩包,并解压到指定目录。
hadoop伪分布式集群怎么安装
2024-03-13

Hadoop伪分布式安装方法是什么

这篇文章主要介绍“Hadoop伪分布式安装方法是什么”,在日常操作中,相信很多人在Hadoop伪分布式安装方法是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Hadoop伪分布式安装方法是什么”的疑惑有所
2023-06-03

伪分布式环境下启动Hadoop下的Hive

在本地搭建好伪分布式环境,打开虚拟机进入linux系统,如果是在root用户下则需要切换至Hadoop用户su - hadoop按需输入hadoop密码在hadoop家目录下启动Hadoop集群start-all.sh 查看进程,检查是否正常启动jps进入Hi
伪分布式环境下启动Hadoop下的Hive
2020-12-04

hadoop cdh2.6.0-5.7.0伪分布式版本怎么搭建

本篇内容主要讲解“hadoop cdh2.6.0-5.7.0伪分布式版本怎么搭建”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“hadoop cdh2.6.0-5.7.0伪分布式版本怎么搭建”吧!
2023-06-02

3、环境搭建-Linux上hadoop的全分布配置

大数据 Hadoop全分布 配置文件配置 安装配置hadoop和jdk配置/usr/local/src/hadoop/etc/hadoop/下的四个文件hdfs-site.xml dfs.namenode.name.dir file:/usr/lo
3、环境搭建-Linux上hadoop的全分布配置
2019-08-28

大数据完全分布式配置(一)——基础环境配置、java、zookeeper、hadoop、jobHisoryServer

大数据集群配置系列一,完全分布式搭建hadoop,zookeeper。简单介绍jobhistory的配置流程。 准备工作最小化安装master后,确定可以连接Xshell后。克隆出slave1、slave2,修改好网络配置并且确保三台虚拟机都在一个网关里
大数据完全分布式配置(一)——基础环境配置、java、zookeeper、hadoop、jobHisoryServer
2018-03-02

CentOS6.5中怎么通过Hadoop用户实现HDFS伪分布式部署

这篇文章给大家介绍CentOS6.5中怎么通过Hadoop用户实现HDFS伪分布式部署,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。1、检查hadoop用户是否存在[root@hadoop001 hadoop]# pw
2023-06-03

编程热搜

目录