我的编程空间,编程开发者的网络收藏夹
学习永远不晚

大数据-HDFS 集群搭建的配置文件

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

大数据-HDFS 集群搭建的配置文件

大数据-HDFS 集群搭建的配置文件

1.HDFS简单版集群搭建相关配置文件

  1.core-site.xml文件

1  
2     fs.defaultFS
3     hdfs://hadoop2:9000
4   
5 
6   
7    hadoop.tmp.dir
8    /usr/hadoop-2.9.2/data
9   

2.ZK搭建高可用HDFS集群搭建相关配置文件

  1.zkdata1/zoo.cfg文件

1 tickTime=2000
2 initLimit=10
3 syncLimit=5
4 dataDir=/root/zkdata
5 clientPort=3001
6 server.1=主机名:3002:3003
7 server.2=主机名:4002:4003
8 server.3=主机名:5002:5003

  2.hadoop的core-site.xml文件

 1 
 2 
 3   fs.defaultFS
 4   hdfs://ns
 5 
 6 
 7 
 8   hadoop.tmp.dir
 9   /usr/hadoop-2.9.2/data
10 
11 
12 
13     ha.zookeeper.quorum
14   hadoop1:3001,hadoop1:4001,hadoop1:5001
15 

  3.hadoop 配置hdfs-site.xml文件

 1 
 2       
 3           dfs.nameservices
 4           ns
 5       
 6       
 7       
 8           dfs.ha.namenodes.ns
 9           nn1,nn2
10       
11          
12       
13           dfs.namenode.rpc-address.ns.nn1
14           hadoop2:9000
15       
16       
17       
18           dfs.namenode.http-address.ns.nn1
19           hadoop2:50070
20       
21       
22       
23           dfs.namenode.rpc-address.ns.nn2
24           hadoop3:9000
25       
26       
27       
28           dfs.namenode.http-address.ns.nn2
29           hadoop3:50070
30       
31 
32     
33     
34         dfs.namenode.shared.edits.dir
35         qjournal://hadoop2:8485;hadoop3:8485;hadoop4:8485/ns
36     
37 
38     
39         dfs.journalnode.edits.dir
40         /root/journal
41     
42     
43     
44         dfs.ha.automatic-failover.enabled
45         true
46     
47     
48     
49         dfs.client.failover.proxy.provider.ns
50         org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
51     
52     
53     
54         dfs.ha.fencing.methods
55         sshfence
56     
57     
58     
59         dfs.ha.fencing.ssh.private-key-files
60         /root/.ssh/id_rsa
61     

3.搭建yarn集群

  1.mapred-site.xml

  注意:默认/etc/中没有这个配置文件 需要拷贝mapred-site.xml.template 配置文件

        改名为mapred-site.xml

1 
2     mapreduce.framework.name
3     yarn
4 

  2.yarn.site.xml文件

1 
2     yarn.nodemanager.aux-services
3     mapreduce_shuffle
4 
5 
6     yarn.resourcemanager.hostname
7     Hadoop
8 

4.HA的hadoop集群搭建的配置文件(最终版)

  1.core-site.xml文件

 1 
 2 
 3   fs.defaultFS
 4   hdfs://ns
 5 
 6 
 7 
 8   hadoop.tmp.dir
 9   /root/hadoop-2.9.2/data
10 
11 
12 
13     ha.zookeeper.quorum
14   zk:3001,zk:4001,zk:5001
15 

  2.hdfs-site.xml文件

 1 
 2 
 3     dfs.nameservices
 4     ns
 5 
 6 
 7 
 8     dfs.ha.namenodes.ns
 9     nn1,nn2
10 
11 
12 
13     dfs.namenode.rpc-address.ns.nn1
14     hadoop22:9000
15 
16 
17 
18     dfs.namenode.http-address.ns.nn1
19     hadoop22:50070
20 
21 
22 
23     dfs.namenode.rpc-address.ns.nn2
24     hadoop23:9000
25 
26 
27 
28     dfs.namenode.http-address.ns.nn2
29     hadoop23:50070
30 
31 
32 
33 
34     dfs.namenode.shared.edits.dir
35     qjournal://hadoop26:8485;hadoop27:8485;hadoop28:8485/ns
36 
37 
38 
39     dfs.journalnode.edits.dir
40     /root/journal
41     
42 
43 
44      dfs.ha.automatic-failover.enabled
45      true
46 
47 
48 
49       dfs.client.failover.proxy.provider.ns
50       org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
51 
52 
53 
54       dfs.ha.fencing.methods
55       sshfence
56 
57 
58 
59     dfs.ha.fencing.ssh.private-key-files
60     /root/.ssh/id_rsa
61 

  3.yarn-site.xml文件

 1 
 2 
 3   yarn.resourcemanager.ha.enabled
 4   true
 5 
 6 
 7 
 8   yarn.resourcemanager.cluster-id
 9   yrc
10 
11 
12 
13   yarn.resourcemanager.ha.rm-ids
14   rm1,rm2
15 
16 
17 
18   yarn.resourcemanager.hostname.rm1
19   hadoop24
20 
21 
22   yarn.resourcemanager.hostname.rm2
23   hadoop25
24 
25 
26   yarn.resourcemanager.webapp.address.rm1
27   hadoop24:8088
28 
29 
30   yarn.resourcemanager.webapp.address.rm2
31   hadoop25:8088
32 
33 
34 
35   yarn.resourcemanager.zk-address
36   zk:3001,zk:4001,zk:5001
37 
38 
39   yarn.nodemanager.aux-services
40   mapreduce_shuffle
41 

  4.mapred-site.xml  默认不存在需要复制

1 
2 
3 mapreduce.framework.name
4 yarn
5 

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

大数据-HDFS 集群搭建的配置文件

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

大数据-HDFS 集群搭建的配置文件

1.HDFS简单版集群搭建相关配置文件  1.core-site.xml文件1 2 fs.defaultFS3 hdfs://hadoop2:90004 5 6 7 hadoop.tmp.dir8 /usr/hadoop-
大数据-HDFS 集群搭建的配置文件
2018-04-22

一台虚拟机基于docker搭建大数据HDP集群的思路详解

这篇文章主要介绍了一台虚拟机基于docker搭建大数据HDP集群 ,本篇文章主要讲了大数据集群搭建的架构设计和实现思路部分,后面文章会探讨上层应用的构建,需要的朋友可以参考下
2022-11-13

Solr分布式搜索集群的搭建与配置指南(如何构建并配置一个高效的Solr分布式搜索集群?)

本指南详细介绍了如何构建和配置高效的Solr分布式搜索集群。步骤包括规划集群拓扑、安装Solr、配置ZooKeeper、配置SolrCloud、优化性能,并提供故障排除技巧和最佳实践。通过遵循这些步骤,可以创建满足应用程序需求的可靠、可扩展且响应迅速的搜索解决方案。
Solr分布式搜索集群的搭建与配置指南(如何构建并配置一个高效的Solr分布式搜索集群?)
2024-04-02

ganglia监控hadoop集群的配置文件问题分析

这篇文章主要介绍“ganglia监控hadoop集群的配置文件问题分析”,在日常操作中,相信很多人在ganglia监控hadoop集群的配置文件问题分析问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”gangl
2023-06-03

1、环境搭建-大数据 Hadoop配置和单机Hadoop系统配置

大数据 Hadoop配置和单机Hadoop系统配置 #查看服务器ipip add#设置主机名称hostnamectl set-hostname masterbash#查看hostname#绑定ipvi /etc/hosts添加服务器IP地址 mas
1、环境搭建-大数据 Hadoop配置和单机Hadoop系统配置
2014-11-18

Flume采集数据时在HDFS上产生大量小文件的问题怎么办

这篇文章主要为大家展示了“Flume采集数据时在HDFS上产生大量小文件的问题怎么办”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Flume采集数据时在HDFS上产生大量小文件的问题怎么办”这篇
2023-06-02

CentOS搭建web服务器的数据库选择与配置建议

在CentOS搭建Web服务器时,可以根据需求选择适合的数据库,并进行相应的配置。以下是一些建议:1. MySQL/MariaDB: 这是目前最常用的关系型数据库管理系统,在Web服务器中使用广泛。可以通过yum包管理器安装,并进行相应的配
2023-10-09

phpcms链接数据库的配置文件在哪

配编程客栈置文件http://www.cppcns.com的位置在编程客栈:caches\c编程客栈onfigs\cyDuCyYdatabase.php 找到文件后修改对应的数据库链接信息就可以了!
2022-06-12

HDFS在大数据存储中与其他分布式文件系统的比较如何

HDFS(Hadoop分布式文件系统)是一种针对大数据存储和处理的分布式文件系统,与其他分布式文件系统相比有以下一些特点和优势:可靠性和容错性:HDFS通过数据冗余和复制来确保数据的安全性和可靠性,在节点故障时能够实现自动故障转移,保证数据
HDFS在大数据存储中与其他分布式文件系统的比较如何
2024-05-08

云服务器怎么搭建python环境配置文件夹的方法

以下是搭建Python环境配置文件夹的一般步骤:打开云服务器管理器,执行以下命令来安装Python3:python其中,pipinstall-gpip是安装Python3所需的pip包;`pipinstall-f-g'python3''是安装完Python3后运行的命令。导入所需的Python模块和依赖:```pythonimportpipfrom''.importope
2023-10-26

Redis中的配置文件,数据持久化,事务

这篇文章主要介绍了Redis中的配置文件,数据持久化,事务问题,具有很好的参考价值,希望对大家有所帮助。
2022-12-22

编程热搜

目录