MongoDB实战(12)Replica Sets + Sharding
MongoDB Auto-Sharding 解决了海量存储和动态扩容的问题但离实际生产环境所需的高可
靠、高可用还有些距离所以有了” Replica Sets + Sharding”的解决方案。
1、Shard:
使用 Replica Sets确保每个数据节点都具有备份、自动容错转移、自动恢复能力。
2、Config:
使用3 个配置服务器确保元数据完整性
3、Route:
使用3 个路由进程实现负载平衡提高客户端接入性能
以下我们配置一个 Replica Sets + Sharding 的环境架构图如下
开放的端口如下
主机 | ip | 服务及端口 |
Server A | 192.168.3.231 | mongod shard1_1:27017 mongod shard2_1:27018 mongod config1:20000 mongs1:30000 |
Server B | 192.168.3.232 | mongod shard1_2:27017 mongod shard2_2:27018 mongod config2:20000 mongs2:30000 |
Server C | 192.168.3.233 | mongod shard1_3:27017 mongod shard2_3:27018 mongod config3:20000 mongs3:30000 |
创建数据目录
在Server A 上:
在Server B 上:
在Server C 上:
配置Replica Sets
1、配置shard1所用到的Replica Sets
在Server A 上:
在Server B 上:
在Server C 上:
用mongo 连接其中一台机器的27017 端口的mongod初始化Replica Sets“shard1”执行:
配置shard2所用到的Replica Sets
在Server A 上:
在Server B 上:
在Server C 上:
用mongo 连接其中一台机器的27018 端口的mongod,初始化Replica Sets “shard2”,执行:
配置3 台Config Server
在Server A、B、C上执行:
配置3 台Route Process
在Server A、B、C上执行:
配置Shard Cluster
激活数据库及集合的分片
验证Sharding正常工作
连接到其中一台机器的端口30000 的mongos 进程,并切换到test 数据库,以便添加测试数据
可以看到Sharding搭建成功了,跟我们期望的结果一致,至此我们就将Replica Sets与Sharding
结合的架构也学习完毕了。
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341