我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Java如何实现分库分表

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Java如何实现分库分表

一、为啥要分库分表

在大型互联网系统中,大部分都会选择mysql作为业务数据存储。一般来说,mysql单表行数超过500万行或者单表容量超过2GB,查询效率就会随着数据量的增长而下降。这个时候,就需要对表进行拆分。

那么应该怎么拆分呢?

通常有两种拆分方法,垂直拆分和水平拆分。

先说垂直拆分,这个比较简单,我们可以把原先的一张表根据业务属性拆分成多张表。比如用户表user有很多字段,我们可以新建一张用户属性表user_profile,把一些不常用的字段都拆分到user_profile表里,再用user_id作为外键将两张表关联起来就可以了。

再说水平拆分,水平拆分针对的不是表,而是数据。比如订单表,数据量一般都会非常大。我们可以创建多个数据库实例,每个实例上创建多张订单表,把订单数据相对均匀的分散存储到这些表里。查询的时候,根据分表策略可直接定位到数据在哪个表里,可以大大提高查询效率。

下面讲到的都是如何水平拆分。

二、怎么做分库分表

分库分表已经有一些成熟的解决方案,本文是用ShardingSphere-JDBC框架来实现的。

1.什么是ShardingSphere-JDBC

ShardingSphere-JDBC定义为轻量级Java框架,在 Java 的 JDBC 层提供的额外服务。 它使用客户端直连数据库,以 jar 包形式提供服务,无需额外部署和依赖,可理解为增强版的 JDBC 驱动,完全兼容 JDBC 和各种 ORM 框架。

  • 适用于任何基于 JDBC 的 ORM 框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template 或直接使用 JDBC;
  • 支持任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, HikariCP 等;
  • 支持任意实现 JDBC 规范的数据库,目前支持 MySQL,PostgreSQL,Oracle,SQLServer 以及任何可使用 JDBC 访问的数据库。

更多详细内容可直接参考:ShardingSphere官方文档

2.ShardingSphere-JDBC分表实践

ShardingSphere-JDBC分库和分表配置类似,下面介绍下分表怎么实现。

(1)先建分表

先在mysql数据库建10张用户表:tb_user_0到9,建表语句如下,改下表名,执行10遍即可:

CREATE TABLE `tb_user_0`  (  `id` bigint(20) UNSIGNED NOT NULL AUTO_INCREMENT COMMENT '主键',  `name` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',  `sex` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '性别',  PRIMARY KEY (`id`) USING BTREE) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;

(2)POM依赖

使用spring boot + mybatis-plus + shardingsphere-jdbc来实现,pom主要引入的包配置如下:

              com.baomidou            mybatis-plus-boot-starter            3.3.1                            mysql            mysql-connector-java            runtime                            org.apache.shardingsphere            shardingsphere-jdbc-core-spring-boot-starter            5.0.0        

(3)实体类和Mapper代码

注意,实体类和Mapper只有一个就行,注意这里的tableName注解一定要和后面配置分表策略的逻辑名一致,不然无法匹配路由策略。

@TableName(value = "tb_user")public class User implements Serializable {    private static final long serialVersionUID = 1L;        @TableId(value = "id", type = IdType.AUTO)    private Long id;        @TableField(value = "name")    private String name;        @TableField(value = "sex")    private String sex;    public Long getId() {        return id;    }    public void setId(Long id) {        this.id = id;    }    public String getName() {        return name;    }    public void setName(String name) {        this.name = name;    }    public String getSex() {        return sex;    }    public void setSex(String sex) {        this.sex = sex;    }    @Override    public String toString() {        return "User{" +            "id=" + id +            ", name=" + name +            ", sex=" + sex +        "}";    }}
public interface UserMapper extends BaseMapper {}

(4)配置数据源和分表规则

我们引入的包是shardingsphere-jdbc-core-spring-boot-starter,直接在application.yml里配置数据源和分表规则就行。

spring:  shardingsphere:    datasource:      # 数据源名称,有几个数据源就写几个,如果是分表,就会写多个      names: db0      # 为每个数据源单独配置,注意这里要跟上面写的名称一致      db0:        # 数据库连接池实现类型,这里使用的是Hikari        type: com.zaxxer.hikari.HikariDataSource        # 数据库驱动类,连接地址,用户名,密码等        driver-class-name: com.mysql.cj.jdbc.Driver        jdbc-url: jdbc:mysql://localhost:3306/sharding?useUnicode=true&characterEncoding=utf8&useSSL=false        username: root        password: 123456    rules:      sharding:        tables:          # 分表的表名,程序中对这张表的操作,都会采用下面的路由方案          tb_user:            # 这里是实际的数据节点信息,要把库名和表名都写全,这里也支持使用表达式,比如下面这张$->{0..9}            actual-data-nodes: db0.tb_user_$->{0..9}            # 配置分表策略            table-strategy:              # 这里选择的标准策略,也可以配置复杂策略,或者也可以用代码来实现              standard:                # 分片字段,这里是用用户id作为分片字段                sharding-column: id                # 这里是我们自定义的分片算法名称,后面会有实现方案                sharding-algorithm-name: user-inline            # 主键生成策略            key-generate-strategy:              # 生成主键算法的名称              key-generator-name: snowflake              # 主键字段              column: id        # 自定义的主键算法        key-generators:          snowflake:            # 使用雪花算法生成主键            type: SNOWFLAKE        # 自定义的分表算法        sharding-algorithms:          user-inline:            #使用inline类型实现            type: inline            props:              #分片表达式,用id对10取模,然后分散到10个表中              algorithm-expression: tb_user_$->{id % 10}    props:      # 打印日志,方便我们观察执行的sql语句      sql-show: true

(5)写单测

先测试插入语句,如下插入100条数据:

@Autowired    private UserMapper userMapper;    @Test    public void insertTest() {        for (int i=0; i<100; i++) {            User user = new User();            user.setName("test" + i);            user.setSex("男");            userMapper.insert(user);        }    }

执行之后,发现每张表都有数据插入,但是分布并不均匀,这是由雪花算法特性导致的。下图是tb_user_0表的数据:

再测试下查询语句,先测试用id查询:

@Test    public void selectByIdTest() {        userMapper.selectById(1668501944537858050L);    }

查询sql语句如下图,从图中可以看出,根据id查询的时候,会自动走分表路由策略,查询id为1668501944537858050L的数据,会自动去tb_user_table_0中查找。

再测试一下根据name字段查询:

    @Test    public void selectByNameTest() {        QueryWrapper qy = new QueryWrapper<>();        qy.eq("name","test1");        userMapper.selectList(qy);    }

查询sql语句如下图,从图中可以看出,如果不是根据分表字段来查询的话,会自动union所有分表查询,这样反而效率会更低。

所以,分库分表时一定要选择合适的字段,并且查询的时候尽量要在查询条件里先指定分库分表的字段,这样可以直接定位到表中,提高查询效率。

3.ShardingSphere-JDBC自定义分表策略类

ShardingSphere-JDBC可支持多种分片算法,比如标准分片,复合分片等,每种分片算法有多种类型,如行表达式INLINE,时间范围分片INTERVAL等,上面的例子我们就是用的标准分片行表达式做的。对于一些需要自定义的分片算法,我们可以通过自定义分片算法类来实现。

比如我们还是要实现取模算法,可以自定义一个UserShardingAlgorithm类来实现StandardShardingAlgorithm接口,实现doSharding接口来自定义分片算法,代码如下:

//分片字段数据类型是什么,这里泛型就写什么public class UserShardingAlgorithm implements StandardShardingAlgorithm {    //精确分片算法实现,collection是实际表,也就是配置文件里的actual-data-nodes内容    //preciseShardingValue对象包括逻辑表名,分表算法的字段和字段值    @Override    public String doSharding(Collection collection, PreciseShardingValue preciseShardingValue) {        //对分片字段也就是用户id取模        String suffix = String.valueOf(preciseShardingValue.getValue() % 10);        //遍历表名,找到符合要求的表,返回即可        for (String tableName : collection) {            if (tableName.endsWith(suffix)) {                return tableName;            }        }        throw new UnsupportedOperationException();    }    //范围分片,我们暂不支持    @Override    public Collection doSharding(Collection collection, RangeShardingValue rangeShardingValue) {        throw new UnsupportedOperationException();    }        //初始化信息接口    @Override    public void init() {    }    //分片算法类型    @Override    public String getType() {        return "USER_SHARDING";    }}

在配置文件里,我们只需要改一下分片算法部分的配置即可,之前的配置是这样的:

        sharding-algorithms:          user-inline:            type: inline            props:              algorithm-expression: tb_user_$->{id % 10}

分片类型改成class_based,也就是自定义类分片算法,配置如下:

        sharding-algorithms:          user-inline:            type: class_based # 自定义类分片算法类型            props:              strategy: standard              # 自定义算法类的路径              algorithmClassName: com.github.learn.sharding.algorithm.UserShardingAlgorithm

还是再跑一下上面selectById单测,如下图,可以顺利去tb_user_0中查询数据,证明我们自定义的分片算法生效了:

4.主键生成策略

ShardingSphere-JDBC提供了两种内置的分布式主键生成器,uuid和雪花算法。

uuid:采用UUID.randomUUID()的方式产生分布式主键。

雪花算法:

雪花算法是由 Twitter 公布的分布式主键生成算法,它能够保证不同进程主键的不重复性,以及相同进程主键的有序性。

(1)实现原理

在同一个进程中,它首先是通过时间位保证不重复,如果时间相同则是通过序列位保证。 同时由于时间位是单调递增的,且各个服务器如果大体做了时间同步,那么生成的主键在分布式环境可以认为是总体有序的,这就保证了对索引字段的插入的高效性。 例如 MySQL 的 Innodb 存储引擎的主键。

使用雪花算法生成的主键,二进制表示形式包含 4 部分,从高位到低位分表为:1bit 符号位、41bit 时间戳位、10bit 工作进程位以及 12bit 序列号位。

  • 符号位(1bit)

预留的符号位,恒为零。

  • 时间戳位(41bit)

41 位的时间戳可以容纳的毫秒数是 2 的 41 次幂,一年所使用的毫秒数是:365 * 24 * 60 * 60 * 1000。 通过计算可知:

  1. Math.pow(2,41)/(365*24*60*60*1000L);

结果约等于 69.73 年。 Apache ShardingSphere 的雪花算法的时间纪元从 2016年11月1日 零点开始,可以使用到 2086 年,相信能满足绝大部分系统的要求。

  • 工作进程位(10bit)

该标志在 Java 进程内是唯一的,如果是分布式应用部署应保证每个工作进程的 id 是不同的。 该值默认为 0,可通过属性设置。

  • 序列号位(12bit)

该序列是用来在同一个毫秒内生成不同的 ID。如果在这个毫秒内生成的数量超过 4096 (2 的 12 次幂),那么生成器会等待到下个毫秒继续生成。

雪花算法主键的详细结构见下图。

(2)配置信息

在ShardingSphere-JDBC中,雪花算法提供了三个属性。

worker-id:工作机器唯一标识

max-vibration-offset:最大抖动上限值,范围[0, 4096)。注:若使用此算法生成值作分片值,建议配置此属性。此算法在不同毫秒内所生成的 key 取模 2^n (2^n一般为分库或分表数) 之后结果总为 0 或 1。为防止上述分片问题,建议将此属性值配置为 (2^n)-1。如果有10个分表,可将此值设置为9,这样数据分布会更均匀一下。

max-tolerate-time-difference-milliseconds:最大容忍时钟回退时间,单位:毫秒,默认10毫秒

(3)多节点worker-id配置

服务器可能是有多个节点的,此时如果worker-id用同一个配置,有可能会产生重复的id,因此每个节点的worker-id最好是不同的。我们可以用ip地址的一部分来作为节点的worker-id,worker-id是十位,我们直接取ip地址的后10位即可,一般都是不会重复的。比如机器的IP为192.168.1.108,二进制表示:11000000 10101000 00000001 01101100,截取最后10位 01 01101100,转为十进制364,设置workerId为364。

实现方式如下:

首先是配置文件,要加入work-id属性配置:

        key-generators:          user-id-generator:            type: SNOWFLAKE            props:              max-vibration-offset: 9              worker-id: ${workerId}

然后,加一个配置类,在static代码块中获取ip地址,取后十位,作为worker-id。

@Configurationpublic class WorkerIdConfig {    private static final Logger LOGGER = LoggerFactory.getLogger(WorkerIdConfig.class);    static {        try {            InetAddress address = InetAddress.getLocalHost();            // IP地址byte[]数组形式,这个byte数组的长度是4,数组0~3下标对应的值分别是192,168,1,108            byte[] ipAddressByteArray = address.getAddress();            // workerId取ip地址后十位            long workerId = ((ipAddressByteArray[ipAddressByteArray.length - 2] & 0x03) << 8) + (ipAddressByteArray[ipAddressByteArray.length - 1] & 0xFF);            LOGGER.info("当前机器 workerId: {}", workerId);            System.setProperty("workerId", String.valueOf(workerId));        } catch (Exception e) {            LOGGER.error("worker id failed:{}", e.getMessage(), e);        }    }}

来源地址:https://blog.csdn.net/Kevin_zhai/article/details/131416610

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Java如何实现分库分表

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

mysql分库分表如何实现

MySQL分库分表可以通过以下几个步骤实现:水平分库:将原始的单个数据库分成多个独立的数据库。每个数据库可以独立运行在不同的服务器上,从而提高系统的并发处理能力。垂直分表:将原始的单个表按照业务关联性拆分成多个子表。每个子表中只包含部分字
2023-10-27

PHP如何实现MySQL数据库分表

本篇内容介绍了“PHP如何实现MySQL数据库分表”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!一、MySQL分表的概念MySQL分表是将一
2023-07-06

MySQL如何分库分表

1. 我们为什么需要分库分表 在分库分表之前,就需要考虑为什么需要拆分。我们做一件事,肯定是有充分理由的。所以得想好分库分表的理由是什么。我们现在就从两个维度去思考它,为什么要分库?为什么要分表? 1.1 为什么要分库 如果业务量剧增,数
2023-08-17

MyCat怎么实现分库分表

本篇内容介绍了“MyCat怎么实现分库分表”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!项目环境: 192.168.8.30 mycat1
2023-06-01

如何使用sharding-jdbc实现水平分库+水平分表

这篇文章给大家分享的是有关如何使用sharding-jdbc实现水平分库+水平分表的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。分库分表策略:将id为偶数的存入到库1中,奇数存入到库2中,在每个库中,再根据学生的
2023-06-22

MyCat教程五:实现分库分表

本文我们来介绍下MyCat的分库分表操作   分库分表   一、分片规则介绍   在rule.xml中定义了各种myCat支持的分片规则。 取模mod-long 自然月分片 sharding-by-month 按日期(天)分片sharding-by-d
MyCat教程五:实现分库分表
2015-12-28

利用RadonDB实现MySQL分库分表

利用RadonDB实现MySQL分库分表RadonDB是青云上提供的MySQL分布式解决方案,提供数据库的透明拆分及高可用服务。RadonDB包括Radon, Xenon, MySQL三部分安装。其中Radon,Xenon官方没有发行二进制包,需要编译安装,
利用RadonDB实现MySQL分库分表
2022-02-20

.Net如何使用分表分库框架ShardingCore实现多字段分片

小编给大家分享一下.Net如何使用分表分库框架ShardingCore实现多字段分片,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!原理我们现在假定一个很简单的场景,依然是订单时间按月分片,查询进行如下语句//这边演示不使用
2023-06-22

如何在mysql中切分分库分表

本篇文章为大家展示了如何在mysql中切分分库分表,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。1、水平切分水平切分又称Sharding,是将同一表中的记录分割成多个结构相同的表中。Sharding
2023-06-15

MyCat分库分表中怎么实现ER分片

这篇文章主要介绍“MyCat分库分表中怎么实现ER分片”,在日常操作中,相信很多人在MyCat分库分表中怎么实现ER分片问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”MyCat分库分表中怎么实现ER分片”的疑
2023-06-01

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录