我的编程空间,编程开发者的网络收藏夹
学习永远不晚

基于Canal实现MySQL 8.0 数据库数据同步

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

基于Canal实现MySQL 8.0 数据库数据同步

前言

服务器说明

主机名称操作系统说明
192.168.11.82Ubuntu 22.04主库所在服务器
192.168.11.28Oracle Linux Server 8.7从库所在服务器

版本说明

MySQL版本:MySQL_8.0.32Canal版本:Canal_1.1.7           //我的canal安装部署在192.168.11.82上,当然你也可以部署在其它的服务器上Java版本:1.8.0.362

配置MySQL8.0数据库

修改MySQL配置文件

1、Ubuntu系统下MySQL配置文件位置
cd /etc/mysql/mysql.conf.dvi mysqld.cnf
2、CentOS系统下MySQL配置文件位置
vi /etc/my.cnf
3、添加如下配置,开启MySQL binlog功能
# 服务编号, 与其它节点不冲突即可server_id=1log_bin=binlogbinlog_format=ROW

Canal简介

关于canal简介,这里就不再阐述,具体可以参看官方文档介绍,地址如下:

https://github.com/alibaba/canal/wiki/%E7%AE%80%E4%BB%8B

主库服务器操作

启动MySQL8.0数据库

systemctl start mysql  或者systemctl start mysqld.serviceUbuntu 使用前者

在这里插入图片描述

创建账号密码

mysql> CREATE USER canal IDENTIFIED BY 'canal';  mysql> GRANT SELECT, SHOW VIEW, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';mysql> FLUSH PRIVILEGES;

canal数据同步服务器操作

创建canal文件夹

cd /usr/localmkdir canalcd canalmkdir canal-package canal-adapter canal-deployer

安装canal deployer和canal adapter

官网下载地址
https://github.com/alibaba/canal/releases/tag/canal-1.1.7-alpha-2

在这里插入图片描述
只需要下载标红框的两个文件即可。复制到canal-package文件夹下。
解压

tar -zxvf canal.adapter-1.1.7-SNAPSHOT.tar.gz -C /usr/local/canal/canal-adaptertar -zxvf canal.deployer-1.1.7-SNAPSHOT.tar.gz -C /usr/local/canal/canal-deployer

配置和启动canal-deployer

配置canal-deployer

由于此次同步为MySQL数据库间的数据同步,所以只需修改 instance.properties 即可。

cd /usr/local/canal/canal-deployer/conf/examplevi instance.properties

修改内容如下:
在这里插入图片描述

# 修改说明第一个框:主库所在服务器IP第二个框:主库数据库账号密码第三个框:规则如下:instance.properties中同步数据表默认为同步数据库下所有的表信息,具体配置如图第三个框:# 若需要同步某几张表,可以参考如下配置:# 同步某数据库test1下的user表,test2数据库下的所有表,所有库下所有表数据canal.instance.filter.regex=test1.user,test2\\..*,.*\\..*
启动canal-deployer
cd /usr/local/canal/canal-deployer/bin./startup.sh

查看日志确定是否启动成功

cd /usr/local/canal/canal-deployer/logs/examplecat example.log

我遇到的几个错误情况,仅供参考:
canal-deployer启动之后,如果在 logs 文件夹下没有 example 文件,参考如下情况说明:
1、查看 /usr/local/canal/canal-deployer/bin 文件夹下,是否存在.pid的文件。
2、查看logs文件夹下的canal文件夹下的canal_stdout.log文件,命令如下:

cat /usr/local/canal/canal-deployer/logs/canal/canal_stdout.log

若出现如下信息:
在这里插入图片描述
解决方案:(在此强烈建议系统中只安装jdk8或者jdk11,切不可采用jenv管理jdk,安装多个版本)

cd /usr/local/canal/canal-deployer/bin./stop.shvi startup.sh# 删除报错信息包含的参数(该错误信息可能会出现多次,出现哪个删除哪个即可)./startup.sh

重新启动:

cd /usr/local/canal/canal-deployer/bin./startup.sh

直到出现以下信息:

# 打开日志文件cat /usr/local/canal/canal-deployer/logs/example/example.log# 出现以下信息说明canal-deployer启动成功 [destination = example , address = /192.168.11.82:3306 , EventParser] WARN  c.a.o.c.p.inbound.mysql.rds.RdsBinlogEventParserProxy - ---> find start position successfully, EntryPosition[included=false,journalName=binlog.000040,position=65224673,serverId=1,gtid=,timestamp=1682062760000] cost : 1331ms , the next step is binlog dump

配置canal-adapter

修改配置文件
cd /usr/local/canal/canal-adapter/confvi application.yml
server:  port: 8081spring:  jackson:    date-format: yyyy-MM-dd HH:mm:ss    time-zone: GMT+8    default-property-inclusion: non_nullcanal.conf:  mode: tcp #tcp kafka rocketMQ rabbitMQ  flatMessage: true  zookeeperHosts:  syncBatchSize: 1000  retries: -1  timeout:  accessKey:  secretKey:  consumerProperties:    # canal tcp consumer    # 修改位置1:Canal-deployer所在主机IP    canal.tcp.server.host: 127.0.0.1:11111    canal.tcp.zookeeper.hosts:    canal.tcp.batch.size: 500    canal.tcp.username:    canal.tcp.password:    # kafka consumer    kafka.bootstrap.servers: 127.0.0.1:9092    kafka.enable.auto.commit: false    kafka.auto.commit.interval.ms: 1000    kafka.auto.offset.reset: latest    kafka.request.timeout.ms: 40000    kafka.session.timeout.ms: 30000    kafka.isolation.level: read_committed    kafka.max.poll.records: 1000    # rocketMQ consumer    rocketmq.namespace:    rocketmq.namesrv.addr: 127.0.0.1:9876    rocketmq.batch.size: 1000    rocketmq.enable.message.trace: false    rocketmq.customized.trace.topic:    rocketmq.access.channel:    rocketmq.subscribe.filter:    # rabbitMQ consumer    rabbitmq.host:    rabbitmq.virtual.host:    rabbitmq.username:    rabbitmq.password:    rabbitmq.resource.ownerId:# 修改位置:添加源库配置信息,此处为同步同库下所有表信息  class="lazy" data-srcDataSources:    defaultDS:      url: jdbc:mysql://192.168.11.82:3306/mynet?useUnicode=true&characterEncoding=utf8&autoReconnect=true&useSSL=false      username: ymliu      password: ymliu2023  canalAdapters:  - instance: example # canal instance Name or mq topic name    groups:    - groupId: g1      outerAdapters:      - name: logger      - name: rdb        key: mysql1        properties:          jdbc.driverClassName: com.mysql.jdbc.Driver          jdbc.url: jdbc:mysql://192.168.11.28:3306/mynet?useUnicode=true&characterEncoding=utf8&autoReconnect=true&useSSL=false          jdbc.username: ymliu          jdbc.password: ymliu2023          druid.stat.enable: false          druid.stat.slowSqlMillis: 1000#      - name: rdb#        key: oracle1#        properties:#          jdbc.driverClassName: oracle.jdbc.OracleDriver#          jdbc.url: jdbc:oracle:thin:@localhost:49161:XE#          jdbc.username: mytest#          jdbc.password: m121212#      - name: rdb#        key: postgres1#        properties:#          jdbc.driverClassName: org.postgresql.Driver#          jdbc.url: jdbc:postgresql://localhost:5432/postgres#          jdbc.username: postgres#          jdbc.password: 121212#          threads: 1#          commitSize: 3000#      - name: hbase#        properties:#          hbase.zookeeper.quorum: 127.0.0.1#          hbase.zookeeper.property.clientPort: 2181#          zookeeper.znode.parent: /hbase#      - name: es#        hosts: 127.0.0.1:9300 # 127.0.0.1:9200 for rest mode#        properties:#          mode: transport # or rest#          # security.auth: test:123456 #  only used for rest mode#          cluster.name: elasticsearch#      - name: kudu#        key: kudu#        properties:#          kudu.master.address: 127.0.0.1 # ',' split multi address#      - name: phoenix#        key: phoenix#        properties:#          jdbc.driverClassName: org.apache.phoenix.jdbc.PhoenixDriver#          jdbc.url: jdbc:phoenix:127.0.0.1:2181:/hbase/db#          jdbc.username:#          jdbc.password:
修改canal-adapter/conf/rdb文件夹下的yml文件
cd /usr/local/canal/canal-adapter/conf/rdbvi mytest_user.yml
同步数据库下的某张表,例如同步mytest数据库下的user表,操作如下:
dataSourceKey: defaultDS        # 源数据源的key, 对应上面配置的class="lazy" data-srcDataSources中的值destination: example            # cannal的instance或者MQ的topicgroupId: g1                     # 对应MQ模式下的groupId, 只会同步对应groupId的数据outerAdapterKey: mysql1         # adapter key, 对应上面配置outAdapters中的keyconcurrent: true                # 是否按主键hash并行同步, 并行同步的表必须保证主键不会更改及主键不能为其他同步表的外键!dbMapping:  database: test                # 源数据源的database/schema  table: user                   # 源数据源表名  targetTable: test.user        # 目标数据源的库名.表名  targetPk:                     # 主键映射    id: id                      # 如果是复合主键可以换行映射多个  mapAll: true                  # 是否整表映射, 要求源表和目标表字段名一模一样 (如果targetColumns也配置了映射, 则以targetColumns配置为准)  #targetColumns:               # 字段映射, 格式: 目标表字段: 源表字段, 如果字段名一样源表字段名可不填  #  id:  #  name:  #  role_id:  #  c_time:  #  test1: 
同步数据库下所有表数据,例如:同步mytest数据库下所有表数据,操作如下:
dataSourceKey: defaultDSdestination: examplegroupId: g1outerAdapterKey: mysql1concurrent: truedbMapping:  mirrorDb: true  database: test          # 该数据库名称修改为你的数据库名称
启动canal-adapter
cd /usr/local/canal/canal-adapter/bin./startup.sh

出现错误,排查方式同canal-deployer
查看日志信息

cd /usr/local/canal/canal-adapter/logs/adaptercat adapter.log
补充说明:

只有canal-adapter成功启动并正确连接canal-deployer后,canal-deployer才会读取binlog信息。/usr/local/canal/canal-deployer/conf/example 文件夹下才会出现meta.dat文件。
2、canal-adapter启动以后会出现127.0.0.1:3306/canal_manage连接失败信息,该信息是因为我们没有安装启动前端页面所致,可以忽略,不影响数据同步。
3、以上所有内容均为自己实操结果。

来源地址:https://blog.csdn.net/lym003/article/details/130315396

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

基于Canal实现MySQL 8.0 数据库数据同步

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

MySQL高性能实现Canal数据同步神器

目录简介配置mysqlCentos7 安装 canalJava客户端简介Canal是阿里巴巴基于Java开源的数据同步工具。平时业务场景使用比较多的如下:同步数据到ES、Redis缓存中。数据同步。业务需要监听数据。图片来源阿里巴巴
2022-08-11

使用Canal实现PHP应用程序与MySQL数据库的实时数据同步

Canal是阿里巴巴开源的一个数据同步工具,可实现MySQL数据库到其他数据源的实时同步,PHP应用程序中可轻松使用,提高系统的可靠性和实时性,提供了丰富的API和文档支持
2023-05-16

基于Java方式实现数据同步

这篇文章主要为大家详细介绍了基于Java方式实现数据同步,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2022-11-13

在SpringBoot中通过Canal实现MySQL与Redis的数据同步

mysql-bin.000003 是首次配置的,如果master节点重启了,这个文件会递增变为mysql-bin.000004,这时我们的从节点会自动连上这mysql-bin.000004。

基于Flink CDC实时同步数据(MySQL到MySQL)

一、环境 jdk8Flink 1.16.1(部署在远程服务器:192.168.137.99)Flink CDC 2.3.0MySQL 8.0(安装在本地:192.168.3.31) (安装部署过程略) 二、准备 准备三个数据库:flink_
2023-08-16

mysql数据库同步如何实现

MySQL数据库同步可以通过多种方式实现,以下是一些常用的方法:使用主从复制:主从复制是MySQL自带的一种数据库同步方法,通过将主数据库的变更日志传输到从数据库,从数据库可以实时同步主数据库的数据。这种方法适用于需要实时同步数据的场景。使
mysql数据库同步如何实现
2024-04-09

详解 canal 同步 MySQL 增量数据到 ES

canal 是一个非常有趣的开源项目,很多公司使用 canal 构建数据传输服务( Data Transmission Service ,简称 DTS ) 。推荐大家阅读这个开源项目,你可以从中学习到网络编程、多线程模型、高性能队列 Dis

SpringBoot使用Canal做MySQL与Redis的数据同步

mysql-bin.000003 是首次配置的,如果master节点重启了,这个文件会递增变为mysql-bin.000004,这时我们的从节点会自动连上这mysql-bin.000004。

编程热搜

目录