我的编程空间,编程开发者的网络收藏夹
学习永远不晚

MySQL快速插入一亿测试数据

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

MySQL快速插入一亿测试数据

目录
  • 1、建表
    • 1.1 建立测试表 t_user
    • 1.2 创建临时表
  • 2、生成数据
    • 2.1 用 python生成 【一亿】 记录的数据文件(这个确实稍微花点时间)
    • 2.2 将生成的文件导入到临时表tmp_table中
  • 3、以临时表为基础数据,插入数据到t_user中
    • 4、参考

      1、建表

      1.1 建立测试表 t_user

      
      CREATE TABLE `t_user` (
        `id` int(11) NOT NULL AUTO_INCREMENT,
        `c_user_id` varchar(36) NOT NULL DEFAULT '' COMMENT '用户Id',
        `c_name` varchar(22) NOT NULL DEFAULT '' COMMENT '用户名',
        `c_province_id` int(11) NOT NULL COMMENT '省份Id',
        `c_city_id` int(11) NOT NULL COMMENT '城市Id',
        `create_time` datetime NOT NULL COMMENT '创建时间',
        PRIMARY KEY (`id`),
        KEY `idx_user_id` (`c_user_id`)
      ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

      1.2 创建临时表

      
      CREATE TABLE `tmp_table` (
        `id` int(11) NOT NULL,
        PRIMARY KEY (`id`)
      ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

      2、生成数据

      2.1 用 python生成 【一亿】 记录的数据文件(这个确实稍微花点时间)

      
      python -c "for i in range(1, 1+100000000): print(i)" > base.txt

      2.2 将生成的文件导入到临时表tmp_table中

      找到对应的数据库

      
      Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
       
      mysql> use test;
      Database changed
      mysql> show tables;
      +----------------+
      | Tables_in_test |
      +----------------+
      | student        |
      | t_user         |
      | tmp_table      |
      +----------------+
      3 rows in set (0.00 sec)

      执行导入命令

      
      mysql> load data infile 'E:/base.txt' replace into table tmp_table;
      ERROR 1290 (HY000): The MySQL server is running with the --secure-file-priv option 
      so it cannot execute this statement
      mysql>

      导入数据时有可能会报错,原因是mysql默认没有开secure_file_priv( 这个参数用来限制数据导入和导出操作的效果,例如执行LOAD DATA、SELECT … INTO OUTFILE语句和LOAD_FILE()函数。这些操作需要用户具有FILE权限。 )

      解决办法:在mysql的配置文件中(my.ini 或者 my.conf)中添加 secure_file_priv = 文件所在的路径 ,  然后重启mysql 解决。添加自己文件放置的路径即可。

      可以用 show variables like '%secure%'; 先看一下配置:

      
      mysql> show variables like '%secure%';
      +--------------------------+-------+
      | Variable_name            | Value |
      +--------------------------+-------+
      | require_secure_transport | OFF   |
      | secure_auth              | ON    |
      | secure_file_priv         | NULL  |
      +--------------------------+-------+
      3 rows in set, 1 warning (0.00 sec)

      说明:

      
      secure_file_prive=null   限制mysqld 不允许导入导出
      secure_file_priv=/var/lib/mysql-files/   限制mysqld的导入导出只能发生在/var/lib/mysql-files/目录下
      secure_file_priv=' '     不对mysqld的导入导出做限制

      注意:配置要添加到 [mysqld] 节点下,至于路径加不加引号,你可以试试:

      重启MySQL,先查看配置:

      
      mysql> use test;
      Database changed
      mysql> show variables like '%secure%';
      +--------------------------+-------+
      | Variable_name            | Value |
      +--------------------------+-------+
      | require_secure_transport | OFF   |
      | secure_auth              | ON    |
      | secure_file_priv         | E:\   |
      +--------------------------+-------+
      3 rows in set, 1 warning (0.00 sec)

      再重新导入:

      
      mysql> load data infile 'E:/base.txt' replace into table tmp_table;
      Query OK, 100000000 rows affected (3 min 53.42 sec)
      Records: 100000000  Deleted: 0  Skipped: 0  Warnings: 0
       
      mysql>

      亿级数据,233.42s,看一下别人的数据,差不多就是这个。

      3、以临时表为基础数据,插入数据到t_user中

      一亿数据需要:快半个小时了。。。(或许直接在命令行下运行更快点...)

      更新创建时间字段让插入的数据的创建时间更加随机:

      
      mysql> UPDATE t_user SET create_time=date_add(create_time, interval FLOOR(1 + (RAND() * 7)) year);
      Query OK, 100000000 rows affected (7 min 24.17 sec)
      Rows matched: 100000000  Changed: 100000000  Warnings: 0
       
      mysql> UPDATE t_user SET create_time=date_add(create_time, interval FLOOR(1 + (RAND() * 7)) year);
      Query OK, 100000000 rows affected (8 min 2.49 sec)
      Rows matched: 100000000  Changed: 100000000  Warnings: 0

      到此,一亿数据插入结束。

      4、参考

      MySQL如何快速的创建千万级测试数据

      The MySQL server is running with the --secure-file-priv option

      到此这篇关于MySQL快速插入一亿测试数据的文章就介绍到这了,更多相关MySQL 插入一亿数据内容请搜索自学编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持自学编程网!

      免责声明:

      ① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

      ② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

      MySQL快速插入一亿测试数据

      下载Word文档到电脑,方便收藏和打印~

      下载Word文档

      猜你喜欢

      MySQL快速插入一亿测试数据

      目录1、建表1.1 建立测试表 t_user1.2 创建临时表2、生成数据2.1 用 python生成 【一亿】 记录的数据文件(这个确实稍微花点时间)2.2 将生成的文件导入到临时表tmp_table中3、以临时表为基础数据,插入数据到t
      2022-05-19

      mysql 快速生成100w条测试数据

      本篇文章是关于MySQL生成百万条数据的全部过程,每一步都有具体的sql,并且每一步都有具体的注释,详细步骤如下:1、创建数据库C
      2023-05-15

      MySQL怎么快速批量插入1000w条数据

      这篇文章主要介绍MySQL怎么快速批量插入1000w条数据,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!小编发现插入10000条数据用了0.9s, 插入10w条数据用了4.7s, 插入100w条数据用了58s左右,1
      2023-06-14

      快速向表插入大量数据

      当需要对一个非常大的表INSERT的时候,会消耗非常多的资源,因为update表的时候,oracle需要生成 redo log和undo log;此时最好的解决办法是用insert, 并且将表设置为nologging;当把表设为nologging后,并且使用的
      快速向表插入大量数据
      2017-03-06

      oracle快速向表插入大量数据

      当需要对一个非常大的表INSERT的时候,会消耗非常多的资源,因为update表的时候,oracle需要生成 redo log和undo log;此时最好的解决办法是用insert, 并且将表设置为nologging;当把表设为nologging后,并且使用的
      oracle快速向表插入大量数据
      2014-05-05

      MySQL如何快速导入数据

      前言: 日常学习和工作中,经常会遇到导数据的需求。比如数据迁移、数据恢复、新建从库等,这些操作可能都会涉及大量数据的导入。有时候导入进度慢,电脑风扇狂转真的很让人崩溃,其实有些小技巧是可以让导入更快速的,本篇文章笔者会谈一谈如何快速的导入
      2022-05-15

      MySQL实现批量插入测试数据的方式总结

      在开发过程中经常需要一些测试数据, 这个时候如果手敲的话, 十行二十行还好, 多了就很死亡了, 接下来介绍两种常用的MySQL测试数据批量生成方式,希望对大家有所帮助
      2023-05-20

      编程热搜

      目录