mysql怎么大量录入数据
mysql大量录入数据的办法:1、使用轮回插入;2、减少连接资源,拼接一条sql;3、使用储备历程;4、使用【MYSQL LOCAL_INFILE】。
本教程操纵环境:windows7系统、mysql8.0.22版,DELL G3电脑,该办法适用于所有品牌电脑。
相关免费学习引荐:mysql视频教程
mysql大量录入数据的办法:
办法一:轮回插入
这个也是最一般的方式,假如数据量不是很大,可以使用,但是每次都要耗损连接数据库的资源。
大致思维如下
(我这里写伪代码,详细编写可以结合本人的业务逻辑或者框架语法编写)
for($i=1;$i<=100;$i++){ $sql = 'insert...............'; //querysql } foreach($arr as $key => $value){ $sql = 'insert...............'; //querysql } while($i <= 100){ $sql = 'insert...............'; //querysql $i++ }
由于太甚一般同时也没什么难度同时也不是我今天主要写的所以这里我不多说
办法二:减少连接资源,拼接一条sql
伪代码如下
//这里假设arr的key和数据库字段同步,其实大多数框架中在php操纵数据库的时候都是这么设计的 $arr_keys = array_keys($arr); $sql = 'INSERT INTO tablename (' . implode(',' ,$arr_keys) . ') values'; $arr_values = array_values($arr); $sql .= " ('" . implode("','" ,$arr_values) . "'),"; $sql = substr($sql ,0 ,-1); //拼接之后大约就是 INSERT INTO tablename ('username','password') values ('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx') ....... //querysql
这样写正常插入一万条根本问题不大,除非数据很长,应对一般的大量插入够用了,比方:大量生成卡号,大量生成随机码等等。。。
办法三:使用储备历程
这个我手里恰好再用这个就把sql付出来,详细业务逻辑大家本人组合一下就可以。
delimiter $$$ create procedure zqtest() begin declare i int default 0; set i=0; start transaction; while i<80000 do //your insert sql set i=i+1; end while; commit; end $$$ delimiter; call zqtest();
这个也只是个测试代码,详细参数大家自行定义
我这里是一次插入8万条,虽然不多但是,每一条数据量都很大,有许多varchar4000 和text字段
耗时 6.524s
办法四:使用MYSQL LOCAL_INFILE
这个我当前正在使用,所以顺便把pdo的代码也复上来,以便大家参照
//设定pdo开启MYSQL_ATTR_LOCAL_INFILE /*hs96.cn@gmail.com public function pdo_local_info () { global $system_dbserver; $dbname = 'hs96.cn@gmail.com'; $ip = 'hs96.cn@gmail.com'; $user = 'hs96.cn@gmail.com'; $pwd = 'hs96.cn@gmail.com'; $dsn = 'mysql:dbname=' . $dbname . ';host=' . $ip . ';port=3306'; $options = [PDO::MYSQL_ATTR_LOCAL_INFILE => true]; $db = new PDO($dsn ,$user ,$pwd ,$options); return $db; } //伪代码如下 public function test(){ $arr_keys = array_keys($arr); $root_dir = $_SERVER["DOCUMENT_ROOT"] . '/'; $my_file = $root_dir . "hs96.cn@gmail.com/sql_cache/" . $order['OrderNo'] . '.sql'; $fhandler = fopen($my_file,'a+'); if ($fhandler) { $sql = implode("\t" ,$arr); $i = 1; while ($i <= 80000) { $i++; fwrite($fhandler ,$sql . "\r\n"); } $sql = "LOAD DATA local INFILE '" . $myFile . "' INTO TABLE "; $sql .= "tablename (" . implode(',' ,$arr_keys) . ")"; $pdo = $this->pdo_local_info (); $res = $pdo->exec($sql); if (!$res) { //TODO 插入失败 } @unlink($my_file); } }
这个一样每一条数据量都很大,有许多varchar4000 和text字段
耗时 2.160s
以上知足根本需求,100万数据问题不大,要不数据实在太大也触及分库分表了,或者使用队列插入了。
以上就是mysql如何大量录入数据的具体内容,更多请关注百分百源码网其它相关文章!