我将A数据库里的一张表里的数据通过DBLink的方式插入到B数据库中,A表只有两个字段,但是却又几千万的数据,一句很简单的Sql却执行了两个小时还没有执行完毕,请问应该如何进行这种大数据量的插入操作?个人觉得应该是一次性插入并提交的数据量太大的缘故导致速度特别慢,请问谁有更好的方法解决这个问题呢。
大æ°æ®éæ交å¯è½ä¼é æç³»ç»ç«çªï¼æ以ä¸å»ºè®®è¿æ ·åã
å¦ææéè¦ï¼å¯ä»¥å¨å¯¼åºinsertè¯å¥çæ¶ååæ¹æ¬¡commit(æ交)ã
æ¹æ³å¦ä¸ï¼
1ãç»å½plsqlï¼è¿å ¥å¯¼åºè¡¨
2ãéæ©è¦å¯¼åºç表ï¼ç¶åä¸å¾ä½ç½®æ ¹æ®éè¦åä¸æ¯æ¬¡å¤å°è¡æ交ï¼éæ©å¯¼åºè·¯å¾ï¼ç¹å»å¯¼åºå³å¯
insert into T1 select * from T2@Oracle12;
commit;
请问set autocommit 200000;应该在哪里添加?!
SQL Plus 里面应该可以.
在 PL/SQL Developer 里面, 好像不行。