环境: 服务端:RHEL6.4 + Oracle 11.2.0.4 客户端:WIN10 + Oracle 11.2.0.1 client 目录:
2.1 模拟构建导入的源文件
getobject.sql(利用两表关联无连接条件,由于笛卡儿积产生百万数量级结果集)
call.sql
SQL调用脚本生成源文件
我这里得到了一个234M大小的ldr_object.csv文件,最后一列有空行,可以考虑先数据清洗后再导入。
这里没有处理源文件的行尾空格,所以用到了trim函数对最后一列进行处理,当然还是建议在加载前就进行源文件的格式处理。
对应log文件:
13分41秒加载完成记录数。
对应log文件:
加载速度从13分41秒提升到2分17秒。因为默认一次加载从64行改为5000行,同时增大了bindsize的值为(20M),实际5000行使用了6M左右的空间,所以表数据量大的情况下,还可以继续加大rows的参数值,具体效率提升情况还是需要具体的测试才可以最终选择合适的值。
对应log文件:
sqlldr直接路径加载速度提升到2分13秒。 注意:直接路径加载过程中,索引会变成unusable状态,加载完成后变为valid状态。
针对streamsize,date_cache两个参数,参数具体含义见第一部分的帮助。
对应log文件:
速度提升到2分7秒。
版权声明:
本文来源网络,所有图片文章版权属于原作者,如有侵权,联系删除。
本文网址:https://www.mushiming.com/mjsbk/1436.html