Skip to content

超大xml解析导入数据库、千万级别大数据导出到Excel。实现核心:高性能、分段、分页循环:读取-写入-清空内存。解决传统方式的超大数据导致内存溢出

Notifications You must be signed in to change notification settings

3zamn/bigXmlConvertDB

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 

Repository files navigation

bigXmlConvertDB

超大xml解析导入数据库、千万级别大数据导出到Excel。实现核心:高性能、分段、分页循环:读取-写入-清空。解决传统方式的超大数据导致内存溢出

1.xml解析以dom4j的事件驱动、分段边读边写(预处理sql批量写入数据库)、写完清空内存的实现思路解决超大xml解析时的内存溢出问题。 2.大数据导出到Excel、使用SXSSFWorkbook方式分页可以写入多个sheet中。

测试结果:(本地机器配置较低) 1.500M大小xml文件解析写入到mysql、插入200万条记录耗时100秒左右。 2.500万条数据从mysql导出到Excel、每个sheet写入100万条。耗时10分钟左右

About

超大xml解析导入数据库、千万级别大数据导出到Excel。实现核心:高性能、分段、分页循环:读取-写入-清空内存。解决传统方式的超大数据导致内存溢出

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages