常熟哪里有java培训,推荐就业
java在处理数据量比较大的时候,加载到内存必然会导致内存溢出,而在一些数据处理中我们不得不去处理海量数据,那java是如何处理大数据的呢?有什么技巧吗?在做数据处理中,我们常见的手段是分解,压缩,并行,临时文件等方法。
例如,我们要将数据库(不论是什么数据库)的数据导出到一个文件,一般是excel或文本格式的csv;对于excel来讲,对于poi和jxl的接口,你很多时候没有办法去控制内存什么时候向磁盘写入,很恶心,而且这些api在内存构造的对象大小将比数据原有的大小要大很多倍数,所以你不得不去拆分excel,还好,poi开始意识到这个问题,在3.8.4的版本后,开始提供cache的行数,提供了sxssfworkbook的接口,可以设置在内存中的行数,不过可惜的是,他当你超过这个行数,每添加一行,它就将相对行数前面的一行写入磁盘(如你设置2000行的话,当你写第20001行的时候,他会将第一行写入磁盘),其实这个时候他些的临时文件,以至于不消耗内存,不过这样你会发现,刷磁盘的频率会非常高,我们的确不想这样,因为我们想让他达到一个范围一次性将数据刷如磁盘,比如一次刷1m之类的做法,可惜现在还没有这种api,很痛苦,我自己做过测试,通过写小的excel比使用目前提供刷磁盘的api来写大文件,效率要高一些,而且这样如果访问的人稍微多一些磁盘io可能会扛不住,因为io资源是非常有限的,所以还是拆文件才是上策;而当我们写csv,也就是文本类型的文件,我们很多时候是可以自己控制的,不过你不要用csv自己提供的api,也是不太可控的,csv本身就是文本文件,你按照文本格式写入即可被csv识别出来;如何写入呢?下面来说说。。。
在处理数据层面,如从数据库中读取数据,生成本地文件,写代码为了方便,我们未必要1m怎么来处理,这个交给底层的驱动程序去拆分,对于我们的程序来讲我们认为它是连续写即可;我们比如想将一个1000w数据的数据库表,导出到文件;此时,你要么进行分页,oracle当然用三层包装即可,mysql用limit,不过分页每次都会新的查询,而且随着翻页,会越来越慢,其实我们想拿到一个句柄,然后向下游动,编译一部分数据(如10000行)将写文件一次(写文件细节不多说了,这个是较基本的),需要注意的时候每次buffer的数据,在用outputstream写入的时候,较好flush一下,将缓冲区清空下。
来设置游标的方式,以至于游标不是将数据直接cache到本地内存,然后通过设置statement.setfetchsize(200);设置游标每次遍历的大小;ok,这个其实我用过,oracle用了和没用没区别,因为oracle的jdbc api默认就是不会将数据cache到java的内存中的,而mysql里头设置根本无效,我上面说了一堆废话,呵呵,我只是想说,java提供的标准api也未必有效,很多时候要看厂商的实现机制,还有这个设置是很多网上说有效的,但是这纯属抄袭;对于oracle上面说了不用关心,他本身就不是cache到内存,所以java内存不会导致什么问题,如果是mysql,首先必须使用5以上的版本,然后在连接参数上加上usecursorfetch=true这个参数,至于游标大小可以通过连接参数上加上:defaultfetchsize=1000来设置,
上次被这个问题纠结了很久(mysql的数据老导致程序内存膨胀,并行2个直接系统就宕了),还去看了很多源码才发现奇迹竟然在这里,较后经过mysql文档的确认,然后进行测试,并行多个,而且数据量都是500w以上的,都不会导致内存膨胀,gc一切正常,这个问题终于完结了。
java在处理大数据的时候还是有一些小技巧的,正确运用这些小技巧,有时候在处理问题时往往会事半功倍。更多java的学习尽在捷梯教育,捷梯教育的java课程有四个阶段的学习,四个阶段让大牛讲师带你精通掌握java技术。