总所周知,Spark在内存计算领域非常强势,是未来计算的方向。Spark支持类sql的语法,方便我们对DataFrame的数据进行统计操作。
但是,作为初学者,我们今天暂且不讨论Spark的用法。我给自己提出了一个有意思的思维游戏:Java里面的随机数算法真的是随机的吗?
好,思路如下:
1. 取样,利用Java代码随机生成2000万条0-1000的整数(包括0,但是不包括1000)
2. 分析每个整数的出现次数。
如果出现次数分布非常均匀,那么可以证明随机数算法还是比较靠谱的。
那么,现在就动手:
这里我选择的是sqlite数据库的内存模式,之所以这样选择,是因为文件型数据库的内存模式可以节省网络开销,小巧精悍:
java代码:
package com.lnwazg.dbkit.controller; import java.sql.sqlException; import java.util.ArrayList; import java.util.List; import org.apache.commons.lang3.RandomUtils; import com.lnwazg.dbkit.dao.sqliteDao; import com.lnwazg.dbkit.jdbc.MyJdbc; import com.lnwazg.dbkit.proxy.MyDaoProxy; import com.lnwazg.dbkit.utils.DbKit; import com.lnwazg.dbkit.vo.Record; import com.lnwazg.kit.testframework.TF; import com.lnwazg.kit.testframework.anno.AfterFinalOnce; import com.lnwazg.kit.testframework.anno.PrepareStartOnce; import com.lnwazg.kit.testframework.anno.TestCase; /** * 随机插入2000万条随机数 * @author nan.li * @version 2016年6月2日 */ public class sqliteTest2 { MyJdbc jdbc = null; sqliteDao sqliteDao = null; @PrepareStartOnce void prepareStartOnce() { //初始化jdbc连接 jdbc = DbKit.getJdbc("sqlite3.properties"); sqliteDao = MyDaoProxy.proxyDaoInterface(sqliteDao.class,jdbc);//根据接口生成动态代理类 } @AfterFinalOnce void afterFinalOnce() { } @TestCase void doTest() throws sqlException { //插入2000万条数据,然后用sql计算出分布情况 // 每次10000条记录,循环2000次 sqliteDao.createTable(Record.class); for (int i = 0; i < 200; i++) { List<Record> list = new ArrayList<>(); for (int j = 0; j < 100000; j++) { list.add(new Record().setNumber(RandomUtils.nextInt(0,1000)));//随机数,值为0-999 } sqliteDao.insertBatch(list,50000);//批量插入,batchSize设置为50000 System.out.println(String.format("第%s次插入成功!",i + 1)); } } public static void main(String[] args) { TF.l(sqliteTest2.class); } }
数据库配置:
url=jdbc:sqlite://d:/largeData.db username= password=
Record类结构:
package com.lnwazg.dbkit.vo; import org.apache.commons.lang3.builder.ToStringBuilder; import org.apache.commons.lang3.builder.ToStringStyle; import com.lnwazg.dbkit.anno.AutoIncrement; import com.lnwazg.dbkit.anno.Id; public class Record { @Id @AutoIncrement private Integer id; private Integer number; public Integer getId() { return id; } public Record setId(Integer id) { this.id = id; return this; } public Integer getNumber() { return number; } public Record setNumber(Integer number) { this.number = number; return this; } @Override public String toString() { return ToStringBuilder.reflectionToString(this,ToStringStyle.JSON_STYLE); } }
好了,代码跑起来,每插入10w条数据需要消耗37秒钟,每秒钟插入成功2702条数据,这个效率我还是比较满意的。
大约等了2个钟头,全部数据就造好了,占用230MB大小。
第二步:开始分析
表结构以及数据如下:
先验证一下记录数对不对:
OK,2000万条数据,如假包换。
好了,开始分组分析:
可以看到,最小的随机数是0,最大的随机数是999。 所有的随机数的出现次数都趋近于20000次,分布情况相当均匀,最大误差不超过450。
这个数字,跟我们期待的值是一致的: 20000000条记录 / 1000种数字 = 20000条记录/种数字。
由此可以证明,java里面的随机数算法还是相当可靠的。
原文链接:https://www.f2er.com/sqlite/198847.html