没有分片的PostgreSQL上的100TB数据库

前端之家收集整理的这篇文章主要介绍了没有分片的PostgreSQL上的100TB数据库前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
在多个节点之间没有 data sharding的Postgresql上设置100 TB数据库(实际上大约90 TB)是否现实?是否有关于类似设置的成功案例/示例?
每秒50K写入需要吸收的不仅仅是挑战.即使在具有非常简单插入的合成基准测试中,Postgresql的限制也往往大约在10 K / s左右 – 而且在数据库大小方面你甚至没有这么大的野兽.

对于单个Postgresql节点的I / O系统也会很有趣,即使使用RAID 10并且假设50K插入将等于仅50K IOPS(这可能是错误的,但它取决于您的数据库方案和索引),你将需要大约一百个磁盘与一个非常好的阵列配对,这可以节省你购买数百个磁盘以及时为这些写入服务.

如果分片很容易,并且您期望如此巨大的写入负载,那么请进行分片.写作可能很难扩展.

原文链接:https://www.f2er.com/postgresql/192500.html

猜你在找的Postgre SQL相关文章