哪个数据库能胜任1亿记录单表?
现在有个科研项目,数据量极大,单表就1亿条记录,据说要30张表。现在用的sqlserver记录插入表的时候速度很慢。不清楚哪个数据库可以更好的胜任呢?因为是科研,所以要省钱,但是又要追求性能,不知道这几个商业数据库的免费版性能能吃得消吗?我看大多数都是限制最大库尺寸,最多使用ram个数,号称最为慷慨的db2 express-c虽然不限制库大小,但是限制只能用cpu2核和2g ram。所以我怀疑商用软件的免费版不见得行。那么postgresqlmysql又应该选哪个呢?看以前大家讨论来去的,似乎应该是前者?不过这些免费的软件能承受如此之大的数据量吗? 实在不行我只有写二进制文件自己检索了,但是这样代码量就上来了。 Postgres表示1亿数据很正常,不过通常需要分区实现。postgres的限制,不过一般的OLTP上足够用了:Limit Value Maximum Database Size Unlimited Maximum Table Size 32 TB Maximum Row Size 1.6 TB Maximum Field Size 1 GB Maximum Rows per Table Unlimited Maximum Columns per Table 250 - 1600 depending on columntypes Maximum Indexes per Table Unlimited CPU,内存啥的没限制,而且能力强的可以修改源码调整。Mysql不熟
页:
[1]