“常用公式”在线计算,“设计手册”在线查询
现在有个科研项目,数据量极大,单表就1亿条记录,据说要30张表。现在用的sqlserver记录插入表的时候速度很慢。不清楚哪个数据库可以更好的胜任呢?因为是科研,所以要省钱,但是又要追求性能,不知道这几个商业数据库的免费版性能能吃得消吗?我看大多数都是限制最大库尺寸,最多使用ram个数,号称最为慷慨的db2 express-c虽然不限制库大小,但是限制只能用cpu2核和2g ram。所以我怀疑商用软件的免费版不见得行。那么postgresqlmysql又应该选哪个呢?看以前大家讨论来去的,似乎应该是前者?不过这些免费的软件能承受如此之大的数据量吗? 实在不行我只有写二进制文件自己检索了,但是这样代码量就上来了。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享 分享淘帖 支持支持 反对反对

共 1 个关于本帖的回复 最后回复于 2013-7-16 14:22

沙发
淡写轻描 新来的 发表于 2013-7-16 14:22:58 | 只看该作者
研发埠培训中心
Postgres表示1亿数据很正常,不过通常需要分区实现。postgres的限制,不过一般的OLTP上足够用了:Limit   Value   Maximum Database Size   Unlimited   Maximum Table Size   32 TB   Maximum Row Size   1.6 TB   Maximum Field Size   1 GB   Maximum Rows per Table   Unlimited   Maximum Columns per Table   250 - 1600 depending on column  types   Maximum Indexes per Table   Unlimited   CPU,内存啥的没限制,而且能力强的可以修改源码调整。Mysql不熟
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注我们

360网站安全检测平台