Cassandra新特性:分层压缩

Cassandra的数据模型借鉴自Google的BigData模型,简单来说就是将写操作放在一个内存块中,当内存块大小达到一定大小时,将内存中的数据排序后写成一个sstable文件,而这种方式会有一些问题,本文介绍了一种新的压缩方法,借鉴自LevelDB。

Cassandra1.0改进:数据压缩

Cassandra 1.0 提供了基于ColumnFamily的数据压缩,这也是一个人民群众呼声很高的功能。压缩功能能够有效地减少数据体积,同时也能减少磁盘I/O,特别是对那些读多的应用场景。

MongoSpy, MongoWatch及MongoDB数据压缩

本文源自openmymind博客的一篇文章,文中作者介绍了两个自己用Node.JS写的MongoDB监控小工具,MongoSpy和MongoWatch,然后提出了在对MongoDB进行文本存储时使用压缩以节约空间的设想。

MongoDB2.0.0-RC0版本发布

今天MongoDB刚刚发布了其第一个2.* 版本:MongoDB2.0.0-RC0,也发布了2.0版本的Release Notes,其中很多新功能和改进非常值得期待。下面NoSQLFan为大家细数。

Couchbase2.0 性能将大幅提升

Couchbase官方博客今天发文称,Couchbase2.0的preview版本已经可以测试了,本版本进行了两个重要的改进,导致性能大幅提升。

图形化理解 HBase 数据写操作、压缩操作过程

HBase 写数据的过程是:先写到内存中(memstore),当内存中的数据达到一定大小,将内存中的数据一次性flush到磁盘上形成数据文件。期间对每一次写操作,都会记一个持久化的日志。那些 flush 到磁盘上的文件,会定时进行压缩。下图形像地说明这一系列过程: