mongodb小結

jopen 12年前發布 | 36K 次閱讀 MongoDB NoSQL數據庫 NOSQL

用了一陣子mongodb,作一些小結,作為將來的參考。按照以往的習慣,先作一個總覽,然后再挑出一些自己比較關注的幾個點,作為珠璣,加以串聯闡述。

mongodb由C++寫就,其名字來自humongous這個單詞的中間部分,從名字可見其野心所在就是海量 數據的處理。關于它的一個最簡潔描述為:scalable, high-performance, open source, schema-free, document-oriented database。我對于文檔型數據庫有一些個人的偏好,這種偏好是從半年前研究couchdb而來的,因為我覺得用它來描述一個具有個性化特征的實體對 象正合適,比如網站上的用戶或商品書籍之類的條目。

一些概念:

跟mysqld一樣,一個mongod服務可以有建立多個數據庫,每個數據庫可以有多張表,這里的表名叫collection,每個 collection可以存放多個文檔(document),每個文檔都以BSON(binary json)的形式存放于硬盤中。跟關系型數據庫不一樣的地方是,它是的以單文檔為單位存儲的,你可以任意給一個或一批文檔新增或刪除字段,而不會對其它文 檔造成影響,這就是所謂的schema-free,這也是文檔型數據庫最主要的優點。跟一般的key-value數據庫不一樣的是,它的value中存儲 了結構信息,所以你又可以像關系型數據庫那樣對某些域進行讀寫、統計等操作。可以說是兼備了key-value數據庫的方便高效與關系型數據庫的強大功 能。

索引

跟關系型數據庫類似,mongodb可以對某個字段建立索引,可以建立組合索引、唯一索引,也可以刪除索引。當然建立索引就意味著增加空間開銷,我 的建議是,如果你能把一個文檔作為一個對象的來考慮,在線上應用中,你通常只要對對象ID建立一個索引即可,根據ID取出對象某些數據放在 memcache即可。如果是后臺的分析需要,響應要求不高,查詢非索引的字段即便直接掃表也費不了太多時間。如果還受不了,就再建一個索引得了。

默認情況下每個表都會有一個唯一索引:_id,如果插入數據時沒有指定_id,服務會自動生成一個_id,為了充分利用已有索引,減少空間開銷,最好是自己指定一個unique的key為_id,通常用對象的ID比較合適,比如商品的ID。

capped collection

capped collection是一種特殊的表,它的建表命令為:

db.createCollection("mycoll", {capped:true, size:100000})

允許在建表之初就指定一定的空間大小,接下來的插入操作會不斷地按順序APPEND數據在這個預分配好空間的文件中,如果已經超出空間大小,則回到 文件頭覆蓋原來的數據繼續插入。這種結構保證了插入和查詢的高效性,它不允許刪除單個記錄,更新的也有限制:不能超過原有記錄的大小。這種表效率很高,它 適用于一些暫時保存數據的場合,比如網站中登錄用戶的session信息,又比如一些程序的監控日志,都是屬于過了一定的時間就可以被覆蓋的數據。

復制與分片

mongodb的復制架構跟mysql也很類似,除了包括master-slave構型和master-master構型之外,還有一個 Replica pairs構型,這種構型在平常可以像master-slave那樣工作,一但master出現問題,應用會自動了連接slave。要做復制也很簡單,我 自己使用過master-slave構型,只要在某一個服務啟動時加上–master參數,而另一個服務加上–slave與–source參數,即可實現 同步。

分片是個很頭疼的問題,數據量大了肯定要分片,mysql下的分片正是成為無數DBA的噩夢。在mongodb下,文檔數據庫類似key- value數據庫那樣的易分布特性就顯現出來了,無論構造分片服務,新增節點還是刪除節點都非常容易實現。但mongodb在這方面做還不足夠成熟,現在 分片的工作還只做到alpha2版本(mongodb v1.1),估計還有很多問題要解決,所以只能期待,就不多說了。

性能

在我的使用場合下,千萬級別的文檔對象,近10G的數據,對有索引的ID的查詢不會比mysql慢,而對非索引字段的查詢,則是全面勝出。 mysql實際無法勝任大數據量下任意字段的查詢,而mongodb的查詢性能實在讓我驚訝。寫入性能同樣很令人滿意,同樣寫入百萬級別的數 據,mongodb比我以前試用過的couchdb要快得多,基本10分鐘以下可以解決。補上一句,觀察過程中mongodb都遠算不上是CPU殺手。

GridFS

gridfs是mongodb一個很有趣的類似文件系統的東西,它可以用一大塊文件空間來存放大量的小文件,這個對于存儲web2.0網站中常見的大量小文件(如大量的用戶頭像)特別有效。使用起來也很方便,基本上跟一般的文件系統類似。

用合適的數據庫做適合的事情

mongodb的文檔里提到的user case包括實時分析、logging、全文搜索,國內也有人使用mongodb來存儲分析網站日志,但我認為mongodb用來處理有一定規模的網站日 志其實并不合適,最主要的就是它占空間過于虛高,原來1G的日志數據它可以存成幾個G,如此下去,一個硬盤也存不了幾天的日志。另一方面,數據量大了肯定 要考慮sharding,而mongodb的sharding到現在為止仍不太成熟。由于日志的不可更新性的,往往只需APPEND即可,又因為對日志的 操作往往只集中于一兩列,所以最合適作為日志分析的還是列存儲型的數據庫,特別是像infobright那樣的為數據倉庫而設計的列存儲數據庫。

由于mongodb不支持事務操作,所以事務要求嚴格的系統(如果銀行系統)肯定不能用它。

mongodb占用空間過大的原因,在官方的FAQ中,提到有如下幾個方面:

1、空間的預分配:為避免形成過多的硬盤碎片,mongodb每次空間不足時都會申請生成一大塊的硬盤空間,而且申請的量從64M、128M、 256M那樣的指數遞增,直到2G為單個文件的最大體積。隨著數據量的增加,你可以在其數據目錄里看到這些整塊生成容量不斷遞增的文件。

2、字段名所占用的空間:為了保持每個記錄內的結構信息用于查詢,mongodb需要把每個字段的key-value都以BSON的形式存儲,如果 value域相對于key域并不大,比如存放數值型的數據,則數據的overhead是最大的。一種減少空間占用的方法是把字段名盡量取短一些,這樣占用 空間就小了,但這就要求在易讀性與空間占用上作為權衡了。我曾建議作者把字段名作個index,每個字段名用一個字節表示,這樣就不用擔心字段名取多長 了。但作者的擔憂也不無道理,這種索引方式需要每次查詢得到結果后把索引值跟原值作一個替換,再發送到客戶端,這個替換也是挺耗費時間的。現在的實現算是 拿空間來換取時間吧。

3、刪除記錄不釋放空間:這很容易理解,為避免記錄刪除后的數據的大規模挪動,原記錄空間不刪除,只標記“已刪除”即可,以后還可以重復利用。

4、可以定期運行db.repairDatabase()來整理記錄,但這個過程會比較緩慢。

因為官方文檔中對各方面的內容已經有很詳細的敘述,所以我并沒有再過多的引用原文與代碼,只是結合自己的使用歸納一些心得,有興趣的朋友不妨直接去翻文檔中自己感興趣的問題,超群的博客上有一個很好的入門介紹。

最后總結一句,文檔型數據庫有點像波粒二象性,總能在適當的時候表現出它作為關系型數據庫或key-value數據庫的優勢來。

實戰案例:

昨天我訪問mongodb的python程序開始出錯,經常拋出AssertionError異常,經查證只是master查詢異常,slave正常,可判斷為master的數據出了問題。

修復過程:

1、在master做db.repairDatabase(),不起作用;

2、停止slave的同步;

3、對slave作mongodump,備份數據;

4、對master作mongostore,把備份數據恢復,使用–drop參數可以先把原表刪除。

5、恢復slave的同步。

關于作者
mongodb小結
阿穩, 豆瓣, 算法工程師
推薦系統;數據挖掘;算法架構及實現的可擴展性;R環境編程 如果你的問題已經能從我的博客中得到解答,就最好不過了:http://www.wentrue.net/blog/
</div> </div> </div>
 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!