58同城數據庫架構設計思路

gxw6 9年前發布 | 16K 次閱讀 架構

58同城數據庫架構設計思路

58和趕集合并了,但是針對于58同城這類分類信息網站的數據量一定會非常大,但是他們的數據庫架構又有多少人了解呢?


(1)可用性設計

解決思路:復制+冗余

副作用:復制+冗余一定會引發一致性問題

保證“讀”高可用的方法:復制從庫,冗余數據,如下圖


帶來的問題:主從不一致

解決方案:見下文


保證“寫”高可用的一般方法雙主模式,即復制主庫(很多公司用單master,此時無法保證寫的可用性),冗余數據,如下圖


帶來的問題:雙主同步key沖突,引不一致

解決方案:

a)方案一:由數據庫或者業務層保證key在兩個主上不沖突

b)方案二:見下文


58同城保證“寫”高可用的方法“雙主”當“主從”用,不做讀寫分離,在“主”掛掉的情況下,“從”(其實是另外一個主),頂上,如下圖


優點:讀寫都到主,解決了一致性問題;“雙主”當“主從”用,解決了可用性問題

帶來的問題:讀性能如何擴充?解決方案見下文


(2)讀性能設計:如何擴展讀性能

最常用的方法是,建立索引

建立非常多的索引,副作用是:

a)降低了寫性能

b)索引占內存多了,放在內存中的數據就少了,數據命中率就低了,IO次數就多了

但是否想到,不同的庫可以建立不同的索引呢?如下圖


TIPS:不同的庫可以建立不同索引

主庫只提供寫,不建立索引

online從庫只提供online讀,建立online讀索引

offline從庫只提供offline讀,建立offline讀索引


提高讀性能常見方案二,增加從庫

上文已經提到,這種方法會引發主從不一致問題,從庫越多,主從時延越長,不一致問題越嚴重

這種方案很常見,但58沒有采用


提高讀性能方案三,增加緩存

傳統緩存的用法是:

a)發生寫請求時,先淘汰緩存,再寫數據庫

b)發生讀請求時,先讀緩存,hit則返回,miss則讀數據庫并將數據入緩存(此時可能舊數據入緩存),如下圖


帶來的問題:

a)如上文所述,數據復制會引發一致性問題,由于主從延時的存在,可能引發緩存與數據庫數據不一致

b)所有app業務層都要關注緩存,無法屏蔽“主+從+緩存”的復雜性


58同城緩存使用方案:服務+數據+緩存


好處是:

1)引入服務層屏蔽“數據庫+緩存”

2)不做讀寫分離,讀寫都到主的模式,不會引發不一致


(3)一致性設計

主從不一致解決方案

方案一:引入中間件


中間件將key上的寫路由到主,在一定時間范圍內(主從同步完成的經驗時間),該key上的讀也路由到主


方案二:讀寫都到主

上文已經提到,58同城采用了這種方法,不做讀寫分離,不會不一致


數據庫與緩存不一致解決方案

兩次淘汰法

異常的讀寫時序,或導致舊數據入緩存,一次淘汰不夠,要進行二次淘汰

a)發生寫請求時,先淘汰緩存,再寫數據庫,額外增加一個timer,一定時間(主從同步完成的經驗時間)后再次淘汰

b)發生讀請求時,先讀緩存,hit則返回,miss則讀數據庫并將數據入緩存(此時可能舊數據入緩存,但會被二次淘汰淘汰掉,最終不會引發不一致)


(4)擴展性設計

(4.1)58同城秒級別數據擴容

需求:原來水平切分為N個庫,現在要擴充為2N個庫,希望不影響服務,在秒級別完成


最開始,分為2庫,0庫和1庫,均采用“雙主當主從用”的模式保證可用性



接下來,將從庫提升,并修改服務端配置,秒級完成擴庫

由于是2擴4,不會存在數據遷移,原來的0庫變為0庫+2庫,原來的1庫變為1庫和3庫

此時損失的是數據的可用性



最后,解除舊的雙主同步(0庫和2庫不會數據沖突),為了保證可用性增加新的雙主同步,并刪除掉多余的數據

這種方案可以秒級完成N庫到2N庫的擴容。


存在的問題:只能完成N庫擴2N庫的擴容(不需要數據遷移),非通用擴容方案(例如3庫擴4庫就無法完成)


(4.2)非指數擴容,數據庫增加字段,數據遷移

方案一:追日志方案

方案二:雙寫方案


(4.3)水平切分怎么切

四類場景覆蓋99%拆庫業務

a)“單key”場景,用戶庫如何拆分: user(uid, XXOO)

b)“1對多”場景,帖子庫如何拆分: tiezi(tid, uid, XXOO)

c)“多對多”場景,好友庫如何拆分: friend(uid, friend_uid, XXOO)

d)“多key”場景,訂單庫如何拆分:order(oid, buyer_id, seller_id, XXOO)


(5)海量數據下,SQL怎么玩

不會這么玩

a)各種聯合查詢

b)子查詢

c)觸發器

d)用戶自定義函數

e)“事務”都用的很少

原因:對數據庫性能影響極大


拆庫后,IN查詢怎么玩[回復“同城”回看(上)篇]

拆庫后,非Partition key的查詢怎么玩[回復“同城”回看(上)篇]

拆庫后,夸庫分頁怎么玩?[回復“同城”回看(上)篇]

問題的提出與抽象:ORDER BY xxx OFFSET xxx LIMIT xxx

單機方案:ORDER BY time OFFSET 10000 LIMIT 100

分庫后的難題如何確認全局偏移量

分庫后傳統解決方案:查詢改寫+內存排序

a)ORDER BY time OFFSET 0 LIMIT 10000+100

b)對20200條記錄進行排序

c)返回第10000至10100條記錄

優化方案一:增加輔助id,以減少查詢量

優化方案二:模糊查詢

a)業務上:禁止查詢XX頁之后的數據

b)業務上:允許模糊返回 => 第100頁數據的精確性真這么重要么?


最后的大招!!!

優化方案三:終極方案,業務無損,查詢改寫與兩段查詢

需求:ORDER BY x OFFSET 10000 LIMIT 4; 如何在分庫下實現(假設分3庫)

步驟一、查詢改寫: ORDER BY x OFFSET 3333 LIMIT 4

[4,7,9,10] <= 1庫返回

[3,5,6,7] <= 2庫返回

[6,8,9,11] <= 3庫返回

步驟二、找到步驟一返回的min和max,即3和11

步驟三、通過min和max二次查詢:ORDER BY x WHERE x BETWEEN 3 AND 11

[3,4,7,9,10] <= 1庫返回,4在1庫offset是3333,于是3在1庫的offset是3332

[3,5,6,7,11] <= 2庫返回,3在2庫offset是3333

[3,5,6,8,9,11] <= 3庫返回,6在3庫offset是3333,于是3在3庫的offset是3331

步驟四、找出全局OFFSET

3是全局offset3332+3333+3331=9996

當當當當,跳過3,3,3,4,于是全局OFFSET 10000 LIMIT 4是[5,5,6,6]


總結:58同城數據庫架構設計思路

(1)可用性,解決思路是冗余(復制)

(1.1)讀可用性:多個從庫

(1.2)寫可用性:雙主模式 or 雙主當主從用(58的玩法)

(2)讀性能,三種方式擴充讀性能

(2.1)增加索引:主從上的索引可以不一樣

(2.2)增加從庫

(2.3)增加緩存:服務+緩存+數據一套(58的玩法)

(3)一致性

(3.1)主從不一致:引入中間層 or 讀寫都走主庫(58的玩法)

(3.2)緩存不一致:雙淘汰來解決緩存不一致問題

(4)擴展性

(4.1)數據擴容:提升從庫,double主庫,秒級擴容

(4.2)字段擴展:追日志法 or 雙寫法

(4.3)水平切分

(單key)用戶庫如何拆分:, user(uid XXOO)

(1對多)帖子庫如何拆分: tiezi(tid, uid, XXOO)

(多對多)好友庫如何拆分: friend(uid, friend_uid, XXOO)

(多key)訂單庫如何拆分:order(oid, buyer_id, seller_id, XXOO)

(5)SQL玩法

(5.0)不這么玩:聯合查詢,子查詢,觸發器,自定義函數,事務

(5.1)IN查詢:分發MR or 拼裝成不同SQL語句

(5.2)非partition key查詢:定位一個庫 or 分發MR

(5.3)夸庫分頁

(5.3.1)修改sql語句,服務內排序

(5.3.2)引入特殊id,減少返回數量

(5.3.3)業務優化,允許模糊查詢

(5.3.4)查詢改寫,二段查詢

來自:http://mp.weixin.qq.com/s?__biz=MjM5ODI5Njc2MA==&mid=205789980&idx=2&sn=f62a429d4ccd7a159148084bad71f54c&scene=2&from=timeline&isappinstalled=0#rd

 本文由用戶 gxw6 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!