500W數據,20Wqps分詞檢索,架構如何設計?
有水友提問:
==
沈哥,我們有個業務,類似于“標題分詞檢索”,并發量非常大,大概20W次每秒,數據量不是很大,大概500W級別,而且數據不會頻繁更新,平均每天更新一次,請問有什么好的方案么?
(相關資料圖)
==
這是一個典型的,短文本分詞搜索的問題,簡單聊聊自己的經驗。
常見的文本檢索方案有哪些?
(1)數據庫LIKE法
將標題數據存放在數據庫中,使用like來查詢,方案非常簡單,能支持簡單的模糊搜索,但不支持分詞。
畫外音:顯然不適用于本例。
(2)數據庫全文檢索法
將標題數據存放在數據庫中,建立全文索引來檢索,方案依然簡單,利用了數據庫的能力,不用額外開發,但性能較低。
畫外音:本例的并發肯定扛不住。
(3)開源方案索引外置法
搭建lucene,solr,ES等開源搜索工具,建立索引,支持分詞,支持數據量和吞吐量的水平擴展。
該方案能夠很好的滿足本例的需求。但是,殺雞焉用牛刀,本例有一些業務特性:文本短,更新不頻繁,如果利用好這兩個特點,能有更巧妙的方案。
畫外音:任何脫離業務的架構設計,都是耍流氓。
針對“更新不頻繁”的特性,可以使用“分詞+DAT”方案。
畫外音:分詞就不多說了。
什么是DAT?
DAT是double array trie的縮寫,是trie樹的一個變體優化數據結構,它在保證trie樹檢索效率的前提下,能大大減少內存的使用,經常用來解決檢索,信息過濾等問題。
畫外音:更具體的,可以Google一下“DAT”,DAT的缺點是,需要提前建立索引,索引不能實時更新。
為什么用trie樹的變種DAT,是否可以直接使用trie樹呢?
trie樹的優點是,索引可以實時更新;不足是,占用內存非常大。
本例索引無需實時更新,無法利用trie樹的優點。但是,如果300W短文本建立好trie樹內存能裝下,則可以使用trie樹,否則只能使用DAT。
普及,什么是trie樹?
trie樹,又稱單詞查找樹,經常用于搜索引擎詞頻統計,短文本檢索,輸入法輸入提示等。
畫外音:什么數據結構適合什么業務場景,一定要爛熟于胸。
它的特點是,能利用字符串的公共前綴來減少查詢時間,最大限度地減少無謂的字符串比較,其查詢時間復雜度只與樹的高度有關,與查詢數據量級無關,因此查詢效率非常高。
畫外音:“時間復雜度與查詢數量級無關”這個太屌了。
例如:上面的trie樹就能夠表示{and, as, at, cn, com}這樣5個標題的集合,可以用來做這5個字符串的詞頻統計,或者檢索。
畫外音:檢索時,節點存儲命中該item的doc_list
分詞之后,是不是需要多次掃描trie樹?
是的。
分詞之后,每個item都要掃描一次trie樹,得到的doc_list
針對“短文本”“500W數據”“不頻繁更新”這些特性,還能使用“分詞+內存hash”方案。
這個方案需要先對索引進行初始化:
對所有短文本進行分詞,以詞的hash為key,doc_id的集合為value。
查詢的過程也很簡單:
對查詢字符串進行分詞,對每個分詞進行hash,直接查詢hash表格得到doc_list
舉個栗子進行說明。
例如:
doc1 : 我愛北京
doc2 : 我愛到家
doc3 : 到家美好
先對短文本進行分詞:
doc1 : 我愛北京 -> 我,愛,北京
doc2 : 我愛到家 -> 我,愛,到家
doc3 : 到家美好 -> 到家,美好
對分詞進行hash,建立hash表:
hash(我) -> {doc1, doc2}
hash(愛) -> {doc1, doc2}
hash(北京) -> {doc1}
hash(到家) -> {doc2, doc3}
hash(美好) -> {doc3}
這樣,所有短文本初始化完畢,與trie樹類似,查詢時間復雜度與文本數據量也沒有關系。
畫外音:只與被分詞后有多少數據量,即hash桶個數有關。
查詢的過程是這樣的:
假如用戶輸入“我愛”,分詞后變為{我,愛},對各個分詞的hash進行內存檢索
hash(我)->{doc1, doc2}
hash(愛)->{doc1, doc2}
然后進行合并,得到最后的查找結果是{doc1, doc2}。
這個方法的優點是,純內存操作,能滿足很大的并發,時延也很低,占用內存也不大,實現非常簡單快速,而且冗余索引很容易水平擴展。
畫外音:做索引高可用也不難,建立兩份一樣的hash索引即可。
它的缺點也很明顯,索引全內存,沒有落地,還是需要在數據庫中存儲固化的短文本數據,如果內存數據全丟失,數據恢復起來會比較慢。
總結
短文本,高并發,支持分詞,不用實時更新的檢索場景,可以使用:
(1)ES,殺雞用牛刀;
(2)分詞+DAT(trie);
(3)分詞+內存hash;
等幾種方式解決。
思路比結論重要,希望大家有收獲。
架構師之路-分享技術思路
相關文章:《并發扣款,如何保證一致性?》《讀擴散,寫擴散,終于講清楚了!》《feed與秒殺,架構方案一樣嗎?》相關閱讀
-
500W數據,20Wqps分詞檢索,架構如何設計?
有水友提問:==沈哥,我們有個業務,類似于“標題分詞檢索”,并發... -
每日消息!程序員副業搞錢的幾種方式
互聯網大環境今年似乎進入到了冰點,直觀感受是身邊一些朋友、前同... -
世界動態:Python使用強制縮進算不算一個敗筆
在CSDN看到一個關于Python之父Guido的采訪,主持人問到Python這門語... -
播報:刷機趣事
這兩天在研究一個Android逆向相關的東西,沒想那么多直接拿手里的An... -
最新消息:吾愛論壇熱搜神器!不看后悔系列
“軟件分享”只分享好玩有趣的黑科技軟件很多兄弟們最急應該都看到... -
天天簡訊:我的零食店!被迫關門
“干貨分享”只分享我自己親身經歷的干貨好久沒有分享我的實體創業...