• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 183,  comments - 10,  trackbacks - 0

            搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。
            假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。


            先統計所有查詢的次數,所有查詢有 300 萬個,255 * 300 * 10000B = 765 MB,可以存入內存。這里使用 STL 中的 map。所得時間復雜度為 O(NlogM),N 為所有的查詢,包括重復的,M 為不重復的查詢。更好的方法是用散列。

            然后遍歷 map,維護一個大小為 10 的集合,在遍歷 map 時,比較當前查詢的出現次數與集合中出現次數最小的查詢的出現此時比較,如果大于,將當前查詢替換到集合中。
            這里的集合還是用的 map,時間復雜度為 O(MlogK),這里 K = 10。

            總的時間復雜度為 O(NlogM) + O(MlogK)


            也可以將這個過程合二為一。即每次在統計的過程中,查詢大小為 K 的集合。如果符合條件,則將當前查詢替換到集合中。但是還要考慮實時更新集合中的元素。
            這種方法的時間復雜度為 O(N(logM + logK + K))。

            由于第二種方法還得考慮實時更新。效率遠沒有第一種方案高。

            實現:

             1 #include <iostream>
             2 #include <fstream>
             3 #include <map>
             4 #include <string>
             5 using namespace std;
             6 
             7 void statistics(map<stringint>& data, const string& query)
             8 {
             9     ++data[query];
            10 }
            11 
            12 void findTopK(multimap<intstring>& topK, int k, const map<stringint>& data)
            13 {
            14     topK.clear();
            15     for (map<stringint>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            16     {
            17         if (topK.size() < k)
            18         {
            19             topK.insert(make_pair(cit->second, cit->first));
            20         }
            21         else
            22         {
            23             if (cit->second > topK.begin()->first)
            24             {
            25                 topK.erase(topK.begin());
            26                 topK.insert(make_pair(cit->second, cit->first));
            27             }
            28         }
            29     }
            30 }
            31 
            32 int main()
            33 {
            34     ifstream fin("queryfile.txt");
            35     map<stringint> data;
            36     multimap<intstring> top10;
            37     string query;
            38     while (getline(fin, query))
            39     {
            40         statistics(data, query);
            41     }
            42 
            43     //for (map<string, int>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            44     //{
            45     //    cout << cit->first << '\t' << cit->second << endl;
            46     //}
            47 
            48     //cout << endl;
            49     findTopK(top10, 10, data);
            50 
            51     for (multimap<intstring>::const_reverse_iterator cit = top10.rbegin(); cit != top10.rend(); ++cit)
            52     {
            53         cout << cit->second << '\t' << cit->first << endl;
            54     }
            55 
            56     return 0;
            57 }

            http://blog.donews.com/jiji262/2011/03/baidu_top_k_interview/
            http://blog.redfox66.com/post/2010/09/23/top-k-algoriyhm-analysis.aspx
            http://blog.csdn.net/jasonblog/archive/2010/08/19/5825026.aspx
            posted on 2011-04-30 18:06 unixfy 閱讀(201) 評論(0)  編輯 收藏 引用
            国产精品永久久久久久久久久| 久久成人国产精品一区二区| 欧美激情一区二区久久久| 久久无码AV中文出轨人妻| 国产三级久久久精品麻豆三级| 嫩草影院久久国产精品| 成人综合久久精品色婷婷| 久久夜色tv网站| 人妻精品久久无码专区精东影业| 日本一区精品久久久久影院| 国内高清久久久久久| 久久久久黑人强伦姧人妻| 无码日韩人妻精品久久蜜桃| 亚洲精品tv久久久久| 99久久精品国产一区二区| 久久香蕉国产线看观看精品yw| 久久精品国产一区二区三区| 久久777国产线看观看精品| 久久亚洲sm情趣捆绑调教| 久久www免费人成看国产片| 国产V综合V亚洲欧美久久| 精品国产99久久久久久麻豆| 久久男人AV资源网站| 久久九九青青国产精品| 国产精品美女久久久久网| 久久国产乱子伦免费精品| 亚洲精品tv久久久久久久久| 精品国产乱码久久久久久人妻| 四虎影视久久久免费观看| 久久丝袜精品中文字幕| 久久伊人色| 久久亚洲精品无码VA大香大香| 波多野结衣久久一区二区| 一级女性全黄久久生活片免费 | 色综合久久久久综合99| 久久黄色视频| 久久只有这里有精品4| 一本一道久久a久久精品综合| 热久久最新网站获取| 亚洲中文字幕无码久久2020| 久久久久久夜精品精品免费啦|