• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 183,  comments - 10,  trackbacks - 0

            搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。
            假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。


            先統計所有查詢的次數,所有查詢有 300 萬個,255 * 300 * 10000B = 765 MB,可以存入內存。這里使用 STL 中的 map。所得時間復雜度為 O(NlogM),N 為所有的查詢,包括重復的,M 為不重復的查詢。更好的方法是用散列。

            然后遍歷 map,維護一個大小為 10 的集合,在遍歷 map 時,比較當前查詢的出現次數與集合中出現次數最小的查詢的出現此時比較,如果大于,將當前查詢替換到集合中。
            這里的集合還是用的 map,時間復雜度為 O(MlogK),這里 K = 10。

            總的時間復雜度為 O(NlogM) + O(MlogK)


            也可以將這個過程合二為一。即每次在統計的過程中,查詢大小為 K 的集合。如果符合條件,則將當前查詢替換到集合中。但是還要考慮實時更新集合中的元素。
            這種方法的時間復雜度為 O(N(logM + logK + K))。

            由于第二種方法還得考慮實時更新。效率遠沒有第一種方案高。

            實現:

             1 #include <iostream>
             2 #include <fstream>
             3 #include <map>
             4 #include <string>
             5 using namespace std;
             6 
             7 void statistics(map<stringint>& data, const string& query)
             8 {
             9     ++data[query];
            10 }
            11 
            12 void findTopK(multimap<intstring>& topK, int k, const map<stringint>& data)
            13 {
            14     topK.clear();
            15     for (map<stringint>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            16     {
            17         if (topK.size() < k)
            18         {
            19             topK.insert(make_pair(cit->second, cit->first));
            20         }
            21         else
            22         {
            23             if (cit->second > topK.begin()->first)
            24             {
            25                 topK.erase(topK.begin());
            26                 topK.insert(make_pair(cit->second, cit->first));
            27             }
            28         }
            29     }
            30 }
            31 
            32 int main()
            33 {
            34     ifstream fin("queryfile.txt");
            35     map<stringint> data;
            36     multimap<intstring> top10;
            37     string query;
            38     while (getline(fin, query))
            39     {
            40         statistics(data, query);
            41     }
            42 
            43     //for (map<string, int>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            44     //{
            45     //    cout << cit->first << '\t' << cit->second << endl;
            46     //}
            47 
            48     //cout << endl;
            49     findTopK(top10, 10, data);
            50 
            51     for (multimap<intstring>::const_reverse_iterator cit = top10.rbegin(); cit != top10.rend(); ++cit)
            52     {
            53         cout << cit->second << '\t' << cit->first << endl;
            54     }
            55 
            56     return 0;
            57 }

            http://blog.donews.com/jiji262/2011/03/baidu_top_k_interview/
            http://blog.redfox66.com/post/2010/09/23/top-k-algoriyhm-analysis.aspx
            http://blog.csdn.net/jasonblog/archive/2010/08/19/5825026.aspx
            posted on 2011-04-30 18:06 unixfy 閱讀(199) 評論(0)  編輯 收藏 引用
            国产99久久久国产精免费| 亚洲中文字幕无码久久2020| 久久国产精品99久久久久久老狼| 久久99国产精品久久99果冻传媒| 久久91这里精品国产2020| 久久亚洲中文字幕精品一区| 久久精品水蜜桃av综合天堂 | 久久99精品综合国产首页| 99久久久久| 亚洲国产精品久久电影欧美| 国产精品美女久久久免费| 国产偷久久久精品专区| 久久国产综合精品五月天| 久久综合九色综合网站| 日本久久久久久久久久| 国内精品伊人久久久久AV影院| 久久国产乱子伦精品免费午夜| 色欲综合久久躁天天躁蜜桃| 理论片午午伦夜理片久久| 99久久婷婷免费国产综合精品| 欧美亚洲国产精品久久高清| 婷婷综合久久中文字幕| 久久精品国产亚洲精品2020| 久久人人添人人爽添人人片牛牛| 久久精品成人| 国产福利电影一区二区三区久久老子无码午夜伦不 | 久久久久亚洲?V成人无码| 91精品国产高清91久久久久久| 久久久久精品国产亚洲AV无码| 久久强奷乱码老熟女| 国产精品激情综合久久| 伊人久久综在合线亚洲2019| 国产99久久精品一区二区| 久久久久国产精品人妻| 一本色道久久综合狠狠躁篇| 久久播电影网| 久久强奷乱码老熟女网站| 色偷偷91久久综合噜噜噜噜| 亚洲国产日韩欧美综合久久| 久久伊人五月天论坛| 亚洲伊人久久综合影院|