• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            服務器程序可以使用以下腳本

            1、 wow大規(guī)模的使用lua,已經導致lua成為網絡游戲領域第一大腳本語言,速度和簡潔性是它的突出特點,豐富的包裝庫也使得它的使用很簡單,但庫偏少和沒有完整的面向對象特性也導致它不優(yōu)雅,有的時候需要自己包裝太多東西,總之還不是一個完美的東西。Tcc, python等也是服務器腳本的可選語言,tcc速度更快,python庫豐富。

            2、 我一直說server程序的開發(fā)可類比web領域的開發(fā),web提供了豐富的腳本,如phpc#等,在一般的server程序里面集成php也是很容易的,php提供了豐富的庫,如果要開發(fā)和web交互頻繁的程序那么php的優(yōu)勢就更明顯了,使用php也可以跟php作為普通web腳本一樣有幾個選擇,如可當作進程內模塊使用、也可以當作cgi使用,也可以當做fastcgi使用,不過作為普通服務器程序和一般的web程序還是有一些區(qū)別的,主要有兩個區(qū)別,那就是web是無狀態(tài)的,一般的server可能有狀態(tài)也可能無狀態(tài),但大多都是有狀態(tài)的,第二個不同就是web支持的是http協(xié)議,而一般的網游支持的是自定義協(xié)議,用phpserver端腳本除了這兩個地方要注意之外就和在web上使用沒多大區(qū)別了。包裝好和主模塊的交互就一切搞定了。

            3、 2可知道,不僅僅是php可作為server程序的腳本,c#包括所有.Net平臺支持的語言都可以作為server程序的腳本,c#隨著4.0的發(fā)布已經成為.net平臺上的首選語言,優(yōu)雅的語法和高效的性能讓它激動人心,比php lua等高級了許多,也高效了許多,說它是明星語言一點不過分,如果server可以在.net平臺上,那么c#幾乎是最優(yōu)的腳本語言,同理vb.net c/clr等只要是.net平臺支持的語言也都可以作為腳本,最典型的支持我們可以從sqlserver了解到,sqlserver支持clr型存儲過程,這就是將.net作為腳本的典范啊。

            4、 其實最簡單的使用dll動態(tài)裝入模型也可支持server端的靈活性,而且兼顧了效率,最簡單的處理可以這樣,每次調用dll部分的時候都LoadLibrary,用完之后FreeLibrary,雖然這樣損失了效率,但靈活性比較好,要更新也很容易,當然如果管理到僅在dll更新的時候才重新裝入可讓效率更高,總之這種模型雖然沒有什么人在使用,但其實不失為一種很有效的模型,開發(fā)效率和執(zhí)行效率都比較高,雖然看上去不如用腳本那么優(yōu)雅。

            posted @ 2010-10-03 14:13 袁斌 閱讀(372) | 評論 (0)編輯 收藏

            從2004年使用iocp開始,嘗試過很多種client生存期管理,最初使用
            一個鎖userlock,在sendcomp和recvcomp以及senddata等都用一個鎖,而且是
            進去的地方就開始鎖,這種方式最簡單,也產生了最初的版本,之后為
            追求更高效率,慢慢演變?yōu)槭褂脙蓚€鎖,readlock和writelock,再之后
            演變?yōu)閟end使用一個鎖,recv使用interlockedxxx,再之后演變?yōu)?br>send使用一個cs鎖和一個sending,recv使用一個ref,經歷了如此多種演變。

            1、一個鎖userlock, sendcomp recvcomp senddata都用這個鎖。
            2、兩個鎖,userlock, sendlock
            3、一個鎖userlock+socket查找,鎖范圍比1小,多一次全局查找操作。
            4、一個鎖sendlock,一個ref(InterlockedXXX)
               wsasend wsarecv 對象生存期等都用ref計數(shù)
            5、一個鎖sendlock和一個sending(InterlockedXXX),一個ref(InterlockedXXX)
               wsasend用sending計數(shù),wsarecv等用ref計數(shù)

            歷經如此幾個版本的修改,鎖的范圍越來越小,interlocked次數(shù)越來越少,反應自然
            越來越快。
            今天為了寫總結文章,拿1 4 5進行了一次比較,1除了大量連接的時候比4 5 反應
            慢了很多之外在cpu mem等占用方面幾乎和4 5 相當,也就是說除了實時性方面差一些
            其他方面沒有太大差別。
            但4 5都是用到了線程級別的內存池,1的測試例程還是用老的內存池,這個差別也
            很大,所以綜合地看,雖然做了很多優(yōu)化卻是花費80%的時間,做了20%的鳥事。

            posted @ 2010-10-03 14:12 袁斌 閱讀(238) | 評論 (0)編輯 收藏

            執(zhí)行100w次的結果(單位:微妙)
            ------------------------------------------------------------------------------------
            線程 volatile讀 volatile寫 InterlockedInc  CS SRWLock共享 SRWLock獨占 互斥量
              1     8            8               35                 66      66                       67       1060
              2     8           76             153                268    134                   148      11082
              4     9           145           361                768    244                   307      23785


            volatile讀 long lvalue = gv_value;

            volatile寫 gv_value = 0;

            InterlockedIncrement(&gv_value);

            EnterCriticalSection(&cs);
            gv_value = 0;
            LeaveCriticalSection(&cs);

            AcquireSRWLockShared/Exclusive(&g_srwlock);
            gv_value = 0;
            ReleaseSRWLockShared/Exclusive(&g_srwlock);

            WaitForSingleObject(&g_hMutex, INFINITE);
            gv_value = 0;
            RleaseMutex(g_hMutex);

            如果希望應用程序獲得最佳性能,那么首先應該嘗試不要共享數(shù)據(jù),然后依次使用
            volatile讀取,volatile寫入,Interlocked API, SRWLock以及關鍵段,當前僅當
            所有這些都不滿足要求的時候再使用內核對象。

            來自Jeffrey Riched《windows核心編程(5)》的數(shù)據(jù),錄在這里備查。

            posted @ 2010-10-03 14:12 袁斌 閱讀(263) | 評論 (0)編輯 收藏

            5、線程關聯(lián)內存池再提速

             

             

            上一節(jié)已經提到問題,解決辦法是這樣的

            struct tm_bufunit

            {

                    tm_pool *pool;                        //pool指針

                    union

                    {

                            tm_bufunit *next;   //下一個塊指針

                            char data[4];           //數(shù)據(jù)區(qū)域

                    };

            };

             

            static void *tm_malloc(size_t size, size_t *osize=NULL)

            {

                    tm_bufunit *p = (tm_bufunit *)malloc(sizeof(tm_bufunit)-offsetof(tm_bufunit, data)+size);

                    if(p)

                    {

                            p->pool = NULL;

                            if(osize) *osize = size;

                            return p->data;

                    }

                    return      NULL;

            }

            看上面的代碼應該很容易明白,就是將由該池malloc的內存塊也打上統(tǒng)一的標記,這樣由該池分配的任何內存塊都可用最簡單的判斷釋放,省去了查找線程查找目標池的兩次查詢,不光提速了而且解決了上一節(jié)提到的那個bug

            最終實現(xiàn)的線程關聯(lián)內存池通用分配函數(shù)tm_new大概相當于malloc 15倍左右的速度,定位到pool之后的newobj相當于malloc 45倍左右的速度。通用函數(shù)大致相當于nedmalloc速度的2.6-3倍,直接定位到pool的分配速度大概相當于dlmalloc 2倍。

             

            關于線程關聯(lián)的內存池還有一些細節(jié)問題我沒有展開討論,如free表是每個線程保留一份還是全局保留一份,如果是全局保留一份則涉及到復用的時候如何分配,還有就是tls系列函數(shù)我看nedmalloc也在用,我第一版也在用,但后來實測發(fā)現(xiàn)這些函數(shù)貌似效率不高,后面的版本沒有采用tls系列函數(shù)。

            關于線程關聯(lián)的內存池我寫了5個版本,當然最重要的還是第一個版本,后面的版本除了這一節(jié)提到的重要改進之外變化不是很大,最后的第五版增了一些和我的私有lib相關的功能。

             

            以前寫文章太少,總是看別人的文章,在網絡時代覺得自己挺自私,這次一鼓作氣,一口氣寫了出來,可能寫得很粗略,不知道有多少人能看明白,如能給讀者一點啟示我將感到很欣慰。

            posted @ 2010-10-03 14:11 袁斌 閱讀(251) | 評論 (0)編輯 收藏

            4、線程關聯(lián)的內存池

             

            每每想到單線程下內存池飛一般的速度和多線程下蝸牛一般的速度我就不能原諒自己,為什么差這么多,就不能讓多線程下內存分配更快一點嗎?解決方法有了,那就是讓緩存線程化,各個線程有自己私有的緩存,分配的時候預先從當前線程私有緩存分配,分配空了的時候去全局free表取一組freeunit或直接向系統(tǒng)申請一大塊緩存(各個線程緩存完全獨立),不管具體采用什么方式,速度都大幅度的提高了,雖然還是比單線程下內存池慢了許多,不過比前面提到的多線程內存池以及nedmalloc都要快很多,我的實現(xiàn)大概比nedmalloc1.6 ~ 2倍,離單線程下內存池速度也很近了,只是多了些查找線程id比較線程id等動作而已,基本上達到了自己的目標。

             

            看看第一版線程關聯(lián)內存池的一些代碼:

             

            struct tm_bufunit

            {

                    tm_pool *pool;                        //pool指針

                    union

                    {

                            tm_bufunit *next;   //下一個塊指針

                            char data[4];           //數(shù)據(jù)區(qū)域

                    };

            };

             

            struct tm_gcontrol

            {

                    tm_bufunit *gfree;

                    CRITICAL_SECTION gcs;

             

                    tm_gcontrol() : gfree(NULL) { InitializeCriticalSection(&gcs); }

                    ~tm_gcontrol()        { DeleteCriticalSection(&gcs); }

                    Inline void lock()     { EnterCriticalSection(&gcs); }

                    Inline void unlock() { LeaveCriticalSection(&gcs); }

                    void free(tm_bufunit *buf)

                    {

                            lock();

                            buf->next = gfree;

                            gfree = buf;

                            unlock();

                    }

            };

             

            struct tm_memblock

            {

                    tm_memblock *next;

            };

             

            class tm_pool

            {

            private:

                    size_t bksize;                   //一個分配塊大小

                    size_t onebknum;            //一次分配多少個bksize

                    DWORD thid;                          //線程id

                    tm_bufunit *next;           //pool中自由塊鏈

                    tm_memblock *mbk;              //trunk

                    tm_gcontrol gcontrol;     //全局free

                   

                    friend tm_poolset;

            private:

                    void expand();

             

            public:

                    tm_pool(size_t size, size_t bknum);

                    ~tm_pool();

             

                    void destroy();

                    void *newobj();

                    static void delobj(void *pbuf);

            };

             

            class tm_poolset

            {

            public:

                    tm_poolset();

                    virtual ~tm_poolset();

             

                    //添加分配池

                    bool addpool(size_t size, size_t allocnum);

                    void *newobj(size_t size, size_t *osize=NULL);

                    void delobj(void *pbuf, size_t size);

                    void destroy();

             

                    tm_pool *findpool(size_t size)

                    {

                            TMPOOLS::iterator it = tmpools.lower_bound(size);

                            if(it != tmpools.end())

                                    return it->second;

                            return NULL;

                    }

            protected:

                    typedef std::map<size_t, tm_pool *> TMPOOLS;

                    TMPOOLS tmpools;

            };

             

            //公開的數(shù)據(jù)及函數(shù)

            extern DWORD tm_tlsindex; //tls索引

             

            //app初始化,分配index

            void tm_init();

            void tm_free();

             

            //關聯(lián)到該線程

            void tm_attach();

            void tm_detach();

             

            tm_poolset *tm_getpoolset();

            //添加trunk

            bool tm_addtrunk(size_t size, size_t allocnum);

            //tls相關分配

            void *tm_new(size_t size, size_t *osize=NULL);

            //tls相關釋放

            void tm_del(void *buf, size_t size);

             

             

             

            .cpp代碼如下:

            tm_pool::tm_pool(size_t size, size_t bknum) :

                    next(NULL), mbk(NULL),

                    bksize(size), onebknum(bknum)

            {

                    thid = GetCurrentThreadId();

            }

             

            tm_pool::~tm_pool()

            {

                    destroy();

            }

             

            void tm_pool::destroy()

            {

                    for(tm_memblock *p = mbk; p; )

                    {

                            tm_memblock *q = p->next;

                            free((char *)p);

                            p = q;

                    }

                    mbk = NULL;

                    next = NULL;

            }

             

            void *tm_pool::newobj()

            {

                    if(! next)

                    {

                            gcontrol.lock();

                            if(gcontrol.gfree)

                            {

                                    next = gcontrol.gfree;

                                    gcontrol.gfree = NULL;

                            }

                            gcontrol.unlock();

                    }

                    if(! next)

                    {

                            expand();

                    }

                    tm_bufunit *head = next;

                    next = head->next;

            //     return (void *)head;

                    return (void *)head->data;

            }

             

            void tm_pool::delobj(void *pbuf)

            {

            //     tm_bufunit *head = (tm_bufunit*)(pbuf);

                    tm_bufunit *head = (tm_bufunit *)((char *)pbuf-offsetof(tm_bufunit, data));

                    tm_pool *pool = head->pool;

                    if(pool->thid == GetCurrentThreadId())

                    {

                            head->next = pool->next;

                            pool->next = head;

                    }

                    else

                    {

                            pool->gcontrol.free(head);

                    }

            }

             

            void tm_pool::expand()

            {

                    size_t unitsize = offsetof(tm_bufunit, data) + bksize;

                    size_t size = (unitsize * onebknum + sizeof(tm_memblock));

                    tm_memblock *pbk = (tm_memblock *)malloc(size);

                    pbk->next = mbk;

                    mbk = pbk;

                    tm_bufunit *p = (tm_bufunit*)((char *)pbk+sizeof(tm_memblock));

                    p->pool = this;

                    next = p;

                    for(size_t i=0; i<onebknum-1; ++i)

                    {

                            p->next = (tm_bufunit *)((char *)p+unitsize);

                            p = p->next;

                            p->pool = this;

                    }

                    p->next = NULL;

            }

             

            這一版基本實現(xiàn)了第一步的提速目標,并且每個分配塊還記錄了來自哪個pool,這樣free的時候就省去了查找pool的動作,只是還有一些問題,如何判斷一個內存是來源于malloc的分配還是來源于pool的分配沒有做終結的判斷,而且還留下了一個bug,對于a線程來說,可能只有256512兩個塊的緩存,b線程可能多一個塊1024,這樣a線程分配的1024字節(jié)的內存是用malloc分配,到b線程釋放的時候會調用pool釋放,這個bug將在下一章解決。

            posted @ 2010-10-03 14:10 袁斌 閱讀(324) | 評論 (0)編輯 收藏

                 摘要: 2、多線程內存池   上一節(jié)很簡略的說了下單線程內存池,單線程內存池如果要放在多線程環(huán)境下使用是不安全的,我們需要進行保護,如何保護,最簡單的方法就是加臨界區(qū),云風的實現(xiàn)里面是用原子操作模擬一個臨界區(qū),我實測跟臨界區(qū)性能非常接近,甚至很多時候不如臨界區(qū),所以我就不追求用原子操作模擬臨界區(qū)了,還是直接用臨界區(qū)最簡單。   class CMemPool { publi...  閱讀全文

            posted @ 2010-10-03 13:52 袁斌 閱讀(820) | 評論 (0)編輯 收藏

            1、單線程內存池

             

            內存池的基本思想是大塊向系統(tǒng)申請內存,內部切割為小塊,內部cache之后有選擇的分配,不夠的時候繼續(xù)向系統(tǒng)大塊申請內存,示例代碼如下:

             

            struct tm_memblock

            {

                    tm_memblock *next;

            };

            class tm_pool

            {

                    tm_bufunit *next;           //pool中自由塊鏈

                    tm_memblock *mbk;              //trunk

            };

             

            void *tm_pool::newobj()

            {

                    if(! next)

                    {

                            expand();

                    }

                    tm_bufunit *head = next;

                    next = head->next;

                    return (void *)head;

            }

             

            void tm_pool::delobj(void *pbuf)

            {

                    tm_bufunit *head = (tm_bufunit*)(pbuf);

                    head->next = next;

            next = head;

            }

            詳細實現(xiàn)建議看云風的內存池,我也不過是學習了它的實現(xiàn)而已。

            不要小看了單線程內存池,它是我們走向更復雜應用的基礎,它是我們后面提及的多線程內存池以及線程關聯(lián)內存池的基礎。

            這種單線程的內存池分配釋放速度是很快的,dlmalloc更快近1倍,大約相當于malloc/free50-100(具體倍率視分配的大小而不同,分配小塊倍率小,分配大塊倍率大)

             

            有的朋友可能會考慮使用std::list之類的東西來構建內存池,我奉勸有這種想法的人打住,std::list是效率很低的,此外用一個高層的東西構建底層模塊,總體上屬于本末倒置。

            posted @ 2010-10-03 13:51 袁斌 閱讀(345) | 評論 (0)編輯 收藏

            0、內存池之引言

             

             

            這是關于內存池的一系列簡短文章,當然它不是短期的研究結果,而是長期使用經驗的總結,介紹得可能不會很詳細,一些別人介紹得很細節(jié)的東西我就基本掠過。

            轉載請署名作者:袁斌

             

            內容如下:

            1、 單線程內存池。

            2、 多線程內存池。

            3、 Dlmalloc nedmalloc

            4、 實現(xiàn)線程關聯(lián)的內存池。

            5、 線程關聯(lián)內存池再提速。

             

            關于內存池有一些經典資源可參考,如早期侯杰《池內春秋》,云風(網易核心開發(fā)人員)《我的編程感悟》中提及的內存池,以及許世偉(原金山CTO,現(xiàn)盛大創(chuàng)新院技術專家)關于內存池的系列文章。

             

            可以通過QQ345585946和我討論

            也可加入我的群:41947449 一起討論游戲開發(fā)。

            posted @ 2010-10-03 13:49 袁斌 閱讀(310) | 評論 (0)編輯 收藏

            前些天無意中在網上看到一篇文章,寫的是幾種腳本語言以及c的速度比較,大意是測試下來lua的速度很慢,只相當于c1/60左右,看了一下測試函數(shù),如下(命名版本1):

             

            tkstart = os.clock()

             

            local count = 10000000

            local accumv = 34.5;

            local function iterate (times,accumv)

                if 0 == times then

                    return accumv

                else

                    return iterate (times - 1, accumv + 2)

                end

            end

            print(iterate(count,accumv))

             

            print(os.clock() - tkstart)

             

            這是個迭代調用,理論上這種調用速度不快,所以改寫了一下,命名版本2

             

            tkstart = os.clock()

             

            local i=0.0;

            local function process (ret)

             while(i < 10000000.0) do

             i = i+1.0

             ret = ret + 2.0

             end

             return ret

             

            end

             

            process(34.5)

            print(os.clock() - tkstart)

             

            再改寫了一下,版本3,如下:

             

            tkstart = os.clock()

             

            local i=0.0;

            local function process (ret)

             local t = ret

             while(i < 10000000.0) do

             i = i+1.0

             t = t + 2.0

             end

             return ret

             

            end

             

            process(34.5)

            print(os.clock() - tkstart)

             

            for循環(huán)再改寫了一個版本,版本4,如下:

             

            tkstart = os.clock()

             

            local count = 10000000

            local accumv = 34.5;

            local function calc (times,accumv)

                    local result = accumv

                    for i=1,times do

                            result = result + 2.0

                    end

                    return result

            end

            print(calc(count,accumv))

             

            print(os.clock() - tkstart)

             

            簡單測試耗時如下

            版本1 0.945

            版本2 0.484

            版本3 0.475

            版本4 0.138   編譯成.out跟直接執(zhí)行.lua耗時差不多,沒明顯變化。

            雖然是一個功能很簡單實現(xiàn)也很簡單的lua函數(shù),但速度差別很大,由此可見不同寫法對執(zhí)行效率影響很大,跟版本4差不多的c程序執(zhí)行耗時大約為0.016, lua大致相當于c1/8 - 1/9速度,而不是那篇文章的作者認為的只相當于c1/60

             

            從上面四個不同代碼大致可以看出以下問題:

            1、 迭代算法是很慢的(版本1)。

            2、 While的效率比for慢很多(版本234的比較)。

            3、 臨時變量比參數(shù)效率高(版本23)。

            posted @ 2010-10-03 13:47 袁斌 閱讀(728) | 評論 (0)編輯 收藏

            作者:oldworm  可任意轉載但請指明原始鏈接
            服務器程序最核心的任務之一就是處理一組任務,在處理一組任務的時候最常見的做法是用線程池,最常見的線程池一般是由一組線程等待在一個信號燈上,有一個任務到達后解鎖一個線程,讓該線程去處理任務,線程處理完成后又回歸到線程池,此做法比來一個任務分配一個線程的古老方法效率高了很多,但這也不是線程池的唯一做法,在windows下至少有三種典型線程池,由于實現(xiàn)上的不同效率相差很大,很有必要作一個比較,以便了解在什么情況下用什么線程池。Windows下常見的線程池實現(xiàn)有以下三種方式,分別是:基于信號燈的傳統(tǒng)線程池(以下簡稱:傳統(tǒng)線程池),系統(tǒng)線程池,完成端口線程池,下面分別介紹三種典型的線程池。
             
            傳統(tǒng)線程池
            前面已經提到此線程池的典型做法是讓一組線程等待在同一個信號燈上,一旦任務隊列有新任務加入,池中某線程立刻被喚醒并從任務隊列取出一個任務執(zhí)行,完成后該線程回歸到線程池中。
             
            系統(tǒng)線程池
            系統(tǒng)線程池是由win2000及之后的操作系統(tǒng)提供的,提供了方便的應用線程池的功能,用在以下幾種場合:
            Ø         以異步方式調用方法
            Ø         以一定的時間間隔調用方法
            Ø         當一個內核對象得到通知時,調用方法
            Ø         當一個異步I/O請求完成時,調用方法
             
            完成端口線程池
            將完成端口和一組線程綁定,利用完成端口的排隊和等待機制實現(xiàn),由于操作系統(tǒng)對完成端口有專門的優(yōu)化,我們期待這種模式的線程池有更好的表現(xiàn)。
             
            上面簡單介紹了三種典型線程池,但什么情況下用什么線程池,我們先來測試一下效率,后面再總結。我們的測試方法是使用以上三種典型線程池分別執(zhí)行1000萬小任務,比較執(zhí)行任務的時間,我們用來測試的小任務是如下的一個函數(shù):
            void singletest(void *p)
            {
                   volatile long l = 10;
                   for(int i=0; i<10; i++)
                   {
                          InterlockedIncrement(&l);
                   }
                   TESTNODE *pn = static_cast<TESTNODE *>(p);
                   if(InterlockedDecrement(&pn->tasknum) == 0)
                          SetEvent(gend);
            }
            一旦任務結束,置一個完成事件。為了測試簡單,傳統(tǒng)線程池和完成端口模式線程池都用了一個固定數(shù)目的線程,例子中用的是11,沒有執(zhí)行動態(tài)增減線程之類的調度操作。
             
             
            經測試結果如下表:(耗時單位為毫秒)

             

            測試次數(shù)
            傳統(tǒng)線程池耗時
            系統(tǒng)線程池耗時
            完成端口線程池耗時
            1
            49250
            72234
            20391
            2
            50906
            71266
            20281
            3
            50156
            73000
            20297
            4
            50437
            71157
            20000
            5
            49250
            73078
            19547
            6
            49844
            73156
            19469

             

            耗時比約為:5 : 7 : 2,差別巨大
             
            從上表可以看出,我們平時最習慣使用的傳統(tǒng)線程池效率并不好,連完成端口線程池一半效率都不到,系統(tǒng)提供的線程池則效率更差,由此可以總結如下:

             

            線程池模型
            適用操作系統(tǒng)
            效率
            易用性
            傳統(tǒng)線程池
            任意
            較麻煩,大多數(shù)人寫不出好的線程池
            系統(tǒng)線程池
            Win2000之后
            最簡單
            完成端口線程池
            Win2000之后
            較簡單

             

            當然不是說系統(tǒng)提供的線程池一無是處,很多時候我們還是可以選擇使用系統(tǒng)線程池的,畢竟它的使用是最簡單的,只是需要最高效率的時候換個選擇,大多數(shù)對效率要求不是特別高的場合或你要使用TimerQueue、RegisterWaitForSingleObject、完成端口例程等的時候必須要使用系統(tǒng)線程池,如果不考慮9x系統(tǒng)和nt,那么還是不要使用自己寫的基于信號燈方式的傳統(tǒng)線程池吧,既沒效率也不簡單。當然如果要考慮在各種平臺下都通用,那么基于信號燈方式的傳統(tǒng)線程池幾乎是不二之選。
             
            至于以上三種線程池效率差別為什么會這么大,我想各位看過這個數(shù)據(jù)的都會考慮,具體原因我將另文闡述。
             
             
            測試代碼如下:
            // CompareThreadpool.cpp : Defines the entry point for the console application.
            //
            #include "stdafx.h"
            #include "CompareThreadpool.h"
            #include "threadpool.h"
            #include "threadgroup.h"
             
            #ifdef _DEBUG
            #define new DEBUG_NEW
            #undef THIS_FILE
            static char THIS_FILE[] = __FILE__;
            #endif
             
            /////////////////////////////////////////////////////////////////////////////
            // The one and only application object
             
            CWinApp theApp;
            using namespace std;
             
            HANDLE gend = INVALID_HANDLE_VALUE;
            HANDLE giocp = INVALID_HANDLE_VALUE;
             
             
            /**
                   該例子用來比較測試三種線程池,分別是:
                   我自己的線程池
                   系統(tǒng)提供的線程池
                   標準的完成端口模型
                   @author oldworm / oldworm@21cn.com
                   2007.5.22
            */
             
            struct TESTNODE
            {
                   volatile long tasknum;    //任務總數(shù)目
                   DWORD start;                     //任務開始時間
                   DWORD end;                      //任務結束時間
            };
             
            void singletest(void *p)
            {
                   volatile long l = 10;
                   for(int i=0; i<10; i++)
                   {
                          InterlockedIncrement(&l);
                   }
                   TESTNODE *pn = static_cast<TESTNODE *>(p);
                   if(InterlockedDecrement(&pn->tasknum) == 0)
                          SetEvent(gend);
            //     printf("num=%u, th=%u\r\n", pn->tasknum, GetCurrentThreadId());
            }
             
            void mythreadpool(void *p)
            {
                   singletest(p);
            }
             
            DWORD WINAPI workitemfunc(void *param)
            {
                   singletest(param);
                   return 0;
            }
             
            void thgroupfunc(void *pgroup, void *param)
            {
            //     CThreadGroup *pg = static_cast<CThreadGroup *>(pgroup);
                   DWORD dwbyte;
                   TESTNODE *tn = NULL;
                   LPOVERLAPPED pov;
             
                   while(1)
                   {
                          GetQueuedCompletionStatus(giocp, &dwbyte, (LPDWORD)&tn, (LPOVERLAPPED*)&pov, INFINITE);
                          if(!tn) break;
                          singletest((void *)tn);
                   }
            }
             
            int _tmain(int argc, TCHAR* argv[], TCHAR* envp[])
            {
                   const int THREADS = 11;
                   const int TASKNUMS = 10000000;
                   CThreadPool tp(THREADS);
                   CThreadGroup tg;
                   TESTNODE tn;
                   int i;
             
                   gend = CreateEvent(NULL, FALSE, FALSE, NULL);
             
                   printf("線程池效率比較,分別執(zhí)行%u個小任務\r\n", TASKNUMS);
             
                   //自己線程池方式
                   tn.start = GetTickCount();
                   tn.tasknum = TASKNUMS;
                   for(i=0; i<TASKNUMS; i++)
                   {
                          tp.Call(mythreadpool, &tn);
                   }
                   WaitForSingleObject(gend, INFINITE);
                   tn.end = GetTickCount();
             
                   printf("mythreadpool方式總耗時: %u\r\n", tn.end-tn.start);
             
             
                   ////////////////////////////////////////////
                   //系統(tǒng)線程池方式
                   tn.start = GetTickCount();
                   tn.tasknum = TASKNUMS;
                   for(i=0; i<TASKNUMS; i++)
                   {
                          QueueUserWorkItem(workitemfunc, &tn, WT_EXECUTEDEFAULT);
                   }
                   WaitForSingleObject(gend, INFINITE);
                   tn.end = GetTickCount();
             
                   printf("系統(tǒng)線程池方式總耗時: %u\r\n", tn.end-tn.start);
             
             
                   ////////////////////////////////////////////
                   //完成端口形式
                   tn.start = GetTickCount();
                   tn.tasknum = TASKNUMS;
                   giocp = CreateIoCompletionPort(INVALID_HANDLE_VALUE, NULL, 0, 0);
                   for(i=0; i<THREADS; i++)
                   {
                          tg.AddThread(thgroupfunc, NULL);
                   }
                   tg.Start();
                   for(i=0; i<TASKNUMS; i++)
                   {
                          PostQueuedCompletionStatus(giocp, 0, (DWORD)&tn, NULL);
                   }
                   WaitForSingleObject(gend, INFINITE);
                   for(i=0; i<THREADS; i++)
                   {
                          PostQueuedCompletionStatus(giocp, 0, NULL, NULL);
                   }
                   tn.end = GetTickCount();
             
                   printf("完成端口方式總耗時: %u\r\n", tn.end-tn.start);
             
                   CloseHandle(giocp);
                   CloseHandle(gend);
             
                   return 0;
            }

            posted @ 2010-10-03 13:46 袁斌 閱讀(688) | 評論 (0)編輯 收藏

            僅列出標題
            共4頁: 1 2 3 4 
            久久国产精品久久国产精品| 麻豆一区二区99久久久久| 99久久综合狠狠综合久久止| 久久免费的精品国产V∧| 国产亚洲精品美女久久久| 国产一级做a爰片久久毛片| 国产精品亚洲美女久久久| 亚洲AⅤ优女AV综合久久久| 亚洲综合熟女久久久30p| 久久精品国产秦先生| 日韩va亚洲va欧美va久久| 男女久久久国产一区二区三区 | 国产精品久久久久久久人人看| 久久久久久国产精品无码下载 | 久久偷看各类wc女厕嘘嘘| 久久91精品国产91久久麻豆| 久久最新免费视频| 欧美精品一区二区精品久久| 91麻豆国产精品91久久久| 国产精品免费看久久久香蕉| 伊人久久精品无码av一区| 久久久久婷婷| 久久国产乱子精品免费女| 亚洲av成人无码久久精品| 一个色综合久久| 久久99国内精品自在现线| 久久婷婷色香五月综合激情| 日韩一区二区久久久久久| 久久精品中文无码资源站| 无码人妻少妇久久中文字幕 | 色妞色综合久久夜夜| 九九久久精品无码专区| 无码AV波多野结衣久久| 思思久久精品在热线热| 亚洲色欲久久久久综合网 | 天堂久久天堂AV色综合| 性欧美丰满熟妇XXXX性久久久 | 亚洲国产精品无码久久九九| 久久精品国产精品亚洲艾草网美妙| 国产精品久久久亚洲| 97精品伊人久久大香线蕉app|