• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            陳碩的Blog

            muduo 與 boost asio 吞吐量對比

            muduo (http://code.google.com/p/muduo) 是一個基于 Reactor 模式的 C++ 網(wǎng)絡(luò)庫,我在編寫它的時候并沒有以高并發(fā)高吞吐為主要目標(biāo),但出乎我的意料,ping pong 測試表明,muduo 吞吐量比 boost.asio 高 15% 以上。

            測試對象

            測試環(huán)境

            硬件:DELL 490 工作站,雙路 Intel quad core Xeon E5320 CPU,16G 內(nèi)存

            操作系統(tǒng):Ubuntu Linux Server 10.04.1 LTS x86_64

            編譯器:g++ 4.4.3

            測試方法

            依據(jù) asio 性能測試 http://think-async.com/Asio/LinuxPerformanceImprovements 的辦法,用 ping pong 協(xié)議來測試吞吐量。

            簡單地說,ping pong 協(xié)議是客戶端和服務(wù)器都實現(xiàn) echo 協(xié)議。當(dāng) TCP 連接建立時,客戶端向服務(wù)器發(fā)送一些數(shù)據(jù),服務(wù)器會 echo 回這些數(shù)據(jù),然后客戶端再 echo 回服務(wù)器。這些數(shù)據(jù)就會像乒乓球一樣在客戶端和服務(wù)器之間來回傳送,直到有一方斷開連接為止。這是用來測試吞吐量的常用辦法。

            asio 的測試代碼取自 http://asio.cvs.sourceforge.net/viewvc/asio/asio/src/tests/performance/ ,未作更改。

            muduo 的測試代碼在 0.1.1 軟件包內(nèi),路徑為 examples/pingpong/,代碼如 http://gist.github.com/564985 所示。

            muduo 和 asio 的優(yōu)化編譯參數(shù)均為 -O2 -finline-limit=1000

            $ BUILD_TYPE=release ./build.sh  # 編譯 muduo 的優(yōu)化版本

            我主要做了兩項測試:

            • 單線程測試,測試并發(fā)連接數(shù)為 1/10/100/1000/10000 時的吞吐量。
            • 多線程測試,并發(fā)連接數(shù)為 100 或 1000,服務(wù)器和客戶端的線程數(shù)同時設(shè)為 1/2/3/4。(由于我家里只有一臺 8 核機器,而且服務(wù)器和客戶端運行在同一臺機器上,線程數(shù)大于 4 沒有意義。)

            所有測試中,ping pong 消息的大小均為 16k bytes。測試用的 shell 腳本可從 http://gist.github.com/564985 下載。

            測試結(jié)果

            單線程測試的結(jié)果,數(shù)字越大越好:

            single_thread

            多線程測試的結(jié)果,數(shù)字越大越好:

            multiple_thread_100conn

            image007

            測試結(jié)果表明 muduo 吞吐量平均比 asio 高 15% 以上。

            討論

            muduo 出乎意料地比 asio 性能優(yōu)越,我想主要得益于其簡單的設(shè)計和簡潔的代碼。

            asio 在多線程測試中表現(xiàn)不佳,我猜測其主要原因是測試代碼只使用了一個 io_service,如果改用“io_service per CPU”的話,性能應(yīng)該有所提高。我對 asio 的了解程度僅限于能讀懂其代碼,希望能有 asio 高手編寫“io_service per CPU”的 ping pong 測試,以便與 muduo 做一個公平的比較。

            ping pong 測試很容易實現(xiàn),歡迎其他網(wǎng)絡(luò)庫(ACE、POCO、libevent 等)也能加入到對比中來,期待這些庫的高手出馬。

            posted on 2010-09-04 16:30 陳碩 閱讀(4818) 評論(5)  編輯 收藏 引用 所屬分類: muduo

            評論

            # re: muduo 與 boost asio 吞吐量對比 2010-09-04 20:23 Cox

            高人,期待后續(xù)大作  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-05 20:08 imjj

            樓主的庫cmake 沒裝上,還沒測試
            ACE 只實現(xiàn)了一個server,client 用的 asio 的
            ./client 127.0.0.1 $p 1 16384 $n 10
            64位 win7 下 virtualbox 中的 ubuntu 10.04 32bit 桌面版,2 CPU 打開了 VT
            ACE 是 5.8.1,reactor 模型, ACE_Dev_Poll_Reactor

            5555 是 ACE 的服務(wù)器 6666 是 aiso 1.45 服務(wù)器

            server:5555 sessions:1
            941965312 total bytes written
            941948928 total bytes read
            server:6666 sessions:1
            1029111808 total bytes written
            1029095424 total bytes read

            server:5555 sessions:10
            2783215616 total bytes written
            2783100928 total bytes read
            server:6666 sessions:10
            2227601408 total bytes written
            2227503104 total bytes read

            server:5555 sessions:100
            1310179328 total bytes written
            1308786688 total bytes read
            server:6666 sessions:100
            981581824 total bytes written
            979976192 total bytes read

            server:5555 sessions:1000
            430227456 total bytes written
            424837120 total bytes read
            server:6666 sessions:1000
            148946944 total bytes written
            143015936 total bytes read

            ACE 源碼如下
            #include <ace/ACE.h>
            #include <ace/Acceptor.h>
            #include <ace/Task.h>
            #include <ace/Svc_Handler.h>
            #include <ace/SOCK_Stream.h>
            #include <ace/SOCK_Acceptor.h>
            #include <ace/INET_Addr.h>
            #include <ace/Reactor.h>
            #include <ace/Dev_Poll_Reactor.h>


            int BLOCKSIZE = 16384;


            class PingHandler : public ACE_Svc_Handler<ACE_SOCK_STREAM, ACE_NULL_SYNCH>
            {
            public:
            PingHandler()
            {
            m_rbuff = NULL;
            ACE_NEW(m_rbuff, ACE_Message_Block(BLOCKSIZE));
            }
            virtual ~PingHandler()
            {
            ACE_Message_Block::release(m_rbuff);
            }

            virtual int handle_input(ACE_HANDLE /*fd*/)
            {
            int ret = 0;
            ssize_t bytes_required = m_rbuff->space();
            ssize_t bytes_read = 0;
            bytes_read = peer().recv(m_rbuff->wr_ptr(), m_rbuff->space());
            if (bytes_read <= 0)
            return -1;
            m_rbuff->wr_ptr(bytes_read);
            if (m_rbuff->space() == 0)
            {
            peer().send(m_rbuff->rd_ptr(), m_rbuff->length());
            m_rbuff->reset();
            }
            return 0;
            }

            protected:
            ACE_Message_Block * m_rbuff;
            };


            typedef ACE_Acceptor<PingHandler, ACE_SOCK_ACCEPTOR> PingAcceptor;

            void usage()
            {
            ACE_DEBUG((LM_DEBUG,
            ACE_TEXT("server <ip> <port> <threads> <blocksize>\n")));
            }

            int ACE_TMAIN(int argc, ACE_TCHAR * argv[])
            {
            if (argc != 5)
            {
            usage();
            return 0;
            }

            ACE_Dev_Poll_Reactor dpr(1024);
            ACE_Reactor r(&dpr);

            const ACE_TCHAR * ip = argv[1];
            u_short port = (u_short)ACE_OS::atoi(argv[2]);
            int threads = ACE_OS::atoi(argv[3]);
            BLOCKSIZE = ACE_OS::atoi(argv[4]);

            PingAcceptor acceptor;
            ACE_INET_Addr addr(port, ip);
            if (acceptor.open(addr, &r) == -1)
            {
            ACE_DEBUG((LM_DEBUG, ACE_TEXT("faield:%p\n")));
            return -1;
            }

            r.run_reactor_event_loop();
            return 0;
            }  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-06 11:59 普派

            謝謝,收藏了  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-10 20:01 陳碩

            @imjj
            希望看到 client 端的 ACE 實現(xiàn)。  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2013-04-27 13:55 yayj

            我修改了下asio的測試代碼,讓每個worker線程使用不同的io_service,但測試結(jié)果與只有一個io_service相比,沒有明顯的改善。所以可能不是io_service的數(shù)量問題。代碼鏈接https://gist.github.com/yayj/5472033, 有使用c++11的unique_ptr  回復(fù)  更多評論   

            <2013年8月>
            28293031123
            45678910
            11121314151617
            18192021222324
            25262728293031
            1234567

            導(dǎo)航

            統(tǒng)計

            常用鏈接

            隨筆分類

            隨筆檔案

            相冊

            搜索

            最新評論

            閱讀排行榜

            評論排行榜

            久久九九亚洲精品| 国产精品久久久久久久久久影院| 97热久久免费频精品99| 国产精品久久久久久影院| 国产成人无码精品久久久免费| 国产精品成人99久久久久91gav| 久久久综合香蕉尹人综合网| 亚洲va中文字幕无码久久| 青青草国产成人久久91网| 欧美日韩成人精品久久久免费看| 婷婷久久香蕉五月综合加勒比| 久久综合久久久| 久久妇女高潮几次MBA| 99久久免费国产精品| 无码久久精品国产亚洲Av影片| 色综合久久最新中文字幕| 久久午夜伦鲁片免费无码| 久久精品无码专区免费| 久久综合九色综合网站| 亚洲成av人片不卡无码久久| 久久99国产精品一区二区| 无码人妻久久一区二区三区蜜桃| 亚洲精品高清久久| 久久精品国产亚洲AV香蕉| 伊人精品久久久久7777| 久久香蕉国产线看观看猫咪?v| 99精品久久精品| 国产亚洲精久久久久久无码77777| 国产精品久久久久乳精品爆| 久久er99热精品一区二区| 国产美女亚洲精品久久久综合| 国内精品伊人久久久久av一坑 | 欧美精品九九99久久在观看| 中文精品久久久久国产网址| 99久久国产宗和精品1上映| 色综合久久天天综线观看| 国产精品xxxx国产喷水亚洲国产精品无码久久一区 | 久久久久亚洲AV无码去区首| 国产精品久久久久9999| 国产69精品久久久久777| 久久这里只有精品18|