• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            陳碩的Blog

            muduo 與 libevent2 吞吐量對比

            libevent 是一款非常好用的 C 語言網(wǎng)絡(luò)庫,它也采用 Reactor 模型,正好可以與 muduo 做一對比。

            本文用 ping pong 測試來對比 muduo 和 libevent2 的吞吐量,測試結(jié)果表明 muduo 吞吐量平均比 libevent2 高 18% 以上,個別情況達到 70%。

            測試對象

            測試環(huán)境與測試方法

            測試環(huán)境與前文《muduo 與 boost asio 吞吐量對比》相同。

            我自己編寫了 libevent2 的 ping pong 測試代碼,地址在 http://github.com/chenshuo/recipes/tree/master/pingpong/libevent/ 。由于這個測試代碼沒有使用多線程,所以本次測試只對比單線程下的性能。

            測試內(nèi)容為:客戶端與服務(wù)器運行在同一臺機器,均為單線程,測試并發(fā)連接數(shù)為 1/10/100/1000/10000 時的吞吐量。

            在同一臺機器測試吞吐量的原因:

            • 現(xiàn)在的 CPU 很快,即便是單線程單 TCP 連接也能把 Gigabit 以太網(wǎng)的帶寬跑滿。如果用兩臺機器,所有的吞吐量測試結(jié)果都將是 100 MiB/s,失去了對比的意義。(或許可以對比哪個庫占的 CPU 少。)
            • 在同一臺機器上測試,可以在 CPU 資源相同的情況下,單純對比網(wǎng)絡(luò)庫的效率。也就是說單線程下,服務(wù)端和客戶端各占滿 1 個 CPU,比較哪個庫的吞吐量高。

            測試結(jié)果

            單線程吞吐量測試,數(shù)字越大越好:

            muduo_libevent_16k

            以上結(jié)果讓人大跌眼鏡,muduo 居然比 libevent 快 70%!跟蹤 libevent2 的源代碼發(fā)現(xiàn),它每次最多從 socket 讀取 4096 字節(jié)的數(shù)據(jù) (證據(jù)在 buffer.c 的 evbuffer_read() 函數(shù)),怪不得吞吐量比 muduo 小很多。因為在這一測試中,muduo 每次讀取 16384 字節(jié),系統(tǒng)調(diào)用的性價比較高。

            buffer.c:#define EVBUFFER_MAX_READ      4096

            為了公平起見,我再測了一次,這回兩個庫都發(fā)送 4096 字節(jié)的消息。

            muduo_libevent_4k

            測試結(jié)果表明 muduo 吞吐量平均比 libevent2 高 18% 以上。

            討論

            由于 libevent2 每次最多從網(wǎng)絡(luò)讀取 4096 字節(jié),大大限制了它的吞吐量。

            posted @ 2010-09-05 19:14 陳碩 閱讀(3476) | 評論 (3)編輯 收藏

            muduo 與 boost asio 吞吐量對比

            muduo (http://code.google.com/p/muduo) 是一個基于 Reactor 模式的 C++ 網(wǎng)絡(luò)庫,我在編寫它的時候并沒有以高并發(fā)高吞吐為主要目標(biāo),但出乎我的意料,ping pong 測試表明,muduo 吞吐量比 boost.asio 高 15% 以上。

            測試對象

            測試環(huán)境

            硬件:DELL 490 工作站,雙路 Intel quad core Xeon E5320 CPU,16G 內(nèi)存

            操作系統(tǒng):Ubuntu Linux Server 10.04.1 LTS x86_64

            編譯器:g++ 4.4.3

            測試方法

            依據(jù) asio 性能測試 http://think-async.com/Asio/LinuxPerformanceImprovements 的辦法,用 ping pong 協(xié)議來測試吞吐量。

            簡單地說,ping pong 協(xié)議是客戶端和服務(wù)器都實現(xiàn) echo 協(xié)議。當(dāng) TCP 連接建立時,客戶端向服務(wù)器發(fā)送一些數(shù)據(jù),服務(wù)器會 echo 回這些數(shù)據(jù),然后客戶端再 echo 回服務(wù)器。這些數(shù)據(jù)就會像乒乓球一樣在客戶端和服務(wù)器之間來回傳送,直到有一方斷開連接為止。這是用來測試吞吐量的常用辦法。

            asio 的測試代碼取自 http://asio.cvs.sourceforge.net/viewvc/asio/asio/src/tests/performance/ ,未作更改。

            muduo 的測試代碼在 0.1.1 軟件包內(nèi),路徑為 examples/pingpong/,代碼如 http://gist.github.com/564985 所示。

            muduo 和 asio 的優(yōu)化編譯參數(shù)均為 -O2 -finline-limit=1000

            $ BUILD_TYPE=release ./build.sh  # 編譯 muduo 的優(yōu)化版本

            我主要做了兩項測試:

            • 單線程測試,測試并發(fā)連接數(shù)為 1/10/100/1000/10000 時的吞吐量。
            • 多線程測試,并發(fā)連接數(shù)為 100 或 1000,服務(wù)器和客戶端的線程數(shù)同時設(shè)為 1/2/3/4。(由于我家里只有一臺 8 核機器,而且服務(wù)器和客戶端運行在同一臺機器上,線程數(shù)大于 4 沒有意義。)

            所有測試中,ping pong 消息的大小均為 16k bytes。測試用的 shell 腳本可從 http://gist.github.com/564985 下載。

            測試結(jié)果

            單線程測試的結(jié)果,數(shù)字越大越好:

            single_thread

            多線程測試的結(jié)果,數(shù)字越大越好:

            multiple_thread_100conn

            image007

            測試結(jié)果表明 muduo 吞吐量平均比 asio 高 15% 以上。

            討論

            muduo 出乎意料地比 asio 性能優(yōu)越,我想主要得益于其簡單的設(shè)計和簡潔的代碼。

            asio 在多線程測試中表現(xiàn)不佳,我猜測其主要原因是測試代碼只使用了一個 io_service,如果改用“io_service per CPU”的話,性能應(yīng)該有所提高。我對 asio 的了解程度僅限于能讀懂其代碼,希望能有 asio 高手編寫“io_service per CPU”的 ping pong 測試,以便與 muduo 做一個公平的比較。

            ping pong 測試很容易實現(xiàn),歡迎其他網(wǎng)絡(luò)庫(ACE、POCO、libevent 等)也能加入到對比中來,期待這些庫的高手出馬。

            posted @ 2010-09-04 16:30 陳碩 閱讀(4823) | 評論 (5)編輯 收藏

            發(fā)布一個基于 Reactor 模式的 C++ 網(wǎng)絡(luò)庫

            發(fā)布一個基于 Reactor 模式的 C++ 網(wǎng)絡(luò)庫

            陳碩 (giantchen_AT_gmail)

            Blog.csdn.net/Solstice

            2010 Aug 30

            本文主要介紹 muduo 網(wǎng)絡(luò)庫的使用。其設(shè)計與實現(xiàn)將有另文講解。

            目錄

            由來 1

            下載與編譯 2

            例子 2

            基本結(jié)構(gòu) 3

            公開接口 4

            內(nèi)部實現(xiàn) 4

            線程模型 5

            結(jié)語 5

            由來

            半年前我寫了一篇《學(xué)之者生,用之者死——ACE歷史與簡評》,其中提到“我心目中理想的網(wǎng)絡(luò)庫”的樣子:

            • 線程安全,支持多核多線程
            • 不考慮可移植性,不跨平臺,只支持 Linux,不支持 Windows。
            • 在不增加復(fù)雜度的前提下可以支持 FreeBSD/Darwin,方便將來用 Mac 作為開發(fā)用機,但不為它做性能優(yōu)化。也就是說 IO multiplexing 使用 poll 和 epoll。
            • 主要支持 x86-64,兼顧 IA32
            • 不支持 UDP,只支持 TCP
            • 不支持 IPv6,只支持 IPv4
            • 不考慮廣域網(wǎng)應(yīng)用,只考慮局域網(wǎng)
            • 只支持一種使用模式:non-blocking IO + one event loop per thread,不考慮阻塞 IO
            • API 簡單易用,只暴露具體類和標(biāo)準庫里的類,不使用 non-trivial templates,也不使用虛函數(shù)
            • 只滿足常用需求的 90%,不面面俱到,必要的時候以 app 來適應(yīng) lib
            • 只做 library,不做成 framework
            • 爭取全部代碼在 5000 行以內(nèi)(不含測試)
            • 以上條件都滿足時,可以考慮搭配 Google Protocol Buffers RPC

            在想清楚這些目標(biāo)之后,我開始第三次嘗試編寫自己的 C++ 網(wǎng)絡(luò)庫。與前兩次不同,這次我一開始就想好了庫的名字,叫 muduo (木鐸),并在 Google code 上創(chuàng)建了項目: http://code.google.com/p/muduo/ 。muduo 的主體內(nèi)容在 5 月底已經(jīng)基本完成,現(xiàn)在我把它開源。

            本文主要介紹 muduo 網(wǎng)絡(luò)庫的使用,其設(shè)計與實現(xiàn)將有另文講解。

            下載與編譯

            下載地址: http://muduo.googlecode.com/files/muduo-0.1.0-alpha.tar.gz

            SHA1 Checksum: 5d3642e311177ded89ed0d15c10921738f8c984c

            Muduo 使用了 Linux 較新的系統(tǒng)調(diào)用,要求 Linux 的內(nèi)核版本大于 2.6.28 (我自己用的是 2.6.32 )。在 Debian Squeeze / Ubuntu 10.04 LTS 上編譯測試通過,32 位和 64 位系統(tǒng)都能使用。

            Muduo 采用 CMake 為 build system,安裝方法:

            $ sudo apt-get install cmake

            Muduo 依賴 Boost,很容易安裝:

            $ sudo apt-get install libboost1.40-dev # 或 libboost1.42-dev

            編譯方法很簡單:

            $ tar zxf muduo-0.1.0-alpha.tar.gz

            $ cd muduo/

            $ ./build.sh

            # 編譯生成的可執(zhí)行文件和靜態(tài)庫文件分別位于 ../build/debug/{bin,lib}

            如果要編譯 release 版,可執(zhí)行

            $ BUILD_TYPE=release ./build.sh

            # 編譯生成的可執(zhí)行文件和靜態(tài)庫文件分別位于 ../build/release/{bin,lib}

            編譯完成之后請試運行其中的例子。比如 bin/inspector_test ,然后通過瀏覽器訪問 http://10.0.0.10:12345/ 或 http://10.0.0.10:12345/proc/status,其中 10.0.0.10 替換為你的 Linux box 的 IP。

            例子

            Muduo 附帶了幾十個小例子,位于 examples 目錄。其中包括從 Boost.Asio、JBoss Netty、Python Twisted 等處移植過來的例子。

            examples

            |-- simple # 簡單網(wǎng)絡(luò)協(xié)議的實現(xiàn)

            |   |-- allinone  # 在一個程序里同時實現(xiàn)下面 5 個協(xié)議

            |   |-- chargen   # RFC 864,可測試帶寬

            |   |-- daytime # RFC 867

            |   |-- discard # RFC 863

            |   |-- echo # RFC 862

            |   |-- time # RFC 868

            |   `-- timeclient # time 協(xié)議的客戶端

            |-- hub # 一個簡單的 pub/sub/hub 服務(wù),演示應(yīng)用級的廣播

            |-- roundtrip # 測試兩臺機器的網(wǎng)絡(luò)延時與時間差

            |-- asio # 從 Boost.Asio 移植的例子

            |   |-- chat # 聊天服務(wù)

            |   `-- tutorial # 一系列 timers

            |-- netty # 從 JBoss Netty 移植的例子

            |   |-- discard # 可用于測試帶寬,服務(wù)器可多線程運行

            |   |-- echo # 可用于測試帶寬,服務(wù)器可多線程運行

            |   `-- uptime # TCP 長連接

            `-- twisted # 從 Python Twisted 移植的例子

                `-- finger # finger01 ~ 07

            基本結(jié)構(gòu)

            Muduo 的目錄結(jié)構(gòu)如下。

            muduo

            |-- base # 與網(wǎng)絡(luò)無關(guān)的基礎(chǔ)代碼,已提前發(fā)布

            `-- net # 網(wǎng)絡(luò)庫

                |-- http # 一個簡單的可嵌入的 web 服務(wù)器

                |-- inspect # 基于以上 web 服務(wù)器的“窺探器”,用于報告進程的狀態(tài)

                `-- poller # poll(2) 和 epoll(4) 兩種 IO multiplexing 后端

            Muduo 是基于 Reactor 模式的網(wǎng)絡(luò)庫,其核心是個事件循環(huán) EventLoop,用于響應(yīng)計時器和 IO 事件。Muduo 采用基于對象(object based)而非面向?qū)ο螅╫bject oriented)的設(shè)計風(fēng)格,其接口多以 boost::function + boost::bind 表達

            Muduo 的頭文件明確分為客戶可見和客戶不可見兩類。客戶可見的為白底,客戶不可見的為灰底。

            inc

            這里簡單介紹各個頭文件及 class 的作用,詳細的介紹留給以后的博客。

            公開接口
            • Buffer 仿 Netty ChannelBuffer 的 buffer class,數(shù)據(jù)的讀寫透過 buffer 進行
            • InetAddress 封裝 IPv4 地址 (end point),注意,muduo 目前不能解析域名,只認 IP
            • EventLoop 反應(yīng)器 Reactor,用戶可以注冊計時器回調(diào)
            • EventLoopThread 啟動一個線程,在其中運行 EventLoop::loop()
            • TcpConnection 整個網(wǎng)絡(luò)庫的核心,封裝一次 TCP 連接
            • TcpClient 用于編寫網(wǎng)絡(luò)客戶端,能發(fā)起連接,并且有重試功能
            • TcpServer 用于編寫網(wǎng)絡(luò)服務(wù)器,接受客戶的連接
            • 在這些類中,TcpConnection 的生命期依靠 shared_ptr 控制(即用戶和庫共同控制)。Buffer 的生命期由 TcpConnection 控制。其余類的生命期由用戶控制。
            • HttpServer 和 Inspector,暴露出一個 http 界面,用于監(jiān)控進程的狀態(tài),類似于 Java JMX。這么做的原因是,《程序員修煉之道》第 6 章第 34 條提到“對于更大、更復(fù)雜的服務(wù)器代碼,提供其操作的內(nèi)部試圖的一種漂亮技術(shù)是使用內(nèi)建的 Web 服務(wù)器”,Jeff Dean 也說“(每個 Google 的服務(wù)器進程)Export HTML-based status pages for easy diagnosis”。
            內(nèi)部實現(xiàn)
            • Channel 是 selectable IO channel,負責(zé)注冊與響應(yīng) IO 事件,它不擁有 file descriptor。它是 Acceptor、Connector、EventLoop、TimerQueue、TcpConnection 的成員,生命期由后者控制。
            • Socket 封裝一個 file descriptor,并在析構(gòu)時關(guān)閉 fd。它是 Acceptor、TcpConnection 的成員,生命期由后者控制。EventLoop、TimerQueue 也擁有 fd,但是不封裝為 Socket。
            • SocketsOps 封裝各種 sockets 系統(tǒng)調(diào)用。
            • EventLoop 封裝事件循環(huán),也是事件分派的中心。它用 eventfd(2) 來異步喚醒,這有別于傳統(tǒng)的用一對 pipe(2) 的辦法。它用 TimerQueue 作為計時器管理,用 Poller 作為 IO Multiplexing。
            • Poller 是 PollPoller 和 EPollPoller 的基類,采用“電平觸發(fā)”的語意。它是 EventLoop 的成員,生命期由后者控制。
            • PollPoller 和 EPollPoller 封裝 poll(2) 和 epoll(4) 兩種 IO Multiplexing 后端。Poll 的存在價值是便于調(diào)試,因為 poll(2) 調(diào)用是上下文無關(guān)的,用 strace 很容易知道庫的行為是否正確。
            • Connector 用于發(fā)起 TCP 連接,它是 TcpClient 的成員,生命期由后者控制。
            • Acceptor 用于接受 TCP 連接,它是 TcpServer 的成員,生命期由后者控制。
            • TimerQueue 用 timerfd 實現(xiàn)定時,這有別于傳統(tǒng)的設(shè)置 poll/epoll_wait 的等待時長的辦法。為了簡單起見,目前用鏈表來管理 Timer,如果有必要可改為優(yōu)先隊列,這樣復(fù)雜度可從 O(n) 降為 O(ln n) (某些操作甚至是 O(1))。它是 EventLoop 的成員,生命期由后者控制。
            • EventLoopThreadPool 用于創(chuàng)建 IO 線程池,也就是說把 TcpConnection 分派到一組運行 EventLoop 的線程上。它是 TcpServer 的成員,生命期由后者控制。

            線程模型

            Muduo 的線程模型符合我主張的 one loop per thread + thread pool 模型。每個線程最多有一個 EventLoop。每個 TcpConnection 必須歸某個 EventLoop 管理,所有的 IO 會轉(zhuǎn)移到這個線程,換句話說一個 file descriptor 只能由一個線程讀寫。TcpConnection 所在的線程由其所屬的 EventLoop 決定,這樣我們可以很方便地把不同的 TCP 連接放到不同的線程去,也可以把一些 TCP 連接放到一個線程里。TcpConnection 和 EventLoop 是線程安全的,可以跨線程調(diào)用。TcpServer 直接支持多線程,它有兩種模式:

            1. 單線程,accept 與 TcpConnection 用同一個線程做 IO。

            2. 多線程,accept 與 EventLoop 在同一個線程,另外創(chuàng)建一個 EventLoopThreadPool,新到的連接會按 round-robin 方式分配到線程池中。

            結(jié)語

            Muduo 是我對常見網(wǎng)絡(luò)編程任務(wù)的總結(jié),用它我能很容易地編寫多線程的 TCP 服務(wù)器和客戶端。Muduo 是我業(yè)余時間的作品,代碼估計還有很多 bug,功能也不完善(例如不支持 signal 處理),待日后慢慢改進吧。

            posted @ 2010-08-29 23:42 陳碩 閱讀(12063) | 評論 (20)編輯 收藏

            發(fā)布一個 Linux 下的 C++ 多線程庫

            發(fā)布一個我自己業(yè)余時間編寫的 C++ 多線程庫 for Linux,這個庫只有不到 1000 行源代碼,封裝了 pthreads 的常用功能(互斥器、條件變量、線程),實現(xiàn)了簡單的線程池,并仿照 java concurrent 包編寫了 BlockingQueue 和 CountDownLatch。庫里的每個 class 都提供了使用樣例。

            這個庫的內(nèi)容:

            • 整數(shù)的原子操作, AtomicInt32 和 AtomicInt64
            • 線程,Thread
            • 線程池,ThreadPool
            • 互斥器與條件變量, MutexLock,MutexLockGuard 與 Condition
            • 帶調(diào)用棧信息 (stack trace) 的異常基類,Exception
            • 仿 Java concurrent 的 BlockingQueue 和 CountDownLatch
            • Singleton 與 ThreadLocal

            注:我故意沒有提供信號量 Semaphore 的封裝。將來或許會增加讀寫鎖的封裝,如果我在博客中用到的話。

            Thread 和 ThreadPool 的接口設(shè)計采用了《以 boost::function 和 boost:bind 取代虛函數(shù)》里提倡的風(fēng)格,沒有使用繼承和基類。

            注意,CurrentThread 有一個 thread local 變量 t_threadName,其作用是在調(diào)試和分析 core dump 時打印線程的名稱,例如:

            (gdb) p 'muduo::CurrentThread::t_threadName'
            $4 = 0x4057fe "ThreadPool2"

            MutexLock,MutexLockGuard 與 Condition 的使用請參考《多線程服務(wù)器的常用編程模型》。

            CountDownLatch 的使用樣例見 test/BlockingQueue_test.cc

            git 下載地址: http://github.com/chenshuo/recipes

            瀏覽源代碼: http://github.com/chenshuo/recipes/tree/master/thread/

            這個庫在 Debian Squeeze 和 Ubuntu 10.04 LTS 下編譯測試通過,適用于 x86 和 x86-64 平臺。

            posted @ 2010-08-21 23:47 陳碩 閱讀(9791) | 評論 (37)編輯 收藏

            整合 Google 開源 C++ 代碼

                 摘要: Google 開源了很多優(yōu)秀的 C++ 程序庫,本文介紹如何將其中幾個整合到一起。
            本文涉及的 Google 庫有:
            gflags - 命令行參數(shù)解析。可以完全用命令行來配置應(yīng)用程序,省去配置文件。
            gtest - C++ 單元測試框架
            gmock - C++ 單元測試中用到的 mock
            glog - 日志庫
            protobuf - 高效的網(wǎng)絡(luò)協(xié)議格式
            還有第三方的 libunwind 和 zlib。  閱讀全文

            posted @ 2010-04-17 21:43 陳碩 閱讀(15108) | 評論 (9)編輯 收藏

            對 C++ 歷史的個人觀點

                 摘要: C++ 語言設(shè)計的三大約束,歷史發(fā)展中的謊言與真相。  閱讀全文

            posted @ 2010-04-06 21:34 陳碩 閱讀(8456) | 評論 (25)編輯 收藏

            學(xué)之者生,用之者死——ACE歷史與簡評

                 摘要: ACE 是現(xiàn)代面向?qū)ο缶W(wǎng)絡(luò)編程的鼻祖,確立了許多重要模式,如 Reactor、Acceptor 等,重要到我們甚至覺得網(wǎng)絡(luò)編程就應(yīng)該是那樣的。但為什么 ACE 叫好不叫座?大名鼎鼎卻使用者寥寥?本文談?wù)剰钠湔Q生背景、代碼質(zhì)量等方面談?wù)勎业膫€人觀點。  閱讀全文

            posted @ 2010-03-11 20:34 陳碩 閱讀(6653) | 評論 (4)編輯 收藏

            多線程服務(wù)器的常用編程模型

            本文主要講我個人在多線程開發(fā)方面的一些粗淺經(jīng)驗。總結(jié)了一兩種常用的線程模型,歸納了進程間通訊與線程同步的最佳實踐,以期用簡單規(guī)范的方式開發(fā)多線程程序。萬字長文,慎入,有 PDF 版下載。

            本文 PDF 版下載: http://files.cppblog.com/Solstice/multithreaded_server.pdf


            posted @ 2010-02-12 16:51 陳碩 閱讀(4430) | 評論 (7)編輯 收藏

            當(dāng)析構(gòu)函數(shù)遇到多線程 —— C++ 中線程安全的對象回調(diào)

                 摘要: 編寫線程安全的類不是難事,用同步原語保護內(nèi)部狀態(tài)即可。但是對象的生與死不能由對象自身擁有的互斥器來保護。如何保證即將析構(gòu)對象 x 的時候,不會有另一個線程正在調(diào)用 x 的成員函數(shù)?或者說,如何保證在執(zhí)行 x 的成員函數(shù)期間,對象 x 不會在另一個線程被析構(gòu)?如何避免這種競態(tài)條件是 C++ 多線程編程面臨的基本問題,可以借助 boost 的 shared_ptr 和 weak_ptr 完美解決。這也是實現(xiàn)線程安全的 Observer 模式的必備技術(shù)。全文 1 萬 2 千余字,有 PDF 版下載。  閱讀全文

            posted @ 2010-01-28 08:13 陳碩 閱讀(7081) | 評論 (5)編輯 收藏

            僅列出標(biāo)題
            共6頁: 1 2 3 4 5 6 
            <2013年10月>
            293012345
            6789101112
            13141516171819
            20212223242526
            272829303112
            3456789

            導(dǎo)航

            統(tǒng)計

            常用鏈接

            隨筆分類

            隨筆檔案

            相冊

            搜索

            最新評論

            閱讀排行榜

            評論排行榜

            久久天天躁狠狠躁夜夜躁2014| 99久久免费国产精品热| 国产三级精品久久| 亚洲国产综合久久天堂| 国产精品久久久久久五月尺| 色天使久久综合网天天| 久久不见久久见免费视频7| 国产一久久香蕉国产线看观看 | 中文字幕无码av激情不卡久久| 中文国产成人精品久久不卡| 91久久精一区二区三区大全| 成人a毛片久久免费播放| 久久精品青青草原伊人| 国产99久久九九精品无码| 国产成人综合久久精品红| 99久久国产热无码精品免费久久久久| 久久精品视频91| 漂亮人妻被黑人久久精品| 久久亚洲AV无码西西人体| 99精品国产在热久久| 精品久久久无码人妻中文字幕| 国产L精品国产亚洲区久久| 无码人妻久久久一区二区三区| 精品人妻伦九区久久AAA片69| 人妻无码αv中文字幕久久| 久久午夜福利电影| 91精品日韩人妻无码久久不卡 | 久久久久女教师免费一区| 亚洲精品美女久久777777| 热久久国产欧美一区二区精品| 91视频国产91久久久| 久久精品国产精品亚洲毛片 | 蜜臀久久99精品久久久久久小说| 久久人人爽人人澡人人高潮AV | 欧美日韩久久中文字幕| 久久午夜综合久久| 久久人人爽人爽人人爽av| 色婷婷久久久SWAG精品| 亚洲国产高清精品线久久| 婷婷久久综合九色综合九七| 久久久久无码精品|