Netty實現原理淺析

b36g 9年前發布 | 36K 次閱讀 Netty 網絡工具包

原文出處: kafka0102的博客

Netty是JBoss出品的高效的Java NIO開發框架,關于其使用,可參考我的另一篇文章 netty使用初步。本文將主要分析Netty實現方面的東西,由于精力有限,本人并沒有對其源碼做了極細致的研 究。如果下面的內容有錯誤或不嚴謹的地方,也請指正和諒解。對于Netty使用者來說,Netty提供了幾個典型的example,并有詳盡的API doc和guide doc,本文的一些內容及圖示也來自于Netty的文檔,特此致謝。

1、總體結構

 Netty實現原理淺析

先放上一張漂亮的Netty總體結構圖,下面的內容也主要圍繞該圖上的一些核心功能做分析,但對如Container Integration及Security Support等高級可選功能,本文不予分析。

2、網絡模型

Netty是典型的Reactor模型結構,關于Reactor的詳盡闡釋,可參考POSA2,這里不做概念性的解釋。而應用Java NIO構建Reactor模式,Doug Lea(就是那位讓人無限景仰的大爺)在“Scalable IO in Java”中給了很好的闡述。這里截取其PPT中經典的圖例說明 Reactor模式的典型實現:

1、這是最簡單的單Reactor單線程模型。Reactor線程是個多面手,負責多路分離套接字,Accept新連接,并分派請求到處理器鏈中。該模型 適用于處理器鏈中業務處理組件能快速完成的場景。不過,這種單線程模型不能充分利用多核資源,所以實際使用的不多。

 Netty實現原理淺析

2、相比上一種模型,該模型在處理器鏈部分采用了多線程(線程池),也是后端程序常用的模型。

 Netty實現原理淺析

3、 第三種模型比起第二種模型,是將Reactor分成兩部分,mainReactor負責監聽server socket,accept新連接,并將建立的socket分派給subReactor。subReactor負責多路分離已連接的socket,讀寫網 絡數據,對業務處理功能,其扔給worker線程池完成。通常,subReactor個數上可與CPU個數等同。

 Netty實現原理淺析

說完Reacotr模型的三種形式,那么Netty是哪種呢?其實,我還有一種Reactor模型的變種沒說,那就是去掉線程池的第三種形式的變種,這也 是Netty NIO的默認模式。在實現上,Netty中的Boss類充當mainReactor,NioWorker類充當subReactor(默認 NioWorker的個數是Runtime.getRuntime().availableProcessors())。在處理新來的請求 時,NioWorker讀完已收到的數據到ChannelBuffer中,之后觸發ChannelPipeline中的ChannelHandler流。

Netty是事件驅動的,可以通過ChannelHandler鏈來控制執行流向。因為ChannelHandler鏈的執行過程是在 subReactor中同步的,所以如果業務處理handler耗時長,將嚴重影響可支持的并發數。這種模型適合于像Memcache這樣的應用場景,但 對需要操作數據庫或者和其他模塊阻塞交互的系統就不是很合適。Netty的可擴展性非常好,而像ChannelHandler線程池化的需要,可以通過在 ChannelPipeline中添加Netty內置的ChannelHandler實現類–ExecutionHandler實現,對使用者來說只是 添加一行代碼而已。對于ExecutionHandler需要的線程池模型,Netty提供了兩種可 選:1) MemoryAwareThreadPoolExecutor 可控制Executor中待處理任務的上限(超過上限時,后續進來的任務將被阻 塞),并可控制單個Channel待處理任務的上限;2) OrderedMemoryAwareThreadPoolExecutor 是 MemoryAwareThreadPoolExecutor 的子類,它還可以保證同一Channel中處理的事件流的順序性,這主要是控制事件在異步處 理模式下可能出現的錯誤的事件順序,但它并不保證同一Channel中的事件都在一個線程中執行(通常也沒必要)。一般來 說,OrderedMemoryAwareThreadPoolExecutor 是個很不錯的選擇,當然,如果有需要,也可以DIY一個。

3、 buffer

org.jboss.netty.buffer包的接口及類的結構圖如下:

 Netty實現原理淺析

該包核心的接口是ChannelBuffer和ChannelBufferFactory,下面予以簡要的介紹。

Netty使用ChannelBuffer來存儲并操作讀寫的網絡數據。ChannelBuffer除了提供和ByteBuffer類似的方法,還提供了 一些實用方法,具體可參考其API文檔。ChannelBuffer的實現類有多個,這里列舉其中主要的幾個:

1)HeapChannelBuffer:這是Netty讀網絡數據時默認使用的ChannelBuffer,這里的Heap就是Java堆的意思,因為 讀SocketChannel的數據是要經過ByteBuffer的,而ByteBuffer實際操作的就是個byte數組,所以 ChannelBuffer的內部就包含了一個byte數組,使得ByteBuffer和ChannelBuffer之間的轉換是零拷貝方式。根據網絡字 節續的不同,HeapChannelBuffer又分為BigEndianHeapChannelBuffer和 LittleEndianHeapChannelBuffer,默認使用的是BigEndianHeapChannelBuffer。Netty在讀網絡 數據時使用的就是HeapChannelBuffer,HeapChannelBuffer是個大小固定的buffer,為了不至于分配的Buffer的 大小不太合適,Netty在分配Buffer時會參考上次請求需要的大小。

2)DynamicChannelBuffer:相比于HeapChannelBuffer,DynamicChannelBuffer可動態自適應大 小。對于在DecodeHandler中的寫數據操作,在數據大小未知的情況下,通常使用DynamicChannelBuffer。

3)ByteBufferBackedChannelBuffer:這是directBuffer,直接封裝了ByteBuffer的 directBuffer。

對于讀寫網絡數據的buffer,分配策略有兩種:1)通常出于簡單考慮,直接分配固定大小的buffer,缺點是,對一些應用來說這個大小限制有時是不 合理的,并且如果buffer的上限很大也會有內存上的浪費。2)針對固定大小的buffer缺點,就引入動態buffer,動態buffer之于固定 buffer相當于List之于Array。

buffer的寄存策略常見的也有兩種(其實是我知道的就限于此):1)在多線程(線程池) 模型下,每個線程維護自己的讀寫buffer,每次處理新的請求前清空buffer(或者在處理結束后清空),該請求的讀寫操作都需要在該線程中完成。 2)buffer和socket綁定而與線程無關。兩種方法的目的都是為了重用buffer。

Netty對buffer的處理策略是:讀 請求數據時,Netty首先讀數據到新創建的固定大小的HeapChannelBuffer中,當HeapChannelBuffer滿或者沒有數據可讀 時,調用handler來處理數據,這通常首先觸發的是用戶自定義的DecodeHandler,因為handler對象是和ChannelSocket 綁定的,所以在DecodeHandler里可以設置ChannelBuffer成員,當解析數據包發現數據不完整時就終止此次處理流程,等下次讀事件觸 發時接著上次的數據繼續解析。就這個過程來說,和ChannelSocket綁定的DecodeHandler中的Buffer通常是動態的可重用 Buffer(DynamicChannelBuffer),而在NioWorker中讀ChannelSocket中的數據的buffer是臨時分配的 固定大小的HeapChannelBuffer,這個轉換過程是有個字節拷貝行為的。

對ChannelBuffer的創建,Netty內部使用的是ChannelBufferFactory接口,具體的實現有 DirectChannelBufferFactory和HeapChannelBufferFactory。對于開發者創建 ChannelBuffer,可使用實用類ChannelBuffers中的工廠方法。

4、Channel

和Channel相關的接口及類結構圖如下:

 Netty實現原理淺析

從該結構圖也可以看到,Channel主要提供的功能如下:

1)當前Channel的狀態信息,比如是打開還是關閉等。
2)通過ChannelConfig可以得到的Channel配置信息。
3)Channel所支持的如read、write、bind、connect等IO操作。
4)得到處理該Channel的ChannelPipeline,既而可以調用其做和請求相關的IO操作。

在Channel實現方面,以通常使用的nio socket來說,Netty中的NioServerSocketChannel和NioSocketChannel分別封裝了java.nio中包含的 ServerSocketChannel和SocketChannel的功能。

5、ChannelEvent

如前所述,Netty是事件驅動的,其通過ChannelEvent來確定事件流的方向。一個ChannelEvent是依附于Channel的 ChannelPipeline來處理,并由ChannelPipeline調用ChannelHandler來做具體的處理。下面是和 ChannelEvent相關的接口及類圖:

 Netty實現原理淺析

對于使用者來說,在ChannelHandler實現類中會使用繼承于ChannelEvent的MessageEvent,調用其 getMessage()方法來獲得讀到的ChannelBuffer或被轉化的對象。

6、ChannelPipeline

Netty 在事件處理上,是通過ChannelPipeline來控制事件流,通過調用注冊其上的一系列ChannelHandler來處理事件,這也是典型的攔截 器模式。下面是和ChannelPipeline相關的接口及類圖:

 Netty實現原理淺析

事件流有兩種,upstream事件和downstream事件。在ChannelPipeline中,其可被注冊的ChannelHandler既可以 是 ChannelUpstreamHandler 也可以是ChannelDownstreamHandler ,但事件在ChannelPipeline傳遞過程中只會調用匹配流的ChannelHandler。在事件流的過濾器鏈 中,ChannelUpstreamHandler或ChannelDownstreamHandler既可以終止流程,也可以通過調用 ChannelHandlerContext.sendUpstream(ChannelEvent)或 ChannelHandlerContext.sendDownstream(ChannelEvent)將事件傳遞下去。下面是事件流處理的圖示:

 Netty實現原理淺析

從上圖可見,upstream event是被Upstream Handler們自底向上逐個處理,downstream event是被Downstream Handler們自頂向下逐個處理,這里的上下關系就是向ChannelPipeline里添加Handler的先后順序關系。簡單的理 解,upstream event是處理來自外部的請求的過程,而downstream event是處理向外發送請求的過程。

服務端處 理請求的過程通常就是解碼請求、業務邏輯處理、編碼響應,構建的ChannelPipeline也就類似下面的代碼片斷:

ChannelPipeline pipeline = Channels.pipeline();
pipeline.addLast("decoder", new MyProtocolDecoder());
pipeline.addLast("encoder", new MyProtocolEncoder());
pipeline.addLast("handler", new MyBusinessLogicHandler());

其中,MyProtocolDecoder是ChannelUpstreamHandler類型,MyProtocolEncoder是 ChannelDownstreamHandler類型,MyBusinessLogicHandler既可以是 ChannelUpstreamHandler類型,也可兼ChannelDownstreamHandler類型,視其是服務端程序還是客戶端程序以及 應用需要而定。

補充一點,Netty對抽象和實現做了很好的解耦。像org.jboss.netty.channel.socket包, 定義了一些和socket處理相關的接口,而org.jboss.netty.channel.socket.nio、 org.jboss.netty.channel.socket.oio等包,則是和協議相關的實現。

7、codec framework

對于請求協議的編碼解碼,當然是可以按照協議格式自己操作ChannelBuffer中的字節數據。另一方面,Netty也做了幾個很實用的codec helper,這里給出簡單的介紹。

1)FrameDecoder:FrameDecoder內部維護了一個 DynamicChannelBuffer成員來存儲接收到的數據,它就像個抽象模板,把整個解碼過程模板寫好了,其子類只需實現decode函數即可。 FrameDecoder的直接實現類有兩個:(1)DelimiterBasedFrameDecoder是基于分割符 (比如\r\n)的解碼器,可在構造函數中指定分割符。(2)LengthFieldBasedFrameDecoder是基于長度字段的解碼器。如果協 議 格式類似“內容長度”+內容、“固定頭”+“內容長度”+動態內容這樣的格式,就可以使用該解碼器,其使用方法在API DOC上詳盡的解釋。
2)ReplayingDecoder: 它是FrameDecoder的一個變種子類,它相對于FrameDecoder是非阻塞解碼。也就是說,使用 FrameDecoder時需要考慮到讀到的數據有可能是不完整的,而使用ReplayingDecoder就可以假定讀到了全部的數據。
3)ObjectEncoder 和ObjectDecoder:編碼解碼序列化的Java對象。
4)HttpRequestEncoder和 HttpRequestDecoder:http協議處理。

下面來看使用FrameDecoder和ReplayingDecoder的兩個例子:

public class IntegerHeaderFrameDecoder extends FrameDecoder {
    protected Object decode(ChannelHandlerContext ctx, Channel channel,
                ChannelBuffer buf) throws Exception {
        if (buf.readableBytes() < 4) {
            return null;
        }
        buf.markReaderIndex();
        int length = buf.readInt();
        if (buf.readableBytes() < length) {
            buf.resetReaderIndex();
            return null;
        }
        return buf.readBytes(length);
    }
}

而使用ReplayingDecoder的解碼片斷類似下面的,相對來說會簡化很多。

public class IntegerHeaderFrameDecoder2 extends ReplayingDecoder {
    protected Object decode(ChannelHandlerContext ctx, Channel channel,
            ChannelBuffer buf, VoidEnum state) throws Exception {
        return buf.readBytes(buf.readInt());
    }
}

就實現來說,當在ReplayingDecoder子類的decode函數中調用ChannelBuffer讀數據時,如果讀失敗,那么 ReplayingDecoder就會catch住其拋出的Error,然后ReplayingDecoder接手控制權,等待下一次讀到后續的數據后繼 續decode。

8、小結

盡管該文行至此處將止,但該文顯然沒有將Netty實現原理深入淺出的說全說透。當我打算寫這篇文章時,也是一邊看Netty的代碼,一邊總結些可寫的東 西,但前后斷斷續續,到最后都沒了多少興致。我還是愛做一些源碼分析的事情,但精力終究有限,并且倘不能把源碼分析的結果有條理的托出來,不能產生有意義 的心得,這分析也沒什么價值和趣味。而就分析Netty代碼的感受來說,Netty的代碼很漂亮,結構上層次上很清晰,不過這種面向接口及抽象層次對代碼 跟蹤很是個問題,因為跟蹤代碼經常遇到接口和抽象類,只能借助于工廠類和API DOC,反復對照接口和實現類的對應關系。就像幾乎任何優秀的Java開源項目都會用上一系列優秀的設計模式,也完全可以從模式這一點單獨拿出一篇分析文 章來,盡管我目前沒有這樣的想法。而在此文完成之后,我也沒什么興趣再看Netty的代碼了。

 本文由用戶 b36g 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!