hello,大家好呀,我是小樓!
今天給大家帶來一篇關於Dubbo IO互動的文章,本文是一位同事寫的文章,用有趣的文字把枯燥的知識點寫出來,通俗易懂,非常有意思,所以迫不及待找作者授權然後分享給大家:
Dubbo是一個優秀的RPC框架,其中有錯綜複雜複雜的執行緒模型,本篇文章筆者從自己淺薄的認知中,來剖析Dubbo的整個IO過程。在開始之前,我們先來看如下幾個問題:
接下來筆者將用Dubbo2.5.3 作為Consumer,2.7.3作為Provider來講述整個互動過程,筆者站在封包視角,用第一人稱來講述,繫好安全帶,我們出發咯。
我是一個封包,出生在一個叫Dubbo2.5.3 Consumer的小鎮,我的使命是是傳遞資訊,同時也喜歡出門旅行。
某一天,我即將被傳送出去,據說是要去一個叫Dubbo 2.7.3 Provider的地方。
這一天,業務執行緒發起發起方法呼叫,在FailoverClusterInvoker#doInvoke
我選擇了一個Provider,然後經過各種Consumer Filter,再經過Netty3的pipeline,最後通過NioWorker#scheduleWriteIfNecessary
方法,我來到了NioWorker的writeTaskQueue佇列中。
當我回頭看主執行緒時,發現他在DefaultFuture中的Condition等待,我不知道他在等什麼,也不知道他要等多久。
我在writeTaskQueue佇列排了一會隊,看到netty3 IO worker執行緒在永不停歇的執行run方法,大家都稱這個為死迴圈。
最後,我很幸運,NioWorker#processWriteTaskQueue
選擇了我,我被寫到作業系統的Socket緩衝區,我在緩衝區等待,反正時間充足,我回味一下今天的旅行,期間我輾轉了兩個旅行團,分別叫主執行緒和netty3 IO worker執行緒,嗯,兩個旅行團服務都不錯,效率很高。
索性我把今天的見聞記錄下來,繪製成一張圖,當然不重要的地方我就忽略了。
我在作業系統socket緩衝區,經過了很多神奇的事情。
在一個叫傳輸層的地方給我追加上了目標埠號、源埠號
在一個叫網路層的地方給我追加上了目標IP、源IP,同時通過目標IP與掩碼做與運算,找到「下一跳」的IP
在一個叫資料鏈路層的地方通過ARP協定給我追加上了「下一跳」的目標MAC地址、源MAC地址
最有意思的是,我們坐的都是一段一段纜車,每換一個纜車,就要修改目標MAC地址、源MAC地址,後來問了同行的封包小夥伴,這個模式叫「下一跳」,一跳一跳的跳過去。這裡有很多封包,體型大的單獨一個纜車,體型小的幾個擠一個纜車,還有一個可怕的事情,體型再大一點,要分拆做多個纜車(雖然這對我們封包沒啥問題),這個叫拆包和粘包。期間我們經過交換機、路由器,這些地方玩起來很Happy。
當然也有不愉快的事情,就是擁堵,目的地纜車滿了,來不及被拉走,只能等待咯。
好不容易,我來到了目的地,我坐上了一個叫「零拷貝」號的快艇,迅速到了netty4,netty4果然富麗堂皇,經過NioEventLoop#processSelectedKeys
,再經過pipeline中的各種入站handler,我來到了AllChannelHandler的執行緒池,當然我有很多選擇,但是我隨便選了一個目的地,這裡會經歷解碼、一系列的Filter,才會來的目的地「業務方法」,NettyCodecAdapter#InternalDecoder
解碼器很厲害,他可以處理拆包和粘包。
在AllChannelHandler的執行緒池中我會停留一會,於是我也畫了一張圖,記錄旅程。
自此,我的旅行結束,新的故事將由新的封包續寫。
我是一個封包,出生在一個叫Dubbo2.7.3 Provider的小鎮,我的使命是去喚醒命中註定的執行緒,接下來我會開始一段旅行,去一個叫Dubbo2.5.3 Consumer的地方。
在Provider業務方法執行之後
io.netty.channel.AbstractChannelHandlerContext#writeAndFlush
io.netty.util.concurrent.SingleThreadEventExecutor#execute
執行addTaskio.netty.util.concurrent.SingleThreadEventExecutor#taskQueue
io.netty.channel.AbstractChannelHandlerContext$WriteTask
等待NioEventLoop發車,等待的過程中,我記錄了走過的腳步。在這裡,我看到NioEventLoop是一個死迴圈,不停地從任務佇列取任務,執行任務AbstractChannelHandlerContext.WriteAndFlushTask
,然後指引我們到socket緩衝區等候,永不知疲倦,我似乎領略到他身上有一種倔強的、追求極致的匠人精神。
經過io.netty.channel.AbstractChannel.AbstractUnsafe#write
,我到達了作業系統socket緩衝區。在作業系統層面和大多數封包一樣,也是做纜車達到目的地。
到達dubbo 2.5.3 Consumer端,我在作業系統socket緩衝區等了一會,同樣是坐了「零拷貝」號快艇,到達了真正的目的地dubbo 2.5.3 Consumer,在這裡我發現,NioWorker#run
是一個死迴圈,然後執行NioWorker#processSelectedKeys
,通過NioWorker#read
方式讀出來,我就到達了AllChannelHandler的執行緒池,這是一個業務執行緒池。
我在這裡等待一會,等任務被排程,我看見com.alibaba.dubbo.remoting.exchange.support.DefaultFuture#doReceived
被執行了,同時Condition的signal被執行了。我在遠處看到了一個被阻塞執行緒被喚醒,我似乎明白,因為我的到來,喚醒了一個沉睡的執行緒,我想這應該是我生命的意義。
至此,我的使命也完成了,本次旅程結束。
我們根據兩個封包的自述,來總結一下netty3和netty4的執行緒模型。
說明:這裡沒有netty3的讀過程,netty3讀過程和netty4相同,pipeline是由IO執行緒執行。
總結:netty3與netty4執行緒模型的區別在於寫過程,netty3中pipeline由業務執行緒執行,而netty4無論讀寫,pipeline統一由IO執行緒執行。
netty4中ChannelPipeline中的Handler鏈統一由I/O執行緒序列排程,無論是讀還是寫操作,netty3中的write操作時由業務執行緒處理Handler鏈。netty4中可以降低執行緒之間的上下文切換帶來的時間消耗,但是netty3中業務執行緒可以並行執行Handler鏈。如果有一些耗時的Handler操作會導致netty4的效率低下,但是可以考慮將這些耗時操作放在業務執行緒最先執行,不放在Handler裡處理。由於業務執行緒可以並行執行,同樣也可以提高效率。
有遇到一些比較典型的疑難問題,例如當Provider答應的didi.log耗時正常,而Consumer端超時了,此時有如下排查方向,didi.log的Filter其實處於非常裡層,往往不能反映真實的業務方法執行情況。
Provider除了業務方向執行外,序列化也有可能是耗時的,所以可以用arthas監控最外側方法org.apache.dubbo.remoting.transport.DecodeHandler#received,排除業務方法耗時高的問題
Provider中封包寫入是否耗時,監控io.netty.channel.AbstractChannelHandlerContext#invokeWrite方法
通過netstat 也能檢視當前tcp socket的一些資訊,比如Recv-Q, Send-Q,Recv-Q是已經到了接受緩衝區,但是還沒被應用程式碼讀走的資料。Send-Q是已經到了傳送緩衝區,但是對方還沒有回覆Ack的資料。這兩種資料正常一般不會堆積,如果堆積了,可能就有問題了。
看Consumer NioWorker#processSelectedKeys (dubbo2.5.3)方法是否耗時高。
直到最終整個鏈路的所有細節……問題肯定是可以解決的。
在整個互動過程中,筆者省略執行緒棧呼叫的一些細節和原始碼的細節,例如序列化與反序列化,dubbo怎麼讀出完整的封包的,業務方法執行前那些Filter是怎麼排序和分佈的,netty的Reactor模式是如何實現的。這些都是非常有趣的問題……
- 本文已收錄 https://github.com/lkxiaolou/lkxiaolou 歡迎star。
- 搜尋關注微信公眾號"捉蟲大師",後端技術分享,架構設計、效能優化、原始碼閱讀、問題排查、踩坑實踐。