善於觀察的朋友一定會敏銳地發現ChatGPT網頁端是逐句給出問題答案的,同樣,ChatGPT後臺Api介面請求中,如果將Stream引數設定為True後,Api介面也可以實現和ChatGPT網頁端一樣的流式返回,進而更快地給到前端使用者反饋,同時也可以緩解連線超時的問題。
Server-sent events(SSE)是一種用於實現伺服器到使用者端的單向通訊的協定。使用SSE,伺服器可以向用戶端推播實時資料,而無需使用者端發出請求。
SSE建立在HTTP協定上,使用基於文字的資料格式(通常是JSON)進行通訊。使用者端通過建立一個EventSource物件來與伺服器建立連線,然後可以監聽伺服器傳送的事件。伺服器端可以隨時將事件推播給使用者端,使用者端通過監聽事件來接收這些資料。
首先開啟ChatGPT網頁端,隨便問一個問題,然後進入網路選單,清空歷史請求記錄後,進行網路抓包監聽:
可以看到,在觸發了回答按鈕之後,頁面會往後端的backend-api/conversation對話介面發起請求,但這個介面的通訊方式並非傳統的http介面或者Websocket持久化連結協定,而是基於EventSteam的事件流一段一段地返回ChatGPT後端模型的返回資料。
為什麼ChatGPT會選擇這種方式和後端Server進行通訊?ChatGPT網頁端使用Server-sent events通訊是因為這種通訊方式可以實現伺服器向用戶端推播資料,而無需使用者端不斷地向伺服器傳送請求。這種推播模式可以提高應用程式的效能和響應速度,減少了不必要的網路流量。
與其他實時通訊協定(如WebSocket)相比,Server-sent events通訊是一種輕量級協定,易於實現和部署。此外,它也具有廣泛的瀏覽器相容性,並且可以在不需要特殊網路設定的情況下使用。
在ChatGPT中,伺服器會將新的聊天訊息推播到網頁端,以便實時顯示新的聊天內容。使用Server-sent events通訊,可以輕鬆地實現這種實時更新功能,並確保網頁端與伺服器之間的通訊效率和穩定性。
說白了,降低成本,提高效率,ChatGPT是一個基於深度學習的大型語言模型,處理自然語言文字需要大量的計算資源和時間。因此,返回響應的速度肯定比普通的讀資料庫要慢的多,Http介面顯然並不合適,因為Http是一次性返回,等待時間過長,而Websocket又過重,因為全雙工通訊並不適合這種單項對話場景,所謂單項對話場景,就是對話雙方並不會並行對話,而是序列的一問一答邏輯,同時持久化連結也會佔用伺服器資源,要知道ChatGPT幾乎可以算是日均活躍使用者數全球最高的Web應用了。
效率層面,大型語言模型沒辦法一下子返回所有計算資料,但是可以通過Server-sent events將前面計算出的資料先「推播」到前端,這樣使用者也不會因為等待時間過長而關閉頁面,所以ChatGPT的前端觀感就是像打字機一樣,一段一段的返回答案,這種「邊計算邊返回」的生成器模式也提高了ChatGPT的回答效率。
這裡我們使用基於Python3.10的Tornado非同步非阻塞框架來實現Server-sent events通訊。
首先安裝Tornado框架
pip3 install tornado==6.1
隨後編寫sse_server.py:
import tornado.ioloop
import tornado.web
push_flag = True
from asyncio import sleep
class ServerSentEvent(tornado.web.RequestHandler):
def __init__(self, *args, **kwargs):
super(ServerSentEvent, self).__init__(*args, **kwargs)
self.set_header('Content-Type', 'text/event-stream')
self.set_header('Access-Control-Allow-Origin', "*")
self.set_header("Access-Control-Allow-Headers","*")
# 請求方式
self.set_header("Access-Control-Allow-Methods","*")
# 斷開連線
def on_finish(self):
print("斷開連線")
return super().on_finish()
async def get(self):
print("建立連結")
while True:
if push_flag:
print("開始")
self.write("event: message\n");
self.write("data:" + "push data" + "\n\n");
self.flush()
await sleep(2)
建立好推播路由類ServerSentEvent,它繼承Tornado內建的檢視類tornado.web.RequestHandler,首先利用super方法呼叫父類別的初始化方法,設定跨域,如果不使用super,會將父類別同名方法重寫,隨後建立非同步的get方法用來連結和推播訊息,這裡使用Python原生非同步的寫法,每隔兩秒往前端推播一個事件message,內容為push data。
注意,這裡只是簡單的推播演示,真實場景下如果涉及IO操作,比如資料庫讀寫或者網路請求之類,還需要單獨封裝非同步方法。
另外這裡假定前端onmessage處理程式的事件名稱為message。如果想使用其他事件名稱,可以使用前端addEventListener來訂閱事件,最後訊息後必須以兩個換行為結尾。
隨後編寫路由和服務範例:
def make_app():
return tornado.web.Application([
(r"/sse/data/", ServerSentEvent),
])
if __name__ == "__main__":
app = make_app()
app.listen(8000)
print("sse服務啟動")
tornado.ioloop.IOLoop.current().start()
隨後在後臺執行命令:
python3 sse_server.py
程式返回:
PS C:\Users\liuyue\www\videosite> python .\sse_server.py
sse服務啟動
至此,基於Tornado的Server-sent events服務就搭建好了。
使用者端我們使用目前最流行的Vue.js3框架:
sse_init:function(){
var push_data = new EventSource("http://localhost:8000/sse/data/")
push_data.onopen = function (event) {
// open事件
console.log("EventSource連線成功");
};
push_data.onmessage = function (event) {
try {
console.log(event);
} catch (error) {
console.log('EventSource結束訊息異常', error);
}
};
push_data.onerror = function (error) {
console.log('EventSource連線異常', error);
};
}
這裡在前端的初始化方法內建立EventSource範例,通過onmessage方法來監聽後端的主動推播:
可以看到,每隔兩秒鐘就可以訂閱到後端的message事件推播的訊息,同時,SSE預設支援斷線重連,而全雙工的WebSocket協定則需要自己在前端實現,高下立判。
不僅僅可以實現ChatGPT的流式返回功能,SSE在Web應用程式中的使用場景非常廣泛,例如實時的新聞推播、實時股票報價、線上遊戲等等,比起輪詢和長輪詢,SSE更加高效,因為只有在有新資料到達時才會傳送;同時SSE支援自定義事件和資料,具有更高的靈活性和複用性,為流式資料返回保駕護航,ChatGPT的最愛,誰不愛?最後奉上專案地址,與眾鄉親同饗:github.com/zcxey2911/sse_tornado6_vuejs3