視訊格式就是通常所說的.mp4
,.flv
,.ogv
,.webm
等。簡單來說,它其實就是一個盒子,用來將實際的視訊流以一定的順序放入,確保播放的有序和完整性。
視訊壓縮格式和視訊格式具體的區別就是,它是將原始的視訊碼流變為可用的數位編碼。因為,原始的視訊流非常大,打個比方就是,你直接使用手機錄音,你會發現你幾分鐘的音訊會比市面上出現的 MP3 音訊大小大很多,這就是壓縮格式起的主要作用。
首先,由原始數碼裝置提供相關的數位訊號流,然後經由視訊壓縮演演算法,大幅度的減少流的大小,然後交給視訊盒子,打上相應的dts,pts欄位,最終生成可用的視訊檔。
DTS(Decoding Time Stamp):即解碼時間戳,這個時間戳的意義在於告訴播放器該在什麼時候解碼這一幀的資料。
PTS(Presentation Time Stamp):即顯示時間戳,這個時間戳用來告訴播放器該在什麼時候顯示這一幀的資料。
視訊實際上就是一幀一幀的圖片,拼接起來進行播放而已。而圖片本身也可以進行相關的壓縮,比如去除重複畫素,合併畫素塊等等。不過,還有另外一種壓縮方法就是,運動估計和運動補償壓縮,因為相鄰圖片一定會有一大塊是相似的,所以,為了解決這個問題,可以在不同圖片之間進行去重。
所以,總的來說,常用的編碼方式分為三種:
熵編碼即編碼過程中按熵原理不丟失任何資訊的編碼。資訊熵為信源的平均資訊量(不確定性的度量)。常見的熵編碼有:夏農(Shannon)編碼、哈夫曼(Huffman)編碼和算術編碼(arithmetic coding)。
現在,常用的直播協定有 RTMP,HLS,HTTP-FLV。最常用的還是 HLS 協定,因為支援度高,技術簡單,但是延遲非常嚴重。這對一些對實時性比較高的場景,比如運動賽事直播來說非常的不友好。這裡來細分的看一下每個協定。
協定 | 優勢 | 劣勢 | 延時 |
---|---|---|---|
HLS | 支援性廣 | 延時巨高 | 10s 以上 |
RTMP | 延時性好,靈活 | 量大的話,負載較高 | 1s 以上 |
HTTP-FLV | 延時性好,遊戲直播常用 | 只能在手機 APP 播放 | 2s 以上 |
HLS 全稱是 HTTP Live Streaming。這是Apple提出的直播流協定。
HLS 由兩部分構成,一個是.m3u8
檔案,一個是.ts
視訊檔(TS 是視訊檔格式的一種)。整個過程是,瀏覽器會首先去請求.m3u8
的索引檔案,然後解析m3u8
,找出對應的.ts
檔案連結,並開始下載。
他的使用方式為:
<video>
<source src="http://..../xxxx.m3u8" type="application/x-mpegURL" />
</video>
直接可以將m3u8
寫進src
中,然後交由瀏覽器自己去解析。當然也可以採取fetch
來手動解析並獲取相關檔案。HLS 詳細版的內容比上面的簡版多了一個playlist
,也可以叫做master
。在master
中,會根據網路段實現設定好不同的 m3u8 檔案,比如,3G/4G/wifi 網速等。比如,一個 master 檔案中為:
#EXTM3U
#EXT-X-VERSION:6
#EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=2855600,CODECS="avc1.4d001f,mp4a.40.2",RESOLUTION=960x540
live/medium.m3u8
#EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=5605600,CODECS="avc1.640028,mp4a.40.2",RESOLUTION=1280x720
live/high.m3u8
#EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=1755600,CODECS="avc1.42001f,mp4a.40.2",RESOLUTION=640x360
live/low.m3u8
#EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=545600,CODECS="avc1.42001e,mp4a.40.2",RESOLUTION=416x234
live/cellular.m3u8
大家只要關注BANDWIDTH
(頻寬)欄位,其他的看一下欄位內容大致就清楚了。假如這裡選擇high.m3u8
檔案,那麼,裡面內容為:
#EXTM3U
#EXT-X-VERSION:6
#EXT-X-TARGETDURATION:10
#EXT-X-MEDIA-SEQUENCE:26
#EXTINF:9.901,
http://media.example.com/wifi/segment26.ts
#EXTINF:9.901,
http://media.example.com/wifi/segment27.ts
#EXTINF:9.501,
http://media.example.com/wifi/segment28.ts
注意,其中以ts
結尾的連結就是在直播中真正需要播放的視訊檔。該第二級的m3u8
檔案也可以叫做media
檔案。該檔案,其實有三種型別:
HLS 缺陷就是延遲性太大了。HLS 中的延時包括:
這裡先假設每個 ts 檔案播放時長為 5s,每個 m3u8 最多可攜帶的 ts 檔案數為 3~8。那麼最大的延遲則為 40s。注意,只有當一個m3u8
檔案下所有的 ts 檔案下載完後,才能開始播放。這裡還不包括 TCP 握手,DNS 解析,m3u8 檔案下載。所以,HLS 總的延時是非常令人絕望的。
那解決辦法有嗎? 有,很簡單,要麼減少每個 ts 檔案播放時長,要麼減少m3u8
的中包含 ts 的數量。如果超過平衡點,那麼每次請求新的 m3u8 檔案時,都會加上一定的延時,所以,這裡需要根據業務指定合適的策略。
RTMP 全稱為:Real-Time Messaging Protocol
。它是基於FLV
格式進行開發的,所以,第一反應就是,又不能用了!!!
是的,在現在裝置中,由於 FLV 的不支援,基本上 RTMP 協定在 Web 中,根本用不到。不過,由於MSE
(MediaSource Extensions)的出現,在 Web 上直接接入 RTMP 也不是不可能的。基本思路是根據 WebSocket 直接建立長連線進行資料的交流和監聽。RTMP 協定根據不同的套層,也可以分為:
RTMP 內部是藉由 TCP 長連線協定傳輸相關資料,所以,它的延時性非常低。並且,該協定靈活性非常好(所以,也很複雜),它可以根據 message stream ID 傳輸資料,也可以根據 chunk stream ID 傳遞資料。兩者都可以起到流的劃分作用。流的內容也主要分為:視訊,音訊,相關協定包等。
該協定和 RTMP 比起來其實差別不大,只是落地部分有些不同:
RTMP 是直接將流的傳輸架在 RTMP 協定之上,而 HTTP-FLV 是在 RTMP 和使用者端之間套了一層轉碼的過程,由於,每個 FLV 檔案是通過 HTTP 的方式獲取的,所以,它通過抓包得出的協定頭需要使用chunked編碼。
Content-Type:video/x-flv
Expires:Fri, 10 Feb 2017 05:24:03 GMT
Pragma:no-cache
Transfer-Encoding:chunked
它用起來比較方便,不過後端實現的難度和直接使用 RTMP 來說還是比較大的。
由於各大瀏覽器的對 FLV 的圍追堵截,導致 FLV 在瀏覽器的生存狀況堪憂,但是,FLV 憑藉其格式簡單,處理效率高的特點,使各大視訊後臺的開發者都捨不得棄用,如果一旦更改的話,就需要對現有視訊進行轉碼,比如變為 MP4,這樣不僅在播放,而且在流處理來說都有點重的讓人無法接受。而 MSE 的出現,徹底解決了這個尷尬點,能夠讓前端能夠自定義來實現一個 Web 播放器,確實完美。(不過,蘋果覺得沒這必要,所以,在 IOS 上無法實現。)
MSE 全稱就是Media Source Extensions
。它是一套處理視訊流技術的簡稱,裡面包括了一系列 API:Media Source
,Source Buffer
等。在沒有 MSE 出現之前,前端對 video 的操作,僅僅侷限在對視訊檔的操作,而並不能對視訊流做任何相關的操作。現在 MSE 提供了一系列的介面,使開發者可以直接提供 media stream。
來看一下 MSE 是如何完成基本流的處理的。
var vidElement = document.querySelector('video');
if (window.MediaSource) {
var mediaSource = new MediaSource();
vidElement.src = URL.createObjectURL(mediaSource);
mediaSource.addEventListener('sourceopen', sourceOpen);
} else {
console.log("The Media Source Extensions API is not supported.")
}
function sourceOpen(e) {
URL.revokeObjectURL(vidElement.src);
var mime = 'video/webm; codecs="opus, vp9"';
var mediaSource = e.target;
var sourceBuffer = mediaSource.addSourceBuffer(mime);
var videoUrl = 'droid.webm';
fetch(videoUrl)
.then(function(response) {
return response.arrayBuffer();
})
.then(function(arrayBuffer) {
sourceBuffer.addEventListener('updateend', function(e) {
if (!sourceBuffer.updating && mediaSource.readyState === 'open') {
mediaSource.endOfStream();
}
});
sourceBuffer.appendBuffer(arrayBuffer);
});
}
上面這個例子可以簡單理解為:
而中間傳遞的資料都是通過Buffer
的形式來進行傳遞的。
中間有個需要注意的點,MS 的範例通過URL.createObjectURL()
建立的 url 並不會同步連線到 video.src。換句話說,URL.createObjectURL()
只是將底層的流(MS)和 video.src 連線中間者,一旦兩者連線到一起之後,該物件就沒用了。
MediaSource 是 Media Source Extensions API 表示媒體資源 HTMLMediaElement 物件的介面。MediaSource 物件可以附著在 HTMLMediaElement 在使用者端進行播放。
MS(MediaSource) 只是一系列視訊流的管理工具,它可以將音視訊流完整的暴露給 Web 開發者來進行相關的操作和處理。所以,它本身不會造成過度的複雜性。
MS 整個只掛載了 4 個屬性,3 個方法和 1 個靜態測試方法。
4 個屬性:
closed
,open
,ended
.3 個方法:
1 個靜態測試方法:
最基本的就是使用addSourceBuffer
該方法來獲得指定的 SourceBuffer。
var sourceBuffer = mediaSource.addSourceBuffer('video/mp4; codecs="avc1.42E01E, mp4a.40.2"');
資料:https://developer.mozilla.org/zh-CN/docs/Web/API/MediaSource
SourceBuffer 介面表示通過 MediaSource 物件傳遞到 HTMLMediaElement 並播放的媒體分塊。它可以由一個或者多個媒體片段組成。
一旦利用 MS 建立好 SourceBuffer 之後,後續的工作就是將額外獲得的流放進 Buffer 裡面進行播放即可。所以,SourceBuffer 提供兩個最基本的操作appendBuffer
,remove
。之後,就可以通過appendBuffer
直接將 ArrayBuffer 放進去即可。
其中,SourceBuffer 還提供了一個應急的方法abort()
如果該流發生問題的話可以直接將指定的流給廢棄掉。
音視訊的 ArrayBuffer 通過 MediaSource 和 SourceBuffer 的處理直接將<audio>
&&<video>
接入。然後,就可以實現正常播放的效果。
資料:https://developer.mozilla.org/zh-CN/docs/Web/API/SourceBuffer
flv.js是來自Bilibli的開源專案。它解析FLV檔案傳給原生HTML5 Video標籤播放音視訊資料,使瀏覽器在不借助Flash的情況下播放FLV成為可能。
flv.js只做了一件事,在獲取到FLV格式的音視訊資料後通過原生的JS去解碼FLV資料,再通過Media Source Extensions API 傳遞給原生HTML5 Video標籤。(HTML5 原生僅支援播放 mp4/webm 格式,不支援 FLV)
//下載flv.js包
npm i flv.js -S
//引入flv.js包
import flv from 'flv.js'
//HTML部分
<video ref="myVideo" autoplay muted controls/>
//script部分
//建立一個Player範例,它接收一個MediaDataSource(必選), 一個Config(可選) flvjs.createPlayer(mediaDataSource: MediaDataSource, config?: Config)
export default {
data() {
return {
player: null,
}
},
created() {
if (flv.isSupported()) {
this.player = flv.createPlayer({
type: 'flv',
isLive: true,
url: 'https://api.tjdataspace.com/flv.flv'
}, {
enableWorker: true,
enableStashBuffer: false,
stashInitialSize: 128,
}
);
}
},
mounted() {
this.player.attachMediaElement(this.$refs.myVideo);
this.player.load();
this.player.play();
setInterval(() => {
if (!this.player.buffered.length) {return;}
let end = this.player.buffered.end(0);
let diff = end - this.player.currentTime;
if (diff >= 1.5) { //延時如果大於1.5秒,就讓直播跳到當前時間位置播放
this.player.currentTime = end - 0.5;
}
}, 3 * 60 * 1000);
},
}
flv.js資料:https://www.npmjs.com/package/flv.js
參考資料:
https://segmentfault.com/a/1190000008916399
https://segmentfault.com/a/1190000010440054
https://blog.csdn.net/An1090239782/article/details/108972491
https://zhuanlan.zhihu.com/p/47773064
https://juejin.cn/post/6900540290432499725