深入淺出Yolo系列之Yolov5核心基礎知識完整講解

2021-04-13 15:00:27

大白在之前寫過《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》點選即可檢視
Yolov4的相關基礎知識做了比較系統的梳理,但Yolov4後不久,又出現了Yolov5,雖然作者沒有放上和Yolov4的直接測試對比,但在COCO資料集的測試效果還是很可觀的。
很多人考慮到Yolov5創新性不足,對演演算法是否能夠進化,稱得上Yolov5而議論紛紛。
但既然稱之為Yolov5,也有很多非常不錯的地方值得我們學習。不過因為Yolov5的網路結構和Yolov3、Yolov4相比,不好視覺化,導致很多同學看Yolov5看的雲裡霧裡。
因此本文,大白主要對Yolov5四種網路結構的各個細節做一個深入淺出的分析總結,和大家一些探討學習。
同時,大白每週會整理幾十個人工智慧公眾號的精華文章,並系統的分類,讓大家對於人工智慧行業每週的內容動態可以一目瞭然,點選檢視
版權申明:本文包含圖片,都為大白使用PPT所繪製的,如需網路結構高清圖模型權重,可點選檢視下載
PS:原創不易,編輯上傳文字2小時,為了便於大家檢視,排版8小時,歡迎大家點贊收藏。


1 Yolov5四種網路模型

Yolov5官方程式碼中,給出的目標檢測網路中一共有4個版本,分別是Yolov5s、Yolov5m、Yolov5l、Yolov5x四個模型。
學習一個新的演演算法,最好在腦海中對演演算法網路的整體架構有一個清晰的理解。
比較尷尬的是,Yolov5程式碼中給出的網路檔案是yaml格式,和原本Yolov3、Yolov4中的cfg不同。
因此無法用netron工具直接視覺化的檢視網路結構,造成有的同學不知道如何去學習這樣的網路。
比如下載了Yolov5的四個pt格式的權重模型:

在這裡插入圖片描述
大白在《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》中講到,可以使用netron工具開啟檢視網路模型。
但因為netron對pt格式的檔案相容性並不好,直接使用netron工具開啟,會發現,根本無法顯示全部網路。
因此可以採用pt->onnx->netron的折中方式,先使用Yolov5程式碼中models/export.py指令碼將pt檔案轉換為onnx格式,再用netron工具開啟,這樣就可以看全網路的整體架構了。

在這裡插入圖片描述
如果有同學對netron工具還不是很熟悉,這裡還是放上安裝netron工具的詳解,如果需要安裝,可以移步大白的另一篇文章:《網路視覺化工具netron詳細安裝流程》
如需下載Yolov5整體的4個網路pt檔案及onnx檔案,也可點選連結檢視下載,便於直觀的學習。

1.1 Yolov5網路結構圖

安裝好netron工具,就可以視覺化的開啟Yolov5的網路結構,這裡大白也和之前講解Yolov3&Yolov4同樣的方式,繪製了Yolov5s整體的網路結構圖,配合netron的視覺化網路結構檢視,腦海中的架構會更加清晰。

在這裡插入圖片描述

本文也會以Yolov5s的網路結構為主線,講解與其他三個模型(Yolov5m、Yolov5l、Yolov5x)的不同點,讓大家對於Yolov5有一個深入淺出的瞭解

1.2 網路結構視覺化

四種模型的pt檔案轉換成對應的onnx檔案後,即可使用netron工具檢視。
但是,有些同學可能不方便,使用指令碼轉換檢視。
因此,大白也上傳了每個網路結構圖的圖片,也可以直接點選檢視。雖然沒有netron工具更直觀,但是也可以學習瞭解

1.2.1 Yolov5s網路結構

Yolov5s網路是Yolov5系列中深度最小,特徵圖的寬度最小的網路。
後面的3種都是在此基礎上不斷加深,不斷加寬。
上圖繪製出的網路結構圖也是Yolov5s的結構,大家也可直接點選檢視,Yolov5s的網路結構視覺化的圖片。

1.2.2 Yolov5m網路結構

此處也放上netron開啟的Yolov5m網路結構可檢視,點選即可檢視,後面第二版塊會詳細說明不同模型的不同點。

1.2.3 Yolov5l網路結構

此處也放上netronx開啟的Yolov5l網路結構可檢視,點選即可檢視

1.2.4 Yolov5x網路結構

此處也放上netronx開啟的Yolov5x網路結構可檢視,點選即可檢視

2 核心基礎內容

2.1 Yolov3&Yolov4網路結構圖

2.1.1 Yolov3網路結構圖

Yolov3網路結構是比較經典的one-stage結構,分為輸入端BackboneNeckPrediction四個部分。
大白在之前的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎完整講解》中講了很多,這裡不多說,還是放上繪製的Yolov3網路結構圖

在這裡插入圖片描述

2.1.2 Yolov4網路結構圖

Yolov4Yolov3的基礎上進行了很多的創新。
比如輸入端採用mosaic資料增強,
Backbone上採用了CSPDarknet53、Mish啟用函數、Dropblock等方式,
Neck中採用了SPP、FPN+PAN的結構,
輸出端則採用CIOU_Loss、DIOU_nms操作。
因此Yolov4Yolov3的各個部分都進行了很多的整合創新,
關於Yolov4如果有不清楚的可以參照大白之前寫的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》,寫的比較詳細。

在這裡插入圖片描述

2.2 Yolov5核心基礎內容

Yolov5的結構和Yolov4很相似,但也有一些不同,大白還是按照從整體細節的方式,對每個板塊進行講解。
在這裡插入圖片描述

上圖即Yolov5的網路結構圖,可以看出,還是分為輸入端、Backbone、Neck、Prediction四個部分。
大家可能對Yolov3比較熟悉,因此大白列舉它和Yolov3的一些主要的不同點,並和Yolov4進行比較。
(1)輸入端Mosaic資料增強、自適應錨框計算
(2)BackboneFocus結構,CSP結構
(3)NeckFPN+PAN結構
(4)PredictionGIOU_Loss

下面丟上Yolov5作者的演演算法效能測試圖:
在這裡插入圖片描述

Yolov5作者也是在COCO資料集上進行的測試。
大白在之前的文章講過,COCO資料集的小目標占比
因此最終的四種網路結構,效能上來說各有千秋。
Yolov5s網路最小,速度最少,AP精度也最低。
但如果檢測的以大目標為主,追求速度,倒也是個不錯的選擇。
其他的三種網路,在此基礎上,不斷加深加寬網路AP精度也不斷提升,但速度的消耗也在不斷增加

2.2.1 輸入端

(1)Mosaic資料增強
Yolov5的輸入端採用了和Yolov4一樣的Mosaic資料增強的方式。
Mosaic資料增強提出的作者也是來自Yolov5團隊的成員,不過,隨機縮放隨機裁剪隨機排布的方式進行拼接,對於小目標的檢測效果還是很不錯的。
在這裡插入圖片描述

Mosaic資料增強的內容在之前《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》文章中寫的很詳細,詳情可以檢視之前的內容。

(2)自適應錨框計算
Yolo演演算法中,針對不同的資料集,都會有初始設定長寬的錨框。
在網路訓練中,網路在初始錨框的基礎上輸出預測框,進而和真實框groundtruth進行比對,計算兩者差距,再反向更新,迭代網路引數。
因此初始錨框也是比較重要的一部分,比如Yolov5Coco資料集上初始設定的錨框:
在這裡插入圖片描述

Yolov3、Yolov4中,訓練不同的資料集時,計算初始錨框的值是通過單獨的程式執行的。
Yolov5中將此功能嵌入到程式碼中,每次訓練時,自適應的計算不同訓練集中的最佳錨框值
當然,如果覺得計算的錨框效果不是很好,也可以在程式碼中將自動計算錨框功能關閉
在這裡插入圖片描述

控制的程式碼即train.py中上面一行程式碼,設定成False,每次訓練時,不會自動計算。

(3)自適應圖片縮放
在常用的目標檢測演演算法中,不同的圖片長寬都不相同,因此常用的方式是將原始圖片統一縮放到一個標準尺寸,再送入檢測網路中。
比如Yolo演演算法中常用416×416,608×608等尺寸,比如對下面800*600的影象進行變換。
在這裡插入圖片描述

Yolov5程式碼中對此進行了改進,也是Yolov5推理速度能夠很快的一個不錯的trick
作者認為,在專案實際使用時,很多圖片的長寬比不同。
因此縮放填充後,兩端的黑邊大小都不同,而如果填充的比較多,則存在資訊冗餘,影響推理速度。
因此在Yolov5程式碼datasets.py的letterbox函數中進行了修改,對原始影象自適應的新增最少的黑邊

在這裡插入圖片描述

影象高度上兩端的黑邊變少了,在推理時,計算量也會減少,即目標檢測速度會得到提升。
這種方式在之前github上Yolov3中也進行了討論:https://github.com/ultralytics/yolov3/issues/232
在討論中,通過這種簡單的改進,推理速度得到了37%的提升,可以說效果很明顯。
但是有的同學可能會有大大的問號??如何進行計算的呢?
大白按照Yolov5中的思路詳細的講解一下,在datasets.py的letterbox函數中也有詳細的程式碼。

第一步:計算縮放比例

在這裡插入圖片描述

原始縮放尺寸是416×416,都除以原始影象的尺寸後,可以得到0.52,和0.69兩個縮放係數,選擇小的縮放係數0.52

第二步:計算縮放後的尺寸

在這裡插入圖片描述
原始圖片的長寬都乘以最小的縮放係數0.52,寬變成了416,而高變成了312

第三步:計算黑邊填充數值

在這裡插入圖片描述

416-312=104,得到原本需要填充的高度。再採用numpy中np.mod取餘數的方式,得到8個畫素,再除以2,即得到圖片高度兩端需要填充的數值。
此外,需要注意的是:
a.這裡大白填充的是黑色,即(0,0,0),而Yolov5中填充的是灰色,即(114,114,114),都是一樣的效果。
b.訓練時沒有采用縮減黑邊的方式,還是採用傳統填充的方式,即縮放到416×416大小。
只是在測試,使用模型推理時,才採用縮減黑邊的方式,提高目標檢測,推理的速度。
c.為什麼np.mod函數的後面用32?因為Yolov5的網路經過5次下取樣,而2的5次方,等於32。所以至少要去掉32的倍數,再進行取餘。

2.2.2 Backbone

(1)Focus結構
在這裡插入圖片描述

Focus結構,Yolov3&Yolov4中並沒有這個結構,其中比較關鍵是切片操作。
比如右圖的切片示意圖,4×4×3的影象切片後變成2×2×12的特徵圖。
Yolov5s的結構為例,原始608×608×3的影象輸入Focus結構,採用切片操作,先變成304×304×12的特徵圖,再經過一次32個折積核的折積操作,最終變成304×304×32的特徵圖。
需要注意的是:Yolov5s的Focus結構最後使用了32個折積核,而其他三種結構,使用的數量有所增加,先注意下,後面會講解到四種結構的不同點。

(2)CSP結構
Yolov4網路結構中,借鑑了CSPNet的設計思路,在主幹網路中設計了CSP結構。

在這裡插入圖片描述

Yolov5Yolov4不同點在於,Yolov4中只有主幹網路使用了CSP結構,Yolov5中設計了兩種CSP結構,Yolov5s網路為例,以CSP1_X結構應用於Backbone主幹網路,另一種CSP2_X結構則應用於Neck中

在這裡插入圖片描述

這裡關於CSPNet的內容,也可以檢視大白之前的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》

2.2.3 Neck

Yolov5現在的NeckYolov4中一樣,都採用FPN+PAN的結構,但在Yolov5剛出來時,只使用了FPN接面構,後面才增加了PAN結構,此外網路中其他部分也進行了調整。
因此,大白在Yolov5剛提出時,畫的很多結構圖又都重新進行了調整
在這裡插入圖片描述

這裡關於FPN+PAN的結構,大白在《深入淺出Yolo之Yolov3&Yolov4核心基礎知識完整講解》中,講的很多,大家應該都有理解。
但如上面CSPNet中講到,Yolov5Yolov4的不同點在於,Yolov4Neck中,採用的都是普通的折積操作。
Yolov5Neck結構中,採用借鑑CSPNet設計的CSP2結構加強網路特徵融合的能力

在這裡插入圖片描述

2.2.4 輸出端

(1)Bounding box損失函數
《深入淺出Yolo系列之Yolov3&Yolov4核心基礎完整講解》中,大白詳細的講解了IOU_Loss,以及進化版的GIOU_LossDIOU_Loss,以及CIOU_Loss
Yolov5中採用其中的GIOU_LossBounding box損失函數
在這裡插入圖片描述

Yolov4中採用CIOU_Loss作為目標Bounding box的損失函數。

在這裡插入圖片描述

(2)nms非極大值抑制
在目標檢測的後處理過程中,針對很多目標框的篩選,通常需要nms操作
Yolov4DIOU_Loss的基礎上採用DIOU_nms的方式,而Yolov5中仍然採用加權nms的方式。
可以看出,採用DIOU_nms,下方中間箭頭的黃色部分,原本被遮擋的摩托車也可以檢出。

在這裡插入圖片描述

大白在專案中,也採用了DIOU_nms的方式,在同樣的引數情況下,將nmsIOU修改成DIOU_nms。對於一些遮擋重疊的目標,確實會有一些改進
比如下面黃色箭頭部分,原本兩個人重疊的部分,在引數和普通的IOU_nms一致的情況下,修改成DIOU_nms,可以將兩個目標檢出
雖然大多數狀態下效果差不多,但在不增加計算成本的情況下,有稍微的改進也是好的。

在這裡插入圖片描述

2.3 Yolov5四種網路結構的不同點

Yolov5程式碼中的四種網路,和之前的Yolov3Yolov4中的cfg檔案不同,都是以yaml的形式來呈現。
而且四個檔案的內容基本上都是一樣的,只有最上方的depth_multiplewidth_multiple兩個引數不同,很多同學看的一臉懵逼,不知道只通過兩個引數是如何控制四種結構的

2.3.1 四種結構的引數

大白先取出Yolov5程式碼中,每個網路結構的兩個引數:

(1)Yolov5s.yaml
在這裡插入圖片描述

(2)Yolov5m.yaml
在這裡插入圖片描述

(3)Yolov5l.yaml
在這裡插入圖片描述

(4)Yolov5x.yaml
在這裡插入圖片描述

四種結構就是通過上面的兩個引數,來進行控制網路的深度和寬度。其中depth_multiple控制網路的深度width_multiple控制網路的寬度

2.3.2 Yolov5網路結構

四種結構的yaml檔案中,下方的網路架構程式碼都是一樣的。
為了便於講解,大白將其中的Backbon部分提取出來,講解如何控制網路的寬度和深度yaml檔案中的Head部分也是同樣的原理。

在這裡插入圖片描述

在對網路結構進行解析時,yolo.py中下方的這一行程式碼將四種結構的depth_multiplewidth_multiple提取出,賦值給gdgw。後面主要對這gdgw這兩個引數進行講解。
在這裡插入圖片描述

下面再細緻的剖析下,看是如何控制每種結構,深度和寬度的

2.3.3 Yolov5四種網路的深度

在這裡插入圖片描述

(1)不同網路的深度
在上圖中,大白畫了兩種CSP結構CSP1CSP2,其中CSP1結構主要應用於Backbone中,CSP2結構主要應用於Neck中。
需要注意的是,四種網路結構中每個CSP結構的深度都是不同的
a. Yolov5s為例,第一個CSP1中,使用了1個殘差元件,因此是CSP1_1
而在Yolov5m中,則增加了網路的深度,在第一個CSP1中,使用了2個殘差元件,因此是CSP1_2
Yolov5l中,同樣的位置,則使用了3個殘差元件Yolov5x中,使用了4個殘差元件。
其餘的第二個CSP1和第三個CSP1也是同樣的原理。
b. 在第二種CSP2結構中也是同樣的方式,以第一個CSP2結構為例。
Yolov5s元件中使用了2*1=2組折積,因此是CSP2_1
Yolov5m中使用了2組Yolov5l中使用了3組Yolov5x中使用了4組。其他的四個CSP2結構,也是同理。
Yolov5中,網路的不斷加深,也在不斷增加網路特徵提取特徵融合的能力。
(2)控制深度的程式碼
控制四種網路結構的核心程式碼是yolo.py中下面的程式碼,存在兩個變數,ngd
我們再將ngd帶入計算,看每種網路的變化結果。

在這裡插入圖片描述

(3)驗證控制深度的有效性
我們選擇最小的yolov5s.yaml和中間的yolov5l.yaml兩個網路結構,將gd(height_multiple)係數帶入,看是否正確。

在這裡插入圖片描述

a. yolov5s.yaml
其中height_multiple=0.33,即gd=0.33,而n則由上面紅色框中的資訊獲得。
以上面網路框圖中的第一個CSP1為例,即上面的第一個紅色框。n等於第二個數值3
gd=0.33,帶入(2)中的計算程式碼,結果n=1。因此第一個CSP1結構內只有1個殘差元件,即CSP1_1
第二個CSP1結構中,n等於第二個數值9,而gd=0.33,帶入(2)中計算,結果n=3,因此第二個CSP1結構中有3個殘差元件,即CSP1_3
第三個CSP1結構也是同理,這裡不多說。
b. yolov5l.xml
其中height_multiple=1,即gd=1
和上面的計算方式相同,第一個CSP1結構中,n=3,帶入程式碼中,結果n=3,因此為CSP1_3
下面第二個CSP1結構和第三個CSP1結構都是同樣的原理。

2.3.4 Yolov5四種網路的寬度

在這裡插入圖片描述
(1)不同網路的寬度
上圖表格中所示,四種Yolov5結構不同階段的折積核的數量都是不一樣的。
因此也直接影響折積後特徵圖第三維度,即厚度,大白這裡表示為網路的寬度
a. Yolov5s結構為例,第一個Focus結構中,最後折積操作時,折積核的數量是32個,因此經過Focus結構,特徵圖的大小變成304×304×32
Yolov5mFocus結構中的折積操作使用了48個折積核,因此Focus結構後的特徵圖變成304×304×48Yolov5lYolov5x也是同樣的原理。
b. 第二個折積操作時,Yolov5s使用了64個折積核,因此得到的特徵圖是152×152×64。而Yolov5m使用96個特徵圖,因此得到的特徵圖是152×152×96Yolov5lYolov5x也是同理。
c. 後面三個折積下取樣操作也是同樣的原理,這樣大白不過多講解。
四種不同結構的折積核的數量不同,這也直接影響網路中比如CSP1結構CSP2等結構,以及各個普通折積,折積操作時的折積核數量也同步在調整,影響整體網路的計算量
大家最好可以將結構圖和前面第一部分四個網路的特徵圖連結,對應檢視,思路會更加清晰
當然折積核的數量越多,特徵圖的厚度,即寬度越寬,網路提取特徵的學習能力也越強
(2)控制寬度的程式碼
Yolov5的程式碼中,控制寬度的核心程式碼是yolo.py檔案裡面的這一行:
在這裡插入圖片描述

它所呼叫的子函數make_divisible的功能是:
在這裡插入圖片描述

(3)驗證控制寬度的有效性
我們還是選擇最小的Yolov5s和中間的Yolov5l兩個網路結構,將width_multiple係數帶入,看是否正確。
在這裡插入圖片描述

a. yolov5s.yaml
其中width_multiple=0.5,即gw=0.5

在這裡插入圖片描述

第一個折積下取樣為例,即Focus結構中下面的折積操作。
按照上面Backbone的資訊,我們知道Focus中,標準的c2=64,而gw=0.5,代入(2)中的計算公式,最後的結果=32。即Yolov5sFocus結構中,折積下取樣操作的折積核數量為32個
再計算後面的第二個折積下取樣操作,標準c2的值=128gw=0.5,代入(2)中公式,最後的結果=64,也是正確的。
b. yolov5l.yaml
其中width_multiple=1,即gw=1,而標準的c2=64,代入上面(2)的計算公式中,可以得到Yolov5lFocus結構中,折積下取樣操作的折積核的數量為64個,而第二個折積下取樣的折積核數量是128個
另外的三個折積下取樣操作,以及Yolov5mYolov5x結構也是同樣的計算方式,大白這裡不過多解釋。

3 Yolov5相關論文及程式碼

3.1 程式碼

Yolov5的作者並沒有發表論文,因此只能從程式碼角度進行分析。
Yolov5程式碼:https://github.com/ultralytics/yolov5
大家可以根據網頁的說明,下載訓練,及測試,流程還是比較簡單的。

3.2 相關論文

另外一篇論文,PP-Yolo,在Yolov3的原理上,採用了很多的tricks調參方式,也挺有意思。
感興趣的話可以參照另一個博主的文章:點選檢視

4 小目標分割檢測

目標檢測發展很快,但對於小目標的檢測還是有一定的瓶頸,特別是大解析度影象小目標檢測。比如7920×2160,甚至16000×16000畫素的影象。

在這裡插入圖片描述

影象的解析度很大,但又有很多小的目標需要檢測。但是如果直接輸入檢測網路,比如Yolov3檢出效果並不好
主要原因是:
(1)小目標尺寸
以網路的輸入608×608為例,Yolov3Yolov4Yolov5中下取樣都使用了5次,因此最後的特徵圖大小是19×1938×3876×76
三個特徵圖中,最大的76×76負責檢測小目標,而對應到608×608上,每格特徵圖的感受野608/76=8×8大小。

在這裡插入圖片描述

再將608×608對應到7680×2160上,以最長邊7680為例,7680/608×8=101
即如果原始影象中目標的寬或高小於101畫素,網路很難學習到目標的特徵資訊。
(PS:這裡忽略多尺度訓練的因素及增加網路檢測分支的情況)
(2)高解析度
而在很多遙感影象中,長寬比的解析度比7680×2160更大,比如上面的16000×16000
如果採用直接輸入原圖的方式,很多小目標都無法檢測出。
(3)顯示卡爆炸
很多影象解析度很大,如果簡單的進行下取樣,下取樣的倍數太大,容易丟失資料資訊。
但是倍數太小,網路前向傳播需要在記憶體中儲存大量的特徵圖,極大耗盡GPU資源,很容易發生顯示卡爆炸視訊記憶體爆炸,無法正常的訓練及推理。
因此可以借鑑2018年YOLT演演算法的方式,改變一下思維,對大解析度圖片先進行分割,變成一張張小圖,再進行檢測
需要注意的是:
為了避免兩張小圖之間,一些目標正好被分割截斷,所以兩個小圖之間設定overlap重疊區域,比如分割的小圖是960×960畫素大小,則overlap可以設定為960×20%=192畫素

在這裡插入圖片描述

每個小圖檢測完成後,再將所有的框放到大圖上,對大圖整體做一次nms操作,將重疊區域的很多重複框去除。
這樣操作,可以將很多小目標檢出,比如16000×16000畫素的遙感影象。

在這裡插入圖片描述

無人機視角下,也有很多小的目標。大白也進行了測試,效果還是不錯的。
比如下圖是將原始大圖->416×416大小,直接使用目標檢測網路輸出的效果:

在這裡插入圖片描述

可以看到中間黃色框區域,很多汽車檢測漏掉。
再使用分割的方式,將大圖先分割成小圖,再對每個小圖檢測,可以看出中間區域很多的汽車都被檢測出來:

在這裡插入圖片描述

不過這樣的方式有中間黃色框區域優點也有中間黃色框區域缺點:
優點
(1) 準確性
分割後的小圖,再輸入目標檢測網路中,對於最小目標畫素的下限大大降低
比如分割成608×608大小,送入輸入影象大小608×608的網路中,按照上面的計算方式,原始圖片上,長寬大於8個畫素的小目標都可以學習到特徵。
(2)檢測方式
在大解析度影象,比如遙感影象,或者無人機影象,如果無需考慮實時性的檢測,且對小目標檢測也有需求的專案,可以嘗試此種方式。
缺點:
(1) 增加計算量
比如原本7680×2160的影象,如果使用直接大圖檢測的方式,一次即可檢測完。
但採用分割的方式,切分成N張608×608大小的影象,再進行N次檢測,會大大增加檢測時間。
借鑑Yolov5的四種網路方式,我們可以採用儘量輕的網路,比如Yolov5s網路結構或者更輕的網路。
當然Yolov4Yolov5的網路各有優勢,我們也可以借鑑Yolov5的設計方式,對Yolov4進行輕量化改造,或者進行剪枝

5 後語

綜合而言,在實際測試中,Yolov4的準確性有不錯的優勢,但Yolov5的多種網路結構使用起來更加靈活,我們可以根據不同的專案需求,取長補短,發揮不同檢測網路的優勢。
希望在人工智慧的道路上,和大家共同進步

在這裡插入圖片描述