———————————————————————————————————
因YOLOv5的官方原始碼7月份進行了一次更新,有些模組比如apex可能在新的原始碼中已不再適用,所以我將6月份的一份原始碼放到了github上,並且在原始碼的基礎上增加了標記和處理資料集的功能,其中含有makeTxt.py和voc_label.py檔案和data目錄下的各種資料夾,大家可以拿過來按照說明設定好資料集後直接使用。
github:https://github.com/jiwuxuan/yolov5-master0
喜歡的話順手點個star,謝謝支援!**
———————————————————————————————————
2020年6月10日,Ultralytics在github上正式釋出了YOLOv5。YOLO系列可以說是單機目標檢測框架中的潮流前線了,YOLOv5並不是一個單獨的模型,而是一個模型家族,包括了YOLOv5s(最小)、YOLOv5m、YOLOv5l、YOLOv5x(最大)。
由於YOLOv5是在PyTorch中實現的,它受益於成熟的PyTorch生態系統,支援更簡單,部署更容易,相對於YOLOv4,YOLOv5具有以下優點:
既然YOLOv5如此之棒,那我們就體驗以下大神們的開源成果吧!
github地址:https://github.com/ultralytics/yolov5 [不到1M]
大神們還很貼心的把官方模型放到了網上,如果有梯子,可以下載下來直接測試一下,v3.1版本的官方模型的下載地址:https://github.com/ultralytics/yolov5/releases/tag/v3.1。博主這邊沒梯子,不過也無關緊要啦,畢竟我們用YOLOv5是識別具體的某項東西,需要自己用資料集來訓練模型,官方給的模型也不一定適合我們的業務場景。
至於YOLOv5的原理這裡就不多講了(其實是講不清),感興趣的可以自行搜尋。話不多說,直接上乾貨!
首先將YOLOv5專案下載到本地,然後設定虛擬環境conda create -n yolov5 python==3.7,在YOLOv5中儘量使用python3.7。專案的測試平臺為:
作業系統:windows10
IDE:Pycharm
python版本:anaconda Pyhon3.7
pytorch版本:torch 1.7.1
cuda版本:11.0
顯示卡:RTX 2060
cuda和pytorch的安裝這裡不再闡述,國內的話建議下載下來torch和torchvision的whl再進行安裝,防止網速不穩定出現安裝錯誤。本文所用到的cuda和pytorch的具體版本如下所示。
接著進入虛擬環境,使用pip安裝必要模組(建議換成國內的源後進行安裝):
pip install numpy
pip install matplotlib
pip install pandas
pip install scipy
pip install seaborn
pip install opencv-python
pip install tqdm
pip install pillow
pip install tensorboard
pip install pyyaml
pip install pandas
pip install scikit-image
pip install Cython
pip install thop
pip install pycocotools
本專案需要pycocotools模組,COCO是一個大型的影象資料集,用於目標檢測、分割、人的關鍵點檢測、素材分割和標題生成,在python中用COCO資料集需要安裝pycocotools。但是在windows環境下無法直接通過pip安裝pycocotools,安裝方法如下:
先安裝Visual C++ 2015 build tools:Microsoft Visual C++ Build Tools 2015,安裝好後,在Terminal中執行下面命令:
pip install git+https://github.com/philferriere/cocoapi.git#subdirectory=PythonAPI
執行後即可安裝完畢。
apex是一款基於 PyTorch 的混合精度訓練加速神器,單純的inference實際上不需要apex模組,如果還要訓練自己的資料集,就需要安裝這個模組,安裝方法如下:
在github上把apex專案下載或者git到本地,連結為:https://github.com/NVIDIA/apex。
在terminal中啟用pytorch的環境,並且進入到apex的資料夾下,在terminal中執行:
python setup.py install
執行之後即安裝完畢。~~
具體安裝教學可以參考該博文:https://blog.csdn.net/mrjkzhangma/article/details/100704397
執行後可以執行pip list命令檢視當前環境下的所有模組,如果看到環境中有剛才安裝的的模組,則環境已經設定完畢!
首先從github上下載下來YOLOv5,樓主這裡改名為yolov5-master-cat,因為是識別小貓貓的。然後在data目錄下新建Annotations, images, ImageSets, labels 四個資料夾。
其中images存放的是原始的圖片資料集,Annotations存放的是標記後生成的xml檔案,labels存放的是儲存標記內容的txt檔案,ImageSets存放的是訓練資料集和測試資料集的分類情況。
├── data
│ ├── Annotations 進行 detection 任務時的標籤檔案,xml 形式,檔名與圖片名一一對應
│ ├── images 存放 .jpg 格式的圖片檔案
│ ├── ImageSets 存放的是分類和檢測的資料集分割檔案,包含train.txt, val.txt,trainval.txt,test.txt
│ ├── labels 存放label標註資訊的txt檔案,與圖片一一對應
├── ImageSets(train,val,test建議按照8:1:1比例劃分)
│ ├── train.txt 寫著用於訓練的圖片名稱
│ ├── val.txt 寫著用於驗證的圖片名稱
│ ├── trainval.txt train與val的合集
│ ├── test.txt 寫著用於測試的圖片名稱
工欲善其事必先利其器,沒有合適的訓練資料集去訓練模型,哪怕YOLOv5這個目標識別框架再優秀那也只是個花架子啊。所以第一步我們要去準備我們的訓練資料集,樓主這裡要識別的是家裡的兩隻活潑可愛黏人乖巧聽話的小貓貓,所以準備了五六十張貓貓的照片。製作資料集時,通常使用labelImge標註工具,具體用法這裡不多做闡述,因為樓主用了另一種感覺更好用的標記工具:精靈標記助手。使用起來那是相當的順手啊,不僅操作簡單上手快,還可以儲存之前標註的資料集,方便後續對資料集標註內容的修改,而且相比於labelImge,RectLabel這些標註工具,精靈標記助手除了支援圖片標註外,還支援文字標註,視訊標註,而且還免費,真的算是業界良心了。
下載地址:http://www.jinglingbiaozhu.com/
參考博文:https://blog.csdn.net/youmumzcs/article/details/79657132
精靈標記助手標記介面如圖所示:
資料集標記好後,將原始圖片資料集放到images資料夾中,如圖所示。
將精靈標記助手所生成的xml檔案全部放入到Annotations資料夾中,如圖所示。
在yolov5-master-cat的根目錄下新建一個檔案makeTxt.py,程式碼如下:
import os
import random
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftrain.write(name)
else:
fval.write(name)
else:
ftest.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
接著再新建另一個檔案voc_label.py,切記,classes=[……] 中填入的一定要是自己在資料集中所標註的類別名稱,標記了幾個類別就填寫幾個類別名,填寫錯誤的話會造成讀取不出xml檔案裡的標註資訊。程式碼如下:
# xml解析包
import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用於返回指定的資料夾包含的檔案或資料夾的名字的列表
from os import listdir, getcwd
from os.path import join
sets = ['train', 'test', 'val']
classes = ['Gingerbread', 'Coconut-milk']
# 進行歸一化操作
def convert(size, box): # size:(原圖w,原圖h) , box:(xmin,xmax,ymin,ymax)
dw = 1./size[0] # 1/w
dh = 1./size[1] # 1/h
x = (box[0] + box[1])/2.0 # 物體在圖中的中心點x座標
y = (box[2] + box[3])/2.0 # 物體在圖中的中心點y座標
w = box[1] - box[0] # 物體實際畫素寬度
h = box[3] - box[2] # 物體實際畫素高度
x = x*dw # 物體中心點x的座標比(相當於 x/原圖w)
w = w*dw # 物體寬度的寬度比(相當於 w/原圖w)
y = y*dh # 物體中心點y的座標比(相當於 y/原圖h)
h = h*dh # 物體寬度的寬度比(相當於 h/原圖h)
return (x, y, w, h) # 返回 相對於原圖的物體中心點的x座標比,y座標比,寬度比,高度比,取值範圍[0-1]
# year ='2012', 對應圖片的id(檔名)
def convert_annotation(image_id):
'''
將對應檔名的xml檔案轉化為label檔案,xml檔案包含了對應的bunding框以及圖片長款大小等資訊,
通過對其解析,然後進行歸一化最終讀到label檔案中去,也就是說
一張圖片檔案對應一個xml檔案,然後通過解析和歸一化,能夠將對應的資訊儲存到唯一一個label檔案中去
labal檔案中的格式:calss x y w h 同時,一張圖片對應的類別有多個,所以對應的bunding的資訊也有多個
'''
# 對應的通過year 找到相應的資料夾,並且開啟相應image_id的xml檔案,其對應bund檔案
in_file = open('data/Annotations/%s.xml' % (image_id), encoding='utf-8')
# 準備在對應的image_id 中寫入對應的label,分別為
# <object-class> <x> <y> <width> <height>
out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
# 解析xml檔案
tree = ET.parse(in_file)
# 獲得對應的鍵值對
root = tree.getroot()
# 獲得圖片的尺寸大小
size = root.find('size')
# 如果xml內的標記為空,增加判斷條件
if size != None:
# 獲得寬
w = int(size.find('width').text)
# 獲得高
h = int(size.find('height').text)
# 遍歷目標obj
for obj in root.iter('object'):
# 獲得difficult ??
difficult = obj.find('difficult').text
# 獲得類別 =string 型別
cls = obj.find('name').text
# 如果類別不是對應在我們預定好的class檔案中,或difficult==1則跳過
if cls not in classes or int(difficult) == 1:
continue
# 通過類別名稱找到id
cls_id = classes.index(cls)
# 找到bndbox 物件
xmlbox = obj.find('bndbox')
# 獲取對應的bndbox的陣列 = ['xmin','xmax','ymin','ymax']
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
print(image_id, cls, b)
# 帶入進行歸一化操作
# w = 寬, h = 高, b= bndbox的陣列 = ['xmin','xmax','ymin','ymax']
bb = convert((w, h), b)
# bb 對應的是歸一化後的(x,y,w,h)
# 生成 calss x y w h 在label檔案中
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
# 返回當前工作目錄
wd = getcwd()
print(wd)
for image_set in sets:
'''
對所有的檔案資料集進行遍歷
做了兩個工作:
1.將所有圖片檔案都遍歷一遍,並且將其所有的全路徑都寫在對應的txt檔案中去,方便定位
2.同時對所有的圖片檔案進行解析和轉化,將其對應的bundingbox 以及類別的資訊全部解析寫到label 檔案中去
最後再通過直接讀取檔案,就能找到對應的label 資訊
'''
# 先找labels資料夾如果不存在則建立
if not os.path.exists('data/labels/'):
os.makedirs('data/labels/')
# 讀取在ImageSets/Main 中的train、test..等檔案的內容
# 包含對應的檔名稱
image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
# 開啟對應的2012_train.txt 檔案對其進行寫入準備
list_file = open('data/%s.txt' % (image_set), 'w')
# 將對應的檔案_id以及全路徑寫進去並換行
for image_id in image_ids:
list_file.write('data/images/%s.jpg\n' % (image_id))
# 呼叫 year = 年份 image_id = 對應的檔名_id
convert_annotation(image_id)
# 關閉檔案
list_file.close()
# os.system(‘comand’) 會執行括號中的命令,如果命令成功執行,這條語句返回0,否則返回1
# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")
# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")
分別執行makeTxt.py和voc_label.py。
makeTxt.py主要是將資料集分類成訓練資料集和測試資料集,預設train,val,test按照8:1:1的比例進行隨機分類,執行後ImagesSets資料夾中會出現四個檔案,主要是生成的訓練資料集和測試資料集的圖片名稱,如下圖。同時data目錄下也會出現這四個檔案,內容是訓練資料集和測試資料集的圖片路徑。
voc_label.py主要是將圖片資料集標註後的xml檔案中的標註資訊讀取出來並寫入txt檔案,執行後在labels資料夾中出現所有圖片資料集的標註資訊,如下圖:
到此,本次訓練所需的資料集已經全部準備好了。
首先在data目錄下,複製一份coco.yaml檔案並將其重新命名為cat.yaml,放在data目錄下,並對cat.yaml中的引數進行設定。其中train,val,test後面分別為訓練集和測試集圖片的路徑, nc為資料集的類別數,我這裡只分了兩類,names為類別的名稱。這幾個引數均按照自己的實際需求來修改。程式碼如下:
# COCO 2017 dataset http://cocodataset.org
# Download command: bash yolov5/data/get_coco2017.sh
# Train command: python train.py --data ./data/coco.yaml
# Dataset should be placed next to yolov5 folder:
# /parent_folder
# /coco
# /yolov5
# train and val datasets (image directory or *.txt file with image paths)
train: data/train.txt # 118k images
val: data/val.txt # 5k images
test: data/test.txt # 20k images for submission to https://competitions.codalab.org/competitions/20794
# number of classes
nc: 2
# class names
names: ['Gingerbread', 'Coconut-milk']
# Print classes
# with open('data/coco.yaml') as f:
# d = yaml.load(f, Loader=yaml.FullLoader) # dict
# for i, x in enumerate(d['names']):
# print(i, x)
接著在models目錄下的yolov5s.yaml檔案進行修改,這裡取決於你使用了哪個模型就去修改對於的檔案,該專案中使用的是yolov5s模型。需要修改的程式碼如下:
# parameters
nc: 2 # number of classes
depth_multiple: 0.33 # model depth multiple
width_multiple: 0.50 # layer channel multiple
最後,在根目錄中對train.py中的一些引數進行修改,主要引數解釋如下。我們平時訓練的話,主要用到的只有這幾個引數而已:–weights,–cfg,–data,–epochs,–batch-size,–img-size,–project。
parser = argparse.ArgumentParser()
# 載入的權重檔案
parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
# 模型組態檔,網路結構,使用修改好的yolov5m.yaml檔案
parser.add_argument('--cfg', type=str, default='models/yolov5s.yaml', help='model.yaml path')
# 資料集組態檔,資料集路徑,類名等,使用資料集方面的cat.yaml檔案
parser.add_argument('--data', type=str, default='data/cat.yaml', help='data.yaml path')
# 超引數檔案
parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
# 訓練總輪次,1個epoch等於使用訓練集中的全部樣本訓練一次,值越大模型越精確,訓練時間也越長。
parser.add_argument('--epochs', type=int, default=300)
# 批次大小,一次訓練所選取的樣本數,顯示卡垃圾的話,就調小點
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs')
# 輸入圖片解析度大小,nargs='+'表示引數可設定一個或多個
parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
# 是否採用矩形訓練,預設False,開啟後可顯著的減少推理時間
parser.add_argument('--rect', action='store_true', help='rectangular training')
# 接著打斷訓練上次的結果接著訓練
parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
# 不儲存模型,預設False
parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
# 不進行test,預設False
parser.add_argument('--notest', action='store_true', help='only test final epoch')
# 不自動調整anchor,預設False
parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
# 是否進行超引數進化,預設False
parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
# 谷歌雲盤bucket,一般不會用到
parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
# 是否提前快取圖片到記憶體,以加快訓練速度,預設False
parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
# 選用加權影象進行訓練
parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
# 訓練的裝置,cpu;0(表示一個gpu裝置cuda:0);0,1,2,3(多個gpu裝置)。值為空時,訓練時預設使用計算機自帶的顯示卡或CPU
parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
# 是否進行多尺度訓練,預設False
parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
# 資料集是否只有一個類別,預設False
parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
# 是否使用adam優化器
parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
# 是否使用跨卡同步BN,在DDP模式使用
parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
# gpu編號
parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
# W&B記錄的影象數,最大為100
parser.add_argument('--log-imgs', type=int, default=16, help='number of images for W&B logging, max 100')
# 記錄最終訓練的模型,即last.pt
parser.add_argument('--log-artifacts', action='store_true', help='log artifacts, i.e. final trained model')
# dataloader的最大worker數量
parser.add_argument('--workers', type=int, default=4, help='maximum number of dataloader workers')
# 訓練結果所存放的路徑,預設為runs/train
parser.add_argument('--project', default='runs/train', help='save to project/name')
# 訓練結果所在資料夾的名稱,預設為exp
parser.add_argument('--name', default='exp', help='save to project/name')
# 若現有的project/name存在,則不進行遞增
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
opt = parser.parse_args()
全部設定好後,直接執行train.py檔案開始訓練,這時候就到了考驗顯示卡的時候,可以耐心的等上一兩個小時,可以吃個瓜,看個小電影啥的,千萬別手癢玩什麼3A大作,否則電腦爆炸還得重新訓練。
當程式執行介面出現如下所示並後續不報錯的情況下,說明開始訓練。
Using torch 1.7.1+cu110 CUDA:0 (GeForce RTX 2060, 6144MB)
Namespace(adam=False, batch_size=16, bucket='', cache_images=False, cfg='', data='data/cat.yaml', device='', epochs=300, evolve=False, exist_ok=False, global_rank=-1, hyp='data/hyp.scratch.yaml', image_weights=False, img_size=[640, 640], local_rank=-1, log_artifacts=False, log_imgs=16, multi_scale=False, name='exp', noautoanchor=False, nosave=False, notest=False, project='runs/train', rect=False, resume=False, save_dir='runs\\train\\exp', single_cls=False, sync_bn=False, total_batch_size=16, weights='yolov5s.pt', workers=8, world_size=1)
Start Tensorboard with "tensorboard --logdir runs/train", view at http://localhost:6006/
Hyperparameters {'lr0': 0.01, 'lrf': 0.2, 'momentum': 0.937, 'weight_decay': 0.0005, 'warmup_epochs': 3.0, 'warmup_momentum': 0.8, 'warmup_bias_lr': 0.1, 'box': 0.05, 'cls': 0.5, 'cls_pw': 1.0, 'obj': 1.0, 'obj_pw': 1.0, 'iou_t': 0.2, 'anchor_t': 4.0, 'fl_gamma': 0.0, 'hsv_h': 0.015, 'hsv_s': 0.7, 'hsv_v': 0.4, 'degrees': 0.0, 'translate': 0.1, 'scale': 0.5, 'shear': 0.0, 'perspective': 0.0, 'flipud': 0.0, 'fliplr': 0.5, 'mosaic': 1.0, 'mixup': 0.0}
Analyzing anchors... anchors/target = 5.31, Best Possible Recall (BPR) = 1.0000
Image sizes 640 train, 640 test
Using 6 dataloader workers
Logging results to runs\train\exp
Starting training for 300 epochs...
Epoch gpu_mem box obj cls total targets img_size
0/299 2.2G 0.1117 0.03632 0.02687 0.1749 2 640: 100%|██████████| 4/4 [00:17<00:00, 4.35s/it]
Class Images Targets P R mAP@.5 mAP@.5:.95: 100%|██████████| 1/1 [00:01<00:00, 1.12s/it]
all 6 0 0 0 0 0
在訓練中,也可以隨時檢視每一輪次訓練的結果,可利用tensorboard視覺化訓練過程,訓練開始時會在runs/train/exp資料夾中產生一個「events.out.tfevents.1608924773.JWX.5276.0」檔案,利用tensorboard開啟即可檢視訓練紀錄檔。首先我們通過cmd進去該YOLOv5所在的專案資料夾,然後啟用所用的虛擬環境,輸入如下命令列:
tensorboard --logdir runs/train/exp
命令列輸入資訊的整體顯示如下所示:
E:\SG\yolov5目標監測\yolov5-master-catnew>activate yolov5
(yolov5) E:\SG\yolov5目標監測\yolov5-master-catnew>tensorboard --logdir runs/train/exp
TensorFlow installation not found - running with reduced feature set.
Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all
TensorBoard 2.4.0 at http://localhost:6006/ (Press CTRL+C to quit)
到這一步後,我們就可開啟 http://localhost:6006/ 網頁檢視每一輪次訓練的結果,如圖所示。我這裡由於資料過少(只有62張)的原因,所有模型訓練的很不精準。如果是用於正常工作的情況下,所需的資料集至少要上千張圖片。
如果不更改訓練結果所產生的路徑的話,訓練好後會在runs/train/exp資料夾得到如下檔案,其中,我們訓練好的權重為weights資料夾中的best.pt和last.pt檔案,顧名思義,best.pt是訓練300輪後所得到的最好的權重,last.pt是最後一輪訓練所得到的權重。
有了訓練好的權重後,就可以就行目標檢測測試了。直接在根目錄的detect.py中進行偵錯,主要引數解釋如下。我們平時用的話,主要用到的只有這幾個引數而已:–weights,–source,–conf-thres,–project。
parser = argparse.ArgumentParser()
# 選用訓練的權重,可用根目錄下的yolov5s.pt,也可用runs/train/exp/weights/best.pt
parser.add_argument('--weights', nargs='+', type=str, default='yolov5s.pt', help='model.pt path(s)')
# 檢測資料,可以是圖片/視訊路徑,也可以是'0'(電腦自帶攝像頭),也可以是rtsp等視訊流
parser.add_argument('--source', type=str, default='inference/videos/貓貓識別.mp4', help='source') # file/folder, 0 for webcam
# 網路輸入圖片大小
parser.add_argument('--img-size', type=int, default=640, help='inference size (pixels)')
# 置信度閾值,檢測到的物件屬於特定類(狗,貓,香蕉,汽車等)的概率
parser.add_argument('--conf-thres', type=float, default=0.25, help='object confidence threshold')
# 做nms的iou閾值
parser.add_argument('--iou-thres', type=float, default=0.45, help='IOU threshold for NMS')
# 檢測的裝置,cpu;0(表示一個gpu裝置cuda:0);0,1,2,3(多個gpu裝置)。值為空時,訓練時預設使用計算機自帶的顯示卡或CPU
parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
# 是否展示檢測之後的圖片/視訊,預設False
parser.add_argument('--view-img', action='store_true', help='display results')
# 是否將檢測的框座標以txt檔案形式儲存,預設False
parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
# 是否將檢測的labels以txt檔案形式儲存,預設False
parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')
# 設定只保留某一部分類別,如0或者0 2 3
parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3')
# 進行nms是否也去除不同類別之間的框,預設False
parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')
# 推理的時候進行多尺度,翻轉等操作(TTA)推理
parser.add_argument('--augment', action='store_true', help='augmented inference')
# 如果為True,則對所有模型進行strip_optimizer操作,去除pt檔案中的優化器等資訊,預設為False
parser.add_argument('--update', action='store_true', help='update all models')
# 檢測結果所存放的路徑,預設為runs/detect
parser.add_argument('--project', default='runs/detect', help='save results to project/name')
# 檢測結果所在資料夾的名稱,預設為exp
parser.add_argument('--name', default='exp', help='save results to project/name')
# 若現有的project/name存在,則不進行遞增
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
opt = parser.parse_args()
修改好引數後,直接執行detect.py檔案,如果不更改檢測結果所產生的路徑的話,檢測完成後會在runs/detect/exp資料夾得到檢測後的視訊。下面是輸出視訊的截圖,可能是小貓的特徵不是很明顯,尤其是側臉的識別效果並不是很好,訓練資料集如果量大一點應該會有更好的效果。