關於臉部辨識這塊,前些年不要太火,哪怕是到了今天依然火的一塌糊塗,什麼玩意都要跟臉部辨識搭個邊,這東西應該只是人工智慧的一個很小的部分,臉部辨識光從字面上理解就是識別出人臉區域,其實背後真正的處理是拿到人臉區域圖片,提取人臉特徵值,再用這些特徵值去做比對分析處理,識別出到底是誰,國內廠家也不少,比拼的就是準確度誤報率,速度無非就是靠堆硬體來,什麼VPU各種並行運算都堆上去,速度槓槓的,好多廠家都做到了幾個毫秒的級別,估計很多廠家都是在開源的基礎上加上了自家的演演算法,一直跑呀跑的整出了符合自家演演算法的人臉模型檔案,比如百度的臉部辨識模型檔案,經過好幾年的發展,越來越大越來越細越來越準。
聽某個大神說過,很多時候人工智慧其實並不是完全的智慧,絕大部分都停留在半智慧階段,而且這種半智慧階段還需要藉助很多輔助的硬體甚至人為的判斷,很多模型庫檔案的生成就是靠一小小姑娘在那邊流水線上類似的不停的點呀點,號稱深度學習演演算法,就是讓他識別更多的資料,使得更準確。關於臉部辨識或者人工智慧,外行一般覺得很科幻,內行一般覺得很絕望,業界領袖和領袖各種打雞血。
國內的廠家大部分都提供了官網對應的api來進行處理,註冊個賬號,搞個key,直接就可以擼起來,關於這塊技術上沒有任何難點,初學者都可以搞定,無非就是先post資料,拿到返回的資料進行解析,要搞清楚的就是如何填充要post的資料,比如帶上key,組織其他資料比如圖片是base64字串上傳還是二進位制檔案上傳等,返回的資料都是json啦,直接用現成的json庫進行解析就ok。
百度臉部辨識線上版和離線版SDK的封裝:
void FaceWebBaiDu::finished(QNetworkReply *reply)
{
QString error = reply->errorString();
if (!error.isEmpty() && error != "Unknown error") {
emit receiveError(error);
}
if (reply->bytesAvailable() > 0 && reply->error() == QNetworkReply::NoError) {
QString data = reply->readAll();
reply->deleteLater();
//傳送接收資料訊號
emit receiveData(data);
//初始化指令碼引擎
QScriptEngine engine;
//構建解析物件
QScriptValue script = engine.evaluate("value=" + data);
//獲取鑑權識別符號
QString token = script.property("access_token").toString();
if (!token.isEmpty()) {
this->token = token;
emit receiveResult(0, "鑑權標識返回成功");
return;
}
//通用返回結果欄位
int code = script.property("error_code").toInt32();
QString msg = script.property("error_msg").toString();
emit receiveResult(code, msg);
//圖片識別部分
QScriptValue result = script.property("result");
if (!result.isNull()) {
//臉部辨識
if (data.contains("location")) {
QScriptValue face_list = result.property("face_list");
checkFaceList(face_list);
}
//人臉比對
if (data.contains("score") && !data.contains("location")) {
QScriptValue score = result.property("score");
float result = score.toString().toFloat();
if (result > 0) {
emit receiveFaceCompare(QRect(), QRect(), result);
} else {
emit receiveFaceCompareFail();
}
}
//活體檢測
if (data.contains("face_liveness")) {
QScriptValue face_liveness = result.property("face_liveness");
float result = face_liveness.toString().toFloat();
if (result >= 0) {
emit receiveLive(result);
}
}
}
}
}
void FaceWebBaiDu::checkFaceList(const QScriptValue &scriptValue)
{
//建立迭代器逐個解析具體值
QScriptValueIterator it(scriptValue);
while (it.hasNext()) {
it.next();
if (it.flags() & QScriptValue::SkipInEnumeration) {
continue;
}
QRect rect;
QString face_token = it.value().property("face_token").toString();
if (!face_token.isEmpty()) {
QScriptValue value = it.value().property("location");
rect = FaceHelper::getRect(value);
}
if (rect.width() > 0) {
emit receiveFaceRect(rect);
break;
}
}
}
void FaceWebBaiDu::getToken()
{
//具體參見 http://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
QStringList list;
list.append(QString("grant_type=%1").arg("client_credentials"));
list.append(QString("client_id=%1").arg(key));
list.append(QString("client_secret=%1").arg(secret));
QString data = list.join("&");
QString url = "https://aip.baidubce.com/oauth/2.0/token";
FaceHelper::sendData(manager, url, data);
}
void FaceWebBaiDu::detect(const QImage &img)
{
QString imgData = FaceHelper::getImageData2(img);
QStringList list;
list.append(QString("{\"image\":\"%1\",\"image_type\":\"BASE64\"}").arg(imgData));
QString data = list.join("");
QString url = QString("https://aip.baidubce.com/rest/2.0/face/v3/detect?access_token=%1").arg(token);
FaceHelper::sendData(manager, url, data);
}
void FaceWebBaiDu::compare(const QImage &img1, const QImage &img2)
{
QString imgData1 = FaceHelper::getImageData2(img1);
QString imgData2 = FaceHelper::getImageData2(img2);
//如果需要活體檢測則NONE改為LOW NORMAL HIGH
QStringList list;
list.append("[");
list.append(QString("{\"image\":\"%1\",\"image_type\":\"BASE64\",\"liveness_control\":\"NONE\"}").arg(imgData1));
list.append(",");
list.append(QString("{\"image\":\"%1\",\"image_type\":\"BASE64\",\"liveness_control\":\"NONE\"}").arg(imgData2));
list.append("]");
QString data = list.join("");
QString url = QString("https://aip.baidubce.com/rest/2.0/face/v3/match?access_token=%1").arg(token);
FaceHelper::sendData(manager, url, data);
}
void FaceWebBaiDu::live(const QImage &img)
{
QList<QImage> imgs;
if (!img.isNull()) {
imgs << img;
}
live(imgs);
}
void FaceWebBaiDu::live(const QList<QImage> &imgs)
{
//記住最後一次處理的時間,限制頻繁的呼叫
QDateTime now = QDateTime::currentDateTime();
if (lastTime.msecsTo(now) < 500) {
return;
}
lastTime = now;
QStringList list;
list.append("[");
int count = imgs.count();
for (int i = 0; i < count; i++) {
QString imgData = FaceHelper::getImageData2(imgs.at(i));
list.append(QString("{\"image\":\"%1\",\"image_type\":\"BASE64\"}").arg(imgData));
if (i < count - 1) {
list.append(",");
}
}
list.append("]");
QString data = list.join("");
QString url = QString("https://aip.baidubce.com/rest/2.0/face/v3/faceverify?access_token=%1").arg(token);
FaceHelper::sendData(manager, url, data);
}