社群媒體

AI+Security 當AI晶片技術進入物聯安防

AI+Security 當AI晶片技術進入物聯安防
Nvidia曾表示,AI無處不在,摩爾定律已終結,設計人員無法再創造出可以實現更高指令集並行性的CPU架構,深度學習正在引領軟體和電腦領域的變革。深度學習、大數據和GPU的結合引爆了AI革命,也推動了電腦領域的未來。Nvidia每年都會在全球舉行GPU技術大會(GPU Technology Conference),透過這個盛會,讓許多人工智慧及運算技術的開發人員和資料分析人員有機會溝通交流;這兩年更是集結了全球具代表性的物聯及安防人工智慧應用產業,展示了Nvidia GPU在物聯網與安防於AI領域的創新研究成果,對安防與物聯網行業產生很大的影響,使該產業的深度學習、人工智慧等新興領域的應用有了新的突破。

除了Nvidia,Intel也不遑多讓,推出FPGA架構的AI主晶片,而以色列CEVA的DSP及新創公司台灣耐能(Kneron)的ASIC架構AI晶片也緊接上市,後續我們也將會看到中國挖礦業者比特大陸(Bitmain)的AI運算晶片即將震憾而來,顯見人工智慧的運算處理晶片不會是一家獨佔的局面,透過各種運算法的出現,也讓AI晶片成為影響物聯網與安防發展的主要因素之一。

物聯安防進入AI的創新技術

說到安控與物聯網的結合,其實早在20年前的自動控制SCADA及安全監控的從業人員已有實例及接觸,只是那個時代還沒有出現物聯網這個偉大的名詞。過去我們在水力發電的遠端遙控遙測就是一個將影像結合物聯網的具體應用,而現在經由影像及物聯網結合後,透過雲端大數據與資料收集分析,再經過人工智慧的運算與建模及深度學習產出結果,這讓整個物聯安防變得非常的聰明、主動與多工。但要得到這樣的結果必須要有幾個創新技術來搭配,才能達成物聯網及安控整合進入AI人工智慧的境界。

這幾個重要的創新技術分別為深度學習辨識、影像智慧分析、雲端運算、雲端儲存技術、攝影機邊緣運算及大數據收集等,對公共安全領域的技術革新產生了深遠影響。同時,透過運用AI人工智慧的平台晶片如GPU/CPU/NPU及ASIC/DSP等不同處理能力條件的晶片,提供AI人工智慧所需的運算處理工具。

深度學習辨識影像智慧分析

深度學習辨識影像智慧分析是一種基於單一或多目標的形態舉止及行為的智慧監控分析技術,其核心技術是將場景中的背景和目標分離,識別出真正的目標並且去除背景干擾,進而辨識及分析、追蹤在攝影機場景或感測器內出現/感知的目標動作行為及反應數據。同時,透過書籤標註的功能,對事件證據中的相關目標如人、車、物等進行標註,規範案件描述模式和管理方式,作為後續事件搜尋檢索的關鍵字,提升事件分析有效性,擴展事件分析線索來源,以加快人工智慧運算及結果產出。

攝影機邊緣運算

在AI化的要求下, 為了達成運算處理速度及節省頻寬的目標,必須推動影像監控系統前端運算的建置,將運算分析及辨識感知等工作轉向攝影機前端,以有效運用攝影機在超高清、低照度、寬動態、安全性等利於前端智慧分析方面的特性。藉由高清攝影機的智慧邊緣分析,可在一定程度上減低後端儲存壓力,且這些前端的智慧影像分析檢測與報警,並不僅只是一般的絆線監測、周界入侵監測、遺留物監測、物品移走和徘徊等基本功能,而是包含透過深度學習及建模的深度比對及辨識分析。

AI大數據

AI大數據的收集改變了影像監控應用,目前最實際的AI人工智慧的應用就是從大量的影像與感知資料中,找出具有特定線索及特徵的影像與感知結果,以協助使用者順利找到所需要的事件線索;而如何讓大數據的資料收集成為真正有效的數據資料,就要克服數據及影像結構化的排列與收集的障礙。例如:資料必須加上事件形態字串代號、影像必須有書籤標註,這樣的大數據收集技術才能有效滿足、達成AI化的運作條件。大數據的收集亦不侷限於即時的感知數據及影像,而是必須包含感知及影像收集後經過大量分析自動產出的中繼資料資訊,以及大量長時間存儲的感知與影像資料,這樣的數據採集就是一種AI化的技術應用。

雲端運算技術

雲端運算技術包含運算及儲存二個部分,雲端運算存儲創新技術會採用分散式檔案系統做為運算與儲存的基本特徵,將傳統的三層存儲體系結構(檔案系統、卷管理器和RAID)組合為統一的軟體層,進而創造一個跨越存儲系統中所有節點的單一智慧檔案運算與儲存系統。這種AI人工智慧雲端創新技術避免了系統資源爭用,即使出現整節點故障,系統也能夠自動識別故障節點,自動恢復故障節點涉及的資料和中繼資料。當然在AI化的要求下,雖然一切在GPU/CPU/NPU/ASIC/DSP等的支援運作下,有了更進階、更結構化的數據分析,但過去一些基本的物聯安防要求還是不能拋棄的,例如智慧影像品質診斷功能可以幫助用戶有效檢測基於鏡頭、護罩和人為等原因導致的映像異常問題;或是一些基本如影像亮度異常、雪花干擾、色偏、垂直及水平紋干擾、影像失落等畫面狀態,以及人為的震動、抖動、遮擋及噴污等,都是人工智慧下不能放棄的一些功能。目前在人工智慧下尚未能有效實現網路頻寬、迴路偵測及糾錯等QoS要求,因此未來最好是在創新技術上再加上AI人工智慧運作維護的功能,才是一個完善的AI+Security系統。

現階段AI晶片的發展

核心晶片決定運算平台的基礎架構和發展生態,但傳統CPU運算能力不足;由於AI所需的深度學習需要很高的內在並行度、大量浮點運算能力以及矩陣運算,基於CPU的傳統運算架構無法充分滿足人工智慧高性能平行計算(HPC)的需求,因此需要發展適合人工智慧架構的專屬晶片,專屬硬體加速器便成為新架構晶片的發展主流。

目前處理器晶片對於人工智慧硬體優化升級有兩種發展路徑:(1)延續傳統計算架構,加速硬體計算能力,以GPU、FPGA、ASIC(TPU、NPU等)晶片為代表,採用這些專屬晶片作為輔助,配合CPU的控制,進行人工智慧相關的各種運算;(2)徹底顛覆傳統運算架構,採用類比人腦神經元結構來提升計算能力,以IBM TrueNorth晶片為代表。

由於技術和底層硬體的限制,第二種路徑尚處於前期研發階段,目前不具備大規模商業應用的可能性。未來隨著資料的大量增長,若要把所有的資料都上傳到雲端處理,不管是從網路頻寬還是處理效率、即時性要求等方面來考慮都不是最佳的選擇。而將原本由中心節點處理的業務加以拆分,分散到邊緣節點來處理,資料的分析會更接近資料來源,也更加適合大數據的整理。

這種把資料的分析處理分布到網路的邊緣,例如行為分析、人員密度、人體屬性、人臉屬性、人臉辨識、立體視覺等大量的處理功能,都能在前端的攝影機或是NVR產品中實現,同時配合後端的大數據平台,將會是未來AI人工智慧化監控的主流形式。從日益興旺的AI板卡市場可以看出,AI應用落地到硬體終端上將成為大勢所趨,無論是通用的GPU還是Google的TPU,都是讓AI在硬體終端上開始由軟到硬的具體表現,更是人工智慧產業化的典型代表。

AI在物聯網及安防的發展趨勢

安防領域的演算法主要為編碼壓縮及影像分析,進入AI時代,人工智慧領域的演算法紛紛走向「開源」形式,電腦視覺底層演算法模型或將逐步走向統一,演算法研發的技術門檻也在無形中降低,早期以運算法起家的公司技術優勢不再,必須找到實際應用的產品來支撐。而攝影機及感測器被認為是人工智慧之眼,安防則成為AI在應用領域率先落地的行業之一。除此之外,數據場景則是人工智慧公司的基礎,脫離場景的運算法只是徒有演講內容而已;沒有實際的應用場景,沒有影像及感測數據資料的支持,若僅有單純的軟體運算技術,未來將逐漸失去競爭能力。

從安防影像應用產業鏈來看,大型的安控與物聯網產業鏈已經開始著手自己的運算法,而包含Intel、Kneron等晶片公司也自行開發運算法,因此未來的AI人工智慧將是具備前端整合及獨立開發能力的企業所能參與的遊戲,一般的物聯網及安防產業中間商則只有在旁觀看的餘地。重點是,面對AI浪潮的席捲,您是否已經有所準備?
 
什麼是AI晶片的深度學習演算法?

深度學習演算法分「訓練」和「推斷」兩個過程。簡單來講,AI人工智慧需要透過以大數據收集為基礎,通過「訓練」得到各種參數,再把這些參數傳遞給「推斷」部分以得到最終結果。訓練環節通常需要透過大量的數據登錄,或採取增強學習而非監督學習的方法,訓練出一個複雜的深度神經網絡模型。訓練過程由於涉及大量的訓練資料和複雜的深度神經網絡結構,運算量需要龐大的計算規模,對於處理器的計算能力、精度、可擴展性等性能要求很高。目前在訓練環節主要使用Nvidia的GPU集群來完成,有些則是自主研發的ASIC/FPGA/DSP晶片,可支援訓練TPU環節的深度網路處理速度。

而「推斷」環節指的是利用訓練好的模型,使用新的數據資料去推理出各種結論,如影像監控設備通過後台的深度神經網絡模型,判斷一張抓拍到的人臉是否屬於黑名單。雖然推斷的計算量相比訓練少很多,但仍然涉及大量的矩陣式運算。在推斷環節,GPU、FPGA和ASIC、DSP或多或少都有一些應用價值。
 
分享文章:
文章評論 ( 0 )

全球安防科技網於每周提供「智慧安全、防災、建築及能源電子報」; 每月提供各行業應用解決方案與產品電子報,包括產業最新脈動、物聯網與智慧化應用相關新聞、行業解決方案案例剖析和產品訊息。



Please key in code