打破AI黑盒子:可解釋性的人臉辨識模組

打破AI黑盒子:可解釋性的人臉辨識模組
科技部於5月11日召開記者會,邀請台灣大學人工智慧技術暨全幅健康照護聯合研究中心(以下簡稱台大AI中心)轄下的徐宏民教授團隊,發表該團隊在科技部支持下所開發出的可解釋性人工智慧(Explainable AI ,XAI)模組xCos。該模組除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更能提升人類對於使用AI的信任度。

(右圖左起)台大AI中心執行長杜維洲、科技部前瞻及應用科技司司長楊琇雅、科技部部長陳良基、台大資訊工程學系教授徐宏民、台大AI中心主任陳信希

科技部長陳良基表示,科技部自2017年宣布人工智慧(AI)科研戰略,引導台灣成為AI發展重鎮,續於2018年起補助台灣4所大學成立AI創新研究中心,包含台灣大學(核心技術與生技醫療)、清華大學(智慧製造)、交通大學(智慧服務)及成功大學(生技醫療)。歷經2年多的醞釀與實踐後,台大AI中心轄下的徐宏民教授團隊打造出能嵌合在各個人臉辨識模型的「可解釋性AI模組xCos」。該研究成果在近年世界各國強調AI透明度的當下,讓系統直接告訴我們人臉判釋的相似度及背後原因,並正將XAI技術擴展到其他關鍵性的人工智慧決策,包括能源、醫學、工業製造等領域。
 
人臉辨識技術再精進
徐宏民教授團隊在科技部長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等,前於2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽(Disguised Faces in the Wild)中,以辨識率唯一超過9成奪下全球冠軍。

徐宏民表示,團隊過去3年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇AI人臉辨識結果跟我們大腦直覺無法吻合的案例,不曉得判斷的依據為何?為解決這樣的問題,團隊花了一年多的時間開發了可解釋性人工智慧(Explainable AI ,XAI)模組xCos,可以成功解釋為何2張人臉會辨識為同一人(或另一人)的原因,提出AI黑盒子的決策依據、協助人臉辨識產品開發。同時xCos會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。

揭開AI的黑盒子,讓AI來告訴你「它」的理由
早期的AI是基於規則系統(rule-based system)由科學家提供各種判斷依據,讓電腦依流程判斷出結論,例如:決策樹等。此方法可以輕易的回頭找出電腦產出成果的原因,具有高度的可解釋性。但近年AI已進步到使用深度學習等類神經網路,在快速且大量地消化各式資料後,由電腦自己訂規則,憑著數以千萬計的條件產出更高精準度的答案;但逐漸的,人們開始注意到AI無法詳細說明「它」做出決定的推理過程與原因,在得不到滿意的回答之前,將讓人駐足不前,不敢放心地運用AI解決問題,甚至質疑其決策行為。

根據資誠聯合會計師事務所(PricewaterhouseCoopers,PwC)指出,人工智慧具有15兆美元的市值,但當前的關卡就是AI缺乏解釋性。現階段的AI只看到了輸入的資料及輸出的結果,中間的判斷依據與過程難以捉摸,就如黑盒子般。倘能理解AI如何做出判斷、確認決策的合理性,未來才能更進一步改善與強化模型可靠性。因此,可解釋性人工智慧(XAI)成了近年來各國AI研究領域的趨勢之一,包括美國國防高等研究計劃署(DARPA)於2018年宣布投入20億美金推動的AI計畫中,AI的可解釋性就是其中重要的一環。

可解釋性與高相容性,加速相關應用技術開發與產業提升
陳良基指出,「可解釋性的人工智慧」無疑是國際上AI發展的重要目標,科技部已於去(2019)年9月公布的人工智慧科研發展指引中強調AI的「透明性與可追溯性」及「可解釋性」;歐盟今年2月發表的人工智慧白皮書(WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust)也提及「缺乏信任」是阻礙AI廣泛應用的主要原因。因此未來AI發展的重點須透過理解AI決策成因,來強化運作流程的透明度,進而讓普世大眾對AI感到信賴與安心。
 
徐宏民進一步說明,這套XAI模組xCos除了可供末端的使用者了解人臉辨識結果的原因外,更可協助開發人員探究及檢視系統的運作機制。該團隊為加速技術擴散與落地應用,所研發之可解釋性AI模組xCos可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以Open Source方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos),希望將其相關理念拓展至其他深度學習相關應用中。
 
同時團隊也正將XAI技術擴展到其他領域關鍵性的人工智慧決策系統,例如:AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置。這些XAI的應用,都可強化人們對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展。
 
分享文章:
 

a&s全球安防科技網於每周/月,分別提供訂戶有關AIoT安全、防火防災最新資訊,包括:技術趨勢、產業動態、產品訊息、解決方案、行業應用、網路安全…等,讓您一手掌握機先、處處無往不利。

  • 智慧安全焦點報(週)
  • 建築與居住空間焦點報(月)
  • 智慧運輸焦點報(月)
  • 智慧防火防災趨勢報(月)
立即前往