国精产品一区一区三区有限公司杨,国产激情久久久久影院老熟女,国产裸体裸拍在线观看,国产人妻熟女在线观看,国产美女视频国产视视频

首頁 > 新聞 > > 正文

從技術(shù)角度直指產(chǎn)業(yè)痛點 《可解釋AI發(fā)展報告2022》發(fā)布

2022-02-16 08:30:13    來源:科普時報

“AI的應(yīng)用落地在不斷提速,但在算法‘黑箱’下,AI的不可解釋性讓‘黑箱’很難釋明,進而讓人們對AI的安全難言放心。”日前,在2022年科技向善創(chuàng)新周上,與會專家圍繞AI的透明和可解釋難題從技術(shù)角度直指產(chǎn)業(yè)痛點。

與此同時,由騰訊研究院、優(yōu)圖實驗室等多家機構(gòu)組成的跨學(xué)科研究團隊歷時一年完成的《可解釋AI發(fā)展報告2022》也引發(fā)熱議。報告從可解釋AI的概念、監(jiān)管趨勢、行業(yè)實踐、發(fā)展建議等熱點問題出發(fā),抽絲剝繭地呈現(xiàn)可解釋AI產(chǎn)業(yè)的現(xiàn)狀和發(fā)展趨勢,以期能為產(chǎn)業(yè)解決AI“黑箱”釋明難題提供一份參考和借鑒。

可解釋AI已成熱點

目前,部分人工智能應(yīng)用已成為通用型的技術(shù),而人類對AI則一直有更高的期待。不少人堅信,科幻電影《Her》中的AI機器人可對行為作出解釋,從而幫助人類作出決策,甚至與人類產(chǎn)生深度交流的一幕,遲早也會出現(xiàn)在人們的日常生活中。

雖然產(chǎn)業(yè)的發(fā)展已經(jīng)起步并快速成為行業(yè)熱點,但這些過于理想化的場景目前還只能存在于科幻作品中,實踐中可解釋AI不論在技術(shù)上還是體驗上都還沒達標。

如今,金融機構(gòu)的貸款審批都是基于AI作出決策,如果這一復(fù)雜的算法風(fēng)控系統(tǒng)拒絕申請,那么貸款人就沒辦法獲得貸款。這只是AI在眾多日常場景應(yīng)用中的一幕,只要是AI做出了決策,公眾就必須接受結(jié)果,至于什么原因,算法沒有也不可能給出解釋。

“有時候連開發(fā)人員都不能很好地理解AI算法‘黑箱’運作的具體細節(jié),這就導(dǎo)致了AI模型的透明度和可解釋性的問題。”騰訊研究院秘書長張欽坤表示,如果不解決這兩個問題,不僅影響用戶對AI應(yīng)用的信任,而且也可能會帶來算法歧視、算法安全和算法責任等方面的相關(guān)問題。

其實,人工智能的可解釋以及科技倫理等問題已經(jīng)成為AI領(lǐng)域的必選項,2021年起始的“十四五”規(guī)劃里面也明確強調(diào)要健全科技倫理的體系。

廈門大學(xué)人文學(xué)院院長朱菁認為,AI可解釋性問題之所以受到重視,主要因為AI的發(fā)展雖然變得越來越強大,但也變得越來越“黑”,再者AI雖然變得越來越實用,其可靠性和應(yīng)用范圍也得到提高。“在一些重要的應(yīng)用領(lǐng)域,對于AI可信任性、安全性等方面的要求也越來越高,可解釋性就是滿足上述要求的認知基礎(chǔ)。”

目前來看,國內(nèi)企業(yè)在可解釋AI實踐方面還比較零碎,沒有達到系統(tǒng)化的程度,但就整體而言,產(chǎn)業(yè)一直都是朝著可解釋的方向發(fā)展。

魚和熊掌不可兼得

AI快速深入日常生活,既帶來了興奮和期待,也帶來一些憂慮,甚至恐慌。AI到底是人類的好幫手,還是會成為人類強勁的對手?其實這很大程度上取決于人類對AI的理解。只有打開了人工智能的黑箱,了解到AI背后的機制,并認為它是可解釋、可理解的,人類在這種共識下才能真正達成對AI的信任。

然而,當前的AI可解釋性及透明度與算法的高效率還是一個矛盾體。

微眾銀行首席人工智能官楊強認為,AI算法高效率的同時,可解釋性就很差。同樣,AI線性模型的準確率沒有那么高,它的可解釋性相對就會強一些。“這就意味著我們要在可解釋和高效率兩個維度上做一個取舍,但目前并沒有兩個維度都高的AI算法。目前可解釋AI在各個行業(yè)都是一個起步,也都不可或缺,但如何做好AI可解釋的量化,才是當前業(yè)界該考慮的重點。”

“不同人群、不同應(yīng)用場景對AI算法的可解釋性期待是不一樣的,不應(yīng)該搞一刀切。現(xiàn)階段深度學(xué)習(xí)普遍缺乏可解釋性的情況下,AI透明度就尤其重要。”騰訊天衍實驗室負責人鄭冶楓表示,AI算法應(yīng)盡可能詳盡披露模型、訓(xùn)練數(shù)據(jù)分布等情況。

朱菁也認為,目前來說,AI的可解釋性和預(yù)測的準確性二者不可兼得,既提高預(yù)測準確性,同時還要把可解釋性提高,要實現(xiàn)這件兩全其美的事情難度比較大。其次,解釋的多元化除了怎么都行的這種形態(tài)以外,還有孤島式的、互動式的以及整合性的形態(tài)。“這些只是同一個整體的不同側(cè)面,AI能不能做到這些,現(xiàn)在其實并不是很清楚。”

推動可解釋模型構(gòu)建

可解釋是可信AI的重要組成部分,也是可信的前提條件之一,它有很強的獨特性。當前可解釋AI研究思路很多,但并沒有一個明確的框架,畢竟解釋對象的不同,框架也難統(tǒng)一。

香港中文大學(xué)(深圳)吳保元副教授認為,與其說AI的可解釋性,還不如稱之為AI的可解釋力。“可解釋性可能會讓人們誤認為這是一種性質(zhì),而可解釋力就是一種可解釋的能力,就如同人們常說的理解力、領(lǐng)導(dǎo)力,是一種手段,一種行為,一種操作的存在。”

《可解釋AI發(fā)展報告2022》從科技向善的角度出發(fā),認為需要找到一個平衡的可解釋AI路徑來實現(xiàn)可信AI,確??萍枷蛏?。張欽坤解釋說,就是在設(shè)計可解釋性要求時,需要充分考慮可解釋性要求和其他重要的倫理價值和目的,可解釋本身不是目的而是手段。“在設(shè)計可解釋AI的時候,首先需要考慮實現(xiàn)什么樣的目標,其次才是思考在特定的情境下如何更好地匹配這些目標。”

對于AI研究里的解釋性問題的基本立場,朱菁的建議是解釋的多元化:“針對不同的問題,哪怕是在同一個領(lǐng)域里,也不能指望只有唯一的解釋方式或模式,要允許多種多樣的解釋模型存在。”(陳杰)

關(guān)鍵詞: 技術(shù)角度 產(chǎn)業(yè)痛點 可解釋AI 發(fā)展報告

上一篇:全球首例基因修飾豬心臟被成功移植到人體 中國企業(yè)蓄勢待發(fā)
下一篇:合成解毒代謝 人工肝可治療多種原因?qū)е碌母嗡ソ?/a>

熱點話題

熱點推薦

頭條

?