服務熱線

0571-81389308
網站導航
站内公告:
新聞資(zī)訊
當前位置:首頁 > 新聞資(zī)訊>

智能化技術及應用|如何用好AI這把雙刃劍

時間:2020/12/1

一(yī)封來自“公司網管”要求點擊查看的Email,一(yī)封來自“校辦處”的“通知(zhī)”電(diàn)郵,一(yī)封來自“電(diàn)商(shāng)”的“中(zhōng)獎”郵件,當你收到這些電(diàn)子郵件時一(yī)定要小(xiǎo)心了,因爲你可能正遭遇使用AI技術的釣魚攻擊。

作爲“新基建”之一(yī)的AI正快速興起,然而相對于國家,AI是基礎設施;相對于企業,AI是重要資(zī)産;相對于不法分(fēn)子,AI也可以是工(gōng)具。因爲AI 是一(yī)把雙刃劍,如果被網絡黑客使用,将大(dà)大(dà)提高網絡攻擊效率。上面的例子就真實發生(shēng)在你我(wǒ)身邊:在魚叉釣魚攻擊中(zhōng),攻擊者使用AI技術分(fēn)析目标人員(yuán)的社交媒體(tǐ)或者電(diàn)子郵件内容,得到目标人員(yuán)感興趣的主題,然後依據該主題生(shēng)成虛假惡意的電(diàn)子郵件。經過AI技術生(shēng)成的電(diàn)子郵件,真實性和可信性都得以增強,可以躲避垃圾郵件檢測,更容易誤導目标人員(yuán)點擊或下(xià)載。

因此當AI給人們生(shēng)活帶來便利同時,也帶來了諸多不确定性。要研發“負責任的”人工(gōng)智能應用,自然離(lí)不開(kāi)治理以及安全風險的防範。

AI的安全風險

AI解決的實際應用往往是一(yī)個優化問題,包含訓練數據和目标函數(包括預測函數和損失函數)。以圖像分(fēn)類爲例,其大(dà)緻流程爲數據收集與标注、建模、訓練和預測。其中(zhōng)AI預測模型是運行在硬件上的智能程序,既面臨傳統的軟/硬件的安全風險,又(yòu)面臨全新的安全風險。具體(tǐ)來看有三點:

AI固有風險:

AI模型是有偏見的,這種偏見體(tǐ)現在訓練數據、預測函數和損失函數上。此外(wài),訓練數據的采集方法,以及數據集合本身也可能存在着一(yī)定的偏見。AI模型的偏見從某種程度上影響了社會的公平和公正,因而存在着一(yī)定的安全風險。而且大(dà)多數AI模型是不可解釋的。AI模型的可解釋性從某種程度上可以對預測結果進行佐證,而不能證明的預測結果存在一(yī)定的安全風險。

AI對抗風險:

AI算法與訓練數據結合成AI模型,AI模型向客戶提供服務,同時又(yòu)包含訓練數據的相關信息,因此成爲重點網絡攻擊目标。攻擊者一(yī)方面對數據攻擊,另一(yī)方面會對AI模型攻擊。

AI濫用風險:

AI被不法分(fēn)子濫用時,可以給國家、社會、企業和個人帶來安全風險。比如AI技術的發展使得虛假新聞的制作更加方便、快捷,并且制作的新聞更逼真。虛假新聞充斥着互聯網空間,讀者難辨真僞,危害公共安全。

AI安全風險的治理

AI安全治理需要從倫理、道德、政策、技術等多方面綜合考慮,因此治理方法就需要在對抗能力、可解釋性、公平性和政策引導四個方面下(xià)功夫。

首先,提高AI系統對抗能力

安全的AI系統應該能夠抵擋來自攻擊者的多種攻擊,這需要從訓練數據采集、模型訓練和模型應用三個階段進行應對。在訓練數據采集階段,可以過濾掉異常數據來對抗投毒攻擊,可以将數據加入噪音來對抗後門攻擊;在模型訓練階段,可以在模型中(zhōng)加入水印來防止模型被竊取;在模型使用階段,可以對輸入數據進行預處理來防止後門攻擊,可以對輸入數據進行重構、檢測對抗樣本等方式來抵禦對抗攻擊。

其次,設計可解釋的AI

爲了提高AI模型的可解釋性,可以從算法的可解釋性、推斷過程的可解釋性和推斷結果的可解釋性三個方向入手。具有可解釋性的算法包含線性回歸、決策樹(shù)、貝葉斯網絡等,未來需要研發功能更加強大(dà)的且具有可解釋性的算法。對于不具備可解釋性的黑盒模型,例如神經網絡,研究其推斷過程和推斷結果,在特定場景下(xià)給數據賦予語義,從而增強AI模型的可解釋性。

再次,設計公平的AI

AI模型的設計者要避免将自己的認知(zhī)與偏見引入到AI模型中(zhōng),要從用戶的角度出發,以用戶的需求作爲服務目标,設計滿足用戶個性化需求的AI模型。AI模型的個性化服務不是一(yī)個系統的差異化服務,應該是滿足用戶個性化需求的差異化AI模型。此外(wài),訓練數據的收集要公平、公正,這是AI公平性的基礎。

最後,制定政策給AI安全治理指明方向

對抗能力、可解釋性、公平性是AI安全的重要指标,随着AI技術與産業的不斷發展,AI安全将包含更多的指标。爲了實現這些指标,不僅需要科技專家進行技術攻關,還需要倫理、道德、法律等人文、社科專家參與讨論、制定相關的政策,從而給科技發展指明方向。

伴随着數字化轉型的深入和AI産業的發展,AI的安全風險将日益突出,AI的安全治理将變得更加重要。随着人們對AI技術理解的加深,AI安全的評價指标将不斷變化,AI的安全治理将變得更加困難。AI的安全治理需要人文、社科、科技等領域專家的共同努力,從政策和技術兩方面共同推進AI的持續健康發展。

Copyright © 2024杭州梵優網絡科技有限公司 版權所有  

地址:浙江省杭州市西湖區黃姑山路29号1116室 電(diàn)話(huà):0571-81389308 郵箱:zhangpanlong@fanyousc.com

服務熱線

0571-81389308

掃一(yī)掃,關注我(wǒ)們