歐盟網(wǎng)絡(luò)與信息安全局(ENISA)近日發(fā)布了題為《建立網(wǎng)絡(luò)安全政策發(fā)展框架——對(duì)自主代理的安全和隱私考慮》的報(bào)告,旨在為歐盟成員國(guó)提供一個(gè)政策制定框架,以應(yīng)對(duì)AI引發(fā)的安全和隱私問題。
歐洲委員會(huì)在對(duì)數(shù)字單一市場(chǎng)戰(zhàn)略的中期審查中指出,建立歐洲科學(xué)和工業(yè)優(yōu)勢(shì)以及發(fā)展創(chuàng)新企業(yè)是保持其在人工智能技術(shù)、平臺(tái)和應(yīng)用程序領(lǐng)域領(lǐng)先地位的重要措施。2018年年中,歐盟提出了一項(xiàng)關(guān)于人工智能的歐洲倡議,旨在推動(dòng)人工智能在社會(huì)經(jīng)濟(jì)各個(gè)方面的應(yīng)用,為人工智能帶來的社會(huì)經(jīng)濟(jì)變革做好準(zhǔn)備,并確保為基于人工智能的應(yīng)用程序建立適當(dāng)?shù)牡赖潞头煽蚣堋?/p>
報(bào)告首先對(duì)人工智能和自主代理技術(shù)進(jìn)行了討論。如今人工智能技術(shù)已經(jīng)應(yīng)用到醫(yī)療、駕駛、金融、制造、社交等各個(gè)領(lǐng)域,涉及到深度學(xué)習(xí)、知識(shí)表達(dá)、決策系統(tǒng)和大數(shù)據(jù)等不同技術(shù)。在不同的應(yīng)用領(lǐng)域中,人工智能技術(shù)設(shè)計(jì)了多種多樣的自主代理來智能地執(zhí)行工作。
這些自主代理在自主程度和操作環(huán)境上有很大的差異,相應(yīng)的安全性和隱私考慮也會(huì)有所不同。報(bào)告隨后介紹了常見的安全和隱私需求。安全方面的需求和挑戰(zhàn)主要有檢測(cè)系統(tǒng)中運(yùn)行的惡意或未授權(quán)的自主代理、自主代理代碼的劫持和濫用、對(duì)代理系統(tǒng)傳感器的干擾、自主代理執(zhí)行代碼的透明性和可審計(jì)性,以及對(duì)各類安全原則的遵守。隱私方面的需求和挑戰(zhàn)則包括數(shù)據(jù)的最小化收集、數(shù)據(jù)保留和保護(hù)方法、數(shù)據(jù)聚合和重新調(diào)整用途以及人工智能算法帶來的處理過程不透明性。
在過去幾年中,人工智能為各種應(yīng)用領(lǐng)域提供了巨大的潛力和可能性,但也帶來了許多挑戰(zhàn)。由于創(chuàng)新的快節(jié)奏,期望對(duì)每項(xiàng)技術(shù)進(jìn)步都專門立法是不可行的。必須采取更廣泛的方法來平衡所有利益相關(guān)方的權(quán)益,同時(shí)為新挑戰(zhàn)提出解決方案;趯(duì)人工智能眾多應(yīng)用領(lǐng)域的分析,報(bào)告指出,制定網(wǎng)絡(luò)安全政策框架應(yīng)遵循兩個(gè)主要原則:
1.包容性原則
應(yīng)當(dāng)反映和考慮更廣泛的利益相關(guān)方的權(quán)益和優(yōu)先事項(xiàng);
2.開放性原則
應(yīng)當(dāng)支持未來數(shù)字革新技術(shù)在不同領(lǐng)域的應(yīng)用。
具體來說,該框架應(yīng)該促進(jìn)技術(shù)標(biāo)準(zhǔn)和規(guī)范的制定和采用;鼓勵(lì)最佳安全實(shí)踐和經(jīng)驗(yàn)的交流推廣;促進(jìn)利益相關(guān)方的協(xié)同和合作關(guān)系。
報(bào)告最后總結(jié)了在制定政策發(fā)展框架過程中所面臨的主要挑戰(zhàn),包括:
1.應(yīng)用安全和隱私設(shè)計(jì)原則
自主系統(tǒng)的關(guān)鍵就是能夠處理大量數(shù)據(jù),因此必須使用確保關(guān)鍵安全特性包括可用性、機(jī)密性、完整性和可審計(jì)性的設(shè)計(jì)方法來構(gòu)思、設(shè)計(jì)和實(shí)現(xiàn)自主系統(tǒng),并在其從初始部署、維護(hù)到退役的整個(gè)生命周期中確保支持這些安全屬性。
2.制定安全需求基準(zhǔn)
人工智能和自主代理領(lǐng)域的快速發(fā)展,催生了系統(tǒng)及產(chǎn)品建立、設(shè)計(jì)和開發(fā)過程中對(duì)協(xié)調(diào)方法和指南的需求。開發(fā)人員可以從這些指南中識(shí)別和克服已知的安全和隱私挑戰(zhàn)。這些指南可通過最佳實(shí)踐、安全需求基線自愿標(biāo)準(zhǔn)的開發(fā)來得出。
3.協(xié)調(diào)和解決倫理問題
自主代理系統(tǒng)常常需要做出一些復(fù)雜的決策,并面臨與人權(quán)、尊嚴(yán)和非歧視等相關(guān)的倫理問題。解決這一困境需要一種跨學(xué)科和協(xié)調(diào)的方法。歐盟委員會(huì)已發(fā)布了正式版的人工智能道德準(zhǔn)則,提出了實(shí)現(xiàn)可信賴人工智能的七個(gè)要素,分別是:人的能動(dòng)性和監(jiān)督;穩(wěn)健性和安全性;隱私和數(shù)據(jù)管理;透明度;多樣性、非歧視性和公平性;社會(huì)和環(huán)境福祉;問責(zé)制。