首頁>消費要聞 >
對于人工智能安全 你了解多少? 一起來看看~ 人工智能安全技術風險 2021-01-08 15:18:19  來源:中國網(wǎng)財經(jīng)

12月23日在十三屆全國政協(xié)第45次雙周協(xié)商座談會上,委員和專家們圍繞“人工智能發(fā)展中的科技倫理與法律問題”進行協(xié)商議政,認為人工智能技術具有廣泛滲透性和顛覆性,帶來的科技倫理與法律問題更加復雜多元,可能引發(fā)潛在倫理和法律風險,需要引起高度重視。人工智能安全問題再度引發(fā)關注。

對于人工智能安全

你了解多少?

一起來看看~

人工智能安全技術風險

人工智能算法,特別是深度神經(jīng)網(wǎng)絡的可解釋性不佳,高維線性,大量依賴數(shù)據(jù)等固有特性,意味著人工智能系統(tǒng)存在一些不可避免的安全缺陷,容易受到特定攻擊。也正因此,在一些真正重要的關鍵領域,比如自動駕駛、金融業(yè)務決策和醫(yī)療診斷等實際應用場景中,人工智能的進一步發(fā)展和應用還面臨著很大的問題。

算法存在技術脆弱性

當前人工智能尚處于海量數(shù)據(jù)“喂養(yǎng)”階段,以深度神經(jīng)網(wǎng)絡為代表的人工智能算法仍存在弱魯棒性(脆弱、不安全、不穩(wěn)定)、不可解釋性(算法的黑盒特性,應用過程中對人工智能系統(tǒng)無法全面了解)、偏見歧視(國外的人工智能系統(tǒng)中存在的種族歧視、富人和窮人的偏見)等尚未克服的技術極限。

新型安全攻擊不斷涌現(xiàn)

近年來,對抗樣本攻擊(攻擊者在人工智能模型的輸入上增加人類難以通過感官辨識到的細微“干擾”,使模型接受并做出錯誤的分類決定)、算法后門攻擊(向模型的訓練數(shù)據(jù)安插后門,使其對特定信號敏感,并誘導其產(chǎn)生攻擊者指定的錯誤行為)、模型竊取攻擊、模型逆向攻擊等破壞人工智能算法和數(shù)據(jù)機密性、完整性、可用性的新型安全攻擊快速涌現(xiàn)。

算法設計實施與預期出現(xiàn)偏差

人工智能算法的設計和實施有可能無法實現(xiàn)設計者的預設目標,導致產(chǎn)生偏離預期的不可控行為。例如設計者為算法定義了錯誤的目標函數(shù),導致算法在執(zhí)行任務時對周圍環(huán)境造成不良影響。

人工智能安全社會風險

隨著各類人工智能應用場景開始持續(xù)落地,一旦出現(xiàn)數(shù)據(jù)、算法的泄露、濫用、誤用等問題,將帶來一系列未知的風險和隱患。

個人信息安全

人工智能技術加強了數(shù)據(jù)挖掘分析能力,收集個人信息已呈現(xiàn)出精準化、全面化、簡便化、隱秘化趨勢。隨著人臉、指紋、聲紋、虹膜、心跳、基因等具有很強個人屬性信息被收集、分析和利用,加上應用場景增加,一旦泄露或者濫用將產(chǎn)生嚴重后果。例如就有不法分子在電商平臺販賣人臉信息,以5角錢一份的低價打包出售后,被盜的人臉信息被用于虛假注冊、電信網(wǎng)絡詐騙等違法犯罪活動。

社會安全

從圍繞AI芯片、前沿算法、無人駕駛、智能機器人、AI+5G等產(chǎn)業(yè)發(fā)展,到涵蓋AI+教育、AI+金融、AI+醫(yī)療、AI+工業(yè)、智能駕駛等場景應用,AI人工智能滲透到各領域,然而一旦出現(xiàn)“數(shù)據(jù)投毒”、算法有誤以及對人工智能的濫用,例如深度偽造技術等,就可能會對倫理道德、社會經(jīng)濟等方面帶來威脅。

例如在自動駕駛上,通過對一個實體停車標志經(jīng)過精心設計的噪聲擾動后,使目標檢測系統(tǒng)無法準確識別標志,從而可能造成交通事故。

再者深度偽造技術,如不法分子出于擾亂社會治安或敲詐勒索等目的,利用該技術制作高逼真度的殺人、綁架、爆炸等嚴重暴力犯罪的音頻視頻,將對社會穩(wěn)定構成嚴重威脅。

國家安全

人工智能技術若被濫用,可能會為國內(nèi)外分裂、恐怖勢力提供新的工具,極有可能會用于抹黑國家領導人,煽動恐怖和暴力情緒,破壞國家政治穩(wěn)定。

人工智能安全立法措施

規(guī)范立法,制定標準

人工智能的迅速發(fā)展也給當前的法律規(guī)則、社會秩序、道德標準和公共管理系統(tǒng)帶來前所未有的挑戰(zhàn)。因此需從國家層面進行立法、政策方面的完善,提前布局、審慎應對。

目前,我國出臺的《新一代人工智能發(fā)展規(guī)劃》、《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》、《兒童個人信息網(wǎng)絡保護規(guī)定》、《民法典》、《數(shù)據(jù)安全法》(草案)、《個人信息保護法》(草案)等等都對人工智能產(chǎn)業(yè)的規(guī)范發(fā)展提出了要求,但還應聚焦人臉識別、語音合成、自動駕駛、服務機器人等領域,更細化、更有針對人工智能相關應用場景有計劃、有步驟制定相關法律。

同時鼓勵行業(yè)協(xié)會和中介組織制定人工智能產(chǎn)業(yè)標準、技術標準和行業(yè)規(guī)范,引導相關企業(yè)制定倫理規(guī)則,強化企業(yè)保護個人信息、隱私的責任。

技術應對,安全防御

維護AI安全,技術手段的重要性不言自明。首先應重視加強深度神經(jīng)網(wǎng)絡本身的健壯性,即充分利用知識蒸餾、對抗性訓練等技術手段強化其抵御對抗樣本的能力。其次應結合多種判別手段,推動發(fā)展對抗樣本智能篩查、攔截技術,使攻擊過程“無所遁形”。最后,可以使用攻擊削弱策略,對所有待測樣本進行防御性擾動,降低隱藏在其中的破壞能力。

倫理約束,AI向善

人工智能最大的弱點是缺乏直接的感受能力,在價值判斷上存在弱點。國家有關部門、行業(yè)組織應當制定人工智能倫理原則和框架并落實到人工智能研發(fā)應用中,強化科研人員科技倫理與法律培訓,引導全社會正確認識和應用人工智能,確保人工智能健康發(fā)展的方向以造福于人類為宗旨。

同時加強國際交流與對話,積極參與制定全球人工智能倫理規(guī)則。

美亞柏科人工智能安全探索

為保障人工智能產(chǎn)業(yè)的健康有序發(fā)展,國家和省市地方政府有關部門高度重視人工智能安全問題。目前,相關部委已聯(lián)合國內(nèi)在人工智能產(chǎn)業(yè)細分領域的“領頭羊”企業(yè)共同打造成立人工智能實驗室聯(lián)合體,美亞柏科參與其中。

2020年12月23日,2020中國人工智能高峰論壇暨中國人工智能大賽成果發(fā)布會在廈門圓滿落下帷幕。美亞柏科作為主要協(xié)辦單位之一,為本次大賽提供全程全方位的支持。在廈門市政府的指導和推動下,醫(yī)渡云、安恒信息、廈門瑞為、優(yōu)刻得、柏科匯銀等人工智能頭部企業(yè)聯(lián)合成立廈門人工智能安全研究院,用于全方位開展人工智能安全領域研究,這也是自2019年中國人工智能大賽永久落戶廈門以來廈門市在人工智能領域的重要舉措。

作為網(wǎng)絡空間安全及社會治理領域國家隊,美亞柏科自2017年就開始人工智能技術的研究,在圖片識別、文本語義分析、智能機器人研發(fā)等技術領域均取得突出成果,并應用到電子數(shù)據(jù)取證、會晤安保、金融風險防控等多個領域。在抗擊新冠肺炎疫情期間,更是充分發(fā)揮人工智能技術優(yōu)勢,助力執(zhí)法部門精準防控,開展復工復產(chǎn)工作(【學習強國】廈門:人工智能產(chǎn)業(yè)初具規(guī)模,細分領域涌現(xiàn)一批“領頭羊”企業(yè))。

在人工智能安全領域,美亞柏科特別針對深度偽造技術成立研究團隊。深度偽造技術利用深度神經(jīng)網(wǎng)絡極強的學習能力,使用圖像識別、語音合成、文本生成等技術,偽造篡改甚至生成虛假的人臉視頻圖像,偽造模擬聲音,制作虛假新聞等,仿真程度逼真,真假難辨,為國家間的政治抹黑、經(jīng)濟犯罪甚至恐怖主義行動等提供了新工具。美亞柏科反深偽團隊通過對深偽技術的分析研究,運用多項深偽檢驗鑒定算法,研發(fā)推出多媒體深偽檢測平臺和視頻圖像檢驗鑒定裝備,目前已取得初步成果。

人工智能作為引領新一輪科技革命和產(chǎn)業(yè)變革的重要驅動力,已經(jīng)成為賦能實體經(jīng)濟、助推高質(zhì)量發(fā)展的新動能,“人工智能+”成為經(jīng)濟增長的新引擎。然而,在對社會經(jīng)濟發(fā)展、人們的生產(chǎn)生活產(chǎn)生重大影響的同時,其帶來的國家安全、社會倫理、網(wǎng)絡安全、人身安全和隱私保護等多個層面的風險和挑戰(zhàn)卻不容忽視。

未來,美亞柏科將持續(xù)鉆研,以互聯(lián)網(wǎng)、大數(shù)據(jù)為依托,進行人工智能技術的研發(fā)與拓展,不斷完善與升級出更安全、可信、可靠的人工智能技術,扎牢人工智能安全的籬笆,迎接新挑戰(zhàn),為人工智能技術的發(fā)展作貢獻,用技術造福社會。

關鍵詞: 對于人工智能安全

相關閱讀:
熱點
圖片 圖片