您的位置:首頁>歷史>正文

人工智慧有何隱憂?治理需未雨綢繆

人工智慧軍事化帶來三重風險

對經濟格局的改變不容小覷

人工智慧可能加劇政治極化

人工智慧或給社會秩序帶來衝擊

詳細分析

原題《人工智慧治理須未雨綢繆》

文/白聯磊

作者為中國國際問題研究院歐亞所, 經濟學博士

人工智慧正逐漸應用于社會生活的方方面面, 它對各行各業的全面滲透, 代表了其改造人類社會的巨大潛力。

人工智慧在純技術層面是價值中立的, 但在實際應用中,

Advertisements
必然兼具創造性和破壞性。 人工智慧革命迥然有別于傳統的工業革命, 其給人類社會造成的衝擊也將是史無前例的。 當前, 其創造性和巨大價值正爆發式地體現出來, 但潛在風險尚未被廣泛認知, 同樣應高度關注並積極應對。

【人工智慧軍事化帶來三重風險】

人工智慧早已應用於軍事領域。 無人機堪稱人工智慧軍事化的典型代表, 察打一體無人機在資訊搜集、處理上就應用了人工智慧技術。 雖然最終的戰鬥命令由遠端控制人員發出, 但人類決策實際上依賴人工智慧的資訊支援。 目前看, 人工智慧的軍事應用面臨如下風險因素:

其一, 人工智慧武器擴散加劇非傳統安全問題。 人工智慧軍事化在短期內有助於增強先進國家的防務能力,

Advertisements
比如, 無人駕駛汽車、自動排爆機器人、街頭影像識別系統的大規模應用等, 能有效壓制恐怖分子、反政府遊擊隊的活動能力。 但隨著技術普及、價格下降, 人工智慧武器擴散後將增強技術弱國、非政府行為體的殺傷力。 近幾年發生多起“伊斯蘭國”利用無人機發動襲擊的案例, 成本低、威力大的移動機器人簡易爆炸裝置也對駐伊拉克美軍構成巨大威脅。

其二, 人工智慧存在被遠程攻擊的風險。 人工智慧的演算法可能被攻擊, 資料庫可能被篡改, 網路聯繫可能被操縱。 當資料庫或演算法被攻擊時, 演算法的訓練和更新就會偏離預計的軌道, 形成惡性演算法, 在應用時可能無法分清敵我;當遠端操控環節或人工智慧決策程式被攻擊時,

Advertisements
己方武器就可能變成敵人的武器。 互聯網、人工智慧和移動設施的融合, 讓網路攻擊從虛擬攻擊升級為物理攻擊, 比如, 無人駕駛交通工具也可能被操縱成為殺人工具。 這讓網路防禦變得更為緊迫。

其三, 人工智慧軍備競賽苗頭出現。 人工智慧在軍事領域的巨大價值促使軍事強國紛紛發展智慧型武器平臺。 美國將人工智慧優勢與破譯敵方密碼的不對稱相提並論。 目前, 美國國防部已經利用人工智慧增強網路防禦能力;美國MAVEN專案組整合了大量人工智慧系統, 用於搜集和處理情報;美國還在戰鬥層面大量融合機器學習、人機戰鬥編組等人工智慧要素。 俄羅斯軍事工業委員會已計畫到2030年,

Advertisements
將戰鬥部隊中遠端操控和自動機器人平臺的比例提高至30%。 其他面臨人力短缺和安全挑戰的國家, 如日本、以色列, 也很可能步其後塵。

雖然人工智慧武器的安全性問題、倫理問題、責任追溯問題等都未得到解決, 但美國智庫普遍主張, 為確保軍事領先優勢, 美國在人工智慧武器上不應自我設限, 而應全力以赴、率先研發、率先應用。 2016年12月, 中國在聯合國第五屆特定常規武器大會上提交立場檔, 呼籲將全自動武器納入國際法的管制之下。 但至今國際社會尚未就此形成合力。

【人工智慧或給社會秩序帶來衝擊】

人工智慧具有歧視、不透明等內在問題。 人工智慧的核心是演算法, 演算法的表現取決於資料和預設條件(規則)。

Advertisements
資料反映了現實, 但資料的平衡性、全面性難以保證, 由此導致其反映的現實不完整、結論片面或有偏見;即使資料完美反映了現實, 現實中固有的歧視、偏見也會在人工智慧的行為和決策中有所體現甚至進一步強化。 除了資料的問題, 預設條件本身是由人設定的, 更摻雜了個人化的因素。

因此, 演算法歧視和偏見已經屢見不鮮。 穀歌的圖像識別軟體曾經將黑人標記為“大猩猩”, 在穀歌搜索中黑人的名字往往與犯罪事件合併出現;微軟的聊天機器人tay曾經被線民教唆成“政治不正確”的機器人, 具有強烈的反猶、性別歧視和種族歧視傾向;Northpointe公司開發的犯罪風險評估演算法傾向于將黑人作為高犯罪風險群體等。

Advertisements
然而演算法本身的問題並未得到普遍監督。 因為演算法要麼本身不公開, 要麼雖然公開卻由於技術門檻, 事實上對普通公眾不透明, 由此其可能的偏見、歧視、不公平問題不能被發現, 相應的責任也無法被追溯。

智慧音視頻合成技術也會衝擊社會信任體系。 人工智慧技術現在已經能夠修改視頻內人物表情和嘴部動作;在擁有足夠訓練資料的情況下可以製作能媲美原聲的人造錄音;基於文本描述而合成的圖像能夠以假亂真, 基於二維圖片可以合成三維模型。 這些新技術進展意味著音視頻、照片的“證據”意義正在下降。

高模擬音視頻和圖片合成技術至少將對兩個領域產生衝擊, 一是司法證據系統面臨如何區分真假音視頻/圖片證據的難題, 技術部門需要開發新的技術手段增強鑒別能力;二是媒體的公信力將遭遇考驗。2013年4月23日,駭客控制了美聯社的官方推特,發佈虛假新聞“重磅:白宮發生兩起爆炸,奧巴馬受傷”,兩分鐘後,美國股市市值下跌1360億美元。一旦合成音視頻/圖片達到以假亂真的程度,傳媒業、金融業都將面臨巨大革新壓力。

【人工智慧可能加劇政治極化】

一方面,資料壟斷有走向資料獨裁的風險。互聯網巨頭掌握大量基礎資料,有條件將資料轉化為商業競爭力,這又有助於黏住更多客戶,從而獲取更大量的資料。這種正回饋機制會固化獨角獸企業的資料壟斷地位。資料壟斷的基礎上會出現演算法獨裁。基於海量民眾資料的演算法非常清楚人們的所做、所想、所喜、所需,因而不僅能投其所好,還可以針對性地進行引導。人工智慧技術可以通過個性化推薦、頻繁提示等誘導人們的行為,意味著人工智慧將從“訓練演算法”的技術準備階段,過渡到“訓練社會”的技術應用階段。在這種情況下,個人缺乏足夠的選擇權,大量選擇由演算法所規定,可能形成“演算法獨裁”局面,這將對現有政治體系形成微妙而深刻的衝擊。

另一方面,濫用資料可能影響政治進程、加劇政治極化。在選舉過程中,人工智慧能夠確定“搖擺群體”,進而通過定向資訊投送,誘導他們支援特定方案或個人。隨著人工智慧成為政治競爭利器,掌握人工智慧的獨角獸公司不可避免地會捲入政治過程。事實上,大多數國家的搜尋引擎和社交平臺都由極少數寡頭壟斷,這些企業不僅能影響公共意見,且有能力隱蔽地遠端干預特定國家的內政。人工智慧的資訊篩選功能將受眾遮罩於不同意見之外,固化其自我認知;通過形成具有共同認知的群體,形成意見共振,持續強化立場的正確性、合理性。這又導致不同群體的意見極化、難以妥協,容易引發極端主義、歧視和社會衝突。目前,社會極化已經出現在美國政治領域。美國民主黨和共和黨的差異越來越大,兩黨之間的妥協也越來越難,這反過來又加劇社會分裂。

【對經濟格局的改變不容小覷】

首先,對就業格局形成衝擊。關於人工智慧對就業的衝擊存在不同估計。2017年6月前美國財長勞倫斯·薩默斯表示,到2050年自動化技術的普及將令25~54歲人口中的30%失業。麥肯錫全球研究院預測,到2030年機器人最多將取代全球8億人的工作。這些被取代的工作主要是缺乏創造性、重複性高、技術難度低的工作。舊工作被機器取代的同時,新工作類型也會被創造出來。這種就業結構的變化要求勞動力市場隨之變化。在就業格局變化的同時,收入格局也會顯著變化,特別是隨著人工智慧/機器人大量取代人力,大量利潤將流向生產資料所有者而非一線勞動力,這將進一步提高資本回報率、降低勞動力報酬水準。上述劇烈變動最終需要各國政府加強社會安全治理予以應對。

其次,人工智慧時代發展鴻溝更加凸顯。工業革命以來,國家崛起主要依靠對自然資源的開發利用,人工智慧時代則主要依靠對資料的開發利用。資料的基礎是人口,人口大國將在人工智慧時代擁有“資料”這一最寶貴資源。由於人類行為的複雜性、互動的不可預測性,大部分演算法不可能脫離資料而存在,任何演算法的更新換代都需要最新資料的支撐。這意味著技術水準高的人口小國可以尋求與人口大國的優勢互補,但主動權仍然掌握在人口大國手中。技術水準高、人口規模大、互聯網普及率高的大國將獲得巨大優勢,而技術水準低的人口小國將在國際競爭中處於最不利的地位。人工智慧技術的發育將令業已存在的國家間資料鴻溝更加凸顯,最終會轉變成技術鴻溝和發展鴻溝,從而對全球治理提出新挑戰。

綜合而言,人工智慧引發的問題主要包括兩大類,一是應用引發的問題;二是人工智慧本身存在的問題。因此人工智慧治理的落腳點應是在尊重技術發展規律的基礎上,充分發揮人工智慧的積極效應,防範可能的負面風險。

面對應用問題與技術本身的問題,主要應是針對應用層面開展治理,以減少其對社會政治和安全結構的不利影響。比如,增強國際法對人工智慧軍事化的規範作用;推廣人工智慧應用的非政治性原則,避免商業機構操縱政治;同時推動教育結構轉型,為人工智慧時代的到來做好準備。

而對人工智慧本身,當前階段可著眼於人工智慧的倫理、道德、法律標準的溝通和對接,構建適合不同文化、政治制度的通用演算法,促進人工智慧技術的跨國轉移和應用等。LW

刊於《瞭望》2018年第9期

技術部門需要開發新的技術手段增強鑒別能力;二是媒體的公信力將遭遇考驗。2013年4月23日,駭客控制了美聯社的官方推特,發佈虛假新聞“重磅:白宮發生兩起爆炸,奧巴馬受傷”,兩分鐘後,美國股市市值下跌1360億美元。一旦合成音視頻/圖片達到以假亂真的程度,傳媒業、金融業都將面臨巨大革新壓力。

【人工智慧可能加劇政治極化】

一方面,資料壟斷有走向資料獨裁的風險。互聯網巨頭掌握大量基礎資料,有條件將資料轉化為商業競爭力,這又有助於黏住更多客戶,從而獲取更大量的資料。這種正回饋機制會固化獨角獸企業的資料壟斷地位。資料壟斷的基礎上會出現演算法獨裁。基於海量民眾資料的演算法非常清楚人們的所做、所想、所喜、所需,因而不僅能投其所好,還可以針對性地進行引導。人工智慧技術可以通過個性化推薦、頻繁提示等誘導人們的行為,意味著人工智慧將從“訓練演算法”的技術準備階段,過渡到“訓練社會”的技術應用階段。在這種情況下,個人缺乏足夠的選擇權,大量選擇由演算法所規定,可能形成“演算法獨裁”局面,這將對現有政治體系形成微妙而深刻的衝擊。

另一方面,濫用資料可能影響政治進程、加劇政治極化。在選舉過程中,人工智慧能夠確定“搖擺群體”,進而通過定向資訊投送,誘導他們支援特定方案或個人。隨著人工智慧成為政治競爭利器,掌握人工智慧的獨角獸公司不可避免地會捲入政治過程。事實上,大多數國家的搜尋引擎和社交平臺都由極少數寡頭壟斷,這些企業不僅能影響公共意見,且有能力隱蔽地遠端干預特定國家的內政。人工智慧的資訊篩選功能將受眾遮罩於不同意見之外,固化其自我認知;通過形成具有共同認知的群體,形成意見共振,持續強化立場的正確性、合理性。這又導致不同群體的意見極化、難以妥協,容易引發極端主義、歧視和社會衝突。目前,社會極化已經出現在美國政治領域。美國民主黨和共和黨的差異越來越大,兩黨之間的妥協也越來越難,這反過來又加劇社會分裂。

【對經濟格局的改變不容小覷】

首先,對就業格局形成衝擊。關於人工智慧對就業的衝擊存在不同估計。2017年6月前美國財長勞倫斯·薩默斯表示,到2050年自動化技術的普及將令25~54歲人口中的30%失業。麥肯錫全球研究院預測,到2030年機器人最多將取代全球8億人的工作。這些被取代的工作主要是缺乏創造性、重複性高、技術難度低的工作。舊工作被機器取代的同時,新工作類型也會被創造出來。這種就業結構的變化要求勞動力市場隨之變化。在就業格局變化的同時,收入格局也會顯著變化,特別是隨著人工智慧/機器人大量取代人力,大量利潤將流向生產資料所有者而非一線勞動力,這將進一步提高資本回報率、降低勞動力報酬水準。上述劇烈變動最終需要各國政府加強社會安全治理予以應對。

其次,人工智慧時代發展鴻溝更加凸顯。工業革命以來,國家崛起主要依靠對自然資源的開發利用,人工智慧時代則主要依靠對資料的開發利用。資料的基礎是人口,人口大國將在人工智慧時代擁有“資料”這一最寶貴資源。由於人類行為的複雜性、互動的不可預測性,大部分演算法不可能脫離資料而存在,任何演算法的更新換代都需要最新資料的支撐。這意味著技術水準高的人口小國可以尋求與人口大國的優勢互補,但主動權仍然掌握在人口大國手中。技術水準高、人口規模大、互聯網普及率高的大國將獲得巨大優勢,而技術水準低的人口小國將在國際競爭中處於最不利的地位。人工智慧技術的發育將令業已存在的國家間資料鴻溝更加凸顯,最終會轉變成技術鴻溝和發展鴻溝,從而對全球治理提出新挑戰。

綜合而言,人工智慧引發的問題主要包括兩大類,一是應用引發的問題;二是人工智慧本身存在的問題。因此人工智慧治理的落腳點應是在尊重技術發展規律的基礎上,充分發揮人工智慧的積極效應,防範可能的負面風險。

面對應用問題與技術本身的問題,主要應是針對應用層面開展治理,以減少其對社會政治和安全結構的不利影響。比如,增強國際法對人工智慧軍事化的規範作用;推廣人工智慧應用的非政治性原則,避免商業機構操縱政治;同時推動教育結構轉型,為人工智慧時代的到來做好準備。

而對人工智慧本身,當前階段可著眼於人工智慧的倫理、道德、法律標準的溝通和對接,構建適合不同文化、政治制度的通用演算法,促進人工智慧技術的跨國轉移和應用等。LW

刊於《瞭望》2018年第9期

喜欢就按个赞吧!!!
点击关闭提示