首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數據|物聯(lián)網|量子|元宇宙|博客|特約記者
手機|互聯(lián)網|IT|5G|光通信|人工智能|云計算|芯片報告|智慧城市|移動互聯(lián)網|會展
首頁 >> 相關新聞 >> 正文

蘭德公司:2040年人工智能或發(fā)動核戰(zhàn)爭毀滅人類

2018年4月25日 08:44  鳳凰網科技  作 者:霜葉

人工智能可能在2040年顛覆核和平的基礎

據《每日郵報》北京時間4月25日報道,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智能就可能發(fā)動造成人類毀滅的核戰(zhàn)爭。

蘭德稱,催生“世界末日人工智能”機器的技術發(fā)展,可能會促使一些國家利用它們的核武庫冒險。

在冷戰(zhàn)期間,被稱作“相互確保摧毀”的狀態(tài),維持了兩個超級大國之間不穩(wěn)定的平衡。

然而,人工智能的進步可能意味著“相互確保摧毀”狀態(tài)遭到破壞,從而削弱對方反擊的潛力,而且,這種趨勢可能無法阻止。

冷戰(zhàn)期間相互確保摧毀維持了超級大國之間脆弱的平衡

蘭德稱,未來數十年,人工智能的進步,可能破壞“相互確保摧毀”對擁核國家的約束力。

就像在20世紀40年代和50年代的冷戰(zhàn)時期,未來核沖突的每一方都有理由擔心對手獲得技術優(yōu)勢。

改進的人工智能技術,加上更多的傳感器和開源數據,可以使各國相信他們的核能力是脆弱的。

報告稱,這可能會導致它們采取更激進的措施,跟上美國這樣的競爭對手。

蘭德研究人員、報告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔心,人們越來越依賴人工智能會導致新型的災難性錯誤!

各國都面臨在技術真正成熟前使用人工智能的壓力。因此未來數十年要保持戰(zhàn)略穩(wěn)定性極端困難,所有核大國必須參與新體系的形成,以降低核風險。

報告稱,另一種令人擔憂的情況是,指揮官可能根據人工智能助手提供的建議作出發(fā)動攻擊的命令,而人工智能助手接收的信息本身可能就是錯誤的。

除了提供糟糕的建議外,這樣的系統(tǒng)也可能容易受到黑客攻擊,從而引發(fā)了惡意第三方發(fā)動第三次世界大戰(zhàn)的可能性。

盡管如此,有人認為人工智能可以通過提高情報收集和分析的準確性,來提高未來的戰(zhàn)略穩(wěn)定性。

專家表示,對用于監(jiān)測和解釋對手行為的分析過程進行改進,可以減少可能導致對抗意外升級的錯誤計算或曲解。

鑒于未來的改進,最終人工智能系統(tǒng)有可能發(fā)展出比人類更不容易出錯的能力,因此有助于保持長期的戰(zhàn)略穩(wěn)定性。

根據與在核問題、政府部門、人工智能研究、人工智能政策和國家安全方面的專家舉行的一系列研討會期間收集的信息,蘭德研究人員,得出了上述結論。

這項研究是展望2040年重大安全挑戰(zhàn)的更廣泛研究活動的一部分,考慮了政治、技術、社會和人口趨勢的影響。

“人工智能會增加核戰(zhàn)爭的風險?”研究的全部資料發(fā)布在蘭德網站上。

編 輯:章芳
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構成任何投資及應用建議。如網站內容涉及作品版權和其它問題,請在30日內與本網聯(lián)系,我們將在第一時間刪除內容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
相關新聞              
 
人物
工信部張云明:大部分國家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動 共筑信息保障堤壩
2023MWC上海世界移動通信大會
中國5G商用四周年
2023年中國國際信息通信展覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像