精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

蘭德警告:2040年人工智能或發動核戰爭毀滅人類

責任編輯:zsheng |來源:企業網D1Net  2018-04-25 19:07:52 本文摘自:極客網

據《每日郵報》北京時間4月25日報道,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智能就可能發動造成人類毀滅的核戰爭。

蘭德稱,催生“世界末日人工智能”機器的技術發展,可能會促使一些國家利用它們的核武庫冒險。

在冷戰期間,被稱作“相互確保摧毀”的狀態,維持了兩個超級大國之間不穩定的平衡。

然而,人工智能的進步可能意味著“相互確保摧毀”狀態遭到破壞,從而削弱對方反擊的潛力,而且,這種趨勢可能無法阻止。

冷戰期間相互確保摧毀維持了超級大國之間脆弱的平衡

蘭德稱,未來數十年,人工智能的進步,可能破壞“相互確保摧毀”對擁核國家的約束力。

就像在20世紀40年代和50年代的冷戰時期,未來核沖突的每一方都有理由擔心對手獲得技術優勢。

改進的人工智能技術,加上更多的傳感器和開源數據,可以使各國相信他們的核能力是脆弱的。

報告稱,這可能會導致它們采取更激進的措施,跟上美國這樣的競爭對手。

蘭德研究人員、報告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔心,人們越來越依賴人工智能會導致新型的災難性錯誤。”

各國都面臨在技術真正成熟前使用人工智能的壓力。因此未來數十年要保持戰略穩定性極端困難,所有核大國必須參與新體系的形成,以降低核風險。

報告稱,另一種令人擔憂的情況是,指揮官可能根據人工智能助手提供的建議作出發動攻擊的命令,而人工智能助手接收的信息本身可能就是錯誤的。

除了提供糟糕的建議外,這樣的系統也可能容易受到黑客攻擊,從而引發了惡意第三方發動第三次世界大戰的可能性。

盡管如此,有人認為人工智能可以通過提高情報收集和分析的準確性,來提高未來的戰略穩定性。

專家表示,對用于監測和解釋對手行為的分析過程進行改進,可以減少可能導致對抗意外升級的錯誤計算或曲解。

鑒于未來的改進,最終人工智能系統有可能發展出比人類更不容易出錯的能力,因此有助于保持長期的戰略穩定性。

根據與在核問題、政府部門、人工智能研究、人工智能政策和國家安全方面的專家舉行的一系列研討會期間收集的信息,蘭德研究人員,得出了上述結論。

這項研究是展望2040年重大安全挑戰的更廣泛研究活動的一部分,考慮了政治、技術、社會和人口趨勢的影響。

“人工智能會增加核戰爭的風險?”研究的全部資料發布在蘭德網站上。

關鍵字:人類智能

本文摘自:極客網

x 蘭德警告:2040年人工智能或發動核戰爭毀滅人類 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

蘭德警告:2040年人工智能或發動核戰爭毀滅人類

責任編輯:zsheng |來源:企業網D1Net  2018-04-25 19:07:52 本文摘自:極客網

據《每日郵報》北京時間4月25日報道,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智能就可能發動造成人類毀滅的核戰爭。

蘭德稱,催生“世界末日人工智能”機器的技術發展,可能會促使一些國家利用它們的核武庫冒險。

在冷戰期間,被稱作“相互確保摧毀”的狀態,維持了兩個超級大國之間不穩定的平衡。

然而,人工智能的進步可能意味著“相互確保摧毀”狀態遭到破壞,從而削弱對方反擊的潛力,而且,這種趨勢可能無法阻止。

冷戰期間相互確保摧毀維持了超級大國之間脆弱的平衡

蘭德稱,未來數十年,人工智能的進步,可能破壞“相互確保摧毀”對擁核國家的約束力。

就像在20世紀40年代和50年代的冷戰時期,未來核沖突的每一方都有理由擔心對手獲得技術優勢。

改進的人工智能技術,加上更多的傳感器和開源數據,可以使各國相信他們的核能力是脆弱的。

報告稱,這可能會導致它們采取更激進的措施,跟上美國這樣的競爭對手。

蘭德研究人員、報告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔心,人們越來越依賴人工智能會導致新型的災難性錯誤。”

各國都面臨在技術真正成熟前使用人工智能的壓力。因此未來數十年要保持戰略穩定性極端困難,所有核大國必須參與新體系的形成,以降低核風險。

報告稱,另一種令人擔憂的情況是,指揮官可能根據人工智能助手提供的建議作出發動攻擊的命令,而人工智能助手接收的信息本身可能就是錯誤的。

除了提供糟糕的建議外,這樣的系統也可能容易受到黑客攻擊,從而引發了惡意第三方發動第三次世界大戰的可能性。

盡管如此,有人認為人工智能可以通過提高情報收集和分析的準確性,來提高未來的戰略穩定性。

專家表示,對用于監測和解釋對手行為的分析過程進行改進,可以減少可能導致對抗意外升級的錯誤計算或曲解。

鑒于未來的改進,最終人工智能系統有可能發展出比人類更不容易出錯的能力,因此有助于保持長期的戰略穩定性。

根據與在核問題、政府部門、人工智能研究、人工智能政策和國家安全方面的專家舉行的一系列研討會期間收集的信息,蘭德研究人員,得出了上述結論。

這項研究是展望2040年重大安全挑戰的更廣泛研究活動的一部分,考慮了政治、技術、社會和人口趨勢的影響。

“人工智能會增加核戰爭的風險?”研究的全部資料發布在蘭德網站上。

關鍵字:人類智能

本文摘自:極客網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 霍林郭勒市| 武山县| 张家界市| 苗栗市| 贺州市| 凉城县| 九寨沟县| 奎屯市| 张北县| 湘阴县| 肇东市| 佛坪县| 昌乐县| 保亭| 铜鼓县| 林芝县| 锡林浩特市| 自贡市| 龙江县| 乐清市| 英德市| 渝中区| 兴海县| 商南县| 沁源县| 凤城市| 吉林市| 江阴市| 彩票| 龙里县| 黄冈市| 奉贤区| 手机| 泰和县| 大埔区| 枝江市| 四会市| 遵义县| 黔西| 巴彦淖尔市| 泸水县|