呼吁抵制人工智能武器但真正危險的還是人類
業(yè)界呼吁抵制人工智能武器,但真正危險的還是人類!硅谷鋼鐵俠持續(xù)在行動,馬斯克又一次對人工智能威脅發(fā)起了“人類的反擊”。這次的新聞,是馬斯克聯(lián)合Deepmind三位聯(lián)合創(chuàng)始人之一穆斯塔法·蘇萊曼,以及116位人工智能專家與企業(yè)CEO,共同給聯(lián)合國寫了封公開信。內容是提醒聯(lián)合國有關部門警惕人工智能武器這個“戰(zhàn)爭領域的第三次革命”。
公開信中認為,智能化、自動化的致命武器科技是一個“潘多拉魔盒”,一旦打開人類將很難將其合上。
事實上這不是馬斯克第一次發(fā)表類似的公開信。兩年前,馬斯克曾經聯(lián)合霍金等一千多位科學家,提醒聯(lián)合國有關部門將人工智能武器加入《特定常規(guī)武器公約》的禁用武器名錄。
雖然馬斯克經常被人指責對人工智能過分小心。但獲得如此多業(yè)界人士的支持,控制人工智能武器的意義絕非空穴來風。
相比于“超級智能取代人類”這種遙不可及的命題,人工智能武器化帶來的危險,已經貨真價實的來到了我們身邊。
可能是太多的科幻電影,讓我們形成了對所謂人工智能武器的常識性偏見。提起人工智能武器我們會覺得非常遙遠——但事實遠非如此。
不會出現(xiàn)“終結者”,真正危險的是人類
想要了解人工智能武器,我們必須首先破除對《終結者》等電影的固有認知。包括這次業(yè)界聯(lián)名發(fā)表的公開信,國內還是有很多媒體解讀為“AI界呼吁警惕機器人殺手”。行文中依舊把人工智能武器等同于“會殺人的超級人工智能”。
這是明顯的常識謬誤。首先有自主情感、思維,又能戰(zhàn)斗的人工智能實在遠在天邊,可能數百年內都沒有擔憂它的必要。其次即使真的有這樣的智能體,是不是會給人類造成威脅也未可知。
真正危險的,始終都是人類本身。
所謂的人工智能武器,可以理解為將人工智能的識別、感知、自主化技術特征加入武器系統(tǒng)里產生的結果。這是一個非常寬泛的含義。
舉例來說,使用人工智能技術的無人駕駛車,如果被不法分子修改了系統(tǒng)指令,按照其設計行駛到特定區(qū)域,在人群中橫沖直撞。那么這輛車就是一件人工智能武器。并且使用代價極低,造成破壞巨大。
人工智能運用在武器上,其實跟人工智能運用到工業(yè)生產里沒有本質區(qū)別。真正的改變在于武器的自動化程度會提升到新的級別。
目前已知正在研究的人工智能武器包括七大分類:進遠程自動射擊機器人、智能無人機系統(tǒng)、無人艦船與潛艇、自主射擊陸戰(zhàn)武器、智能導彈體系、網絡攻擊與衛(wèi)星攻擊武器。
已知參與人工智能等技術軍事化的國家政府與企業(yè)也十分龐雜。很多無人機、安防機器人的技術已經很難區(qū)分軍用與民用的界限。加上人工智能武器系統(tǒng)的非標準化生產,給武器流出與破解帶來了巨大隱患。
凡此種種,是人工智能武器的真正威脅所在。
人工智能武器的越界與尷尬
1981年簽署的聯(lián)合國《特定常規(guī)武器公約》中,對于禁用武器的標準做了兩種特征規(guī)定:一是武器本身過度不人道,比如激光致盲武器;二是本身具有濫殺濫傷作用,比如戰(zhàn)時大量布置地雷,給戰(zhàn)后平民帶來反復的生存威脅。
基于這兩點,地雷、餌雷、燃燒武器、激光致盲武器等非大規(guī)模殺傷武器被列為了人類禁用武器。在人工智能武器并不能產生巨大殺傷力的今天,它的越界之處在于其本身存在的濫殺濫傷能力可能擴散。甚至操作適當的話,人工智能武器可能引發(fā)人道危機。
比如說在2015年著名的黑客集會“黑帽子大會”上,就有研究人員現(xiàn)場展示通過無線控制器黑進了智能狙擊步槍。這種武器可以智能測算風速、距離、開火時機等等因素,即使沒開過槍的人也能輕易打中目標。而一旦黑客掌握了這種武器,那么狙擊刺殺可以很輕易在萬里之外操控,并且難以追查。
想象一下,原本需要訓練數十年的狙擊手和昂貴的狙擊設備,現(xiàn)在一個黑客一部手機就搞定了。如此低的代價,社會安全從何談起?
這也是科學家和企業(yè)家所真正擔心的:原本用來改善世界的技術,卻可以在幾個翻轉之后成為廉價、易得、難以控制的殺傷力源頭,可說是對原本不安全的地球又一次重創(chuàng)。
人工智能武器化,或者說武器進行“人工智能+”的進程里,最尷尬的地方在于技術加持軍備是個不可逆的過程?,F(xiàn)代軍事本身追求的就是投入更少的人、達到更高的精準度和效率,如何能放任武器自動化的果實而不摘呢?
但相比于技術道路上的尷尬,人工智能武器最讓人擔憂的地方來源于兩個“深層危險”
危險1:戰(zhàn)爭門檻無限降低
人工智能介入戰(zhàn)爭與軍事,帶來的核心改變就是戰(zhàn)爭中的人力需求在快速萎縮。但很少的人就能發(fā)動戰(zhàn)爭可能在某些時候并非好事。
比如人工智能武器被恐怖主義和極端勢力使用。原本需要大量人員來執(zhí)行的任務如果可以通過一定的技術與很少的人來替代。那么恐怖主義裸露在地表的最后一塊痕跡也將消失。
試想假如三兩個瘋狂的技術人員,就可以在遠端遙控數十臺自動射擊的槍械機器人、上百臺無人駕駛車輛,并且能把任何角落作為基地。那么恐怖主義將可以在難以琢磨的角落伸出利爪。
無人設備可以發(fā)動襲擊,同時也能成為集權統(tǒng)治工具。比如獨裁政府或者極端勢力可以在全國反對的情況下,依靠少量人員和自動武器系統(tǒng)控制局面,那顯然不是什么美好畫面。
人工智能的介入,也讓武器和戰(zhàn)爭越來越多元。比如將無人機、無人車、城市系統(tǒng)等智能體轉化為武器,危險系數恐怕比傳統(tǒng)武器要高很多。再比如人工智能虛擬武器的出現(xiàn),可能發(fā)動直接摧毀民生基礎設施的物聯(lián)網戰(zhàn)爭。
暴力機器能夠確保社會穩(wěn)定,在于它的難以掌握和珍貴性。人工智能武器一旦泛濫,很可能把戰(zhàn)爭門檻無限降低。那么小到滋生社會暴力和恐怖主義,大到威脅國際軍事秩序,都不是難以想象之事。
危險2:城市與人群成為核心目標
另一個讓人汗毛炸立的想象,在于人工智能武器帶來的無人化和自動化升級,很有可能改寫戰(zhàn)爭這件事本身的目的。
從古代戰(zhàn)爭到現(xiàn)代戰(zhàn)爭,軍事行為的核心目的都是消滅對方有生力量,占有對方資源。這個邏輯里,平民所在的生活與生產區(qū)域應該是占領的而非毀滅的。
但如果大量自動化武器成為軍備的主軸,那么所謂的“有生力量”概念將被重寫。由于軍事人員大大減少,那么軍事力量的核心將是軍備生產能力。而在人工智能時代,工業(yè)體系生產將是需要各種技術生產集成化的,換言之軍事生產能力將散落各處——于是平民集中區(qū)或許史無前例的成為了首要軍事目標。
除了這個核心邏輯的改變,自動化武器的高效殺傷和無道德判斷也可能極大增加戰(zhàn)中平民傷亡。即使不考慮戰(zhàn)爭這種極端情況,人工智能武器作為偵查工具、監(jiān)控工具,也可能威脅平民的隱私與信息、財產安全。
迫在眉睫的任務:制定無人戰(zhàn)游戲規(guī)則
雖然人工智能領域的從業(yè)者很多都看見了AI與軍事相結合可能帶來的失控。但無論何種具體的武器禁用條約,實質上都難以阻擋現(xiàn)代戰(zhàn)爭無人化的巨浪。
人工智能等前沿技術,會極大消弭掉軍事訓練成本、人員后勤成本,并且在無數領域提高軍事效率,這對于任何軍事實體都是必須擁抱的未來。
畢竟現(xiàn)代戰(zhàn)爭本質上就是更少的人和更大的殺傷,人工智能只是又一次蛻變的助推劑而已。
但是呼吁國際社會提早引起重視,正視人工智能武器可能帶來的威脅絕對是有道理的。畢竟最直接的威脅來自于新技術外流和泛濫,甚至成為犯罪的幫兇。
目前對于人工智能武器和無人武器,最重要的任務是從頭開始制定游戲規(guī)則。首要工作來自三方面:
1、完整描繪人工智能武器的種類與界限。
2、明確人工智能等新型軍事技術與已研發(fā)武器體系的控制權、監(jiān)督權,建立合理的看管機制。
3、重新認識和理解戰(zhàn)爭的倫理——這是最困難的一點,但必然是接下來漫長時間里戰(zhàn)爭學的主旋律之一。
人工智能的優(yōu)勢和問題,都在于它實在太底層了,太容易與各種東西結合并產生變化。對待兩極化的技術,就有賴于全人類走鋼絲的能力。
AI僅僅是工具,但我們很難相信它在未來能免于作惡。深淵已開,重點是我們能在深淵里行舟架橋,還是深陷其中,變成深淵本身?