機器人長久以來就是一種軍用儀器。比如說,要操作戰(zhàn)斗機,機載計算機就是不可或缺的一部分。在陸地作戰(zhàn)時,機器人可以完成無聊、骯臟或者危險的任務(wù)。有些機器人具有多棲才能,有些則術(shù)業(yè)有專攻。
不論最終采取怎樣的預(yù)防措施,具有殺傷力的自主機器仍給世界帶來不安。成立于2009年的非政府組織國際機器人武器控制委員會由專門研究機器人、道德、國際關(guān)系與人權(quán)的專家們組成,這一組織反對一個充斥著武裝機器人的“反烏托邦”世界。委員會還推出相關(guān)宣傳活動,目標(biāo)是防止機器人軍備競賽的發(fā)生,活動已經(jīng)取得了一些進展。2013年5月,聯(lián)合國在一份報告中呼吁,要對具有致命殺傷性的自主系統(tǒng)施加暫用禁令,直到成員國制定出使用規(guī)則為止。
美國在研究軍用機器人領(lǐng)域是不二的全球領(lǐng)跑者。研究原因無外乎是為了減少軍事行動中的艱苦與危險。上世紀九十年代早期人們提出了“干凈戰(zhàn)爭”的理念。除了通過“外科手術(shù)式”的精準(zhǔn)打擊做到盡量減少平民傷亡,或者是更廣義的人身傷害,“干凈戰(zhàn)爭”的理念也反映了公眾不愿讓前線士兵冒著生命危險沖鋒陷陣,遭受可能來自生理和心理(創(chuàng)傷后精神緊張性障礙)的雙重打擊。在與無視戰(zhàn)爭規(guī)則的非正規(guī)軍交戰(zhàn)時,囚犯待遇也是十分敏感的問題。
正因如此,過去二十年機器人在軍事領(lǐng)域與作戰(zhàn)中的地位不斷提升,軍工行業(yè)在研發(fā)機器人過程中取得了長足進步,在一定程度上也導(dǎo)致了民用機器人的進步。
所謂“軍用機器人”,并非單指嚴格意義上的機器人(由算法操作的單一機器)。軍用機器人還包括其他可遠程控制的儀器。每種機器人都有許多實地優(yōu)勢。它們的表現(xiàn)不受天氣環(huán)境(寒冷、雨水、黑暗)的影響;不會疲憊和分心,也無所畏懼?!笆軅敝蠛唵螌⑵渚S修或銷毀即可。
但是,大規(guī)模使用軍用機器人會影響人力資源及收入問題。不論是在服役期間或退伍之后,要支付給士兵的開支都不菲。2012年,美國政府撥出1500億美元,用于支付服役和退伍士兵薪酬、社保與醫(yī)療服務(wù),占當(dāng)年國防預(yù)算的四分之一。軍用機器人的興起一部分也是因為減支的需求。美國政府目標(biāo)于2015年底先裁軍6萬人,2019年底再縮減6萬人,最終將士兵總數(shù)裁減至42萬。
五角大樓一邊努力減少作戰(zhàn)單元的數(shù)量,一邊還要確保軍隊的整體效率。2014年初,美國陸軍訓(xùn)練及戰(zhàn)略思想司令部司令RobertCole將軍表示,在2030-2040年底,要將旅級作戰(zhàn)部隊(美國軍隊編制中可單獨作戰(zhàn)的最小單位)從4000人的規(guī)??s減至3000人。五角大樓最大的技術(shù)實驗室國防高等研究計劃署宣稱,其目標(biāo)簡單來說就是:發(fā)明機器人,精簡班組,節(jié)省交通開支。
專才還是通才?
機器人長久以來就是一種軍用儀器。比如說,要操作戰(zhàn)斗機,機載計算機就是不可或缺的一部分。在陸地作戰(zhàn)時,機器人可以完成無聊、骯臟或者危險的任務(wù)。有些機器人具有多棲才能,有些則術(shù)業(yè)有專攻。
在完成拆除簡易爆炸裝置的任務(wù)中,機器人也起到了不可或缺的作用。這種做法是有其歷史原因的。在伊拉克和阿富汗戰(zhàn)爭中,工程師發(fā)現(xiàn),37至53磅力每平方英寸的壓力足以引爆簡易爆炸裝置,遠小于一個全裝備士兵所載的88磅力每平方英寸壓力。因此,他們發(fā)明了一臺由一個簡易機器人操控的迷你推土機來進行排雷。自此,人們又發(fā)明了各種不同的掃雷機器人。大多數(shù)的體積都非常?。河煞▏鳨CA機器人公司生產(chǎn)的Miniroge僅重13磅。緊湊的設(shè)計允許其深入諸如水管或汽車底部等困難區(qū)域偵測。
美軍目前擁有7000架無人機與5000個地面機器人。其中最復(fù)雜的一款當(dāng)屬iRobot公司生產(chǎn)的Packbot510型機器人。該款機器人能夠在跌倒后起身繼續(xù)作業(yè)、穿越崎嶇地形、修復(fù)損壞的無線電、傳回高清畫面。另外還有一種“機器騾馬”機器人,可負責(zé)馱運武器與補給,減少后勤運輸?shù)膲毫?。國防高等研究計劃署也在研發(fā)一種新型的自主機器人(與之前型號有所不同),搭載二沖程發(fā)動機與液壓泵。這個金屬的四足裝置目前仍處模型階段,平地上的運行速度可達到16英里每小時。
軍用機器人的核心理念就是“人造士兵”。其中一個研究重點就是如何將人和機器與一個外骨骼無縫接合——此高科技因電影《鋼鐵俠》一炮走紅。有此技術(shù),步兵團的戰(zhàn)斗速度、實力與打擊精度都會大幅提高。于2012年問世的XOS2型機器人,機身僅重22磅,卻可讓一名士兵背負超過200磅的重物!
自主度有多高?
機會不言自明,挑戰(zhàn)也不可小覷。對那些由算法系統(tǒng)而非人類操作的自主機器而言尤為如此。而要制造各行業(yè)中流水線上操作的機器人,難度來自于如何讓它們與人類保持同樣高效率以及形體和精神上的獨立完整。另外,法律上的不確定性或許也無可避免。機器人的行動由程序員、制造商和操作員所決定。一旦發(fā)生事故,三方中的哪方應(yīng)承擔(dān)責(zé)任?
另外,這些半自動或遠程控制的機器的操作員也是機器行為的一部分,心理上難免會受到影響。有證據(jù)顯示,遠程操作無人機的技術(shù)人員可能產(chǎn)生的紊亂,是由日常生活與他們所做決定之間的脫節(jié)所致。他們所做的都是數(shù)千英里之外奪人性命的決定。來自華盛頓大學(xué)的茱莉·卡彭特曾進行過一項研究,發(fā)現(xiàn)在戰(zhàn)場上,士兵與掃雷機器人所建立起來的感情遠超一般用戶和工具之間的關(guān)系。
但是,最大的隱患還是來自于自主機器本身。人們已經(jīng)開始擔(dān)心如何控制管理機器人的自主權(quán)。對于在戰(zhàn)地上沖鋒的軍用機器人,問題在于能否將做決定開槍射擊的權(quán)力下放到機器。許多強硬派人士已經(jīng)開始質(zhì)疑,人類究竟是否還能擁有投反對票的權(quán)力。
準(zhǔn)自動機器人已經(jīng)問世。以色列的哈比無人機可以自動飛入巡邏區(qū)域,偵查周圍是否存在敵軍的雷達信號,一旦發(fā)現(xiàn)信號源,便立即開火摧毀。諸如美國密集陣近程防御武器系統(tǒng)或以色列的“鐵穹”反火箭彈系統(tǒng)會自動延遲發(fā)射導(dǎo)彈,人類根本無法進行干預(yù)。三星Techwin所出品的SGR-A1機器人系統(tǒng)可以替代朝鮮半島邊界紛爭的前線士兵,它可以偵查到人類進入設(shè)定區(qū)域的痕跡,并向其索取密碼獲得準(zhǔn)入權(quán),甚至在經(jīng)過設(shè)置后,它也可以進行自動射擊。
那么,底線何在?機器人專家與倫理專家羅恩·阿爾金提出,要讓機器人具備一套道德準(zhǔn)則——也就是一套體現(xiàn)人為意識的規(guī)則——將這些規(guī)則直接植入機器內(nèi),確保其所作所為完全符合國際人道主義法。
機器人要道德有何用?
軍用機器人有能力選擇并摧毀打擊目標(biāo),因此不能將它們與安全和責(zé)任的概念脫鉤。編程中必須明確,對于包括“友方”目標(biāo)、平民與休戰(zhàn)狀態(tài)的敵軍等“值得道德考慮”的目標(biāo)需要手下留情。也可以在機器人中設(shè)置一張對手清單,在清單范圍內(nèi),如果能卸去對方武裝就不要趕盡殺絕。機器人必須選擇一個行動模式,在不同模式下遵守相應(yīng)的道德規(guī)則。工程師將其稱為“人工道德代理”。不過問題就在于機器人的靈活性到底有多強。當(dāng)機器人僅在一定的地理范圍內(nèi)活動時,其行為完全受程序員與設(shè)計師的控制,他們可以提早預(yù)判各種情況,將相關(guān)應(yīng)對措施寫入機器人的程序內(nèi)。這種機器人屬于在“操作上道德”。
機器人本身是無需對自己進行道德評估的,不用判斷行動所產(chǎn)生的后果。該類機器人不需要在毫秒之內(nèi)就要為某個情況挑選道德規(guī)則,也不會面臨數(shù)條相抵觸的規(guī)則。
加州州立理工大學(xué)的“道德與新興科學(xué)”組織向美國海軍提交了一份報告,當(dāng)中寫到,單靠達到“操作上道德”是遠遠不夠的。在復(fù)雜環(huán)境下,機器人系統(tǒng)可能會因為內(nèi)部過于簡單的結(jié)構(gòu)而在不可預(yù)知環(huán)境的影響下崩潰。研究人員指出,機器必須內(nèi)置“功能性道德”,它們需要擁有自主能力進行道德判斷。但是,該類項目研發(fā)也引發(fā)了不小的難題。該學(xué)術(shù)團體著力將最簡單的“道德”規(guī)則——機器人三定律寫入機器人程序內(nèi)。機器人三定律指:1.機器人不得傷害人類,或因不作為使人類受到傷害;2.除非違背第一法則,機器人必須服從人類的命令;3.在不違背第一及第二法則下,機器人必須保護自己。很明顯,機器本身不清楚什么行為會傷害人類,因此這些規(guī)則的效力是有限的。
有人提出了另一方案:拋棄康德所謂的“定言命令”,使用所謂“自動道德觀”。但是,這一概念放在機器人的例子當(dāng)中行不通。機器人既無意志也無意愿,好壞也無從談起。其他研究團隊建議索性放棄將道德植入機器人軟件的想法,而是要使用“奴隸道德”將軍用機器人定性為完全服從的機器。這種看似保險的做法實際上會影響機器人的工作效率:軍用機器人的價值在于其快速的行動和反應(yīng)能力。
有些哲學(xué)家提出了另行方案。他們認為通過學(xué)習(xí)算法、使用情感探測器和了解社會機制能夠幫助提高機器人的道德感。但是,計算機科學(xué)家尚不清楚這一體系能否進一步提高機器人的情商、認知水平、道德判斷與意識。