2012年2月24日 星期五

無人武器系統 誰掌生殺大權


在科技發展與超高速電腦的協助下,美國軍方在30年之後,可能會改派機器人前往戰場,在缺乏監督的情況下生殺予奪敵人的性命。但《路透》專欄作家德布斯曼(Bernd Debusmann)指出,戰爭科技快速發展,有關機器戰爭的倫理問題卻被遠遠拋在後頭。

在布魯金斯研究所鑽研軍事機器人的彼得‧辛格(Peter Singer)表示,當科技發展以指數成長的步調邁進時,人類的建制仍以緩慢的線性速度前進,有時甚至是停滯不前。科幻小說家以撒‧艾西莫夫(Isaac Asimov)的觀察也同樣回應這個觀點:眼下最可悲的事,是科學知識增加得比人類智慧快。

美軍:人能掌握科技

美國國防部在今年1月26日宣布要裁軍10萬人,但同時也宣布要積極發展軍事用途的無人飛機,這是美國目前鎖定反美好戰分子時最有效的殺人工具。美軍只要窩在基地,就可以遠端遙控無人飛機。

根據美國空軍所提出的82頁報告《無人航空器系統飛行計畫:2009年至2047年》(Unmanned Aircraft Systems Flight Plan 2009-2047)中,軍事專家提出對無人飛機的願景,報告寫道:「人工智慧(AI)的進展,使得系統能做出戰鬥的決定,且在毋須投入人力的情況下,在法律及政策的限制之內採取行動。」

在美國軍方看來,過去人類親自參與觀察、定位、決策及行動(observe, orient, decide, act,簡稱OODA)的軍事循環,但這些工作未來可由無人飛機完全取代。因此,美軍認為人類的角色不再是處於循環之中,而是在循環之上。只要時間上允許,人類隨時可否決戰爭機器所做出的決定。

10年前,機器人戰爭或許只存在於好萊塢的科幻片;但在過去10年的時間裡,美國積極開發無人飛機及地面機器人,後者能發揮拆除爆裂物、射擊與搬運受傷士兵的功用。美國目前已有超過7,500架的無人飛機,以及1萬5千隻左右的地面機器人。

軍方報告還指出,機器在從事致命的戰鬥任務時,是經過政治及軍方領導者的同意,因此機器本身沒有法律及倫理問題,戰爭機器的發展是受到倫理及決策的引導,而不是按照戰爭機器自身的邏輯來發展。

恐更容易爆發戰事

換句話說,倫理與人為決策仍是首要的,戰爭機器的出現不會造成失控局面。但也有愈來愈多科學家、機器人專家與倫理學學者擔憂,隨戰爭科技進步,真正上戰場的人數一旦減少,而可以改派更多機器人時,反而增加開戰的可能性。

著有《操縱的戰爭》(Wired for War)的辛格在《紐約時報》上表示:「我們掌握了科技,移除通往戰爭的最後一道政治障礙。……最渴望無人系統的理由在於我們不必再將誰家的孩子送去受傷,然而當政客可以避免寄發慰問信而帶來政治後果、或避免軍事傷亡及新聞媒體對選情造成影響時,他們對於戰爭及和平的問題也不會像過去一樣如此慎重其事。」

國際機器人戰爭控制委員會(International Committee for Robot Arms Control, ICRAC)也抱持類似看法,該委員會於2009曾針對武裝軍事機器人的議題展開國際辯論。ICRAC相信,我們應該重視戰爭用途的機器人革命,就像我們過去關注在戰爭中使用毒氣及地雷一樣。

不過,這些人的擔憂卻沒有得到回應。譬如,如果自動機器人殺死平民,誰該負責任?製造者?寫程式的人?戰場上的指揮者?還是總統?

總部設在日內瓦的國際紅十字會也開始關心在戰場上使用機器人的問題,但要求對機器人加以管制的人,似乎無法期待歐巴馬能改善這個問題。因為自歐巴馬2009年就任以來,便在巴基斯坦大量使用無人飛機來鎖定、擊殺反美人士。

在中央情報局的策畫下,無人飛機也被用來攻擊躲藏在巴基斯坦與阿富汗接壤山區的反抗人士,而無人機器也造成平民的傷亡,助長巴基斯坦的反美仇恨。

這也就是為何有些知名的專家認為戰爭機器的發展應放緩步調。去年12月,加州科技州立大學哲學系教授派翠克•林(Patrick Lin)向中央情報局的官員做簡報時,他在結論部分指出,機器戰爭的狂熱者應謹記:「帶入倫理學的思考,也許會變得比較審慎且行動變得較不敏捷;但這可以幫助我們贏取道德高地,這或許才是戰場上最關鍵的部分。」




台灣立報 2012/02/22 李威撰

相關連結
More drones, more robots, more wars (Reuters blog)

沒有留言:

張貼留言