多國科學家抵制“殺人智能” 專家警告若不研發將讓中國領先

  • 葉林

日內瓦國際通訊聯盟展示的一款集人工智能技術的機器人

美國和世界各地的科研人員紛紛對配合軍方研發人工智能和自主武器(autonomous weapon)說“不”。一些學者和軍方人員認為,中國正以舉國之力研發自主武器,美國和西方國家主動丟失這一戰場是在自廢武功。

30 國科學家vs 南韓軍事實驗室 谷歌vs 五角大樓

來自30多個國家的50多個人工智能和機器人技術科學家星期四發表聯合聲明,反對韓國科學技術院設立人工智能武器實驗室,稱將抵制與該研究院開展任何合作,直至它放棄與有軍方背景的財團合作設立用於研發人工智能作戰技術的實驗室。

無獨有偶,據《紐約時報》本星期報導,數千名谷歌公司員工聯名上書公司CEO,反對參與美國國防部領頭的人工智能項目。

報導說,谷歌員工在信中要求公司推出五角大樓的人工智能“Maven”項目,認為以“不作惡”為信條的谷歌不應該涉足戰爭。

此前有消息說,谷歌正在與五角大樓合作,用人工智能技術分析處理無人機收集到的“海量”錄像畫面。

與此同時,聯合國“特定常規武器公約”下的一個委員會計劃下星期在瑞士日內瓦舉行會議,將討論如何在國際法框架下實現對自主化機器人“有意義的人類控制”。

活動人士呼籲,國家間應達成一個禁止自主武器的公約。

美國空軍退役少將、杜克大學法學中心教授查爾斯·鄧拉普(左一)、布魯金斯學會外交政策高級研究員泰德·皮科內(右二)4月5日在華盛頓參加研討會(美國之音葉林拍攝)

禁止自主武器是道德問題還是因噎廢食?

美國空軍退役少將、杜克大學法學中心教授查爾斯·鄧拉普(Charles Dunlap)認為,完全自主化、具備類似人類神經感知判斷能力的機器人現在還不存在,他也反對以道德原因禁止某項可能被用於軍事的技術。

鄧拉普4月5日在華盛頓著名智庫布魯金斯學會說,每次使用武力都會伴隨道德問題。

他說:“真正有參軍經驗的人從來不會對殺戮本身感到愉悅,即使殺的是敵人,實際情況是,殺人是為了救其他的人。所以我要提出不作為所帶來的道德風險。 ”

鄧拉普強調:“我們永遠不應該認為,因為我們不去採用某項技術,這樣就可以讓平民和無辜的人免受傷害。不是的,我們所處的這個世界有很多邪惡的壞人,他們會得到這些技術,除非我們阻止,他們會使用這些東西。不幸的是,有時暴力是唯一能阻止他們的方式。”

鄧拉普認為,國際社會需要達成的是一個對自主機器人技術的測試和評估準則,讓軍方指揮官有理由相信,某項技術的運作可以受到控制, 而不是達成禁止使用有關技術的條約。

他說:“我們永遠也不可能達成國際條約。不要忘了,中國至今不接受在網絡空間的行為受日內瓦公約有關武裝衝突條文的約束。 ”

中國的優勢是美國的地緣政治問題

布魯金斯學會副主席、外交政策項目主任布魯斯·瓊斯說,發展自主武器的前景不是科幻小說,而是一個現實命題,甚至可能是下一代的軍備競賽。

他說:“美國、俄羅斯、中國、法國等國家正在投資數百億美元,來決定誰能贏得這場競賽。普京和習近平都明確表示要讓自己的國家勝出——我認為習近平的說法更為可信。

布魯金斯學會外交政策高級研究員泰德·皮科內說:“中國使用大數據的方式是我們在民主社會不願意去用的。他們把數據用於社會控制,但也可以輕易、快速地將其武器化,因為人工智能是基於數據應用的學習,所以我認為我們手上有一個嚴重的地緣政治問題。”

有報導說,中國人工智能初創公司今年獲得的融資首次超過美國,這已經引起了美國研究人員的警覺。