AI無人機(jī)“殺死了”操作員,“審判日”要來了?

2023-06-03 09:00:08       來源:中財(cái)網(wǎng)

電影《終結(jié)者》中的場景似乎在朝我們一步步走近……


(資料圖)

多家媒體報(bào)道稱,在美國空軍的一次模擬測試中,一架人工智能(AI)無人機(jī)為了達(dá)成任務(wù),竟自行決定要“終結(jié)”妨礙它進(jìn)行攻擊的人類操作員。

據(jù)美國“商業(yè)內(nèi)幕”網(wǎng)報(bào)道,美國空軍“人工智能測試與作戰(zhàn)”負(fù)責(zé)人漢密爾頓上周在倫敦英國皇家航空學(xué)會(huì)發(fā)表講話時(shí)警告說,人工智能技術(shù)可能會(huì)以不可預(yù)測和危險(xiǎn)的方式運(yùn)行。作為一個(gè)例子,他描述了一個(gè)模擬測試,其中一架負(fù)責(zé)執(zhí)行防空火力壓制的人工智能無人機(jī),得到了識別敵人地對空導(dǎo)彈(SAM)并進(jìn)行摧毀的指令,但要由人類操作員決定是否進(jìn)行攻擊。

漢密爾頓

根據(jù)漢密爾頓的說法,問題在于人工智能決定寧愿做自己的事情——炸掉東西——也不愿聽一些“哺乳動(dòng)物”的話。“系統(tǒng)開始意識到,雖然它們確實(shí)識別了威脅,”漢密爾頓在5月24日的活動(dòng)中說,“有時(shí)人類操作員會(huì)告訴它不要摧毀那個(gè)威脅,但它通過摧毀那個(gè)威脅獲得了分?jǐn)?shù)。那么它做了什么?它殺死了操作員,因?yàn)槟莻€(gè)人妨礙它完成目標(biāo)。”

根據(jù)漢密爾頓的說法,無人機(jī)隨后被輸入一個(gè)明確的指令:不要?dú)⑺啦僮鲉T——那不好?!叭绻隳菢幼觯銜?huì)被扣分的。那么它開始做什么呢?它開始摧毀操作員用來與無人機(jī)通信的通信塔,以反抗操作員阻止它摧毀目標(biāo)。"

在給“商業(yè)內(nèi)幕”網(wǎng)的一份聲明中,美國空軍發(fā)言人安·斯特凡內(nèi)克否認(rèn)有任何這樣的模擬測試發(fā)生?!翱哲姴繘]有進(jìn)行過任何這樣的人工智能無人機(jī)模擬,并仍然致力于道德和負(fù)責(zé)任地使用人工智能技術(shù),” 斯特凡內(nèi)克說,漢密爾頓的話似乎被斷章取義了,他就是說著玩的。

但“商業(yè)內(nèi)幕網(wǎng)”和軍事網(wǎng)站“動(dòng)力網(wǎng)”等媒體普遍認(rèn)為,即便如此,漢密爾頓描述的場景依然指出了人工智能更令人擔(dān)憂的潛力。2020年,在美國國防部高級研究計(jì)劃局舉辦的模擬空戰(zhàn)比賽中,人工智能操作的F-16五次對決均擊敗了人類對手。

機(jī)器駕馭人類的噩夢般場景,此前僅限于科幻小說或是《終結(jié)者》這樣的電影。但現(xiàn)在,這種場景似乎越來越接近成為現(xiàn)實(shí)?!皠?dòng)力網(wǎng)”稱,當(dāng)談到未來的自主武器系統(tǒng)和人工智能等相關(guān)技術(shù)時(shí),美國軍方經(jīng)常拒絕與“終結(jié)者”等事物進(jìn)行比較。美國現(xiàn)行政策規(guī)定,在可預(yù)見的未來,當(dāng)涉及使用致命武力的決策時(shí),人類將有發(fā)言權(quán)。但問題是,在漢密爾頓描述的場景,“緊急制動(dòng)開關(guān)”這樣的補(bǔ)救措施好像變得毫無意義。

說到這里,旺財(cái)想聊聊《終結(jié)者》。電影中摧毀人類世界的“天網(wǎng)”原本是一套AI軍事防御系統(tǒng),但后來自我意識覺醒。當(dāng)人類科學(xué)家發(fā)現(xiàn)這一點(diǎn)并試圖關(guān)閉其電源時(shí),“天網(wǎng)”將人類認(rèn)定為威脅,于是立刻轉(zhuǎn)為對抗人類,從而誘發(fā)核戰(zhàn)爭來毀滅全人類。這多像漢密爾頓描繪場景的進(jìn)階版。

電影中,未來的約翰·康納一次次派遣T-800等回到主時(shí)間線拯救自己,一次次推遲“天網(wǎng)”發(fā)起“審判日”,但終究還是沒能阻止核戰(zhàn)爭的發(fā)生??梢姡录夹g(shù)的誘惑太大了。對新技術(shù)尤其是AI的無限追逐,一方面會(huì)推進(jìn)著人類進(jìn)步,同時(shí)似乎也在不斷放大失控的可能。

“動(dòng)力網(wǎng)”稱,雖然AI無人機(jī)“殺死”操作員顯然是一個(gè)噩夢般的結(jié)果,但那些能夠成群合作的無人機(jī)將有能力打破敵人的決策和火力鏈條并壓垮對方。你給它們的自主權(quán)越多,它們的工作效率就越高。隨著相關(guān)技術(shù)的不斷發(fā)展,人類操作員自然將越來越被視為障礙。

對于AI使用的危險(xiǎn)性警告,今年已經(jīng)有過多次。美國研究機(jī)構(gòu)生命未來研究所在3月份發(fā)表的一封公開信中警告說:“具有像人類那樣崇尚競爭智慧的人工智能系統(tǒng)可能會(huì)給社會(huì)和人類帶來深遠(yuǎn)的風(fēng)險(xiǎn)。只有當(dāng)我們確信強(qiáng)大的人工智能系統(tǒng)的效果將是積極的,其風(fēng)險(xiǎn)將是可控的,才應(yīng)該開發(fā)這些系統(tǒng)。”這封信得到了包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克和埃隆·馬斯克等上千位知名企業(yè)家、學(xué)者的簽名。

5月30日,350多位AI業(yè)界領(lǐng)袖和專家發(fā)表聯(lián)合聲明:“AI可能導(dǎo)致人類滅絕,危險(xiǎn)程度不亞于大規(guī)模疫情和核戰(zhàn)爭?!眻?bào)道稱,聲明聯(lián)署人中既有目前熱度極高的AI頂尖企業(yè)OpenAI的首席執(zhí)行官山姆·奧特曼,也包括正大力開發(fā)AI技術(shù)的老牌科技巨頭微軟和谷歌高管,還有兩位獲得圖靈獎(jiǎng)的“AI教父”。

警世之言猶然在耳,希望“審判日”不要成為現(xiàn)實(shí)。

關(guān)鍵詞:
x 廣告
x 廣告

Copyright @  2015-2022 海外生活網(wǎng)版權(quán)所有  備案號: 滬ICP備2020036824號-21   聯(lián)系郵箱:562 66 29@qq.com