以軍使用名為“薰衣草”的AI程序生成“殺戮清單”,給加沙地帶的230萬(wàn)居民逐一打分;
美軍“誤擊”伊朗小學(xué),原因指向一個(gè)低級(jí)錯(cuò)誤:情報(bào)庫(kù)里的數(shù)據(jù),還停留在十年前;
特朗普簽署一項(xiàng)行政令,停用Claude大模型。五角大樓要的是企業(yè)大開(kāi)綠燈,允許軍方將模型用于所有“合法”用途。企業(yè)則宣稱堅(jiān)持兩條紅線,反對(duì)模型被用于美國(guó)本土的大規(guī)模監(jiān)控,反對(duì)AI自主武器。
今天我們就來(lái)說(shuō)說(shuō)美國(guó)向著人工智能軍事化的危險(xiǎn)狂飆。
伊朗《德黑蘭時(shí)報(bào)》3月9號(hào)在頭版刊發(fā)了伊朗受害兒童的遺照,標(biāo)題寫(xiě)著《特朗普,看著她們的眼睛》。

3月11日,美軍內(nèi)部調(diào)查初步認(rèn)定,美軍“誤擊”伊朗小學(xué),原因指向一個(gè)低級(jí)錯(cuò)誤:情報(bào)庫(kù)里的數(shù)據(jù),還停留在十年前。
這所小學(xué)過(guò)去確實(shí)曾經(jīng)屬于伊斯蘭革命衛(wèi)隊(duì)海軍基地,但早已被改為學(xué)校。不但地圖上有明確標(biāo)注,學(xué)校墻壁也是色彩鮮艷的圖畫(huà),民用特征不能再明顯。
由此,多家美國(guó)媒體質(zhì)疑,空襲目標(biāo)是不是AI鎖定的?打擊前是不是根本沒(méi)有人工復(fù)核?
不怪外界有這樣的聯(lián)想,美國(guó)AI公司Anthropic和五角大樓的矛盾公開(kāi)化,實(shí)錘了美國(guó)在實(shí)戰(zhàn)中,大規(guī)模應(yīng)用人工智能。
當(dāng)AI走進(jìn)戰(zhàn)場(chǎng),它的權(quán)力邊界到底在哪里?
2024年,以色列媒體《+972》披露,以軍使用名為“薰衣草”的AI程序生成“殺戮清單”。

這個(gè)程序通過(guò)大規(guī)模監(jiān)控,分析通信記錄、社交關(guān)系和行為數(shù)據(jù),給加沙地帶的230萬(wàn)居民逐一打分。從1到100分,行為模式越像哈馬斯武裝人員,分?jǐn)?shù)越高。當(dāng)分?jǐn)?shù)超過(guò)某個(gè)值的時(shí)候,系統(tǒng)就會(huì)把這個(gè)人標(biāo)記為打擊目標(biāo)。真實(shí)版的“AI良民證”系統(tǒng)。
據(jù)半島電視臺(tái)報(bào)道,薰衣草至少將37000個(gè)巴勒斯坦人列為獵殺目標(biāo)。以軍下令,一旦被薰衣草認(rèn)定為打擊目標(biāo),審核員不用核實(shí)原始情報(bào)數(shù)據(jù),也不必搞清楚AI為什么把這些人列為目標(biāo),只需要簡(jiǎn)單核對(duì)一下,目標(biāo)是不是男性,就可以開(kāi)啟擊殺。盡管,他們明明知道,這個(gè)標(biāo)記程序有10%的錯(cuò)誤率。
10%,37000人的名單,至少3700個(gè)誤判。他們可能只是普通警察、武裝分子的親屬、甚至恰好和武裝人員重名的平民。
即便如此,以軍依然毫不留情地按下打擊鍵,輕飄飄地把這些誤殺歸為所謂的“附帶損害”。
有以色列軍方人士告訴媒體,AI篩選出目標(biāo)后,確實(shí)需要人類批準(zhǔn),只是實(shí)戰(zhàn)中,分秒必爭(zhēng),每個(gè)目標(biāo)的確認(rèn)時(shí)間,只剩下20秒。
看一眼,點(diǎn)一下,每天重復(fù)幾十次,久而久之,他幾乎成了一個(gè)沒(méi)有感情的“蓋章機(jī)器”。
當(dāng)那些手握決策權(quán)的人,覺(jué)得所有分析、判斷、權(quán)衡都由機(jī)器完成,繼而逐漸冷漠麻木,他們還會(huì)背負(fù)參戰(zhàn)、殺戮的心理責(zé)任嗎?
當(dāng)AI選錯(cuò)目標(biāo),軍方和科技公司互相推諉,受害的無(wú)辜平民還有機(jī)會(huì)開(kāi)口說(shuō)話嗎?
特朗普第二任期以來(lái),出于戰(zhàn)略焦慮,美國(guó)在AI軍事化的路上一路狂飆。
特朗普上任后第四天就簽署行政令,呼吁美國(guó)持續(xù)主導(dǎo)AI全球競(jìng)賽。
去年2月,副總統(tǒng)萬(wàn)斯在人工智能行動(dòng)峰會(huì)上說(shuō),會(huì)不惜一切手段,確保美國(guó)AI領(lǐng)先。
7月,美國(guó)發(fā)布“人工智能(AI)行動(dòng)計(jì)劃”。
今年1月,美國(guó)戰(zhàn)爭(zhēng)部又發(fā)布《AI加速戰(zhàn)略》,直接亮明AI賦能美軍作戰(zhàn),移除所有影響AI軍事化應(yīng)用的制度障礙。
翻譯一下就是:油門(mén)踩到底,誰(shuí)也別攔著。
一邊是政府的狂奔,一邊是企業(yè)的迎合。
過(guò)去幾年,美國(guó)AI巨頭們,都在悄悄“轉(zhuǎn)向”。只不過(guò),這些動(dòng)作都很低調(diào),圈外人往往注意不到。
2024年,OpenAI刪掉“禁止軍事用途”的條款。2025年,又從使命聲明里刪了“安全”二字。
去年2月,谷歌取消了旗下AI不能用于武器和監(jiān)控的禁令。
2024年6月,Anthropic的Claude大模型已經(jīng)開(kāi)始服務(wù)美軍,11月,通過(guò)和軍火科技公司Palantir合作,實(shí)現(xiàn)對(duì)戰(zhàn)場(chǎng)數(shù)據(jù)的實(shí)時(shí)處理。
去年7月,五角大樓砸下2億美元,讓Anthropic給美軍量身定制專用的Claude版本。
今年1月,美軍抓捕馬杜羅的行動(dòng)里,就用上了Claude。
美國(guó)科技行業(yè)早就默認(rèn),軍方才是硅谷前沿科技最重要的金主爸爸,甚至沒(méi)有之一。得到軍方的認(rèn)可,對(duì)這些科技企業(yè)吸引力極大。
就在美國(guó)跟伊朗開(kāi)打前的幾個(gè)小時(shí),特朗普簽署一項(xiàng)行政令,停用Claude大模型,甚至把Anthropic列為“安全威脅”和“供應(yīng)鏈風(fēng)險(xiǎn)”。
五角大樓要的是企業(yè)大開(kāi)綠燈,允許軍方將模型用于所有“合法”用途。企業(yè)則宣稱堅(jiān)持兩條紅線,反對(duì)模型被用于美國(guó)本土的大規(guī)模監(jiān)控,反對(duì)AI自主武器。
聽(tīng)起來(lái),這個(gè)故事好像是良心企業(yè)對(duì)抗邪惡軍方。
但事實(shí)上,模型98%的使用場(chǎng)景早已開(kāi)放。美軍對(duì)委內(nèi)瑞拉和伊朗的行動(dòng)中,Claude模型都承擔(dān)了處理高級(jí)敏感情報(bào)的重任。
Anthropic雖然起訴五角大樓,一邊卻還強(qiáng)調(diào),“我們隨時(shí)準(zhǔn)備繼續(xù)為維護(hù)美國(guó)國(guó)家安全而努力”。這種既要又要還要,聽(tīng)起來(lái)更像是自我催眠的心理安慰。
當(dāng)人類的角色只剩下“點(diǎn)擊確認(rèn)”,一旦算法出現(xiàn)漏洞,或者被黑客攻擊,誤判式打擊、甚至觸發(fā)核沖突,這樣的后果人類能承受嗎?
畢竟,不管算法如何先進(jìn),最終,戰(zhàn)爭(zhēng)的后果,都要由人類自己來(lái)承擔(dān)。
全部評(píng)論
暫無(wú)評(píng)論,快來(lái)發(fā)表你的評(píng)論吧