正在閱讀:

用AI識別超3萬個哈馬斯目標,以色列或構成“戰(zhàn)爭罪”

掃一掃下載界面新聞APP

用AI識別超3萬個哈馬斯目標,以色列或構成“戰(zhàn)爭罪”

與此同時,以色列軍方還允許成比例的平民傷亡。

界面新聞記者 | 蔡星卓

界面新聞編輯 | 劉海川

根據(jù)非盈利雜志《+972》和希伯來語新聞網(wǎng)站Local Call2024年4月3日的消息,以色列軍隊正在使用一種名為“Lavender”(薰衣草)的人工智能輔助瞄準系統(tǒng),將成千上萬的巴勒斯坦人隔離,并確定其為潛在的轟炸目標。根據(jù)半島電視臺報道,這個數(shù)據(jù)庫“負責制定多達3.7萬個目標的殺戮名單”。不過,以色列國防軍(IDF)向媒體否認了存在這樣一個“殺戮名單”,并將該項目描述為僅僅是一個用于交叉參考情報來源的數(shù)據(jù)庫。

報道稱,該AI工具由以色列軍方數(shù)據(jù)科學家“訓練”,通過篩選大量監(jiān)控數(shù)據(jù)和其他信息,生成暗殺目標?!?972》和Local Call引用了六名匿名以色列情報官員提供的信息,他們都在戰(zhàn)爭期間服役,并“直接參與”使用人工智能來選擇要消滅的目標。

根據(jù)《+972》的描述,以色列軍隊在目標在家時有系統(tǒng)地攻擊他們,通常選擇目標全家都在家中的夜間,而不是在軍事活動期間。據(jù)消息人士說,這是因為他們認為從情報的角度來看,在私人住宅中更容易找到這些人。因此還存在一個額外的自動化系統(tǒng)(包括一個名為“Where’s Daddy?”的系統(tǒng)),專門用于跟蹤目標個人,并在他們進入家庭住宅時實施爆炸。

與此同時,一名消息人士表示,雖然有人工人員參與到此人工智能系統(tǒng)之中,但他們通常只是為機器的決定“充當橡皮圖章”——通常情況下,他們在授權轟炸前只會對每個目標投入“大約20秒”的時間,僅僅為了確保被“Lavender”標記的目標是男性。而一位不愿透露姓名的以色列情報官員對媒體說,“Lavender”的錯誤率約為10%。

當?shù)貢r間2024年4月5日,美國紐約,聯(lián)合國秘書長安東尼奧·古特雷斯在紐約聯(lián)合國總部向媒體發(fā)表講話,此時距離10月7日哈馬斯襲擊以色列已經(jīng)過去了6個月。古特雷斯4月5日對以色列利用人工智能識別加沙目標的報道表示嚴重關切。他說:“任何影響整個家庭的生死決定都不應該交給冷冰冰的算法計算。”(圖片來源:視覺中國)

有以色列出版物分析說,這種方法可能會導致加沙大量平民死亡。與此同時,媒體援引消息人士的話說,以色列軍隊在本次沖突的頭幾周就做出了決定,并且,“對于Lavender標記的每一個初級哈馬斯特工,都允許殺死多達15或20名平民”。此消息人士還透露,如果哈馬斯高級官員是目標,那么“軍隊在幾次被授權暗殺一名指揮官時,殺死了超過100名平民”。

有觀點認為,以色列對于“Lavender”的使用可能有助于解釋其對加沙地帶造成的大規(guī)模破壞,以及高傷亡人數(shù)。半島電視臺4月7日,加沙衛(wèi)生部表示,自2023年10月7日沖突開始以來,至少有33137名巴勒斯坦人在加沙被以色列軍隊殺害。在遇難者中,兒童和婦女占絕大多數(shù),已有超過13800名兒童被殺害。另外,還有數(shù)千人在倒塌的建筑物和基礎設施的廢墟下失蹤,據(jù)推測已經(jīng)死亡。

以色列在對哈馬斯的戰(zhàn)爭中使用的人工智能系統(tǒng),引發(fā)了一系列法律和道德問題,并改變了軍事人員與機器之間的關系?!缎l(wèi)報》,一名使用過“Lavender”的情報官員認為“機器冷冰冰地做了這件事,這讓事情變得容易了?!甭?lián)合國人權和反恐問題特別報告員Ben Saul表示,如果相關細節(jié)被證實屬實,那么“因為發(fā)動了不成比例的襲擊,以色列在加沙的許多襲擊將構成戰(zhàn)爭罪”。

悉尼新南威爾士大學的人工智能專家Toby Walsh教授表示,法律學者們可能會認為,使用人工智能瞄準目標違反了國際人道主義法。他在接受半島電視臺的采訪時表示,從技術角度來看,以色列軍方的行為表明,那些人工智能系統(tǒng)可怕而悲慘地擴大了戰(zhàn)爭規(guī)模,但讓人類參與其中、進行有意義的監(jiān)督是“多么困難”。

卡塔爾的哈馬德·本·哈利法大學中東研究副教授Marc Owen Jones在接受采訪時稱,以色列軍隊正在“部署未經(jīng)測試的人工智能系統(tǒng)……以幫助做出有關平民生死的決定”。他補充說,在未來,人們需要呼吁暫停在戰(zhàn)爭中使用人工智能。

未經(jīng)正式授權嚴禁轉載本文,侵權必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

用AI識別超3萬個哈馬斯目標,以色列或構成“戰(zhàn)爭罪”

與此同時,以色列軍方還允許成比例的平民傷亡。

界面新聞記者 | 蔡星卓

界面新聞編輯 | 劉海川

根據(jù)非盈利雜志《+972》和希伯來語新聞網(wǎng)站Local Call2024年4月3日的消息,以色列軍隊正在使用一種名為“Lavender”(薰衣草)的人工智能輔助瞄準系統(tǒng),將成千上萬的巴勒斯坦人隔離,并確定其為潛在的轟炸目標。根據(jù)半島電視臺報道,這個數(shù)據(jù)庫“負責制定多達3.7萬個目標的殺戮名單”。不過,以色列國防軍(IDF)向媒體否認了存在這樣一個“殺戮名單”,并將該項目描述為僅僅是一個用于交叉參考情報來源的數(shù)據(jù)庫。

報道稱,該AI工具由以色列軍方數(shù)據(jù)科學家“訓練”,通過篩選大量監(jiān)控數(shù)據(jù)和其他信息,生成暗殺目標。《+972》和Local Call引用了六名匿名以色列情報官員提供的信息,他們都在戰(zhàn)爭期間服役,并“直接參與”使用人工智能來選擇要消滅的目標。

根據(jù)《+972》的描述,以色列軍隊在目標在家時有系統(tǒng)地攻擊他們,通常選擇目標全家都在家中的夜間,而不是在軍事活動期間。據(jù)消息人士說,這是因為他們認為從情報的角度來看,在私人住宅中更容易找到這些人。因此還存在一個額外的自動化系統(tǒng)(包括一個名為“Where’s Daddy?”的系統(tǒng)),專門用于跟蹤目標個人,并在他們進入家庭住宅時實施爆炸。

與此同時,一名消息人士表示,雖然有人工人員參與到此人工智能系統(tǒng)之中,但他們通常只是為機器的決定“充當橡皮圖章”——通常情況下,他們在授權轟炸前只會對每個目標投入“大約20秒”的時間,僅僅為了確保被“Lavender”標記的目標是男性。而一位不愿透露姓名的以色列情報官員對媒體說,“Lavender”的錯誤率約為10%。

當?shù)貢r間2024年4月5日,美國紐約,聯(lián)合國秘書長安東尼奧·古特雷斯在紐約聯(lián)合國總部向媒體發(fā)表講話,此時距離10月7日哈馬斯襲擊以色列已經(jīng)過去了6個月。古特雷斯4月5日對以色列利用人工智能識別加沙目標的報道表示嚴重關切。他說:“任何影響整個家庭的生死決定都不應該交給冷冰冰的算法計算?!保▓D片來源:視覺中國)

有以色列出版物分析說,這種方法可能會導致加沙大量平民死亡。與此同時,媒體援引消息人士的話說,以色列軍隊在本次沖突的頭幾周就做出了決定,并且,“對于Lavender標記的每一個初級哈馬斯特工,都允許殺死多達15或20名平民”。此消息人士還透露,如果哈馬斯高級官員是目標,那么“軍隊在幾次被授權暗殺一名指揮官時,殺死了超過100名平民”。

有觀點認為,以色列對于“Lavender”的使用可能有助于解釋其對加沙地帶造成的大規(guī)模破壞,以及高傷亡人數(shù)。半島電視臺4月7日,加沙衛(wèi)生部表示,自2023年10月7日沖突開始以來,至少有33137名巴勒斯坦人在加沙被以色列軍隊殺害。在遇難者中,兒童和婦女占絕大多數(shù),已有超過13800名兒童被殺害。另外,還有數(shù)千人在倒塌的建筑物和基礎設施的廢墟下失蹤,據(jù)推測已經(jīng)死亡。

以色列在對哈馬斯的戰(zhàn)爭中使用的人工智能系統(tǒng),引發(fā)了一系列法律和道德問題,并改變了軍事人員與機器之間的關系?!缎l(wèi)報》,一名使用過“Lavender”的情報官員認為“機器冷冰冰地做了這件事,這讓事情變得容易了?!甭?lián)合國人權和反恐問題特別報告員Ben Saul表示,如果相關細節(jié)被證實屬實,那么“因為發(fā)動了不成比例的襲擊,以色列在加沙的許多襲擊將構成戰(zhàn)爭罪”。

悉尼新南威爾士大學的人工智能專家Toby Walsh教授表示,法律學者們可能會認為,使用人工智能瞄準目標違反了國際人道主義法。他在接受半島電視臺的采訪時表示,從技術角度來看,以色列軍方的行為表明,那些人工智能系統(tǒng)可怕而悲慘地擴大了戰(zhàn)爭規(guī)模,但讓人類參與其中、進行有意義的監(jiān)督是“多么困難”。

卡塔爾的哈馬德·本·哈利法大學中東研究副教授Marc Owen Jones在接受采訪時稱,以色列軍隊正在“部署未經(jīng)測試的人工智能系統(tǒng)……以幫助做出有關平民生死的決定”。他補充說,在未來,人們需要呼吁暫停在戰(zhàn)爭中使用人工智能。

未經(jīng)正式授權嚴禁轉載本文,侵權必究。