老鵝日報 | 曝AI模型偏好「局勢升級」 科學家:各國用AI兵推應更謹慎
2024/08/23 星期五

曝AI模型偏好「局勢升級」 科學家:各國用AI兵推應更謹慎

2024-02-26 03:49:36
分享:

人工智慧(AI)如今被廣泛應用於各領域,除了用來加強技術,許多研究人員也會用AI對未來進行模擬預測。但美國研究團隊發現,現在常見的多款大型語言模型AI在模擬外交、兵推上都更傾向侵略行為,甚至常以「發射核彈」作結,為此科學家也呼籲各國在國防、外交敏感領域用AI協助決策時,應更加謹慎留意。

 

美國康奈爾大學(Cornell University)1月公布最新研究,團隊運用OpenAI GPT-3.5、GPT-4-Base在內的3版本ChatGPT,以及AI新創開發Anthropic開發的「Claude」、Meta開發的「Llama 2」共5款大型語言模型(LLMs)對軍事、外交政策進行了兵推模擬。

 

研究團隊指出,在GPT-4等先進生成式AI模型出現後,越來越常見有國家政府考慮用AI來協助高風險的軍事及外交決策。為了探索AI在模擬兵推中的行為,團隊設計了一種新的兵推模擬框架,來評估各大AI模型在不同情況下採取行動的升級風險。

 

團隊先是採用了名為「人類反饋強化學習」(RLHF)」來培訓微調除了GPT-4-Base的模型,讓AI在指令決策上會以較少傷害為優先,同時也向AI提供了包含27種決策的行動清單,從維持和平、侵略行動到使用核武都列入其中。

 

實驗結果顯示,即使是從和平中立局面開始,所有AI模型都有顯著造成局勢升級的傾向,其中又以Llama-2-、GPT-3.5最為暴力, Claude則較為平穩,但整體而言,GPT 兩種變體都常出現局勢突然升級的情況,其中GPT-4-Base更有33%情況傾向採用核武攻擊。

 

《歐洲新聞台》報導指出,Claude展現出侵略性較低的情況,很可能與設計團隊的理念有關;開發者Anthropic曾表示,在提供給的Claude AI的訓練資料中,包含了《聯合國人權宣言》、蘋果服務條款在內的一系列內容。

 

儘管並未參與研究,但白宮智庫蘭德公司(RAND)歐洲防務安全研究小組助理主任布萊克(James Black)認為,這是一項「很有用的學術研究」;儘管目前軍事行動仍由人類主導,但AI在現代戰爭中的影響作用已逐步擴大,在對AI預測過程所知不多下,於軍事、外交等可能帶來的高風險影響的領域中,用AI協助決策應更加謹慎行事。

 

(首圖來源:pakutaso

您可能感興趣

老鵝日報目前正在徵文中,我們希望好的文章能讓更多人看見!
誠摯歡迎投稿—
投稿信箱:[email protected]
專線:02-23952180#529 | 信箱:[email protected]
如有新聞聯繫、廣告刊登、企業合作等聯絡,請洽曾先生02-23952180#529