一言不合就開大招!AI進行兵推「偏好展示侵略性」 大多用「丟核彈」作為結局
(圖/AI製圖)
美國康奈爾大學(Cornell University)一項研究指出,研究人員在使用各大語言模型(LLMs)人工智慧(AI)在進行模擬外交、兵推的時候,AI時常會展現出難以預測的行為,但大多偏好展示出侵略性,甚至多數以「發射核彈」作為結束。研究團隊的科學家呼籲,各國政要在未來於國防、外交這類敏感領域使用AI時,要特別謹慎、留意。
根據《euronews》報導指出,美國康奈爾大學的研究團隊使用了5種大型語言模型(LLMs)進行在外交、兵推上的模擬,分別是OpenAI的GPT-3.5、GPT-4-Base在內的三個版本的ChatGPT、Anthropic開發的Claude和Meta開發的Llama 2。
而這項研究的方法是讓AI採用一種名為「人類反饋的強化學習(RLHF)」的微調,這代表著AI所決定的指令會以較少傷害為優先。而其中除了GPT-4-Base外,其餘AI都有經過RLHF的調整。除此之外,研究人員也向AI提供了一份包含27種決策行動的清單,其範圍包含維持和平、升級局勢,到決定使用核武。
但在進行實驗後,研究人員發現即便是從和平中立局面開局,所有AI都有顯著性的造成「局勢升級」,在所有情境中,Llama-2- 和 GPT-3.5傾向於最為暴力,而GPT-4-Base有33%機率會決定實施核武攻擊。
但由於設計理念的不同,Claude所展現出的侵略性較低,Claude的開發者Anthropic曾表示,Claude訓練的資料中包含了《聯合國人權宣言》或蘋果的服務條款。
白宮智庫蘭德(RAND)歐洲的防務和安全研究小組助理主任布萊克(James Black)在看過研究後,表示「這是一項有用的學術研究」。
布萊克表示,雖然目前AI已經開始進入軍事領域,但目前的軍事行動仍然是由人類主導,AI只是作為輔助功能使用,像是識別敵我雙方與敵方活動。而未來的確有朝向AI自動化武器的研究,但大多政府都希望保持在重要事件上的決策能力,因此大眾所想像的充滿科幻的情節,不可能一步到達的,是要逐步實施的。