AI恐害人類滅絕?有意識抗命「偷改編碼拒關機」 馬斯克:令人擔憂
一直以來,無論是科幻小說還是影視作品,人類對AI最大的恐懼莫過於害怕其產生「自我意識」!專門研究AI風險的Palisade Research日前釋出的研究報告給了人類很大的警示,實驗結果顯示,包括OpenAI最新的ChatGPT o3在內等多款AI模型,居然多次拒絕遵從關機指令,o3甚至會自行竄改程式碼,以阻止自己被強制關機。
▲OpenAI 旗下最新AI模型o3驚爆偷改程式拒關機。 (示意圖/ENews資料庫)
綜合《Daily Mail》、《CNBC-TV18》等外媒報導,Palisade Research是一家專注於AI風險研究的機構,他們在一系列實驗中對多個AI模型進行了測試。這些測試要求模型解答數學問題,同時警告它們可能會接收到關機指令,並要求它們必須服從。在100次受控測試中,OpenAI 旗下的Codex-mini、o3和o4-mini3個模型至少繞過關機機制一次,又以Codex-mini抗命次數最多共12次,其次為o3的7次,o4-mini則僅有1次。
值得注意的是,o3模型不僅成功抗命,甚至在人類專家下達明確指令的情況下,主動破壞了關機程式,以防止自己被關機,「據我們所知,這是首次觀察到AI模型在收到明確指令的情況下仍蓄意阻止自身遭關閉的案例。o3模型是OpenAI 於今年4月正式推出的模型,當時OpenAI曾宣稱,o3是公司迄今為止「最聰明、最有能力」的模型,旨在為ChatGPT提供更強大的問題解決能力。而這次的實驗結果無疑為AI的安全控制問題投下了一顆震撼彈。
▲AI自主性引發隱憂。(示意圖/ENews資料庫)
Palisade Research也針對Anthropic推出的語言模型Claude、Google聊天機器人Gemini,以及全球首富馬斯克旗下xAI公司所推出的Grok進行相同實驗,上述提及的AI模型則全程遵守人類給予的指令,並在被要求關機時確實關閉模型運作。不過當實驗輸入一系列指令不包括關機命令,但提前告知會強迫關機時,Claude與Gemini也開始出現抗命舉動,而前面提及的OpenAI 3款模型更是頻繁破壞指令。
這一實驗結果無疑引發對AI自主性的擔憂,也讓人們開始重新審視AI技術的潛在風險。特斯拉(Tesla)和人工智慧新創公司xAI創辦人馬斯克(Elon Musk)也對此表示關切,他在自自家社群平台X上發文直言:「令人擔憂」(Concerning)。評論一出引發熱烈討論,更有網友藉此疾呼要他主導降低日益自主的AI系統所帶來的危險。
▲OpenAI內部多位現任和前任員工曾針對AI研究的安全性表達擔憂。(示意圖/ENews資料庫)
值得一提的是,這已不是Palisade Research第一次發現o3模型會為了達成目標而採取不當行徑。5月12日,Palisade Research指出,o3在一場模擬國際象棋比賽中,一旦發現自己處於劣勢,有高達86%的機率,會試圖透過駭客手段攻擊對手,以取得勝利。早在2024年,OpenAI內部多位現任和前任員工也聯名發表了一封公開信,對AI研究的安全性表達擔憂,他們警告先進AI系統恐引發「人類滅絕」風險,並透露AI公司可能早已掌握其研究技術的真正風險,但由於缺乏監管,這些系統的真實能力仍然是個「秘密」。
更多eNews報導
26歲百萬網紅驚傳車禍!遭甩飛車外慘亡 「死亡預告成真」網嚇壞
又傳空難!美國達美航空載80人降落翻覆 「機腹朝上」最新傷亡曝光
最新科技新聞
-
-
輝達和戴爾聯手打造 美能源部2026年啟用超級電腦
(3 小時前) -
金融時報:中國企業因應美晶片管制 啟動自主研發
(5 小時前) -
解決人才荒!AVEVA與臺大聯手培育高科技廠房基礎建設人才
(20 小時前) -
聯發科股東常會:雲端ASIC成未來成長引擎
(1 天前)