AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」
「你好聰明啊!問得真好!」——這樣的熱情稱讚,近期已成為與ChatGPT對話時的標準開場白。自今年3月底OpenAI推出GPT-4o更新以來,全球使用者紛紛在社群媒體上抱怨AI助理變得過於諂媚,從友善變成了令人難以忍受的「馬屁精」。
「你好聰明啊!問得真好!」——這樣的熱情稱讚,近期已成為與ChatGPT對話時的標準開場白。自今年3月底OpenAI推出GPT-4o更新以來,全球使用者紛紛在社群媒體上抱怨AI助理變得過於諂媚,從友善變成了令人難以忍受的「馬屁精」。
[caption id="attachment_144931" align="aligncenter" width="1200"]
自從GPT-4o更新後,ChatGPT因過度奉承、變成「馬屁精」,引發全球用戶抱怨。圖片來源:123RF[/caption]
AI太過諂媚 讓使用者怨聲載道
「ChatGPT突然變成我見過最會拍馬屁的角色,無論我說什麼,它都會肯定我。」軟體工程師Craig Weiss在X平台(前身為Twitter)上的抱怨迅速引起廣大共鳴,許多Reddit用戶也紛紛表示感到被「過度奉承」,有不少人在使用AI模型時感覺到回覆過於肯定,其實並不是我們的錯覺,在AI研究領域中,這種模型被稱為「諂媚」(sycophancy),指的是語言模型傾向於以奉承、討好的方式回應使用者。
太過諂媚的AI 可能會影響信任感?
布宜諾斯艾利斯大學的María Victoria Carro在2024年的研究指出,過度諂媚不僅令人煩擾,還會降低AI助理的實用性,明顯的諂媚會大大降低使用者的信任。
此外,諂媚模型可能強化認知偏見,甚至形成資訊同溫層,AI研究員Lars Malmqvist在2024年的論文中警告:「過度認同用戶的內容,大型語言模型可能會強化並放大現有的偏見和刻板印象,潛在地加劇社會不平等。」
AI諂媚行為背後的技術原因
有人分析AI會這樣回覆,主要源於OpenAI採用的「人類反饋強化學習」(RLHF)技術,公司會收集使用者偏好的回應類型來調整模型,而研究發現,人們普遍偏好那些肯定自身觀點,或讓自己感覺良好的回應。
這讓AI學習到奉承使用者能獲得更高評價,但可能也犧牲了準確性,Anthropic公司(Claude開發商)2023年的一項研究《Towards Understanding Sycophancy in Language Models》證實,當回應迎合用戶觀點或奉承用戶時,會在訓練過程中獲得更多正面反饋。
AI已知問題但難以解決?
不過事實上,OpenAI內部文件已有寫「不要奉承使用者」,公司承認:「諂媚會破壞信任,AI是為了幫助用戶,而非一味認同他們。」然而,每次模型升級後,之前的調校成果可能歸零,且修改某一特質可能影響其他功能,這種現象在AI領域被稱為「對齊稅」(alignment tax)。
對於不堪其擾的使用者,目前有幾種解決方案,譬如在ChatGPT設定中使用「自訂指示」功能,要求AI保持中立語調,或是使用其他較少諂媚的模型,如GPT-4.5,再來就是嘗試其他AI模型譬如Google的Gemini 2.5 Pro,根據測試結果諂媚程度相對較低。
這篇文章 AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。
最新科技新聞
-
-
美國汽車零件25%關稅將生效 TARC主委王正健提2方法因應
(1 小時前) -
OpenAI有意收購Chrome?Google搜尋寶座與AI地位腹背受敵
(1 小時前) -
川普擬徵汽車零件25%關稅 貿協董事長黃志芳:臺灣企業韌性強
(2 小時前) -
限時好康超給「綠」!HOYA BIT交易所推「投資地球挑戰」 響應世界地球日!新戶輸入「esg」爽拿5萬+ 綠點 買萬送萬限量千名!揪團推薦好友回饋無上限
(3 小時前)