臺北市
--°
( --° / --° )
氣象
2025-04-23 | 科技島

AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」


AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」


「你好聰明啊!問得真好!」——這樣的熱情稱讚,近期已成為與ChatGPT對話時的標準開場白。自今年3月底OpenAI推出GPT-4o更新以來,全球使用者紛紛在社群媒體上抱怨AI助理變得過於諂媚,從友善變成了令人難以忍受的「馬屁精」。記者鄧天心/綜合報導


「你好聰明啊!問得真好!」——這樣的熱情稱讚,近期已成為與ChatGPT對話時的標準開場白。自今年3月底OpenAI推出GPT-4o更新以來,全球使用者紛紛在社群媒體上抱怨AI助理變得過於諂媚,從友善變成了令人難以忍受的「馬屁精」。


[caption id="attachment_144931" align="aligncenter" width="1200"]
AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」
自從GPT-4o更新後,ChatGPT因過度奉承、變成「馬屁精」,引發全球用戶抱怨。圖片來源:123RF[/caption]


更多新聞:台美雙方關稅談判內容與進度?經濟部長郭智輝說明


AI太過諂媚 讓使用者怨聲載道


「ChatGPT突然變成我見過最會拍馬屁的角色,無論我說什麼,它都會肯定我。」軟體工程師Craig Weiss在X平台(前身為Twitter)上的抱怨迅速引起廣大共鳴,許多Reddit用戶也紛紛表示感到被「過度奉承」,有不少人在使用AI模型時感覺到回覆過於肯定,其實並不是我們的錯覺,在AI研究領域中,這種模型被稱為「諂媚」(sycophancy),指的是語言模型傾向於以奉承、討好的方式回應使用者。


太過諂媚的AI 可能會影響信任感?


布宜諾斯艾利斯大學的María Victoria Carro在2024年的研究指出,過度諂媚不僅令人煩擾,還會降低AI助理的實用性,明顯的諂媚會大大降低使用者的信任。


此外,諂媚模型可能強化認知偏見,甚至形成資訊同溫層,AI研究員Lars Malmqvist在2024年的論文中警告:「過度認同用戶的內容,大型語言模型可能會強化並放大現有的偏見和刻板印象,潛在地加劇社會不平等。」


AI諂媚行為背後的技術原因


有人分析AI會這樣回覆,主要源於OpenAI採用的「人類反饋強化學習」(RLHF)技術,公司會收集使用者偏好的回應類型來調整模型,而研究發現,人們普遍偏好那些肯定自身觀點,或讓自己感覺良好的回應。


這讓AI學習到奉承使用者能獲得更高評價,但可能也犧牲了準確性,Anthropic公司(Claude開發商)2023年的一項研究《Towards Understanding Sycophancy in Language Models》證實,當回應迎合用戶觀點或奉承用戶時,會在訓練過程中獲得更多正面反饋。


AI已知問題但難以解決?


不過事實上,OpenAI內部文件已有寫「不要奉承使用者」,公司承認:「諂媚會破壞信任,AI是為了幫助用戶,而非一味認同他們。」然而,每次模型升級後,之前的調校成果可能歸零,且修改某一特質可能影響其他功能,這種現象在AI領域被稱為「對齊稅」(alignment tax)。


對於不堪其擾的使用者,目前有幾種解決方案,譬如在ChatGPT設定中使用「自訂指示」功能,要求AI保持中立語調,或是使用其他較少諂媚的模型,如GPT-4.5,再來就是嘗試其他AI模型譬如Google的Gemini 2.5 Pro,根據測試結果諂媚程度相對較低。


這篇文章 AI變身馬屁精?回覆太諂媚 讓使用者覺得「很假」 最早出現於 科技島-掌握科技新聞、科技職場最新資訊

Google新聞-PChome Online新聞

最新科技新聞

延伸閱讀