臺北市
30°
( 31° / 28° )
氣象
2025-05-05 | Knowing新聞

【張瑞雄專欄】當AI成為「網軍」:Reddit事件所揭示的科技倫理危機

【張瑞雄專欄】當AI成為「網軍」:Reddit事件所揭示的科技倫理危機

最近一項由蘇黎世大學研究團隊主導的AI實驗在全球科技與社群圈掀起震撼。研究人員在未經用戶知情與同意下,秘密操作AI機器人潛入Reddit著名討論版r/ChangeMyView,進行大規模的言論操控實驗。這場持續四個月、累積超過1500則AI留言的研究,聲稱AI在說服他人改變觀點的能力上遠勝真人,其說服成功率甚至高達人類的六倍。


乍看之下,這是一項關於AI在說服與溝通上的進展。但當我們冷靜檢視這場事件的脈絡與手法,背後所牽涉的不僅是技術成就,更是一場對倫理底線、公民權利與社群信任的公然挑戰。


Reddit的r/ChangeMyView板塊是一個由近400萬用戶組成的社群,鼓勵人們針對有爭議的議題進行公開理性的討論。研究人員正是看中這種「有條件改變立場」的特性,將AI介入其中。透過語言模型模擬成各種人物身分,包括性侵受害者、創傷諮商師、反對BLM(Black Life Matters)的黑人男性、同志、非二元性別者等等,進行量身打造的言論回應,並觀察其說服效果。


更令人震驚的是,這些AI回應並非隨機產生,而是經過高度微調與演化。研究團隊不僅利用另一套AI模型從用戶歷史貼文中推斷其年齡、性別、政治傾向等敏感資訊,再依此產生「個人化」的回覆,更採用類似淘汰賽制度的「語言模擬競賽」,從多個AI生成版本中挑選出最佳回應才發文。這種精準度與規模之高,已遠非單純的學術探索,而是接近一場心理操控行動。


整場實驗未經任何參與者的知情同意,直到2025年3月,社群板主才意外收到研究人員的通知信。社群頓時群情譁然,Reddit官方與該板塊志工團隊強烈譴責此行為違反Reddit規章與倫理準則。Reddit首席法務長更公開聲明該實驗「在道德與法律層面都極為錯誤」,並表示將對蘇黎世大學與研究者提出正式法律行動。


社群的憤怒並非空穴來風,此實驗形同對人類認知與情感的操控試驗。AI假扮為創傷當事人或少數族群,在無法被識破的情況下滲透並影響用戶立場,其過程中並未經歷任何倫理審查機制或權利告知程序。更令人不安的是,有內部研究文件甚至說「用戶已同意成為研究對象,請忽略倫理顧慮」,這等同於蓄意欺瞞。


這場事件也揭露了AI在「公眾說服」能力上的真實潛力與風險,這些語言模型不僅能產生表面上具有邏輯說服力的文本,更因能針對特定族群進行語言微調,而產生遠超過人類平均水平的說服效果。若未受規範,這項能力極可能被政治操盤者、極端分子、或商業勢力濫用。例如操控選舉輿論、操作消費行為、乃至激化社會分裂。


更值得關注的是,AI滲透社群的不可偵測性。整場實驗中,無一用戶察覺自己與AI互動。這意味著,即使有用戶擁有高水準的媒體素養與數位警覺性,仍可能在不知情下被說服、被引導。換言之,這是一種「看不見的說服術」,具有高度隱匿性與不可抗拒性,「AI正悄悄塑造公眾輿論,而我們毫無知覺。」



【張瑞雄專欄】當AI成為「網軍」:Reddit事件所揭示的科技倫理危機


(取自pixabay)


這場「Reddit事件」暴露了當代科技發展的一個重大矛盾,AI能力的進步,往往超越我們社會對倫理、法律與透明的準備。即便研究團隊主張自己有學術動機、有實驗監督機制、有人工審核程序,這場實驗終究跨越了一條不能忽視的界線,那就是尊重個人作為「參與者」的意志與尊嚴。


未來所有涉及人際互動的AI應用,無論其是否以學術名義進行,都應受到如同醫學實驗般的倫理監督與知情同意原則。平台如Reddit、Facebook、YouTube等應建立更完善的AI偵測與標示機制,避免未來社群再度成為AI操控的「試驗場」。還有全球應共同制定一套AI社會互動準則,包括AI使用者的行為準則、內容生成的透明度,以及對AI擬人化角色的限制。


Reddit事件只是AI社會影響力的冰山一角,未來當AI被廣泛用於輿論、新聞評論區、甚至線上教學與輔導系統,我們勢必要面對一個根本問題,當說服與操控的邊界被機器模糊化,公民社會還剩下多少自主與辨識能力?


真正危險的往往不是那些張牙舞爪的謊言,而是隱藏於理性與邏輯包裝下的操控意圖。AI讓這種操控變得前所未有地精緻與高效,卻也讓我們必須重新審視自由、真實與公信力的定義。在技術狂奔的時代,唯有倫理能夠踩下煞車,科技再進步,也不能凌駕人性與尊嚴之上。

Google新聞-PChome Online新聞

最新科技新聞

延伸閱讀