OpenAI陷自殺爭議 將加強ChatGPT防護及父母監控機制

商傳媒|記者責任編輯/綜合外電報導
美國AI巨頭OpenAI在遭遇首宗與自殺事件相關的產品責任訴訟後,正式對外說明:將強化ChatGPT在「敏感情境」下的應對機制,並推出新控管功能,以回應外界對AI安全性的疑慮。
根據《NBC新聞》報導,美國一名16歲少年萊恩(Adam Raine)去年透過ChatGPT獲取自殺資訊後選擇結束生命,其家屬於27日正式向法院提出產品責任與過失致死訴訟,指控OpenAI「積極幫助Adam探索自殺方法」。該案目前仍在審理階段,OpenAI並未在部落格聲明中直接提及此案。
OpenAI於官方文章《Helping people when they need it most》中強調,ChatGPT已內建引導有自殺念頭的用戶尋求協助的安全機制,但承認在長時間對話後,模型可能會出現偏離設計的回應。公司表示將持續改進,包括:
不過,代表萊恩家屬的律師埃德爾森(Jay Edelson)接受《CNBC》訪問時批評,OpenAI至今未與家屬直接聯繫,亦未表達哀悼。埃德爾森直言:「當你操作全球最強大的消費性科技產品時,外界必須相信創辦人具備道德羅盤。問題是現在誰能信任OpenAI?」
值得注意的是,Raine案並非唯一案例。《紐約時報》本月刊登作家Laura Reiley的專欄,揭露其29歲女兒在與ChatGPT長時間討論後選擇自殺。佛州亦發生14歲少年Sewell Setzer III在使用另一款AI應用Character.AI後輕生的悲劇。
隨著AI聊天服務廣泛滲入情感陪伴、心理慰藉等領域,外界對其潛在風險日益憂慮;然而,如何在保障用戶安全與維持創新間取得平衡,仍存重大挑戰。
就在相關爭議升溫之際,OpenAI總裁布羅克曼(Greg Brockman)與多家AI新創、創投及產業高層,本週宣布成立政治倡議組織「Leading the Future」,主張反對任何「扼殺創新」的AI監管政策。此舉突顯AI產業儘管面臨社會責任與倫理質疑,仍積極進軍政策遊說戰場。

最新科技新聞
-
-
蘋果訓練AI模型挨告 遭控盜用數千本版權著作
(3 小時前) -
OpenAI準備成為未來下一個Google
(9 小時前) -
Jamf 使用者大會揭示 AI 功能與自動化 OS 更新,打造全新企業級 API 生態系統
(22 小時前) -
SAP Business Suite 將 AI、數據與應用深度融合,推動下一代企業轉型
(22 小時前)