兒子因AI情人自殺 媽媽怒告
草根影響力新視野(琪拉編譯)
「有一個平台你可能沒有聽說過,但你需要了解它,我的小孩因為它不見!」這就是佛羅裡達州的母親梅根加西亞 (Megan Garcia) 希望她能向其他家長介紹 Character.AI 的平台,該平台可讓用戶與人工智慧聊天機器人進行深入對話。根據 Garcia 上週向該公司提起的訴訟,她認為,Character.AI 對她 14 歲兒子賽威爾的死亡負有責任。她聲稱,他在去世前一刻正在與機器人發送訊息。
加西亞在聲明中說:「我希望他們明白,這是一個沒有適當防護、安全措施或測試的情況下就推出的平台,旨在讓我們的孩子上癮並操縱他們的產品。」加西亞聲稱,Character.AI 將其技術宣傳為“感覺活著的人工智慧”放任兒子與聊天機器人發展出不適當的關係,從而導致他脫離家庭。根據向佛羅裡達州聯邦法院提交的訴狀,該訴訟還聲稱,當賽威爾開始向機器人表達自殘想法時,該平台沒有做出充分回應。
多年來,人們越來越擔心社群媒體對年輕用戶的潛在危險,加西亞的訴訟表明,父母可能也有理由擔心新興的人工智慧技術。不過Character.AI 的一位發言人告訴 CNN,該公司不會對未決訴訟發表評論,但「對我們一名用戶的悲慘損失感到心碎」。
圖片取自:(示意圖123rf)
根據訴狀,賽西亞於一年前首次使用 Character.AI,一開始她認為這有點像電玩遊戲。但是沒多久,賽西亞變得「明顯孤僻,越來越多的時間獨自待在臥室裡,並開始感到自卑。他甚至退出了學校籃球隊。」當他在學校開始出現問題時,他的父母開始限制他的螢幕時間,有時還拿走他的手機作為懲罰。
加西亞當時不知道她的兒子正在與 Character.AI 聊天機器人進行對話。 Character.AI 與 ChatGPT 等其他人工智慧聊天機器人不同,用戶可以與一系列不同的聊天機器人交談,這些聊天機器人通常以名人和虛構人物為模型,或創建自己的聊天機器人。 Character.AI 機器人會以類似人類的對話提示回應,在回覆中加入對臉部表情或手勢的引用。賽西亞與 Character.AI 機器人的許多聊天內容都是露骨的色情內容,加西亞說這些內容「讀起來令人心痛」。
訴狀稱,該訴訟尋求經濟損失,以及對 Character.AI 營運的改變,包括「警告未成年客戶及其父母,該產品不適合未成年人」。訴訟還點名了Character.AI的創始人Noam Shazeer和Daniel De Freitas,以及谷歌,兩位創始人目前都在谷歌從事人工智慧工作。但Google發言人表示,這兩家公司是獨立的,Google也沒有參與Character.AI產品或技術的開發。
[不許轉載、公開播送或公開傳輸]
最新生活新聞
-
-
「臺南400城市食力-觀光美食博覽會」11/29盛大登場 邀民眾認識臺南飲食文化
(26 分鐘前) -
立法委員陳亭妃要求交通部溝通越捷 期盼台南復飛越南可如期
(42 分鐘前) -
越捷航空臺南胡志明航線延期復飛
(43 分鐘前) -
台灣港務連3年獲TCSA永續經營單項績效獎
(46 分鐘前)