臺北市
16°
( 17° / 14° )
氣象
2025-01-12 | 科技島

馬斯克警告:訓練 AI 已耗盡人類數據資源 「唯一解方」是這個


馬斯克警告:訓練 AI 已耗盡人類數據資源 「唯一解方」是這個


馬斯克近日表示,人工智慧(AI)公司在訓練模型時已耗盡可用的人類知識,未來必須依靠「合成數據」來繼續推進AI技術發展。他指出,這一狀況實際上在去年就已經發生。編譯/黃竣凱


馬斯克近日表示,人工智慧(AI)公司在訓練模型時已耗盡可用的人類知識,未來必須依靠「合成數據」來繼續推進AI技術發展。他指出,這一狀況實際上在去年就已經發生。


[caption id="attachment_159285" align="alignnone" width="1200"]
馬斯克警告:訓練 AI 已耗盡人類數據資源 「唯一解方」是這個
合成數據提供了訓練AI解決數據短缺的新途徑,但如何判斷AI的答案是真實的,還是幻覺生成的,已經成為一個挑戰。(示意圖/123RF)[/caption]


合成數據成AI訓練主要解方


據報導,馬斯克在其社群媒體平台X的一場直播訪談中提到,解決數據短缺的「唯一方式」,就是利用由AI生成的合成數據。他解釋,AI可以自行撰寫文章、提出論點,並進行自我評估,透過這種自學過程來補充訓練數據。


更多新聞:O3模型的誕生:人工智慧的進步與挑戰|專家論點【張瑞雄】


各大科技巨頭紛紛採用合成數據


包括Meta、微軟、Google和OpenAI在內的科技公司,都已經開始使用合成數據來微調其AI模型。馬斯克的競爭對手,如Meta的Llama模型和微軟的Phi-4模型,也使用AI生成的內容來提升系統性能。


AI模型幻覺:合成數據帶來挑戰


儘管合成數據提供了解決數據短缺的新途徑,但馬斯克警告,AI模型產生「幻覺」(即不準確或無意義的輸出)的現象,對合成數據的可靠性構成威脅。他強調,「如何判斷AI的答案是真實的,還是幻覺生成的,已經成為一個挑戰。」


專家擔憂AI模型崩潰風險


英國艾倫·圖靈研究所(The Alan Turing Institute)的基礎AI部門主管Andrew Duncan表示,過度依賴合成數據可能導致「模型崩潰」,即AI模型的輸出品質逐漸下降。他指出,合成數據可能造成偏見,並削弱創造力,進一步影響模型的效能。


數據來源成為法律爭奪焦點


AI發展熱潮中,高品質數據的掌控權也成為法律爭議的焦點。OpenAI曾承認,若無法獲取受版權保護的素材,像ChatGPT這樣的工具將無法誕生,而創意產業及出版商則要求科技公司對訓練模型中使用其內容進行補償。


AI訓練數據最早2026耗盡


根據最新的學術研究,公開可用的AI訓練數據可能最早在2026年耗盡。專家警告,網路上日益增長的AI生成內容可能進一步被吸收到訓練數據集中,形成一種惡性循環。



參考資料:The Guardian


※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!


這篇文章 馬斯克警告:訓練 AI 已耗盡人類數據資源 「唯一解方」是這個 最早出現於 科技島-掌握科技新聞、科技職場最新資訊

Google新聞-PChome Online新聞

最新科技新聞

延伸閱讀