臺北市
26°
( 29° / 23° )
氣象
2024-02-27 | 今日新聞

Sora一句話生成短片 專家:恐加劇資安挑戰

Sora一句話生成短片 專家:恐加劇資安挑戰
OpenAI今(16)日宣布推出一款全新AI模型「Sora」,可以根據使用者輸入的文字內容,生成最長一分鐘的影片,圖為Sora生成的猛瑪象。(圖/翻攝自OpenAI的X影片截圖)

[NOWnews今日新聞] 隨著OpenAI推出可以「一句話創造一分鐘AI高畫質影片」的Sora平台示範影片成品後,不但以眼球經濟為核心的影視藝術創作產業受到巨大的震撼,更有潛在資安風暴正在生成。專家指出,過去大家都擔心會有超越專家能力的「超級人工智慧(Super AI)」出現,但現在「超級深偽(Super Deepfake)」欺詐技術,已隨著越來越多的網路AI影音服務就在眼前,若沒有適當的風險控制,將形成「深偽即服務(DaaS)」暗黑產業鏈。

KPMG安侯企業管理公司董事總經理謝昀澤表示,過去一段時間,以生成式AI技術創作或偽冒影片的深假技((Deepfake)越來越普及,但多數影片都無法達到高畫質、長時間,且多鏡位的品質,深偽的工具使用門檻也較高,使用者仍有機會肉眼識別。但Sora的橫空出世,卻一舉突破了這些障礙,其根據簡單的提示詞,所生成的4K超高畫質影片,真實感已經達到專業人士難以分辨真偽的程度。

謝昀澤強調,儘管Sora最初的目的是推進AI領域的創新,但其帶來的潛在風險不容被忽視。這項技術不但可能被用來製造更加精細和難以辨識的假新聞,對公眾意識形態、選舉、乃至國家安全構成前所未有的挑戰,連過去傳統的資安防護與認證基礎工程,如遠距身分識別等機制,都可能被撼動。

KPMG安侯企管公司執行副總經理林大馗依據近期資安情資分析,有多起犯罪集團利用深偽技術生成的AI人像來欺騙金融機構面部識別系統進行詐貸;更有多宗利用深度偽造技術針對跨國公司進行詐騙的事件,更造成了至少8億台幣的損失,顯示了以AI深偽技術結合傳統詐騙手法的「新智慧詐騙工程」正在蔓延。

謝昀澤認為,要防止被Sora等AI影片「耍啦」,必須有要靠「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。他也提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(偽)術」。

林大馗也建議,應用生成式AI提供服務的企業或服務提供商,未來的資安不只要重視傳統的「機密性」,並於所產出的成品提供「透明的告知或識別」,讓使用者可以輕易分辨是AI生成的內容外,更要對「真實性」加強驗證,建構足夠的防偽機制。

他舉例說明,針對所欲發佈影音檔案,使用AI反偽冒工具,透過在原始檔中添加雜訊或其他浮水印的技術,來阻擋超級深偽的偽冒或複製;企業在高風險的網路交易中,可考慮以零知識證明(ZKP)不透漏使用者自身資訊等新型密碼學技術,進行身分認證。林大馗表示,生成式AI究竟會成為未來眼球經濟的「沉浸式利器」還是「沉沒式利刃」,關鍵就在資安防護能力。

相關新聞


一句話生成短片!SORA掀熱潮 看3大公司最新技術預約大榮景長線


OpenAI新模型Sora!「文字轉影片」效果超逼真 暫不開放公眾使用


62萬股東看過來!玉山金股利配發將調整 現金有望提高至7成

最新財經新聞

延伸閱讀