2025-06-24 | 中央社
英國資訊委員會發佈「人工智慧與生物辨識戰略」
英國資訊委員會發佈「人工智慧與生物辨識戰略」
(中央社訊息服務20250624 12:11:21)隨著人工智慧(AI)與生物辨識技術(如臉部辨識)在執法、教育、醫療及公共服務等多領域廣泛應用,英國資訊委員辦公室(Information Commissioner's Office,下稱ICO)於今(2025)年發布「預防傷害、促進信任:人工智慧與生物辨識戰略」(Preventing harm, promoting trust: AI and biometrics strategy,下稱「AI與生物辨識戰略」),針對公眾關切的高風險應用場景,提出監管重點與行動規劃。
ICO認為公眾對AI系統的透明度、偏見、權利保障及救濟機制存有明顯疑慮,尤其在警方使用臉部辨識(Facial Recognition Technology,下稱FRT)、徵才與公共服務的自動決策系統(Automated Decision-Making,下稱ADM)等領域,須平衡促進創新與保障個人資料權益,提升社會對AI與生物辨識技術的信任,才能促進AI的發展。由於大型AI模型之訓練涉及龐大資料集,且可應用於多種任務,須監管其訓練資料的合法使用及透明度。而於徵才和公共服務領域,涉及ADM決策過程的透明度、公平性及歧視可能性議題。另於FRT的使用則必須考慮使用的合法性、公平性及對公民權利的保障。
上述聚焦重點中,ICO指出公眾普遍關注透明度與可解釋性、偏見與歧視及權利與救濟三大議題。希望了解AI系統何時、如何影響他們,並能理解決策邏輯,同時也擔心AI系統因訓練資料不完整或偏頗而加劇社會不平等、不公平結果,以及是否有有效途徑申訴和更正。在透明度問題上,多數使用者擔憂生成式AI的資料保護與開發過程透明度、徵才申請者希望事先知曉是否使用自動決策、因警方對於使用臉部辨識之行為缺乏解釋性而引發公平與隱私疑慮。就偏見與歧視部分,用戶已注意到生成式AI會產生偏見,徵才ADM系統可能偏好特定族群(如年輕白人男性),且近半數認為臉部辨識存在性別與族裔偏差。關於權利與救濟,公眾多認為生成式AI開發者應加強防止有害內容,且於臉部辨識較準確時比較能接受其使用。
對此,ICO表示將採取多項具體行動以落實策略目標,包括:制定關於AI及ADM之合規行為守則(Statutory Code of Practice);監管警方臉部辨識系統,發布監管報告;更新自動決策系統的指引;規範生成式AI資料使用,要求AI開發者公開個人資料使用情況;採取前瞻性監測(Horizon Scanning),針對具自主行動能力的「代理型AI」進行風險評估與政策建議;推動跨部門合作與公眾參與,與公私部門合作推動標準與最佳實踐。
ICO的「人工智慧與生物辨識戰略」目的在於推動明確的合規框架,針對基礎模型訓練資料合法性、自動決策系統的公平治理及警方臉部辨識技術,發展必要的監管措施,以利公私部門均能在個別、公共服務中負責任使用AI和生物辨識技術,提升服務效率與公眾信任,兼顧創新與權益保障。AI和生物辨識技術使用中的隱私和權利,確保這些技術透明且公平,有權利知道原因並申訴,讓科技更值得信賴。
於我國AI基本法草案推出後,政府如何看待對高風險應用的監管、資料治理與AI政策的社會參與,打造一個促進創新又保障個人權益的AI生態,廣受各界的關注。資策會科法所創智中心參與基本法草案的推動,並協助個資主管機關研析個資法令,後續將持續觀測AI技術演進,研析各國監管策略,協助相關主管機關建構動態平衡發展的AI治理法制環境。
本文為資策會科法所創智中心完成之著作,各界基於報導、研究或其他正當目的,在合理範圍內,得轉載、引用本文,並請註明【作者:資策會科法所創智中心,來源出處:中央社訊息平台】。
(中央社訊息服務20250624 12:11:21)隨著人工智慧(AI)與生物辨識技術(如臉部辨識)在執法、教育、醫療及公共服務等多領域廣泛應用,英國資訊委員辦公室(Information Commissioner's Office,下稱ICO)於今(2025)年發布「預防傷害、促進信任:人工智慧與生物辨識戰略」(Preventing harm, promoting trust: AI and biometrics strategy,下稱「AI與生物辨識戰略」),針對公眾關切的高風險應用場景,提出監管重點與行動規劃。
ICO認為公眾對AI系統的透明度、偏見、權利保障及救濟機制存有明顯疑慮,尤其在警方使用臉部辨識(Facial Recognition Technology,下稱FRT)、徵才與公共服務的自動決策系統(Automated Decision-Making,下稱ADM)等領域,須平衡促進創新與保障個人資料權益,提升社會對AI與生物辨識技術的信任,才能促進AI的發展。由於大型AI模型之訓練涉及龐大資料集,且可應用於多種任務,須監管其訓練資料的合法使用及透明度。而於徵才和公共服務領域,涉及ADM決策過程的透明度、公平性及歧視可能性議題。另於FRT的使用則必須考慮使用的合法性、公平性及對公民權利的保障。
上述聚焦重點中,ICO指出公眾普遍關注透明度與可解釋性、偏見與歧視及權利與救濟三大議題。希望了解AI系統何時、如何影響他們,並能理解決策邏輯,同時也擔心AI系統因訓練資料不完整或偏頗而加劇社會不平等、不公平結果,以及是否有有效途徑申訴和更正。在透明度問題上,多數使用者擔憂生成式AI的資料保護與開發過程透明度、徵才申請者希望事先知曉是否使用自動決策、因警方對於使用臉部辨識之行為缺乏解釋性而引發公平與隱私疑慮。就偏見與歧視部分,用戶已注意到生成式AI會產生偏見,徵才ADM系統可能偏好特定族群(如年輕白人男性),且近半數認為臉部辨識存在性別與族裔偏差。關於權利與救濟,公眾多認為生成式AI開發者應加強防止有害內容,且於臉部辨識較準確時比較能接受其使用。
對此,ICO表示將採取多項具體行動以落實策略目標,包括:制定關於AI及ADM之合規行為守則(Statutory Code of Practice);監管警方臉部辨識系統,發布監管報告;更新自動決策系統的指引;規範生成式AI資料使用,要求AI開發者公開個人資料使用情況;採取前瞻性監測(Horizon Scanning),針對具自主行動能力的「代理型AI」進行風險評估與政策建議;推動跨部門合作與公眾參與,與公私部門合作推動標準與最佳實踐。
ICO的「人工智慧與生物辨識戰略」目的在於推動明確的合規框架,針對基礎模型訓練資料合法性、自動決策系統的公平治理及警方臉部辨識技術,發展必要的監管措施,以利公私部門均能在個別、公共服務中負責任使用AI和生物辨識技術,提升服務效率與公眾信任,兼顧創新與權益保障。AI和生物辨識技術使用中的隱私和權利,確保這些技術透明且公平,有權利知道原因並申訴,讓科技更值得信賴。
於我國AI基本法草案推出後,政府如何看待對高風險應用的監管、資料治理與AI政策的社會參與,打造一個促進創新又保障個人權益的AI生態,廣受各界的關注。資策會科法所創智中心參與基本法草案的推動,並協助個資主管機關研析個資法令,後續將持續觀測AI技術演進,研析各國監管策略,協助相關主管機關建構動態平衡發展的AI治理法制環境。
本文為資策會科法所創智中心完成之著作,各界基於報導、研究或其他正當目的,在合理範圍內,得轉載、引用本文,並請註明【作者:資策會科法所創智中心,來源出處:中央社訊息平台】。
最新生活新聞
-
-
青銀共好企劃 中山醫跨校團隊大專商業賽亞軍
(28 分鐘前) -
寵物生命定型化契約 明訂體重計費及骨灰處理
(28 分鐘前) -
青少年詐欺創新高 凱基人壽「金警聯防」推出防詐影片
(35 分鐘前) -
高雄時尚大賞徵件 總獎金135萬創新高
(47 分鐘前)