個人資料私隱專員在「香港律師」的文章:人工智能深偽技術帶來的風險(2026年3月)
濫用人工智能聊天機械人:全球警示
對不少法律執業者而言,人工智能(AI)就儼如現代「師爺」,協助他們審視合約及簡化盡職審查的過程等工作。然而,隨着這些科技愈趨普及和成熟,另一令人憂慮的現象亦隨之出現——AI生成深偽內容的濫用。AI能夠生成看似逼真但卻是偽造的影像、錄音及影片,構成巨大隱患。深偽技術如果被惡意使用,例如用作網絡欺凌、詐騙及未經同意下製作私密影像,可能對個別人士造成嚴重而深遠的傷害。
一宗近期發生的全球事件更令這些問題受到廣泛關注。有報導指,某個AI聊天機械人容許用家上載真實人士的照片,包括女性和兒童的照片,然後利用指令(prompting)將相中人數碼「脫衣」,在未經當事人同意下生成性影像。而這些偽造的影像一旦在網上散佈,可能極難移除,對受害者影響深遠。據報,在僅僅11天內,該聊天機械人已經生成了約300萬張性影像。
這宗事件帶來重要警示,反映出透過濫用個人資料,深偽技術可以如何被武器化。該事故引發全球不同私隱或資料保障機構迅速進行調查,以及多個司法管轄區實施禁令。個人資料私隱專員公署(私隱專員公署)亦即時去信有關機構表達關注並提問。公署同時發出新聞稿提醒公眾安全和合法地使用AI。
除了私密影像被濫用外,利用深偽技術進行欺詐及詐騙的趨勢同樣令人關注,而香港過往亦有多宗備受矚目的案例。2024年發生一宗廣受報導的事故,騙徒利用深偽技術在視像通話中偽冒某公司的首席財務官,並成功欺騙一名職員轉賬約2億港元。而在2024年及2025年,警方瓦解兩個利用深偽技術行騙的犯罪集團,共涉款近4億港元。
監管的發展
世界各地應對深偽相關風險的立法工作於數年前已陸續展開。中國內地於2023年頒布針對深度合成技術的法例,要求標識AI生成內容,並禁止利用這些技術生成侵犯他人合法權益的內容。澳洲及英國等司法管轄區亦已經實施網絡安全規管制度,以減低網絡欺凌和影像性暴力等與深偽有關的風險。
在香港,令人鼓舞的是,行政長官在2025年《施政報告》委任律政司協調負責的政策局檢視相關法律配套,配合本港更廣泛應用AI的發展和需要。
在檢視完成前,香港現時採用靈活的監管模式,即以現行適用的法律,配合相關指引規管。任何收集和使用個人資料製作深偽內容均受《個人資料(私隱)條例》(《私隱條例》)所規管。特別是,如果在製作及/或披露深偽材料時使用個人資料,而該使用超出了收集資料時的原有目的,便可能違反《私隱條例》的保障資料第3原則。另外,如果以不合法或不公平的方式收集個人資料,亦有可能違反保障資料第1原則的要求。在較嚴重的個案中,製作及/或披露惡意深偽材料可以構成《私隱條例》下的「起底」罪行。
《應對濫用人工智能深度偽造技術:給學校及家長的錦囊》
儘管濫用深偽技術的情況呈上升趨勢,公眾對其相關傷害的意識仍然有限,其中又以兒童及家長尤甚。2024年英國的一項調查顯示,近三分之二兒童及近半父母不知道或不理解「深偽」一詞。當中,兒童特別容易受深偽技術影響,不單可能成為受害者,同時由於他們的認知能力仍然在發展階段,甚至可能在未充分理解相關風險或後果的情況下,製作或分享惡意深偽內容。
有鑑於濫用深偽技術的風險日益增加,私隱專員公署早在近期發生涉及AI聊天機械人在未經同意下生成性影像的全球事故前,已經率先在2025年12月主動發布《應對濫用人工智能深度偽造技術:給學校及家長的錦囊》(《錦囊》),為學校及家長提供實用建議,協助學校及家長處理涉及兒童和青少年的深偽技術事故,以保障他們的個人資料私隱。《錦囊》的主要建議包括儘量減少公開分享未成年人的照片及影片、加強查閱限制及數據安全,以及教育兒童及青少年有關製作惡意深偽內容的私隱風險及法律後果。《錦囊》同時就如何處理深偽事故向學校和家長提供建議步驟。
近期的事件提醒我們,未成年人在瞬息萬變的AI世代中尤為脆弱,而惡意深偽帶來的傷害既實在又影響深遠,因此我們必須時刻保持警惕。所有持份者,包括AI開發者及提供服務的公司,均有責任一同為下一代營造一個安全而可靠的數碼環境。