近年AI生成內容日趨普及,但是相關技術的非法濫用也層出不窮,包括使用AI深度偽造技術生成以假亂真的圖像、音訊及影像,用作不法的用途,如網絡欺凌、詐騙,或製作未經當事人同意的私密影像等等,可能對受影響人士,尤其是兒童及青少年,造成嚴重傷害。
個人資料私隱專員鍾麗玲近日在報章上撰文表示,AI的私隱風險近年來廣受全球監管機構關注,而個人資料私隱專員公署一直積極與國際夥伴攜手合作,推動AI的安全發展。她亦提醒,只要AI涉及收集或使用個人資料,便受《私隱條例》規管。例如未經同意使用他人影像製作或發布深偽內容,甚至惡意「起底」,都可能違法。因此,AI開發者、服務商及用戶都應合法及負責任地使用技術,例如為AI生成內容加上標識或水印,避免誤導。
另外,如AI系統導致個人資料被未授權存取、刪除或外洩,亦可能違反資料保安規定。用戶應從官方渠道下載軟件,並採用最小權限設定,加強系統與資料安全,同時對高風險操作保持警惕。
鍾麗玲表示,近期興起的AI智能體(Agentic AI)進一步加劇了AI的私隱及網絡安全風險。與一般AI聊天機械人相比,AI智能體擁有較高權限,能夠存取用戶裝置的檔案、連接外部工具及服務,並可代替用戶自主執行多步驟任務。正因AI智能體能夠以前所未有的速度和規模,存取、處理及披露個人資料,這些工具若遭到濫用或系統遭到黑客控制,所帶來的私隱與安全威脅將會更加嚴重。
她呼籲,發展或應用AI的機構應引以為鑒,不應為追求新功能或加快推出新產品,而犧牲私隱和安全。所有持份者,包括AI開發商、服務提供者及用戶都有不可推卸的責任,為我們的下一代營造一個有益、安全以及公平的數碼環境。
她亦提到,在去年9月舉行的第47屆環球私隱議會年度會議上,私隱專員公署聯同全球19個私隱或資料保障機構的專員或高級代表,簽署《建立值得信賴的數據治理框架以促進創新和保障私隱的人工智能發展聯合聲明》,倡議在AI系統的設計階段融入資料保障原則,建立穩健的數據管治機制。其後,在今年2月,私隱專員公署與全球60個私隱或資料保障機構共同發布《AI生成影像及私隱保障聯合聲明》,提醒開發及使用AI內容生成系統的機構必須遵守適用的資料保障及私隱法例,並採取一系列措施保障資料當事人,尤其是兒童及弱勢群體的基本權益。
她表示,政府在人工智能範疇,將會按照「十五五」的規劃,一方面提出全面實施「人工智能+」行動,另一方面又提到要加強人工智能治理,營造有益、安全、公平的發展環境。@
-------------------
局勢持續演變
與您見證世界格局重塑
-------------------
🔔下載大紀元App 接收即時新聞通知:
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores

















