私隱專員公署完成審查28間機構開發或使用人工智能對個人資料私隱的影響,過程中未有發現違反《私隱條例》相關規定的情況,而結果顯示,愈來愈多機構(包括公私營機構)應用人工智能以增加日常營運效率。
私隱專員公署於2023年8月至2024年2月期間,合共向28間本地機構進行循規審查,涵蓋不同行業,包括電訊、金融及保險、美容、零售、運輸、教育及政府部門,以了解該些機構在開發或使用人工智能時,收集、使用及處理個人資料的情況,以及該些機構就人工智能的管治情況。
結果顯示,21間機構在日常營運時使用人工智能,當中,19間機構設有人工智能管治架構。在該21間機構當中,只有10間機構會透過人工智能產品或服務收集個人資料。
個人資料私隱專員鍾麗玲表示,人工智能在促進生產力及經濟增長方面擁有巨大潛力,但人工智能亦存在不同程度的個人資料私隱及道德風險。樂見在審查的機構當中,大部分機構均設有人工智能管治架構,以監督人工智能產品或服務的開發或使用。機構作為資料使用者,在開發或使用人工智能系統時,有責任確保人工智能系統的數據安全,應適時檢視及評估人工智能系統對數據安全的影響,並確保遵從《私隱條例》的相關規定。
私隱專員公署向所有開發或使用人工智能的機構提供多項建議措施,包括如在開發或使用人工智能的過程中收集或處理個人資料,須採取措施確保遵從《私隱條例》的規定,並持續監察及檢視人工智能系統;制定開發或使用人工智能策略及設立人工智能內部管治架構,並為所有有關人員提供足夠的培訓;就開發或使用人工智能進行全面的風險評估(包括私隱影響評估);及與持份者有效地溝通及交流。