市場分析 | 2021-01-12 06:00
孫明春
隨着人工智能(AI)技術的快速發展和廣泛應用,與之相關的道德問題愈益得到各界重視。各國政府、國際組織、學術機構和企業都積極參與相關道德標準的討論和制定,確保AI技術發展以人為本、技術向善。
聯合國是推動建立全球AI道德規範的重要力量。2019年,聯合國教科文組織啟動了全球AI道德建議書的撰寫,預計將於2021年末發布。經合組織(OECD)也高度重視AI準則的制定,於2019年5月發布首個政府間人工智能政策指南《OECD人工智能原則》,共42個國家簽署,隨後也被G20採納。目前,全球已有28個國家發布有關AI的國家戰略及政策,而道德問題是各國政策的重要領域之一。歐盟在2019年4月發布了《可信賴的AI道德指南》,在2020年10月,歐洲議會通過了3項有關監管人工智能的立法倡議,以更好地平衡技術創新和社會治理的關係。
與此同時,行業組織、學術機構和企業也提出了相關倡議。國際化標準化組織(ISO)於2017年成立人工智能委員會,負責涵蓋算法偏見、隱私保護等領域的標準制定工作。電氣和電子工程師協會(IEEE)在2017年提出了「人權、福祉、問責、透明、慎用」的5項原則,已成為國際上最具影響力的AI道德原則之一。在學術界,牛津大學、劍橋大學和Open AI公司等7家機構,於2018年共同發布《人工智能的惡意使用:預測、預防和緩解》,分析了人工智能可能帶來的安全威脅,並提出應對建議。在企業界,微軟、谷歌、IBM等科技企業制定了人工智能開發的道德原則,Facebook也在2019年初聯合慕尼克工業大學建立了AI道德研究所。
中國政府高度重視人工智能產業發展中的道德問題。2017年7月,國務院在《新一代人工智能發展規劃》中提出,要「制定促進人工智能發展的法律法規和道德規範;開展人工智能行為科學和道德等問題研究;制定人工智能產品研發設計人員的道德規範和行為守則」。2019年2月,國家新一代人工智能治理專業委員會成立,並於6月發布了《新一代人工智能治理原則——發展負責任的人工智能》,旨在「更好地協調發展與治理的關係,確保人工智能安全可靠可控,推動經濟、社會及生態可持續發展」。同年4月,國家人工智能標準化總體組發布了《人工智能道德風險分析報告》,提出「人類根本利益原則」和「責任原則」。
中國的學界和企業界也積極關注AI道德問題。2019年5月,由科技部和北京市政府指導成立的北京智源人工智能研究院成立了人工智能道德與安全研究中心,並聯合北大、清華、中科院、新一代人工智能產業技術創新戰略聯盟(發起成員包括百度、阿里、騰訊、華為等)和其他學術機構及產業組織共同發布《人工智能北京共識》,提出了人工智能研發、使用和治理應遵循的「有益於人類命運共同體的構建和社會發展」的15項原則。2019年8月,深圳人工智能行業協會與曠視科技、科大訊飛等數十家企業聯合發布《新一代人工智能行業自律公約》。百度、騰訊等主要科技企業也提出了企業自身的AI道德準則;曠視科技還在制定準則的基礎上,成立了人工智能道德委員會,以推動「可持續、負責任、有價值的人工智能生態」。