正如蒸汽機、發電機曾給世界帶來變革一樣,當前人工智能(AI)技術正快速深入應用于社會各領域,展現出顛覆性力量。人工智能越智能,就越需要治理的力量,也只有處理好人與人工智能的關系,人類社會才能放心擁抱AI“紅利”。
在2021世界人工智能大會治理論壇上,來自政產學研界的專家達成共識:為確保人工智能安全、可靠、可控,建立健全法律法規、制度體系、倫理道德,需要科學評估人工智能應用的社會綜合影響,為智能時代的政府治理提供有效支撐。
中國AI治理的模式變了
“治理跟不上,人工智能就發展不好。”清華大學蘇世民書院院長、國家新一代人工智能治理專業委員會主任薛瀾說,從國家積極推動行業發展,到出臺行業軟性規則,再到多部門采取措施整治,我國人工智能的治理模式正從“回應式治理”轉向“集中式治理”。“從去年開始,我們對人工智能發展中的一些問題進行了集中治理,相關法律法規出臺的進度也在加快。”
隨著人工智能技術不斷進階,治理模式也得“與時俱進”。面向未來,薛瀾提出了“敏捷治理”模式,“這是一種多元治理主體參與、多種治理工具靈活運用的剛柔并濟的治理模式”,即在確保人工智能安全和平等的基礎上,鼓勵企業創新,并及時識別AI應用帶來的風險,果斷給予適當規制。
對于AI應用的研究也在走向深入。《上海國家新一代人工智能創新發展試驗區社會實驗工作方案》在論壇上發布,它將深入了解回應當前國內人工智能及數字技術應用中公眾關注和反映較多的問題。市科委副主任王曄表示,醫療診斷輔助決策支持、隨申碼應用拓展、老人智能服務應用系統等,都是與市民生活息息相關的人工智能應用,“我們將這些場景作為首批實驗工作目標,將其放在科學系統的分析框架下進行研究”。
建立公正透明的評估體系
人工智能治理難在哪里?圖靈獎得主、中科院外籍院士約翰·霍普克羅夫特說:“人工智能會告訴我們答案,但不會告訴我們答案背后的理由,如果訓練它的數據存在偏見,那么結果也可能是有偏見的。”霍普克羅夫特認為,達成一套透明、公平、公正的評估體系至關重要。
以自動駕駛為例,它通過大量數據生成駕駛決策,在這一過程中,我們要盡可能地去收集更多相關場景數據,去模擬和仿真出各種相關場景,然后把各類人工智能技術放在這些環境和場景下去評估。
建立公平透明的評估體系需要依靠政產學研各方力量,除了作為監管主體的政府和研發主體的企業,霍普克羅夫特還著重強調了另外一些機構,比如教育和媒體,“整個社會都要了解人工智能可能帶來的問題,這就需要教育的力量,如果一座城市有更多懂AI的人,并且能夠加入到人工智能這個議題的討論中來,人工智能就能朝著更加以人為本的方向發展”。
治理AI需要健全的倫理體系
“在人工智能發展的問題上,當下最迫切也是最核心的問題是數據。”商湯科技聯合創始人楊帆說。
“數據很奇怪,產生它并不容易,但是復制成本特別低,而且維度越多、越龐大的數據價值越大,在不同人手里發揮出的價值天差地別,這就產生了很多新問題。比如數據所有權、使用權如何界定,復制數據的價格如何計算等。”楊帆提出了他的思考。
治理人工智能需要健全的倫理體系。作為人類智能的產物,人工智能需要以人的道德價值作為行為依據。在楊帆看來,人工智能的倫理問題主要包括三個方面:一是以人為本,阿西莫夫提出的“機器人三原則”是從限制機器角度為人類發展撐起一把保護傘,同樣,人工智能也需要正向為人類提供服務;二是可持續發展,任何技術的發展都要講究人與自然的平衡,在更加良性的環境中得到互動和發展;三是技術可控,即對技術實現更好的控制。
隨著國家、城市與社會各行業的數字化轉型,數據問題會越來越多地擺在人們面前,成為一項巨大挑戰。如何處理好數據問題或將撬動整個科學體系,乃至變革人類社會。