龍衛球(北京航空航天大學法學院教授、博士生導師)
目次
一、正確認識作為當代科技發展新表征的人工智能
二、科技法在工業革命背景下的興起與演化
三、人工智能的科技法規范路徑
四、科技法視野下的人工智能規范問題
五、結語:加快制定人工智能科技特別法
摘要 人工智能以機器學習方法為支持取得突破,成為引燃第四次工業革命的表征科技,促生巨大的社會生產生活迭代發展態勢,也帶來巨大的法律挑戰。人工智能的立法基礎和路徑,應當深入到科技法及其迭代發展的語境之中加以認識,并且自覺體現“歷史-發展”“社會-技術”的連接性。一方面,人工智能具有科技事物的本質,屬于科技法的規范對象,同時它作為一種具有巨大驅動力且尚具有上升空間的新興科技,給科技市場、生產安全、科技風險、科技政策等領域均帶來大量的新的具體問題;另一方面,人工智能因具有認知能力而與人類智慧相通,導致復雜的倫理問題。這些問題都亟待深入研究,并形成相關法律規范。
關鍵詞 人工智能 科技法 規范 立法路徑
人工智能科技及其應用近年來呈勃興之勢,引發當今信息科技革命大背景下的又一波新浪潮。2018年歐盟委員會的一份人工智能戰略報告指出,采取認知系統與人工智能技術,將使全球商業收入從2016年的64億歐元增長到2020年的378億歐元,預計到2030年,人工智能將為全球經濟貢獻12.8萬億歐元,相當于今天全球國內生產總值(GDP)增長了14%。目前中國和美國相關產業布局走在世界前列。據統計,2018年全球人工智能企業共計15 916家,其中中國3 341家,合計融資規模達165.54億美元,占全球人工智能企業融資數額的46.94%;美國4 567家,合計融資規模為135.93億美元,占全球人工智能企業融資數額的38%。與此同時,相應的規范問題接踵而至,關于人工智能規范的討論成為熱點:有從法理學法哲學角度來討論的,如思考人工智能時代的法律代際問題、人工智能的法倫理發展、現行法在人工智能應用下的治理危機等;有對某些特定問題展開討論的,如機器人或人工智能的法律地位、自動駕駛的刑民事責任、人工智能生成物的權屬、智能合約或某種程度商業自主化決策的法律后果等;也有從人工智能的技術架構探究特殊規范方法或者機理的,如智能算法的規范研究;等等。但筆者認為還有重要角度需要關注。人工智能是燃爆新一輪工業革命的表征科技之一,具備科技事物的本質屬性,既有科技法對人工智能的規范因循不可忽視。因此,筆者擬立足科技法及其迭代發展的語境,結合人工智能在當下的重要特質,對人工智能立法的基礎、路徑及相關具體規范問題進行思考和分析。
一、正確認識作為當代科技發展新表征的人工智能
第四次工業革命正在發生是已經被廣泛認可的事實。第四次工業革命因信息科技和生物科技的迭代發展而勃發。世界經濟論壇創始人德國學者克勞斯·施瓦布指出:“從人工智能到生物技術,從先進材料到量子計算,一系列強大的新興技術帶來了大量的機會與挑戰,并且將根本上改變我們的生活方式。我們將這一過程稱為第四次工業革命。”施瓦布特別強調,對于第四次工業革命,要關注其與第三次工業革命的緊密聯系,因為“推動第四次工業革命的新興技術建基于以往工業革命的知識和系統,特別是第三次工業革命的數字技術”。其中,信息科技革命就是跨越兩次工業革命的科技革命,并經歷了三個階段:
(1)第三次工業革命末期即20世紀90年代開始形成第一波信息科技革新浪潮,即世界互聯網化。最初,由互聯網推廣應用作為牽引,逐漸進行瀏覽器、電子郵件、信息門戶網站等開發,然后到21世紀初前后形成全球互聯網體系,并且從社區交流發展到廣泛的經濟、社會和政治的信息交互應用。其特點是世界信息互通,使人們之間的信息交往瞬間扁平化。有識之士稱,此時我們進入“世界是平的”時代。
(2)大約在2010年前后,信息科技革命出現第二波浪潮,移動互聯網、云計算等的出現直接導致大數據及其應用的強勢蔓延,迎來“大數據時代”。這次大數據化的信息科技突變昭示著第四次工業革命的到來。
(3)人工智能科技在機器學習技術創新下以一種強勢的新表征方式出現,成為信息科技的新寵兒,直接引發信息科技革命的第三波浪潮,并使第四次工業革命的開啟更加明顯。人工智能最早可以追溯到圖靈測試。20世紀60年代,機器人移動技術曾經成為一次里程碑事件,但意義有限。但是現在,通過大數據和深度學習等新技術的結合,人工智能脫胎換骨,與既往的技術版本具有質的不同。在大數據的促動下,人們通過發現和改進一種機器的深度學習方法,特別是開發語音識別、圖像識別等新技術和新方法,使得人工智能發展到具有極高認知能力的新階段,同時不斷嵌入各種應用領域,成為引領新一輪信息科技產業化的表征科技。2012年,谷歌(Google)發布人腦模擬軟件,這是一種劃時代的具備自我學習功能的軟件,可以模擬腦細胞的相互交流,可以通過看優兔(Youtube)視頻學習識別貓、人和其他事物,從而引發人工智能新興技術新想象。2016年,谷歌旗下的深度思考(Deep Mind)出品的阿爾法圍棋(AlphaGo)大戰韓國職業圍棋手李世石并連勝三局等事件,再次引起人們對人工智能的關注。此后,谷歌、臉譜(Facebook)、微軟(Microsoft)等互聯網巨型公司紛紛表示未來將更加重視人工智能,除開源機器學習框架,還投入巨資收購研發人工智能的公司和人才,使得2016年成為人工智能元年,麥肯錫報告稱“人工智能進入突破階段”。人工智能應用的后果是,“徹底改造數字經濟,很快也將重塑實體經濟。人工智能在21世紀早期的目標包括讓自動化機械引領物理世界的發展,以及實現人類與計算機之間的互聯”。換言之,我們的生產和生活模式正快速通過機器學習系統植入或者應用智能化且不斷升級。這種智能化,從商業智能模式到工業智能系統,從企業智能到政務智能乃至軍事智能,無所不在。機器學習方法本身還在不斷發展,在不久的將來,許多領域會由智能輔助變為智能混合乃至智能接管。以機器學習為支持的人工智能技術,在當下直接促成一個所謂“弱人工智能”時代的到來,并且繼續前行。
就人工智能今后到底會經過哪些技術突破和應用階段,目前存在不少的預測研究。有人認為,人工智能軟件架構可能突然出現重大革新,從而使得人工智能很快達到人類智慧水平。例如,美國未來學家雷·庫茲韋爾就認為,在2045年前后人工智能將發展到一個“奇點”,跨過這個點人工智能就將超越人類智慧。但是,也有人工智能研發專家認為,人工智能大概需要幾個世紀才能完成。長期從事人工智能研發項目的美國著名未來學家羅賓·漢森就認為大概需要200~400年才會出現真正的人工智能,基于機器學習(圖像識別、語音識別)的人工智能技術在硬件和軟件上不久都會遇到瓶頸,下一個階段應該是以仿真人(大腦仿真)為基礎的人工智能的發展,這個過程大概需要一個世紀,然后進入仿真人時代,提出仿真人規范需求,之后才進入不以仿真為基礎的人類智慧水平的人工智能開發期。
不管怎樣,今天出現的人工智能科技及其應用是科技史上一次石破天驚的事件,應當作為當代科技發展的新表征加以認識和對待。作為人類歷史上爆發性科技革命背景下的一種塑形技術,人工智能與第四次工業革命的開啟息息相關,是導致第四次工業革命發生的關鍵科技之一。第四次工業革命的表征科技,目前公認包括工業物聯網、云計算、工業大數據、工業機器人、3D打印、知識工作自動化、工業網絡安全、虛擬現實和人工智能9種。其中,工業互聯網、云計算和工業大數據是三大底層基礎設施,工業機器人和3D打印是兩大硬件技術,知識工作自動化和工業網絡安全是兩大軟件支持,虛擬現實和人工智能是面向未來的兩大終極技術。人工智能,一方面作為面向未來的爆發性終極科技之一,在科技成為第一生產力的當下,對于人類生產生活的影響必定是重大的甚至是顛覆性的。人工智能帶來的積極影響,主要體現為新興科技帶來全新的創造、福利和便利;但也可能有消極的影響,主要體現為新興科技導致新風險和“適應不良癥”。另一方面,人工智能本身依舊是一種科技,具有自身生產、發展的條件性和過程性,目前還處于以特定識別技術為支持的機器學習的階段,盡管可以預期其會不斷提升直至達到或者超越人類智能水平,但是主流觀點認為還有足夠長的時間跨度,由此存在階段區分的必要。這是當前人工智能技術的時代背景和現實表達,也是其規范問題產生的時代條件和現實基礎。
二、科技法在工業革命背景下的興起與演化
(一)三次工業革命背景下科技法的迭代演化
回顧人類法律的發展,可以發現,自進入工業革命以來,除普通法或通用法的發展之外,法律體系中出現了專門的科技法,并呈現不斷擴張發展的態勢,占據越來越重要的位置。第一次工業革命之前,并無科技法這樣一個專門領域,但是自第一次工業革命開始,科技法作為一個專門領域誕生了,并且以某種特定的方式影響和聯系著普通法律。此后,科技法隨著科技發展和工業革命迭代,呈現不斷擴張、不斷升級的趨勢,其與三次工業革命發展同軌,大致也經歷了三個發展階段。
1.第一次工業革命時期:鼓勵科技發明之科技法
在工業革命的背景下,近代法律體系誕生并基于經濟、政治和社會思想的根本變化以個人理性和自由為基礎出現根本轉型,且與科學主義結合,在一般法律范疇的意義上產生了近代意義的憲法、民法、刑法、訴訟法等法律部門。與此同時,基于工業革命背景下科技發明具有的不同尋常意義,首次把科技問題納入立法,產生了全新的科技法部門。最早出現的科技法,主要是以具體立法形式呈現的科技市場法:包括具有賦權意義的專利法和其他知識產權法,具有鼓勵交易價值的技術合同法和技術中介法等;也包括最早的科技風險法,主要體現為科技應用于工業生產的語境下為應對生產安全需要的工廠法,以及工業事故災害的管理和責任立法。
首先,這一時期科技市場法得到創制。在第一次工業革命時期,不僅發明了蒸汽機等新科技,更重要的是通過法律創設了專利權等新型財產權,賦予科技發明人以專利權的刺激方式,鼓勵科技發明和創造,從而在制度上為工業革命提供激勵和保障。專利法的出現,產生將科技、法律、經濟協調起來巨大功效,這在歷史上是前所未有的。過去科技創造完全出自個人興趣,發明出來的成果自動納入公共領域。專利法出現之后,這種局面得以改變,具有財產意義的專利權變成一種全新的利益驅動機制,科技發明成為更多個人和工廠企業積極的法律利益追求。這一時期專利法發展最重要的表現是1623年英國議會通過壟斷法,明確規定專利制度的基本理念和具體形式,被認為是“發明人權利的大憲章”。此后,美國于1790年頒布實施聯邦專利法,德國于1877年頒布實施專利法。這一時期,得到發展的還有專利交易制度和技術合同制度,并成為科技市場法不可或缺的一部分,專利權或科技發明只有置于自由交易之中,才能獲得更加充分的價值實現和轉化的機會。
其次,這一時期也開始關注工業革命帶來的生產安全問題,這是早期科技應用導致風險的基本表現形態。科技發明在工廠條件下得到應用后,在帶來規模效益的同時,也容易帶來規模安全和災害問題即工廠安全和災害問題,其中特別是對工人的生產安全威脅和事故損害。在社會壓力下,最早開展工業革命的國家逐漸關注工廠安全和事故,發展出最初的工廠安全法則和勞動安全法則。1802年,英國政府制定《保護學徒的身心健康法》,建立最初的工廠勞動保護規則,旨在保護工廠勞動者的健康,確立學徒的勞動時間、礦工的勞動保護以及工廠的室溫、照明、通風換氣等工業衛生標準。1833年,英國頒布世界上第一部系統的《工廠法》,對工廠條件下的工人的安全、衛生、福利作出規定。
2.第二次工業革命時期:鼓勵科技發明和防治工業災害并舉之科技法
這一時期,專利法和反壟斷法的存在,從正反兩面鼓勵了科技發明的自覺,工業研究實驗室不斷涌現并且走向成熟,在大量新興科技發明和發明方法的支持下,除傳統紡織、工礦等領域外,電訊、電氣、有機化工等領域也得到發展,促進了產業化的極大發展。科技法也因此需要在進一步提升鼓勵科技發明和應用的同時,直面產業化帶來的生產安全和事故頻發的威脅。
首先,從科技市場法來說,這一時期是專利法等知識產權法不斷擴展的時期,國際專利關系出現前所未有的發展,國際社會締結《保護工業產權巴黎公約》。這一時期,技術交易更加頻繁和多樣化,技術合同也得到豐富和廣泛應用,因此技術合同制度更加發達,相關規范除單行規定之外,也散見于民法、商法、反壟斷法(反不正當競爭法)等法律之中。
其次,工業產業的急劇擴張,使得新老領域均面臨更加嚴峻的工業生產安全和災害問題。工人安全和健康陷入困境,工廠事故不斷,產品事故、交通事故等損害頻發,環境污染日趨嚴重。這些不僅引發嚴重的社會矛盾,而且加劇階層對立和社會動蕩。有關國家在幾次社會矛盾大爆發之后,開始強化管控工業安全和災害、減緩社會矛盾,制定一系列應對工業安全和災害的法律。隨著高尖端科技應用和產業化擴展,原先零星分布的職業安全法規已經無法適應需要,各國紛紛完善工廠法并制定統一的勞動安全法。此外,產品責任法、交通事故責任法、災害保險法等也得到發展。這些立法許多是事后規則,但通過嚴格責任、懲罰性賠償等使得其具有預防功能;但也有許多是事先和事中規則,如產品質量管理制度、交通安全管理制度、災害保險制度等。這些立法極大地促成工業災害和事故治理體系的確立及完善。
3.第三次工業革命時期:突出科技政策作用之科技法
這一時期,科技立法鼓勵科技發明的立場并沒有變化。工業化國家繼續完善專利法等知識產權法,并且在20世紀晚期明顯出現“強專利(知識產權)”趨勢;工業化國家特別是美國在全球推行知識產權保護,國際社會締結《與貿易有關的知識產權協定》,專利的國際申請不斷增加,專利戰略成為國家之間、跨國企業之間的核心競爭戰略之一。這一時期的科技立法還繼續提升工業安全和災害治理。工業安全和災害治理法律得到進一步強化,新興的生態環境問題得到關注,環境法得到極大發展。此外,這一時期的科技立法開始關注特殊科技安全和風險,不斷制定相關特殊管控規范。針對生化科技、核科技、生物科技、信息科技等新科技的發展和應用,人們發現這些特殊新科技在帶來巨大福利可能的同時,也帶來前所未有的特殊風險,食品藥品安全、生化安全、核安全、生物安全、網絡信息安全等不斷凸顯出規范急迫性,激發管控特殊科技風險的強烈要求,導致相關技術安全和風險管控法律的出臺。“9·11事件”之后,恐怖主義帶來的不確定性因素增加,特殊科技風險管控的問題也顯得更加迫切。
這一時期,科技立法最突出的擴展是強化科技政策作用,更加注重政策導向和機制作用,從而發展出一套旨在促進科技進步、轉化和創新的特殊法律制度,可以簡稱為科技政策法。20世紀40年代,各國動員科技資源備戰,導致科技進步與國家組織緊密結合。例如,美國便成立國防研究委員會組織科技資源增強國防能力,1941年建立科學研究和發展局,1945年又以“科學:沒有止境的前沿”為理由建立國家研究基金會。此后各國競相以提升國家競爭力和促進產業升級為目標,引入科技政策機制,干預科技發展,促進科技進步、轉化和創新。20世紀50年代,各國科技政策致力于戰后恢復和重建,大力投資基礎研究和高等教育,為重建和發展打造知識資源和人力資源的基礎,并在經濟擴張領域,促進電子、石化、原子能科技創新,力推新興科技的經濟轉化,逐漸形成“技術-經濟”范式。20世紀60年代,隨著經濟復蘇,市場需求成為科技政策的關注點,各國政府由簡單的大力支持基礎研究轉為更加注重“成本—效率”比以及項目效益評估,科技立法也進行了許多調整。20世紀80年代開始,各國更加強調科技資源供應和市場需求的結合,在微電子、生物技術和新材料等新領域實施“技術-經濟”范式,后來調整為“技術-經濟-環境-安全”范式,在“技術-經濟”發展的價值追求中,同時引入生態環境保護和特殊技術風險防范。
與此同時,各國啟動創新政策,推進科技發展與產業化提升的緊密融合。所謂創新政策,按照英國著名學者羅斯韋爾的界定,是科技政策與產業政策協調的結合。20世紀初,面對新一輪科技大發展的機遇,各國注重快速提升和確保國家競爭力,大力推進科技創新政策,甚至上升到科技創新戰略的高度。20世紀末、21世紀初歐盟相繼公布《創新綠皮書》(1995年)、《歐洲創新行動計劃》(1996年)、《歐洲創新趨勢圖》(2000年)、《研究與創新戰略》(2005年)、《2020戰略創新計劃》(2011年)。奧巴馬執政時期,美國發布了兩份《美國創新戰略》(2009年,2011年), 明確提出美國加速創新的戰略規劃和措施。特朗普執政后,美國對內重視自下而上的科技創新, 發布2018年財年預算藍圖, 對原有科技投入結構作出重要調整, 廢除《清潔能源計劃》《全球氣候變化計劃》等, 支持油氣和煤炭行業發展,對外則強推美國優先, 用力打壓其他國家特別是中國的科技創新, 以確保自己的優勢。
(二)中國科技法的興起和跨越式發展
中國科技法的發展沒有體現出上述三個階段的過程性。中國在前兩次工業革命中處于邊緣,某種程度上可以說是旁觀者。第三次工業革命興起之時,中國開始緊追,三步變成一步走。20世紀50-70年代,中國按照蘇聯模式建立科技體制,實行計劃管理,集中力量動員有限科技資源,解決一些戰略優先目標,成功發展核武器、空間技術和某些基礎科學領域。20世紀70年代末開始,中國啟動經濟體制改革,基于“科技是第一生產力”的認識,確立新時期“面向依靠”發展科學技術的新方針,即“經濟建設必須依靠科學技術、科學技術工作必須面向經濟建設”,并以此啟動科技體制改革,全面助力經濟體制改革。之后,科技政策又經歷了1995年實施“科教興國”戰略、加強國家創新體系建設和2006年“自主創新戰略”、增強自主創新能力的兩次提升。
中國科技法從改革開放開始得到重視和發展。20世紀80年代,中國開始積極制定《中華人民共和國專利法》(1982年)等知識產權法律,出臺《中華人民共和國技術合同法》(1987年)等技術交易法,建立旨在鼓勵、刺激科技發明和進步的科技財產權制度、交易制度,這些法律制度隨著改革開放的深入不斷修改和提升。自20世紀90年代 ,中國基于現代科技應用的工業化背景,制定和完善工業安全、勞動安全、事故管理、產品責任等法律制度,先后出臺《中華人民共和國礦山安全法》(1992年)、《中華人民共和國勞動法》(1994年制定,其中一章專門規定勞動安全衛生)、《中華人民共和國安全生產法》(2002年制定,2009年和2014年修訂)等。同時,中國也注意到與科技工業應用相關的環境保護、特殊技術安全等問題,出臺一系列的環境保護法和特種技術安全法。除交通安全、產品質量安全、食品藥品安全方面的法律之外,還包括《民用核設施安全監督管理條例》(1986年)、《中華人民共和國特種設備安全法》(2013年)、《中華人民共和國網絡安全法》(2016年)、《中華人民共和國核安全法》(2017年)和正在起草的《中華人民共和國生物安全法》等。中國科技法從20世紀80年代確立“面向依靠”發展科學技術方針以來,特別強調國家政策對科技進步、轉化、創新的作用,先后制定《中華人民共和國科學技術進步法》(以下簡稱《科學技術進步法》)(1993年制定,2007年修改)、《中華人民共和國促進科技成果轉化法》(以下簡稱《促進科技成果轉化法》)(1996年制定,2015年修改)等科技政策法,以國家政策支持、激勵引導的方式,促進科技研發、轉化、創新。面對新一輪科技革命,為提高科技創新的力度和強度,中國將提升科技創新能力定為基本國策,出臺系列政策文件或戰略綱要。
三、人工智能的科技法規范路徑
人工智能在本質上屬于科技事物,應當將其作為科技事物加以審視。一方面,人工智能通過機器學習技術具有認知能力。現在機器學習依托的方法,包括線形回歸模型、決策樹、貝葉斯網絡、人工神經網絡以及進化算法,加上傳感器與材料科學的不斷突破,人工智能的感知、移動和認知能力發展迅速。這種認知能力與人類獨有的綜合學習和高級推理能力具有相通性,并且有超越人類的趨勢。例如,2014年聊天機器人通過簡單的圖靈測試,2016年阿爾法圍棋擊敗世界圍棋冠軍。另外一方面,這種機器學習技術能夠形成的能力目前還只是“弱人工智能”,距離通用人工智能或者超級人工智能仍有相當一段距離。基于機器學習的人工智能缺乏人類具有的大背景和常識,尚達不到通用人工智能的高度,只適宜用于完成具體明確任務,如谷歌的搜索算法、蘋果的語音會話、智能手機的文字輸入預測、選擇性呈現網絡廣告、強化網絡安全、控制工業機器人、自動駕駛汽車、歸納文本信息以及診斷某些疾病等。
對于人工智能的規范思考,從回溯事物本源的意義上說,需要盯緊其作為第四次工業革命新興科技具有的科技本質屬性以及當前依靠機器學習發展認知能力的特殊性。首先,對于人工智能的規范,應當自覺遵循人類既有的科技規范路徑,充分利用現有的科技法加以規范評價。換言之,現在的科技法體系應該成為規范當前人工智能的規范體系。這是法治主義應該秉持的基本立場,“法治”從字面意思看就是法律的統治,即人們應當遵守法律。美國法學家哈耶克認為,堅持法治意義在于“規則的相當確定性使我們又可能預見權威在特定情況下將如何行使其強制性權力,從而根據這種常識安排個人事務”。現在的科技法體系,包含鼓勵科技發明和應用的科技市場法,如專利法和其他知識產權法、技術合同法、技術中介法等,包含管控工業和科技風險的法律,范圍涉及工業生產安全、勞動保護、事故責任、環境保護和特殊技術風險等,以及科技政策法即旨在促進科技進步、轉化和創新的法律政策。其次,對于人工智能的規范,又要注意科技事物的發展性和特殊性,由此對現有規范進行更新調整和特殊變化,以達到合乎時宜和具體合理。一方面,要體現人工智能的發展性,認識人工智能是當下的新科技,具有作為正在引領第四次工業革命的一種表征科技的定位,在與過去加以充分比較、對未來加以合理預測的基礎上,對其帶來的新發展、新問題加以規范。正如英國法理學家哈特所說:“人類的法律創制者們,不能夠預見到所有未來可能發生的相關情形。這意味著,所有的法律規則與概念都是‘開放的’,并且當一種未曾預見到的情形發生時,我們必須進行一個全新的選擇,并且以此改進我們的法律概念,使它們更符合社會所預期的目的。”另一方面,要體現人工智能的特殊性,在將既有科技法制度加以一般適用的同時,要善于認識人工智能的具體性規范要求,就此進行具體立法或者適用。這種具體性還體現在人工智能開發和應用功能的多樣性上,因此還應當做好基于功能區分的規范細分。人工智能新功能問世的速度日益加快,其不僅被用來分析和識別信息、物體,獲取數據,輔助決策,而且被應用于服務領域,如新聞、醫療、護理、會計、教學、法律、交通領域,或者被應用于工業領域,如獨立裝配汽車的工業機器人,甚至可能應用于警務和自動武器領域。這些基于應用領域和功能的不同,導致了合理規范需求的差異性。
四、科技法視野下的人工智能規范問題
(一)科技市場法語境下的人工智能規范問題
科技市場法,特別是專利權等知識產權制度以及技術合同、技術中介等技術市場交易制度等,對于人工智能具有基礎適用性,應該成為驅動人工智能技術進步和應用的基本制度。人工智能作為一種發展中的科技,是決定第四次工業革命的關鍵因素之一,具有為行業和社會創造巨大效益的潛能,因此有必要積極推動其發展,對此最有效的方式就是運用科技市場法的賦權、交易和轉化激勵機制。目前人工智能需要不斷完善,處于亟待著力開發和提升的時期,預計全球對于人工智能機器人的投入在2019年超過1 350億元。基于人工智能將對經濟、社會帶來巨大價值的認識,包括微軟、亞馬遜、臉譜、谷歌、阿里、騰訊、百度等在內的巨型互聯網企業,都在開發和研究相關的人工智能,研發投資不斷增加。其背后的動力,取決于法律對于這種投入及回報提供的支持和保障。
然而,具有特殊性和發展性的人工智能與現行科技市場法的有關規定難以完全契合。人工智能的研發和應用產生許多新的規范問題,需要及時研究和跟進立法。首先,關于人工智能的技術改進往往體現為學習方法、進化算法等方面,這些方面在現在的專利體系下很難獲得專利授權。其次,現行的技術交易主要是通過合同交易來完成,而人工智能價值實現的方式更多依賴于合作、協同應用,通過動態的系統嵌入運行來實現其價值功能。再次,人工智能技術專業性極強,需要促進相關專業技術市場的發展來重點引導不同類型的創新型技術市場的發展,如美國國家技術轉移中心、英國技術集團、德國弗朗霍夫學會、日本技術研究所等實體技術市場以及歐洲的創新驛站等網上技術市場。最后,也是最重要的,人工智能的開發和應用依賴于數據資源。例如,歐共體委員會發布的《關于歐洲合作智能交通系統戰略協作、連接和自動移動性的決議》就提出:“個人數據和隱私保護是自動駕駛汽車成功部署的決定性因素,必須使用戶確信他們的個人數據并非商品,用戶能夠有效控制數據的使用方式和目的”。目前,很多具有創新力的機器學習研發工作主要由著名大學研究機構或大企業承擔,它們的優勢在于能夠獲得數據資源,其中很大一部分是可公開數據資源,當然這也是目前許多人工智能可驗證和可確保透明度的前提。但是,這顯然是不夠的。那么,如何確保人工智能創新中的合理、充沛的數據資源來源呢?此外,人工智能應用也要求用戶使其數據處于有序狀態,確保人工智能應用中的相關專有數據得到適當的整理和保護,那么如何做好這些數據的管理工作呢,其法律依據何在?實踐表明,目前應用者主要依靠開發特定的人工智能系統來協助檢索、挖掘并整理公司系統和服務器的數據,從而達成機器學習的先決條件。現在的科技產權制度并沒有解決這些問題,亟待從人工智能研發和應用的合理需要的具體角度做出相應完善。
(二)科技風險管控法語境下的人工智能規范問題
現有管控工業風險、勞動保護、事故責任、環境保護和特殊科技風險的科技風險法律制度,對于人工智能同樣具有可適用性。人工智能作為科技,無論其開發還是應用,同樣存在安全、災害和特殊技術風險問題。同時,人工智能還具有獨特的科技安全和風險問題,因此需要特殊應對。第四次工業革命及其科技挑戰,至少面臨以下幾個問題:(1)如何確保合理分配第四次工業革命的效益;(2)如何管理第四次工業革命的外部性效應特別是控制風險和傷害,包括針對弱勢群體、自然環境和未來世代的保護措施,以防范意外后果、變革成本、次生影響或蓄意濫用新技術等問題;(3)如何確保第四次工業革命及其科技開發和應用由人主導、以人為本。這些是前三次工業革命時代科技立法考慮不多的。筆者認為,就人工智能科技的特殊研發和應用而言,目前至少面臨5項特殊安全或風險問題。
第一,人工智能不確定的技術風險。目前人工智能的方法在結構上還不夠完善,今后也不可能百分之百完善,可見技術風險不能避免。因此,在人工智能運用中,要特別注意防范這種不確定的技術風險。應當在設計和應用人工智能時,同時配套安全保障;在重要領域部署人工智能時,要做到確保其具有支持業務穩定、持續運行的性能,并保證安全技術措施同步規劃、同步建設、同步使用。鑒于人工智能技術的特殊技術風險,尤其要避免技術誤用,因為一旦出現錯誤的匹配、錯誤的輸入,可能產生難以預計的后果。例如,在一次德國的人機互動中,協同工人因誤用而導致被工業機器人打死,這既有誤用的因素,恐怕也有技術安全設計的問題。
第二,人工智能偏離設計應用的風險。人工智能的行動、決策是否保證其與設計者的目標一致,或者保證始終與控制者合作,都需要依靠技術本身,但現在的技術并不能保證萬無一失,尤其目前機器學習技術并不能確保人機協同的絕對可預定性,更不能保證人機價值觀的一致。如果不加以風險管控,一旦偏離目標,后果不堪設想。例如,如果警務機器人的設計者發生偏離,可能錯誤擊斃可疑人員。越是讓人工智能執行復雜系統的工作,如管理交通、監控安全,就越要注意這樣的風險。目前的一種策略是,在設計時強化安全倫理,即所謂的機器人原則,但問題是這仍然只是一種設計而已,其在正常情況下固然可以更好地指導機器人行動,但并不能真正解決運行中的偏移。因此,正確的方法還應該包括增加對運行中的人工智能訓練,通過訓練和及時調整使技術設計的可行性轉化為行動的一致性。此外,還應該引入可檢驗、可修正、可控制的人工智能應用模式。
第三,人工智能被非法使用的風險。例如,企業通過人工智能運用進行歧視、不公平交易、竊取他人數據或者暗箱操作。歐盟數據保護委員會2015年11月發布《應對大數據挑戰:呼吁通過設計和可責性實現透明性、用戶控制及數據保護》,提出要重視大數據對窮人或者弱勢群體的歧視,并提出是否可以讓機器代替人類來做道德、法律等判斷的問題;美國聯邦貿易委員會2017年1月發布《大數據:包容性工具抑或排斥性工具?》,要求關注大數據中對于消費者的歧視和偏見問題,確保關于消費者公平機會的法律得到有效執行,同時防止大數據分析中采取歧視等不公平行為。又如,犯罪分子或恐怖主義使用人工智能或者欺騙、入侵、操縱、修改別人的人工智能。人工智能的非法使用,也可能體現在國際層面,如國家或個人開發不可信任或不加區別的人工智能武器。人工智能安全漏洞的嚴峻性也在不斷升級,一部分是因為人工智能使用者自身違規設計或應用導致的,也有相當一部分來自外部的不法行為。
第四,人工智能的社會風險。在經濟、管理和社會服務的許多領域,人工智能淘汰了一些工作崗位,給勞動力市場帶來影響和挑戰。例如,富士康在近年來有約6萬工人被機器人取代。這種風險還在擴大。人工智能的社會風險,廣義上還包括技術迭代導致的各種社會不適應。我們是簡單奉行物競生存論,還是應當也重視社會和諧價值?每一次工業革命都會導致劇烈的社會變化,有些人能夠適應變化,但也有很多人并不容易適應變化。而且,“我們并不能保證所有適應性行為都對世界或宇宙有益,有時這些行為也可能有害于我們的生活”。人工智能的社會風險,也包括新科技應用可能導致的社會分配公平問題。新的財富和福祉分配很可能并不公平,特別是財富和機會向少數人集中,導致新一輪贏者通吃效應。這種現象不僅存在于國內社會,也存在于國際社會。從國際社會而言,人工智能可能加大國家之間的極差。發達國家在享受人工智能發展福利的同時,應負有在維持和構建良好國際秩序的基礎上做好人工智能國際利益協調的責任。
第五,人工智能的倫理風險。人工智能是一種具有認知能力的技術,與人具有相通性。目前,人工智能技術雖然離通用智能特別是全智能還有差距,但在一些場景互動方面(包括游戲、客服查詢、醫療診斷、自動駕駛汽車導航)的表現已經接近人類甚至超過人類。認知能力原本是人類獨有,現在可以為人工智能所有,這種情況勢必導致出現與其他科技不一樣的倫理風險。人類倫理的一個根本追求是種的保全或者說的人自身的保全。如果下一波開發出仿真人或者超級智能,這個特殊的倫理問題就會更加嚴峻。這是人工智能特殊的技術風險之一。那么,我們可以在多大程度開發和應用這種具有認知能力的機器或軟件?假設目前還可以實施允許開發和應用的通用政策,我們是否需要就倫理風險達到某種級別的人工智能開發、應用和運行區別不同層次進行嚴格管控?是否可以賦予具有接近或超越人類認知能力的人工智能以完全自主決策的權力,因而也具有與人同等的刑法、行政法、民法主體地位?是否應當確保人類對于人工智能的可信任與合理期待?是否需要對人工智能植入某些必要原則、倫理標準并確保有效的運行監管?是否可以開發和部署負有特殊職能的警務機器人以及如何管控?是否可以開發和部署致命自動化武器或戰爭機器人以及如何管控?如何應對和救濟人工智能對倫理安全的威脅或損害?是否可以懲罰甚至“殺死”所謂“不法”或者“犯罪”的人工智能以及如何執行?現實中的人應該如何對待智能機器人?等等。這些倫理風險問題歸結起來,就是如何處理人類與人工智能的關系,應當建立何種人類與人工智能相處的基本規則,特別是與其中的機器人相處的基礎規則。這些問題越來越受到關注,不斷促成階段性的人工智能倫理政策或規則的形成。當前一種人本的、普惠的新科技思想正在興起,認為包括人工智能在內的第四次工業革命的技術應該具有價值取向,技術應當“賦能而非支配”,未來應當“由人類設計,造福于人類”,技術應當“使價值成為特點而非漏洞”,主張人工智能技術應該包含一整套假設、價值觀和原則,應當優先考慮社會價值觀,兼及利益相關者,服務于人民和社會制度。
美國科幻作家艾薩克·阿西莫夫早在1950年就提出用“機器人三定律”來防止機器人失控:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。可見,最早的關于機器人的倫理考慮只是希望機器人不給人類帶來傷害或威脅而已。后來,還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。今天,隨著人工智能的新一輪發展,關于人工智能的倫理問題,有了更進一步的認識。但是總體上,國際社會尚未形成適用于人工智能開發和應用的全球倫理規范。
2016年,美國電氣和電子工程師協會發布人工智能倫理報告——《利用人工智能和自主系統最大化人類福祉的愿景》,將人工智能定性為“社會-技術系統”,倡導深化價值觀。該報告提出發展人工智能的4項原則,即人類利益原則、責任原則、透明原則、教育和意識原則。2019年2月,美國總統特朗普發布第13859號《關于啟動“美國人工智能行動倡議”的行政令》,隨即美國國家標準與技術研究院在2019年8月發布《美國如何領導人工智能:聯邦參與制定技術標準及相關工作的計劃》,提出要確保使用人工智能技術的系統可靠、穩健、值得信賴。其中也明顯包含一些最低倫理標準,但主要還是集中在可安全信任的技術倫理問題,對于相關人文倫理關切尚欠明確。
為提升人們對人工智能產業的信任,在人工智能高級別專家組起草的支持下,2019年4月8日歐盟委員會發布《可信人工智能倫理指南》,明確可信賴的人工智能倫理準則,同時宣布啟動試行階段,并邀請多方面對該準則進行測試。根據歐盟委員會的解釋,人工智能的倫理問題有兩個必要的組成部分:一是應尊重基本人權、規章制度、核心原則及價值觀;二是應在技術上安全可靠,避免因技術不足而造成無意的傷害。“可信賴的人工智能”包括7個關鍵條件:人類的自主性和監督,技術的健全性和安全性,隱私和數據管理,透明度,多樣性、非歧視和公平性,社會福祉,問責機制。
2017年我國國務院發布《新一代人工智能發展規劃》(以下簡稱《規劃》),國家開始認識到人工智能發展可能引發方方面面的問題,其中包括倫理問題,提出要重視人工智能法律倫理的基礎性研究。2019年6月17日,我國國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》(以下簡稱《新一代人工智能治理原則》),提出人工智能治理的框架和行動指南,強調和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開發協作、敏捷治理8個原則,其中涉及倫理治理要求,重點在負責任。我國不少機構和企業做出響應,自動提出其倡導的人工智能倫理要求。但這些還遠遠不夠,距離真正倫理規范的明確性和合理性還有很大距離。
(三)科技政策法語境下的人工智能規范問題
科技政策法對于當前人工智能的開發和應用更加具有可適用性,這不僅僅是因為人工智能科技的發展與科技進步、科技轉化政策契合,更是因為其發展代表當前科技創新的重要領域和方向。在我國,《科學技術進步法》和《促進科技成果轉化法》提供的諸多進步機制、轉化機制固然對人工智能科技的開發和轉化具有支持意義,但由于尚存在許多體制障礙,特別是國有企業、事業單位科技成果的嚴格國有體制和國有資產管理體制,加上市場培育不夠,導致科技主體、動力、程序、保障等多方面的局限,嚴重影響科技進步和轉化,目前相關法律面臨修改、調整和完善。
人工智能科技政策所面臨的更重要的挑戰還是特殊化問題。人工智能作為一種全新的具有巨大應用價值同時又具有與人相通的認知能力的科技,應該采取何種科技政策加以促進和管控是一個復雜的問題;加上其本身還在不斷的動態發展之中,可以說充滿變數。鑒于人工智能獨特的發展態勢,可以考慮階段式立法和不成熟時授權政策試點的方式:一個階段之內已經達成共識的做法,可以通過修法加以確定;一個階段之內還難以明確但又急需明確的做法,可以通過授權專門部門采取出臺政策的方式進行探索。例如,美國學者雷恩·卡羅等認為,人工智能政策的核心問題應該包括:(1)正義和公平。包括應用中的不平等,如搜索引擎將工程師自動關聯為男性,將護士自動關聯為女性。(2)武力的運用。例如,如何決策人工智能武力的使用,誰為機器的決定負責等。(3)安全和資質。包括設置和確定安全門檻、上崗資質要求、網絡安全標準。(4)隱私和權力。人工智能基于模式識別能力、高度精細信息的部署方式等導致更復雜的隱私問題,企業和用戶不對稱關系導致數據不對稱或不平等隱患。(5)稅收和勞動力替代。(6)其他問題,如機構建設和專業知識、投資和采購、消除責任的障礙、人工智能的心理模型等。2016年美國發布的《為人工智能未來做準備》提出23項政策建議,包括鼓勵私立和公共機構研究是否以及如何以有利于社會的方式負責任地利用人工智能和機器學習,聯邦機構應優先考慮人工智能中的開放式訓練數據和開放數據標準,聯邦政府應探索提高關鍵機構將人工智能應用于其任務的能力和方法,美國國家科學技術委員會機器學習和人工智能小組委員會應為政府內的人工智能從業者建立一個實踐社區,在為使用人工智能的產品制定監管政策時各機構應利用適當的高級別技術專家、各機構應使用全方位的人事分配和交換模式(如雇用機構)來培養聯邦勞動力并使其對當前的技術狀況有更多不同的看法等。
人工智能對全球當下和未來的影響巨大,特別是形成較大的技術和社會風險,因此相關政策的考量更加復雜,也有必要提升層次。目前,發達國家無一例外都將人工智能的研究和發展提到發展戰略的高度,進行系統化的政策引導。一方面,人工智能被確立為科技創新的重點,并賦予其優先發展的戰略地位;另一方面,針對人工智能引發的技術、社會、國家安全和人類倫理等問題,引入風險規制政策,積極防范其負效應,趨利避害。隨著人工智能研發浪潮在全球興起,美國、英國、德國和日本紛紛將人工智能的研究和發展上升為國家戰略,相繼出臺相關戰略規劃,旨在爭奪人工智能產業技術制高點。2016年以后,各國人工智能研究和發展的戰略化推進更加明顯。
美國早在奧巴馬執政時期就開始研究人工智能的研究和發展戰略。2016年10月,美國發布《國家人工智能研究和發展戰略計劃》(號稱新的“阿波羅登月計劃”),旨在運用聯邦基金資助不斷深化對人工智能的認識和研究,從而使得該技術對社會發揮更加積極的影響,減少其消極影響,同時還發布《為人工智能的未來做準備》;2016年12月,又發布《人工智能、自動化與經濟》,提出應對人工智能驅動的自動化經濟是后續政府面臨的重大政策挑戰,下一屆政府應該制定政策,推動人工智能發展并釋放企業和工人的創造潛力,確保美國在人工智能的創造和使用中的領導地位。2019年2月11日,美國總統特朗普簽署《維護美國在人工智能時代的領導地位的行政令》,啟動“美國人工智能倡議”,旨在從國家戰略層面調動更多聯邦資金和資源用于人工智能研發,應對來自戰略競爭者和外國對手的挑戰。2019年2月12日,美國國防部發布《2018國防部人工智能戰略概要:利用人工智能促進安全與繁榮》。2019年6月,美國白宮更新《國家人工智能研究和發展戰略計劃》,將政府人工智能研發戰略重點擴展至8個。
2018年3月27日,歐盟委員會下屬歐洲政治戰略中心發布《人工智能時代:確立以人為本的歐洲戰略》,介紹歐洲人工智能發展,提出歐洲應采取的對策;2018年4月25日,歐盟委員會向歐洲議會、歐盟理事會等提交《歐盟人工智能報告》,描述歐盟人工智能在國際競爭中的地位,制定2018-2020年以及未來10年歐盟人工智能行動計劃,提出三大目標,即“加強公共部門和私營部門人工智能投資,增強歐盟的技術與產業能力,推進人工智能應用”“為迎接社會經濟變革做好準備”“確立合適的倫理和法律框架”。英國在2016年先后發布《人工智能對未來決策的機會和影響》和《機器人技術和人工智能》。2017年11月,英國發布《產業戰略》,提到“人工智能與數據經濟”的挑戰;2018年4月26日,美國發布《產業戰略:人工智能領域行動》,并就生產力基礎領域制定具體行動措施。2018年11月15日,德國發布人工智能戰略,提出“人工智能德國制造”,全面思考人工智能對社會各領域的影響,定量分析人工智能給制造業帶來的經濟效益,重視人工智能在中小企業中的應用,并計劃2025年前在聯邦層面投入30億歐元用于發展人工智能。
我國自2015年以來就開始出臺政策支持人工智能發展。例如,《規劃》旨在搶抓人工智能發展的重大戰略機遇,構筑我國人工智能發展的先發優勢,加快建設創新型國家和世界科技強國。《規劃》提出面向2030年我國新一代人工智能發展的指導思想、戰略目標、重點任務和保障措施,提出“三步走”戰略目標:即2020年實現“人工智能總體技術和應用與世界先進水平同步”,初步建成人工智能技術標準、服務體系和產業生態鏈,人工智能核心產業規模超過1 500億元,帶動相關產業規模超過1萬億元;2025年,人工智能產業進入全球價值鏈高端,人工智能核心產業規模超過4 000億元,帶動相關產業規模超過5萬億元;2030年,人工智能產業競爭力達到國際領先水平,人工智能核心產業規模超過1萬億元,帶動相關產業規模超過10萬億元。《規劃》要求應對挑戰,確保人工智能安全、可靠、可控發展,提出要重視人工智能法律倫理的基礎性研究。《新一代人工智能治理原則》則提出人工智能治理的框架和行動指南,積極推動人工智能全球治理。
五、結語:加快制定人工智能科技特別法
人類社會總是在向前發展,特別是基于科技革命而進入工業文明之后形成迭代發展態勢,到今天則呈現加速迭代發展之勢。在這種情況下,法律本身也出現不斷發展、迭代發展和加速迭代發展的特點。但是,值得注意的是,法律的每個階段發展,或者是每個方面的發展,始終以一種維護法律穩定性的方式進行并遵循自身的體系軌跡,不到萬不得已,通常不會也不該完全打破既有體系進行重構。舊法與新法的關系,就好比維特根斯坦所提出的“繩索論”,每一截新的繩索與前一截可能并不相同,但卻相互聯系著,構成一種“家族相似”性。
當前的人工智能立法也是如此,我們應該以一種歷史與當下聯系的發展思維加以對待。人工智能今天已發展到機器學習階段,正在發揮著作為第四次工業革命表征科技的巨大作用,同時因其具有與人類相通的認知能力的特點,產生了與人類命運的特殊倫理關聯。在這種意義上,人工智能發展勢必引發如何跟進合理規范的問題。人類自工業革命開始,就在普通法律之外注意到科技作為特殊規范事項的獨特意義,并發展出專門的科技法,這體現為從科技市場法到工業生產安全法、事故責任法、特殊科技風險法再到科技政策法的不斷疊加,多次迭代發展形成具有穩定價值和內容的規范體系。基于人工智能作為科技事物的本質,應當將其納入科技法范疇加以評價,在因循現行科技法的基礎上,以正確的發展思維合理探索具體的發展路徑。
人工智能作為新興重大科技,正在以其非同尋常的發展潛力和特點,重新塑造社會生產和生活方式,改變財富分配和社會組織方式,挑戰人與人造物的既有關系。這種改變和挑戰,隨著人工智能技術和人工智能認識能力的不斷提升也在不斷升級,進而導致規范發展和應對的迫切性。人工智能需要規范的新問題可謂巨量,而且還在不斷增加。筆者建議盡早制定專門的人工智能法,以人工智能科技作為特殊規范對象,并將其作為科技法的特別法而定位,從人工智能的科技市場、科技風險和科技政策等具體問題入手,通過對既有科技法價值的繼承和發展,對既有科技法規則進行優化和調整,形成一套專門適用于人工智能研發和應用的具體規范體系,以備現實人工智能法律實踐所需。其中,人工智能立法的倫理性具有前所未有的復雜性,具體表現為如何確保人類自身不受危害和威脅的需要。我國目前已經將人工智能立法項目納入立法規劃,值得拭目以待。
作者:龍衛球
來源:法商研究雜志
本文章僅代表作者個人觀點,不代表本賬號的觀點與看法。
免責聲明:文字僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯系我們以作處理。本聲明未涉及的問題參見國家有關法律法規,當本聲明與國家法律法規沖突時,以國家法律法規為準。
更多法律資訊和優質課程的獲取,歡迎關注法寶學堂公眾號(ID:PKUFBXT)!
版權聲明:本文內容由互聯網用戶自發貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發現本站有涉嫌抄襲侵權/違法違規的內容, 請發送郵件至 舉報,一經查實,本站將立刻刪除。