摘要:人工智能誕生以來的海量技術創新突破,催生其從一個邊緣性學科成為學術界、產業界關注的焦點,并成為各國的關鍵戰略技術,各國政府也相繼出臺了規范人工智能發展的相關規制政策以應對風險。近期,火爆出圈的“新物種”ChatGPT顛覆了人與技術的關系,其“自主學習”特質更是引發了學者們的種種擔憂,圍繞人工智能是否會威脅人類這一時代命題進行了深入探討。而人工智能發展的政策規制面臨由于技術的不確定所引發的社會風險、政策制定者預測未來所需的各種信息及知識不足的風險、政策滯后性風險等問題,使政策效果預期與運行結果產生偏差。因此,如何規范人工智能發展政策的決策程序并提升人工智能政策的理性水平是解決現代社會技術風險規制的重要課題。
關鍵詞:人工智能;政策制定;風險;治理;ChatGPT;
近年來,人工智能作為一種具有廣泛應用前景、深刻改變世界的顛覆性技術已深深嵌入人們的生活。智能時代、智能社會已成為當今時代的顯著代名詞,但隨著人工智能的快速發展,與之伴生的相關問題不斷凸顯且日漸引發人們廣泛討論。擁有超強人工智能語言處理能而瞬間成為全球熱點的ChatGPT,不僅可以檢索信息,還可以聊天、撰寫論文、文學創作等,代表著新一代聊天機器人的出現,更是信息產業的巨大變革。正如其它計算機程序一樣,并不完美的ChatGPT同樣存在諸多技術濫用風險和道德困境。究其原因:人工智能技術指數級迅猛發展與人們的思想觀念、政策取向、倫理規制等之間的非協調性,導致人類在享有技術便利性的同時,也面臨著系列不確定性風險。這些不確定性可能由于人工智能帶來的巨大經濟利益而被人們視為正當化,如何消減和平滑這些不確定對經濟、教育、社會所帶來的巨大沖擊,已成為現今人工智能政策研究領域所探討的緊迫課題,F有文獻對人工智能的研究大多從倫理和哲學的視角切入,而較少從政策和治理層面進行探討。本文旨在分析人工智能的不確定性特質,審視人工智能政策在制定過程中所帶來的一系列風險問題,為政府在制定、整合和改進人工智能政策方面提供理論借鑒。
一、人工智能風險的技術審視
人工智能是指通過分析其環境而具有一定程度的自主性行動,以實現特定目標而顯示智能行為的系統。1近來研究更趨向于將人工智能定義為建立在現代算法基礎上,以歷史數據為支撐而形成的具有感知、推理、學習、決策等思維活動并能夠按照一定目標完成相應行為的計算系統。2目前眾多基于人工智能的系統已廣泛應用如搜索引擎通過處理海量數據,將原本混亂的互聯網以人類可理解的、可感知的形式呈現出來;無人駕駛通過傳感器感知環境而實現轉向、加速和制動。這些為增強與替代人類的活動和任務提供了變革潛力,逐漸提升了人類的感知、思考和對世界采取行動的能力。
人工智能具有以往技術無法企及的增強人類活動的特點,且在某種程度上以獨立的、不可預測的方式通過采取精準行動而做出決策。一些學者認為,以大數據和算法匹配的人工智能正在不可逆轉地重塑人類生活、工作和交往的方式,但與此同時也帶來了公共安全風險、算法偏見問題、責任倫理問題等一系列的挑戰。3回溯人工智能發展歷程,不管是符號主義、聯結主義還是行為主義,其發展的核心是由數據驅動算法的不斷升級和優化。數據是“基本驅動力”,4而算法是“一種有限、確定、有效并適合用計算機程序來實現的解決問題的方法”。5從技術底層邏輯來看,人工智能存在的不確定性風險主要來源于數據與算法:其一是數據的不當收集和處理。人工智能的發展以海量信息作支撐,各類數據信息采集覆蓋于數字化空間中,如個人身份、網絡行為等。如不采取合理的治理措施,人類將面臨隱私“裸奔”的尷尬局面,進而觸發極大的倫理風險。其二是算法內在缺陷及其不當使用。在技術層面,算法就是一些復雜的電腦代碼程式,并不具有情感或價值偏見,但是由于在編碼、運用過程中離不開設計者和開發者的主觀意志,有可能將個人情感、社會觀、價值觀嵌入技術中,造成如算法失算、算法歧視、算法“黑箱”、審查難等問題,6從而導致人工智能的“脫靶”現象,即背離既定的正面目標而產生相反的破壞活動。像ChatGPT,其強大的信息檢索和數據存儲功能確實給人類生活、工作帶來了福祉,但如不對輸出加以控制,可能生成種族主義、性別歧視之類有偏見的內容或有害指令信息,擾亂社會公平和正義。如貝克所言:“這個社會在技術上越來越完善,它甚至能夠提供越來越完美的解決辦法,但與此息息相關的后果和種種危險卻是受害人根本無法直覺到的。”7
二、人工智能規制政策制定面臨的風險
人工智能風險是指因人工智能技術自身的不確定性所導致的人類經濟結構、社會秩序、倫理道德乃至生存安全等方面的可能性后果。8可以預見,在未來幾年甚至幾十年,人工智能的復雜性和社會影響度都將大大增加,由于涉及一系列不易定義衡量、多樣化的社會需求及相關利益的博弈,制定相關政策時面臨諸多風險和挑戰,包括在決策過程中應考慮哪些類型的風險,如何平衡多重風險之間的相互關系,政府如何確保人工智能將使多數人受益而不是少數人,等等。但是由于政策制定者一方面對什么是“人工智能”以及“人工智能政策風險”的認知存在著不確定性,另一方面由于政策制定者預測未來所需的各種信息和知識的不足,以及人類認知理性的不足,使預期與未來結果產生一定的偏差,因而風險不可能完全避免。對于上述問題,并不能通過某種機械過程加以解決,而需要對政策目標、國家和公民社會的作用和責任進行民主反思。9
1.規制政策制定前的人工智能潛在風險評估
威廉·奧格本(W.F.Ogburn)曾指出,社會需要時間來適應重要的科技變遷。10現今人工智能技術改變人類社會的步伐已超越人們的想象,但社會卻無法針對快速發展的智能技術所帶來的現實風險進行即時調試與修正,面對人工智能可能導致的工作崗位不斷消失、隱私安全的破壞、社會階層的不平等等逐漸呈現出的社會問題與潛在沖突,以及圍繞在人工智能技術發展中的倫理爭議問題,決策者在政策制定中必須予以考量和有效解決。
(1)人工智能帶來的就業替代和社會秩序沖擊。
隨著自動化和先進機器學習技術的新浪潮涌現,智能機器將越來越能夠執行高技能和非常規的任務,人工智能系統在我們生產生活中的廣泛應用在帶給我們便利的同時,也加劇了人們對勞動力替代問題的擔憂。11人工智能的顯著優勢在于可以克服一些計算密集型、智力甚至是人類創造性方面的局限,在教育、醫療、金融和制造業等領域開辟新的應用,從而對生產力和績效產生影響。自動化、智能化技術加速普及的趨勢意味著人工智能正取代許多產業領域特別是服務部門的勞動力,最終實現生產力的提高,并伴隨著大量“技術性失業”。因此,人工智能廣泛運用于經濟社會的各個領域可以大幅提高生產效率,其所帶來的表象后果是就業崗位的流失,更為深層的影響是就業性質的變化、工作的可靠性和工作崗位的質量下降以及社會流動性的缺乏等等,而這些都會引發人們的擔憂和不滿,帶來社會秩序的不穩定。
(2)人工智能帶來的隱私困境和私域數據產權侵犯。
隱私原意是指不愿他人知曉的私人信息,且與他人和社會利益無關,即“不受干涉或免于侵害的獨處的權利”。12進入以數據和算法為核心特征的智能社會,數據成為信息的一種表達方式,而智能社會的內在本性是不停“追逐”數據,即“從一切事物中提取盡可能多的數據,特別是關于個人特殊信息的數據”。13面對一切可數據化、可計算的世界,包括人在內的一切變成數字、符號,表達個體獨特屬性的隱私被完全數據化,個體信息由“私密”走向“公開”,導致信息共享與隱私保護間的平衡受到沖擊。如智能家居遠距離的數據控制使私人領域受到威脅,個體生活處于邊沁所描述的布滿監視的“全景式監獄”場景。
人工智能背景下,置身于智能社會的人們每日向服務商提供可以永久保存的海量數據,引發公眾對人工智能設備的安全性、數據匿名性、保密性和完整性的擔憂。以追求商業利潤與機會為目標的企業必將利用大數據關聯技術,確定零星數據之間的潛在聯系而進行精準營銷,人們的身份、家庭、行為、偏好等等高度細化的私密性數據可能會被存儲在人工智能網絡中并被共享使用。更為突出的問題是,目前數據的法律歸屬問題并未明確權責,且大量數據收集行為是私底下完成的,從而帶來一系列用戶數據隱私和數據權益保護問題。作為變革性機器人的ChatGPT借助海量數據庫而存在,如需獲得良好的功能性,它必須收集足夠多、足夠新的知識和信息。一旦ChatGPT在收集、處理數據信息時出現未授權或超范圍使用情況,個人隱私、商業機密等重要信息將不可避免地被泄露,并有可能產生違法犯罪行為。這給人工智能政策帶來的困境是,如何激勵技術、法律、社會和其他干預措施加以治理的同時確保人工智能民主化的過程中也能保障隱私。14
(3)人工智能帶來的數字鴻溝和社會不平等的加劇。
“數字鴻溝”一詞最早來自《洛杉磯時報》,意指 “信息通信技術在普及和使用中的不平衡現象,這種不平衡既體現在不同國家之間,也體現在同一個國家內部的不同區域、不同人群中”。15以數據、算法為基礎的人工智能革命,技術更迭所帶來的福利已嵌入人們的生活,但信息技術、互聯網和數字化普及率較低的群體將難以甚至無從獲得技術的溢出效應。由于個體間對技術、知識等享有的差異決定了技術“紅利”并不會普及到每個人,社會的不平等、數字鴻溝將產生負向累積循環。如果說以往數字鴻溝關注點是經濟、社會地位的分化等方面,那么人工智能廣泛參與人類生活則可能出現“智力”上的分化,一方是極少數能掌握人工智能開發和運行的技術精英強勢群體,另一方是不能掌握或熟練運用智能的大眾弱勢群體。伴隨著人工智能技術和知識的不斷更新,相比大眾弱勢群體,技術精英群體更能緊跟技術發展的步伐,原本就不熟悉人工智能技術的大眾弱勢群體會不自覺地規避這些知識,陷入自我認知下沉和惡性循環的境地。
人工智能在加大個體“智力”分化同時,會影響社會公平與公正,最終導致社會等級的分裂。在以數據和算法驅動的技術革命中,擁有高質量數據的群體將從這場革命中獲得最大的收益,而不能擁有高質量數據的群體將逐漸被社會所拋棄。也就是說,人工智能可以創造新的社會模式,但如不加以合理調試,就會嚴重破壞社會結構,一些沒有擁有高質量數據的群體或者缺乏相關知識的群體可能失去勞動的價值,而被邊緣化或被智能社會所排斥。“數字鴻溝”“數據赤字”和“數字窮人”將會成為智能社會難解的社會困境,擾亂社會秩序和等級制度。像“數字窮人”可能成了美麗新世界“多余的人”,他們被高度發達的智能社會無情地拋棄了,存在變得沒有意義、荒謬化了。16
2.規制政策制定中的信息不對稱問題及風險界定
為消解人工智能風險,政府需要對人工智能的研究和應用制定科學的、安全的標準或準則。但這些規制準則是否具有科學、安全的價值判斷,涉及特定風險背后的因果邏輯聯系知識,其前提是政策制定者應具有判斷人工智能究竟是否會對公眾安全造成危害的因果關系的能力,F實情形是政策制定者并沒有積累處理技術發展相關問題的知識和經驗,往往是在一種信息不對稱、不確定的情境下制定政策。從而形成不同專家群體間的意見沖突,造成相關利益群體間對抗的局面,不利于政策出臺和預期效果的實現。
(1)人工智能技術專家和政策決策者之間的信息不對稱。
政策決策者與專家之間呈現一種現有理論體系都無法揭示的復雜關系,其中包含了許多權變因素,從而無法建立一個關于決策者運用專家知識的綜合模型。17雖然人工智能已無縫連接我們的生活,但很少有人清楚地了解人工智能這些“深度學習”算法是如何影響他們決策的,即使決策者也缺乏必要的專業知識,導致難以在這樣一個深度技術化的世界中去有效治理社會。這些信息與知識更多地掌握在人工智能相關專家以及人工智能系統的供應商手里,他們比政策決策者和公眾擁有了更多的信息。如果政策決策者不能從一開始就清楚地確定或評估人工智能的潛在風險和所需的控制措施,政策決策者和技術專家之間的信息知識差距就可能導致政策的有效性大打折扣,不利于政策規制充分實現其效能。正是由于對人工智能技術及其理論的了解有限,政策決策者在界定他們試圖解決的問題以及確定哪些問題是重要的方面時可能會遇到困難,這可能會帶來喪失機會和低效使用資源的問題。即使準確地識別了正確的問題,也可能會提出無效或繁瑣的解決方法,這給政策制定者圍繞人工智能的制度配置與供給帶來了嚴峻挑戰。
(2)不同領域專家群體之間的信息不對稱。
人工智能政策的制定需要確保在制定政策的過程中充分吸納不同專業領域的信息和知識。如2018年,歐盟組成人工智能專家組(HLEG),其成員為來自工業界、學術界和民間社會的52名專家,包括倫理學家、律師、機器學習研究人員等其他利益相關者。18大多數情況下,由于不同領域的專家接受的是各自學科體系的方法訓練,缺乏一致性的研究范式,常常會在政策決策中產生意見分歧。以人工智能駕駛的“安全”為例,由于技術專家和人文社會科學學者對安全閾值的認知不同而無法達成共識,易產生“模糊邊界”。人工智能技術專家通常認為他們可以完全掌控技術的發展走向,技術的進步可以解決智能駕駛安全的具體技術問題,對于技術之外像社會影響之類的問題卻較少考慮。人文社會科學學者卻主張智能駕駛需要解決的不單單是技術問題,而且涉及價值、文化、經濟等因素的問題,需要倫理學、法學、政治學等領域的相關知識,F實的困境是長期以來科學技術與人文社會科學研究的分離,以致信息、知識的不對稱將阻礙政策制定中潛在重要信息的流動和交互,從而導致理解障礙和政策制定風險。
3.規制政策制定后的滯后風險問題檢視
政策制定一般是指政策主體、利益群體間不斷互動、不斷博弈的過程,由于利益群體間的信息不對稱、政治力量的不均衡,極有可能出現過程或結果上的偏差,導致政策滯后效應——“從政府為實現某種目標,決定實施某種政策到該種政策對經濟活動產生實際影響之間的一段時間間隔,導致計劃或政策與經濟活動之間出現因果不同步現象。”19
(1)動態最優政策的內生滯后困境。
政策制定是一個時間過程,從政策提議到一個完整的政策出臺,包括政策咨詢、政策論證等多項議程。任何新技術的發展政策制定都是基于某個時間點而對未來所作的決策,基本規則是依據現有信息對未來后果的認知來進行決策。如馬克·塞特菲爾德所言:“由于一個變量的過去值對已定的外生變量、系數及結構方程有影響,而且已定的外生變量、系數及結構方程又賦予了決定此變量的系統以特征。因而,當一個變量之長期值依賴于這一變量的過去值時,滯后就出現了。”20此種決策在邏輯上存在一定的風險,未來是變動不居的,此時合理的政策未必在未來就合理,技術的快速發展極有可能會對現有決策基礎造成沖擊。如果決策時間過于冗長,政策制定機構間未有效溝通,就會出現時滯現象,從而在影響政策執行力的同時,造成執行結果偏離決策,增加公眾利益損害的風險。伴隨著人工智能技術的快速發展,現在被認為是安全的準則,未來則可能被認為過于嚴格或過于寬松,也可能由于技術創新而出現更安全與有效的技術。政策的內生滯后困境使得人工智能規制政策難以跟上技術進步的節奏。
(2)人工智能規制政策的特殊時滯風險。
政策決策的過程中一般會出現諸多偏離原有因果關系的現象而產生政策滯后的風險,如決策者的非理性、政策訴求溝通不暢、市場失靈等,但有時政策滯后更多的是由于時間問題而造成的時滯現象。面對邊界無定形、不斷發展的人工智能,時間問題所導致的政策滯后風險是政策者面臨的一個困境,具體表現在以下幾方面:一是人工智能新型技術不斷涌現,政策滯后可能會使事前監管的所有嘗試完全落空,失去最好的治理時機,對社會、經濟等發展產生一定的風險;二是時間問題所導致政策偏離使公眾的訴求沒有得到回應,政府的合法性基礎會遭受質疑;三是由于制定時未考慮政策環境的反復變化,在政策實施階段加大順利實施的難度,可能會出現滿足一部分政策訴求的同時無意中阻礙了另一種人工智能應用的發展,并導致意想不到的后果。政策的滯后性不可避免,為防止出現這種尷尬的局面以及更好地實現人工智能政策目標,需要建立動態反饋評估機制予以治理,及時調整或終結無效的人工智能規制政策。
三、人工智能風險多元治理機制政策選擇
目前,人工智能風險已然成為社會和政策關注的焦點。當技術的快速發展已超越政策制定群體所能把握其內涵、評估其風險的能力之時,政策制定過程中人工智能風險已不再是一個技術知識問題,而是技術社會化后所產生的經濟社會問題。對于決策者而言,以上種種由人工智能的運用所引發的風險并不是被發現而是被建構出來的,需要從倫理準則、治理模式、決策機制等多層次構建體系化的風險治理機制。
1.嵌入責任倫理準則,建立政策評估原則
倫理是政策的價值基礎,人工智能政策制定中嵌入倫理準則是政策發揮作用、實現政策目標、體現政策價值之所在。每一項技術通常都具有一定的價值負載性,所以探討人工智能而引申參與決策主體的倫理責任是治理機制的必然。
(1)責任倫理在人工智能政策制定中的先導性。
責任倫理最早由馬克斯·韋伯提出,真正將責任倫理賦予時代特征的是哲學家漢斯·約納斯。與傳統責任倫理不同,約納斯的責任倫理既是“‘責任’精神在倫理學中的復歸,又具有朝向‘未來’的向度”,以此來直面現代技術的挑戰。21其核心觀點認為,在技術的框架內并不能克服技術的風險和危險,對技術本質的認識以及對技術的警惕是責任倫理首要的任務。22約納斯在主體性反思的基礎上對責任主體賦予了新的“前瞻性”倫理價值觀,即責任主體不僅需要對當前行為負責,更需對未來負責。因此,在政策制定中“技術先行”的做法并不可靠,以責任倫理作為制定人工智能政策的先導性準則必須嵌入政策評估的各個環節,明確各參與主體責任,自覺認同、遵守人工智能相應的倫理規范,如此方可有效化解人工智能的潛在風險,實現技術的可持續創新。如歐盟制定的《值得信賴的人工智能倫理準則》,以“以人文本”基準,強調人工智能本身不是目的,而是一種有前途的工具,可增加人類的繁榮,帶來社會的進步與技術的創新。23
(2)構建人工智能政策評估的四大原則。
通常意義上,政策的制定一般由政府、公眾、社會組織、科學共同體等參與決策,由于各主體的文化背景、倫理觀念、價值判斷標準各異,對技術進行評價的過程中往往會出現分歧而影響決策。這就需要在政策設計中構建以責任倫理為核心的倫理準則,凸顯責任意識的倫理訴求,便于各方主體達成共識,克服人工智能發展與倫理間的斷裂。倫理準則以 “應該做”“可以做”“如何做”為指向,在人工智能政策和倫理間搭建一座橋梁,強調和遵循四大原則:一是公眾利益優先原則。這是最基本的一條倫理準則,也是最高準則。人工智能政策的價值目標在于為人類謀求福利,實現受眾利益的最大化,同時減小其潛在的成本和風險。二是預防性原則。這是指如果某項技術會給人類帶來某種傷害,那么此項技術最好被限制或不允許,除非技術設計者能證明其不會對人類、社會、文化等造成任何傷害。預防性原則表明政策制定者以理性、積極的方式關切技術的風險,而不是在無視風險的情況下決策。三是公平正義原則。其目的是最大化實現政策資源的合理有效分配。最大程度化解數字鴻溝、數字窮人等社會不平等現象。四是可持續原則。在對人工智能引發的倫理困境予以收益、 安全、風險評估審查的基礎上,要確保個人和社會的福祉和共同利益,實現技術的可持續進步和推進最具前景的創新研究。
2.構建協商民主機制,實踐風險協同治理
詹姆斯·N.羅西瑙(James N. Rosenau)認為,治理是政府、公眾、社會組織、科學共同體等多元主體共同參與,通過平等的合作、協商、對話等方式解決科技問題的持續互動過程。24因此,治理是關于在多元觀點和利益背景下“國家行為者”和“社會行為者”間互動和協調的機制,旨在規范社會關注的風險問題。由于新興科學和技術的未來發展、社會效益和風險的不確定性,政策制定過程中越來越多的行為者共同參與治理,以共同促進技術發展。如,2009年歐盟發布的《未來和新興技術》《在以人為中心的人工智能中建立信任》《一個良好人工智能社會的倫理框架:機遇、風險、原則和建議》以及《人工智能協同計劃》等設計的諸多相關倫理規范和政策都是各方利益主體共同參與制定。這表明,應對技術風險的治理機制在由單一政府主體轉向多元主體參與,通常是于對話、協商甚至競爭、相互博弈中尋找最佳的解決方案。25
(1)協商民主機制的政策訴求整合效應。
協商民主(deliberative democracy)產生于20世紀后期,政治哲學家約翰·羅爾斯、德國哲學家于根·哈貝馬斯是其代表人物,其“民主性”體現在“集體決策過程中所有受其影響的各方代表都能夠參與進來”。26人工智能規制政策涉及多元利益主體,政策制定不能是政府單一主體行為,需要我們改變傳統意義上政府統攬資源和權力的治理模式,以更好地滿足多方主體的政策訴求。與代議制不同,協商民主能夠有效回應多元文化間對話和多元社會認知的某些核心問題,27在尊重公民社會公民權利的基礎上,各利益相關方通過平等和自由的商談、審議等方式參與到公共決策中,力求達到一個比較合理的政策共識和各方訴求的“最大公約數”。就我國政策實踐而言,參與政策制定的主體仍是由政府主導的一元體制,雖已成立諸如人工智能專家委員會、醫學倫理專家委員會等各類專業委員會就新興技術的發展問題展開跨專業的合作與協商,但無論是技術專家還是公眾在參與深度和廣度方面還不夠,仍處于決策的外圍。因此,我們要探索和推行協商民主機制,以此整合政策制定過程中各方訴求,最大程度規避風險危機。
(2)人工智能風險協同治理機制的實現路徑。
智能時代構建協商民主機制可以從以下方面著手:一是建立以政府為主導,由科學共同體、企業、公眾、社會組織等多元主體組成的專家咨詢委員會,尤其是提高公眾和非政府組織的參與力度,借力于協商使來自不同行業、階層的專家關注人工智能的風險本質,以社會理性能接受的程度作為人工智能政策決策的基礎,消解人工智能對社會的各方面沖擊。二是建立面向專家咨詢委員會的聽證、咨詢以及協商機制和有效的信息溝通機制,為各主體參與協商提供保障,如制定咨詢委員會職責條例、定期信息通報制度等。三是將網絡、人工智能等新技術嵌入民主協商。在實踐性、信任感和民主供給層面深刻改變協商民主的運行機制的同時,28優化參與協商民主途徑,降低協商的交易成本,提高協商民主的效率。如通過網絡、數據挖掘、人工智能等技術手段收集、處理和分析公眾意見,實踐“網絡協商”和“微協商”,不僅可彌補場外公眾“缺場”,且可利用算法對數據求得最優結果,保障協商的有效性和可靠性。
3.建立決策評估反饋機制,動態跟蹤調整政策
完整的政策過程由政策制定、執行和評估三個環節組成。做好政策后續跟蹤評價,建立動態的反饋機制對現行政策予以調整和修正,是政策管理的重要環節,有利于改變“重決策前評估、輕決策后評估”,“重風險評估、輕跟蹤評估”等弊端。
(1)人工智能規制政策的動態性原則。
林德布洛姆認為政策制定是制定者對政策不斷補充和修正的動態“過程”。“政策不是一經制定就一勞永逸了的,它必須要永無止境地加以制定和再制定,制定政策是一個對某種期望目標的逐次接近過程”。29其原因在于:一是人作為決策主體,時間、精力的有限性決定了不可能兼顧所有政策目標,決策并不能做到絕對理性;二是知識的發展性與不確定性決定了決策不能止步于當前環境與條件,而是應對快速更新的技術保持敏感,在必要的情形下及時改進策略;三是技術的不確定性和人類認知能力的不足決定了在決策中并不能理性、科學地評價和預測技術的潛在危害,從而造成政策執行偏離原有目標。人工智能風險治理是一個復雜、開放的系統,基于動態性原則制定規制政策可有效糾正錯誤,預防和控制人工智能規制政策效果的負時滯效應。
(2)人工智能規制政策多元主體風險評估反饋機制的構建。
我國現有政策存在針對性不強、時效性不高的現象,主要原因是不注重決策后的政策反饋和評估,沒有及時修正政策偏差。政策實踐中應建立由政府、科研機構、企業、公民等多方參與的人工智能政策風險評估機制,跟蹤監測風險,既可回應社會風險問題,又可以消解不必要的疑慮,促使未來人工智能的治理決策更加科學和理性。政策制定者可通過民意調查、意見反饋、跟蹤調查以及咨詢相關利益方的意見等方式,根據實際情況調整政策縮小人工智能不確定性并達成共識。政策跟蹤評估反饋機制,包括決策前、中、后三個階段評估,決策前評估在政策決策中經常使用,但決策中和決策后的評估往往容易被忽略。決策前評估咨詢通常由政府主導,相關利益主體參與進來,從技術的潛在風險、技術的可行性、社會可接受倫理準則和經濟上的成本與收益等方面對人工智能做系統的評估。決策中評估對政策形成起著“承上啟下”的作用,為政策的有效實施提供依據。尤其是技術專家的介入,可就一些人工智能技術方面的問題進行專業跟進,以便對決策做進一步的調整和修改。忽略決策中評估可能會導致制定政策的過程中出現偏差,因為沒有及時修正而帶來社會風險和政策資源的巨大浪費。決策后評估是通過評估發現人工智能政策制定之時的遺漏、過時的假設、政策缺乏執行的原因,以隨時調整和完善相關決策,及時彌補或中止錯誤決策的執行,最終實現應有的政策效果。
四、結語
技術需要被治理,以確保獲得利益和減少風險。尤其是像ChatGPT人工智能這類新興技術的社會形塑,由于缺乏可供借鑒的政策模式參考,政策制定過程中面臨的可能性風險或許已超越目前決策者的想象。政策制定中的“自有風險”,涉及未來人工智能的發展、公眾對人工智能的接納程度和公眾對政策機構的信任問題?茖W合理、公平正義、有形有效的政策將會推動人工智能有著更為廣泛前途的應用,真正有助于生活質量的改善和經濟社會的發展,而不是相反。為此,政策制定之時應考慮的目標是:在利用人工智能為公民謀取福祉的同時,保證其安全且符合人類價值觀;進行規制治理時,需要兼顧規制潛在風險和促進創新之間的矛盾?傊,人工智能的政策規制是引導性的、回應性的,而非禁止性、限制性的,否則會扼殺技術創新,阻礙技術的可持續發展。
注釋
1Inga Ulnicane,“Artificial Intelligence in the European Union Policy,Ethics and Regulation,” in The Routledge Handbook of European Integrations,Taylor & Francis,2022,pp.254~269.
2賈開、蔣余浩:《人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇》,《中國行政管理》2017年第10期。
3楊婕:《推動完善我國新一代人工智能倫理治理體系》,《信息安全與通信保密》2020年第1期。
4A.D.Thierer,A.Castillo,R.Russell,“Artificial Intelligence and Public Policy,” SSRN Electronic Journal,2017,https://ssrn.com/abstract=3191530.
5陳定定、朱啟超主編:《人工智能與全球治理》,社會科學文獻出版社,2020年,第219頁。
6Osonde A.Osoba,William Welser IV,An Intelligence in Our Image:The Risks of Bias and Errors in Artificial Intelligence,Santa Monica,CA:RAND Corporation,2017,https://www.rand.org/pubs/research_reports/RR1744.html.
7[德]烏爾里希·貝克、[德]約翰內斯·威爾姆斯:《自由與資本主義》,路國林譯,浙江人民出版社,2001年,第127頁。
8鄭容坤:《人工智能風險的意蘊生成與治理路徑》,《黨政研究》2020年第2期。
9Stix Charlotte,“Actionable Principles for Artificial Intelligence Policy:Three Pathways,” Science and Engineering Ethics,vol.27,no.1.2021,p.15.
10[美]威廉·奧格本:《社會變遷》,王曉毅等譯,浙江人民出版,1989年,第41頁。
11王君、 張于喆、張義博:《人工智能等新技術進步影響就業的機理與對策》,《宏觀經濟研究》 2017年第10期。
12S,D.Warren,L.D.Brandeis,“The Right to Privacy,” Harvard Law Review,vol.4,no.5,1890,pp.193~220.
13董淑芬、李志祥:《大數據時代信息共享與隱私保護的沖突與平衡》,《南京社會科學》2021年第5期。
14Ryan Calo,“Artificial Intelligence Policy:A Primer and Roadmap,” University of Bologna Law Review,vol.3,no.2,2018,pp.180~218.
15胡鞍鋼、周紹杰:《新的全球貧富差距:日益擴大的 “數字鴻溝”》,《中國社會科學》2002年第3期。
16孫偉平:《人工智能導致的倫理沖突與倫理規制》,《教學與研究》2018年第8期。
17R.Landry,N.Amara,M.Lamari,“Utilization of Social Science Research Knowledge in Canada,” Research Policy,vol.30,no.2,2001,p.30.
18Eleanore Hickman,Martin Petrin,“Trustworthy AI and Corporate Governance:The EU's Ethics Guidelines for Trustworthy Artificial Intelligence from a Company Law Perspective,” European Business Organization Law Review,vol.4,no.4,2021,pp.593~625.
19鐘裕民:《公共政策滯后:概念綜述與反思》,《理論導刊》2009年第11期。
20[美]塞特菲爾德:《制度滯后模型》,《經濟譯文》1995年第4期。
21吳迪:《從“現代技術”批判到“未來責任”倫理——漢斯·約納斯責任倫理學的理論建構》,《科學經濟社會》2018年第4期。
22張旭:《技術時代的責任倫理學:論漢斯·約納斯》,《中國人民大學學報》2003年第2期。
23Inga Ulnicane,“Artificial Intelligence in the European Union Policy,Ethics and Regulation,” in The Routledge Handbook of European Integrations,Taylor & Francis,2022,pp.254~269.
24[美]詹姆斯·N.羅西瑙:《沒有政府的治理》,張勝軍譯,江西人民出版社,2001年,第34~59頁。
25龐金友:《AI治理:人工智能時代的秩序困境與治理原則》,《人民論壇》2018年第10期。
26Jon.Elster,Deliberative Democracy,Cambridge:Cambridge University Press,1998,pp.1~18.
27吳曉林、左高山:《西方 “協商民主 ”理論的三重困境 ———基于政治倫理的分析》,《人文雜志》2010年第6期。
28伍俊斌、于雅茹:《網絡協商民主的信息技術維度分析》,《學習論壇》2021年第1期。
29沈莘:《從先驗理性到經驗理性——對林德布洛姆“漸進主義”決策理論的解讀》,《思想政治史》2020年第3期。