發布時間:2021-04-29所屬分類:科技論文瀏覽:1555次
摘 要: 摘要:人工智能技術的快速發展與廣泛應用產生了深刻的社會影響,為了更好地約束與規范人工智能的發展與應用,社會各界相繼提出各種各樣的人工智能倫理原則與倫理指南。總體來看,各種倫理原則的內容大致趨同,但也有一些被普遍忽略的內容,而且不同機構對同樣
摘要:人工智能技術的快速發展與廣泛應用產生了深刻的社會影響,為了更好地約束與規范人工智能的發展與應用,社會各界相繼提出各種各樣的人工智能倫理原則與倫理指南。總體來看,各種倫理原則的內容大致趨同,但也有一些被普遍忽略的內容,而且不同機構對同樣一種倫理原則的闡釋存在明顯差異。雖然有的學者認為人工智能倫理原則是無用的,但從倫理原則的應用現狀來看,人工智能倫理原則是能夠發揮積極作用的,是實現人工智能倫理治理的一種重要工具。包括倫理學家、科學家、學術組織、企業與政府管理部門在內的各類主體需要采取必要的強化措施,切實保障倫理原則的貫徹與實施。
關鍵詞:人工智能;倫理原則;倫理漂藍;具體行動
隨著人工智能技術的快速發展及廣泛應用,如何合理地應用人工智能,使其為人類造福而不是帶來傷害與威脅,成為學術界與公眾普遍關注的熱門話題。法學家普遍重視對人工智能的法律監管,有學者認為,應該制定《人工智能發展法》(AIDevelopmentAct),建立專門的監管機構,保證人工智能的安全性與可控性。〔1〕其實,法學家提出的一些問題與解決進路,已經在人工智能倫理治理研究中得到高度重視。比如,近些年來許多機構提出了形形色色的倫理原則、倫理指南與倫理準則,試圖從宏觀上對人工智能進行治理。人工智能倫理治理就是應用倫理工具與理論,對人工智能倫理與社會風險進行治理,與法學領域中的軟法治理本質上是一致的,相對于法律法規的鋼性規制而言,通過倫理原則等軟法實現對人工智能的靈活與敏捷治理,是當前及今后相當長的時間內人工智能治理的基本途徑。本文首先對已有的人工智能倫理原則進行簡要介紹與特征分析,然后論證倫理原則發揮積極作用的可能性,最后針對不同行為主體提出實現從倫理原則到行動的可能途徑,以期推進人工智能倫理原則的實效性研究。
一、人工智能倫理原則及其特征分析
1.若干代表性倫理原則
自2016年以來,包括國際組織、各國政府、企業與學術團體等在內的各類主體發布了大量倫理原則與倫理指南,根本目的就是為了推進、規范與約束人工智能技術的研發與應用。
第一,國際組織提出的倫理原則。2017年12月,全球工會聯合會(UNIGlobalUnion)提出《合倫理的人工智能十大原則》,包括“透明性、配備倫理黑匣子、為人類與地球服務、采用人類控制進路、無性別歧視與無偏見、利益共享,以及禁止軍備競賽”等等。2018年6月在加拿大召開的G7峰會上,七國集團領導人通過了一項《人工智能未來的共同愿景》文件,提及“以人為本、增加信任、保障安全、保護隱私”等若干倫理原則。2019年4月,歐盟人工智能高級專家組發布《可信任的人工智能倫理指南》,強調人工智能應該是合法的、合倫理的與穩健的,并針對合倫理的人工智能提出了“尊重人類自主、防止傷害、公正與可解釋性”四大倫理原則。
第二,各國政府層面提出的倫理原則。2016年10月,美國總統行政辦公室、國家科技委員會等發布《為人工智能的未來做準備》,強調了公正、安全與責任等原則,提出科研人員要確保人工智能是開放、透明、可理解與可治理的。2018年4月,英國上議院發布《英國人工智能》報告,提出“為了公共利益發展AI、可理解性與公正原則、保護隱私權與數據權、利益共享,以及不傷害不破壞不欺騙”五大原則框架。2019年6月,中國國家新一代人工智能治理委員會發布《新一代人工智能治理原則:發展負責任的人工智能》,提出了人工智能發展應遵循“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作與敏捷治理”八條原則。
第三,各類企業提出的倫理原則。2018年4月,德國電信公司提出了《人工智能指南》,其中包括“責任、關愛、顧客優先、透明、安全、控制、合作、共享”等倫理原則。2018年6月,谷歌CEO皮查伊(SundarPichai)發布了谷歌人工智能七條原則,包括“有益于社會、避免產生或加劇偏見、為了安全而建造與測試、對人類負責、融入隱私設計原則、堅持科學卓越的高標準、使這些原則應用于實踐”。2018年9月,騰訊公司董事會主席兼首席執行官馬化騰在世界人工智能大會上提出“四可原則”:可知、可控、可用和可靠。
第四,各類學術組織與研究機構提出的倫理原則。2017年1月召開的阿西洛馬人工智能會議從“科研問題、倫理和價值、更長期的問題”三個方面提出了23項原則,會議呼吁全世界在發展人工智能的同時嚴格遵守這些原則,共同保障人類未來的利益與安全。其中“倫理和價值”部分提及“安全性、透明性、責任、人類價值觀、隱私、利益分享、人類控制”等倫理原則。2017年12月,美國電氣和電子工程師協會(IEEE)發布了《合倫理的設計》報告,提出人工智能設計、開發和應用需要遵循的倫理原則,包括“人權、福祉、責任、透明、慎用”等。
2.已有倫理原則的特征分析
第一,從倫理原則內容的角度來看,大部分倫理原則與指南的內容趨同。我們很容易看到,上述提及的倫理原則中有相當多的內容是類似的,更全面細致的研究亦表明了這一點。喬賓(AnnaJobin)等人收集對比了84份包含了倫理指南與倫理原則的文件,將相關倫理原則按出現頻率的高低排序,分別是“透明、公正、不傷害、責任、隱私、有益、自由與自主、信任、可持續、尊嚴”等。〔2〕倫理原則趨同的表現可能主要源于人工智能倫理問題的共性,但也很可能源于制定主體并未深入思考人工智能的倫理原則究竟應該包含哪些內容,同時也反映出一些普遍被忽略的重要內容。比如,大多數倫理原則對環境與生態問題關注不夠;很少從女性的角度思考人工智能倫理問題,在已有的倫理原則中,幾乎看不到女性通常比較關注的關愛、護理、照料、幫助等內容。
第二,從倫理原則具體內涵的角度看,對于同樣的倫理原則,不同制定主體所闡釋的內涵卻存在一定的差異。比如,就倫理原則中普遍關注的人工智能的透明性而言,不同機構對透明性的關注重點并不一致。有的主要強調人工智能系統決策過程與機制的可知性與可理解性,認為透明的人工智能系統是可以發現它是如何、為何做出一個決策的;有的強調人工智能決策與影響后果的可解釋性,阿西洛馬人工智能原則就是從故障透明性與司法透明性兩個層面理解透明性問題;還有的強調人工智能與相關技術、資源應用情況的公開性,德國電信公司對“透明”原則的界定即是強調這個方面。
第三,從制定主體的角度看,以發達國家及其企業為主,而發展中國家很少。喬賓等人分析了84份包含倫理指南與倫理原則文件的地域分布情況,結果顯示:美國最多,有21份,占25%,其次是英國13份,占15.5%,再次是日本4份,德國、法國和芬蘭均為3份,加拿大、冰島、挪威、印度、新加坡、韓國等均為1份。〔2〕不過,喬賓等人只收集了英語、德語、法語、意大利語與希臘語文獻,可能主要由于語言的原因,許多發展中國家發布的文件與報告并未收入。這種情況顯示出許多發展中國家要么根本就沒有發布相關文件,要么并不重視用英語發布相關文件,需要引起發展中國家的高度重視。
第四,從倫理原則實施保障的角度看,許多機構僅僅是提出了一些倫理原則與指南,但對于如何保障倫理原則的實施,如何將這些倫理原則落到實處,卻沒有提出相應的保障措施。關注人工智能治理問題的法學家通常批評倫理原則在解決人工智能倫理與社會問題方面存在缺陷與不足。卡羅(RyanCalo)認為,即使我們能夠達成道德共識,但倫理學缺乏一套強有力的執行機制。目前,少數公司主導著新興的人工智能產業,他們熱衷于提出倫理標準,而不是約束性的規則。其原因顯而易見,如果他們改變或無視倫理標準,也不會受到實質性的懲罰。〔3〕與法律法規即“硬法”相比,包括倫理原則、行為準則等在內的軟法的確缺乏直接的強制性,但是,我們可以通過多種途徑對軟法進行間接強制來克服這一缺陷,具體途徑將在本文第三部分詳細論述。
二、倫理原則:有用,還是無用?
1.倫理原則無用與倫理漂藍
很多學術團體非常重視制定并發布倫理原則與職業規范,用以指導與約束專業人士的職業行為。1972年,計算機協會(AssociationforComputingMachinery,ACM)發布了倫理準則,用以規范專業人員的軟件開發行為。2018年,ACM發布了新版《計算機協會道德與職業行為準則》,聲稱該準則的目的是用作計算專業人員進行道德決策的基礎。為研究這些倫理準則究竟能夠對專業人員產生何種程度的影響,麥克納馬拉(AndrewMcNamara)等人邀請了63名軟件工程的學生和105名職業軟件工程師對11個與軟件相關的倫理決策進行實驗。他們將受試對象分為兩組,一組將ACM的倫理準則展示給受試者,另一組則看不到倫理準則。實驗結果表明,兩組受試者對同樣的倫理問題給出的倫理抉擇較為一致,無論是學生還是專業人員,是否看到倫理準則,對他們的倫理抉擇沒有統計學意義上的顯著差異。因此,麥克納馬拉等人認為,沒有證據表明ACM的倫理準則會影響倫理抉擇。〔4〕
相關期刊推薦:《自然辯證法研究》創刊于一九八六年,月刊。本刊為專業學術性期刊。研究自然哲學、科學哲學、技術哲學、科學方法論等理論問題,探討當代科學、技術、經濟與社會的相互關系、注重對最新國內外科學技術成果的哲學探索和對自然辯證法學科的基礎理論的研究。讀者對象為哲學、理論、管理、科技工作者和自然辯證法教師以及關注本領域的研究人員。
隨著環境保護運動的興起與人們環保意識的增強,許多企業采用虛假或夸大的廣告、宣傳等形式,誤導人們相信它們在環境保護方面的各種表現與努力,這種現象在環境倫理學中被稱為“倫理漂綠(ethicsgreenwashing)”。參照“倫理漂綠”概念,弗洛里迪(LucianoFloridi)把數字技術中的類似現象稱之為“倫理漂藍(ethicsbluewashing)”。也就是說,有的人工智能企業通過市場宣傳、廣告以及其他公共關系活動,包括設置咨詢團隊等方式,使得人們相信他們的行為、產品與服務等是合乎倫理的,但實際情況并非如此。通過倫理漂藍的手段,可以轉移公眾的注意力、掩蓋其不良行徑、節約成本以及獲得某些競爭優勢等等。〔5〕倫理原則真的不能發揮實質性的作用嗎?難道倫理原則只能用作部分人工智能企業與學術團體的漂亮口號,借此緩解與平息公眾對人工智能的憂慮與質疑?
2.倫理原則在生命科學與醫學等領域的積極影響
倫理原則制定與應用歷史最悠久、影響最大、接受度最高的領域可能是醫學倫理與生命倫理。美國醫學協會(AmericanMedicalAssociation)早在1847年就創立了醫學倫理準則,之后不斷更新與擴充。在醫學領域中,特別是在新興領域與快速發展的領域當中,由于沒有現成的法律法規可供使用,因此包括倫理準則、倫理指南與政策等“軟法”得到廣泛應用。而且,職業共同體的軟法還有助于法庭判定某些職業責任,在某些特殊情況下,如果缺乏相應的法律條文的話,軟法將是案件判決的決定性因素。〔6〕生命倫理學中對倫理原則的推崇甚至表現為原則主義(principlism),這種觀點認為,在倫理對話中,可能存在被所有參與者贊同的基本原則,生命倫理學最重要的任務就是根據具體的生命倫理學問題來解釋應用這些倫理原則的結果,決定它們的權重或相對的影響力。〔7〕33
不過,米特爾施泰特(BrentMittelstadt)認為,雖然人工智能倫理原則與醫學倫理原則很相似,但人工智能與醫學的差異使得人工智能領域的倫理原則不太可能像醫學領域那樣成功。人工智能與醫學相比存在四方面的不足。第一,缺乏共同目標:人工智能的研發目標與公共利益并不一致。第二,職業規范不完善:作為一名良善的人工智能研發者的具體內涵并不清楚。第三,沒有一套有效的將原則轉譯為實踐的方法。第四,缺乏穩健的法律與職業責任機制:當研發者的行為違背倫理原則時,幾乎沒有處罰機制與糾偏機制。〔8〕
3.若干人工智能倫理原則的認同與影響
雖然米特爾施泰特的批評有一定合理之處,但我們應該看到,隨著人工智能科學共同體與哲學家、社會公眾的共同努力,人工智能領域與醫學相比的不足與差距正在逐漸縮小,或者得到一定程度的克服與改善。另外,前述提及的麥克納馬拉等人研究的預設前提并不合理,他們的研究實際上假定實驗者看到了倫理原則就會立即對其思想與行為產生影響。事實上,任何人從知道倫理原則,到在實際的技術研發行為中得到正確理解與合理應用,需要一個較長的反思與實踐過程。——論文作者:吳紅,杜嚴勇
声明:①文献来自知网、维普、万方等检索数据库,说明本文献已经发表见刊,恭喜作者.②如果您是作者且不想本平台展示文献信息,可联系学术顾问予以删除.
SCISSCIAHCI