大模型在政府機構的應用,將對其服務體驗、治理秩序與決策邏輯產(chǎn)生影響,全球政府部門相繼對大模型在政府部門的應用發(fā)布了相應的應用指南,以指導政府部門合理使用大模型等人工智能的應用。截至目前,全球已有10余個國家/州/城市,包括英國、加拿大、澳大利亞,美國的加州、圣何塞市、西雅圖等國家/州/城市發(fā)布了政府部門應用生成式人工智能的政策指南或道德框架,并對公務人員應用大模型開展工作提出了首要原則、潛在風險、應用場景(建議用例與禁止用例)等。通過研究已發(fā)布的政策指南,對不同國家/州/城市應用大模型的原則、思路以及指導內(nèi)容進行分析研究,借此洞察政府生成式AI應用的未來展望與思考。
首要原則:應用生成式AI安全需求大于價值訴求
政府機構均認為生成式AI的使用需要謹小慎微。通過分析可以發(fā)現(xiàn),隱私性、準確性、適當性和安全性是政策指南中出現(xiàn)頻率最高的使用原則。其中,“隱私性”強調(diào)個人數(shù)據(jù)和敏感信息的保護;“準確性”強調(diào)數(shù)據(jù)來源的可靠性和內(nèi)容輸出的有效性;“適當性”強調(diào)程序和實質性的公平義務,符合人權,避免偏見和歧視等內(nèi)容;“安全性”則既包括數(shù)字安全也包括社會環(huán)境、基礎設施的安全。
此外,問責制、透明度和可審計性、可解釋和可判斷、公共目的和社會效益也被多個政府機構提到,“問責制”強調(diào)在低風險情況下使用公開可用的生成式AI平臺,保證人類是政府流程中的最終決策者;“透明度和可審計性”主張透明行事并創(chuàng)建人工智能過程記錄以建立信任并促進集體學習;“可解釋和可判斷”要求知曉系統(tǒng)如何做出決策,并在需要時能夠解釋決策的“原因”及其對用戶的意義或背景;“公共目的和社會效益”則強調(diào)使用人工智能的目的在于支持國家為居民提供更好、更公平的服務和成果。
關注風險:潛在的信息安全及決策影響風險
通過研究分析可以發(fā)現(xiàn),生成式AI風險在政府部門中應用的兩個最大的風險分別為信息安全風險和決策影響風險,前者主要涉及隱私敏感數(shù)據(jù)的泄露,后者指生成式AI輸出結果的不確定性與可解釋性問題將為政府決策帶來干擾。
從研究的目標政府部門發(fā)布的政策指南來看,其對“信息安全風險”的定義主要指的是個人身份信息、敏感記錄或商業(yè)機密信息等輸入到生成式AI工具后被釋放給其他無關受眾,成為公開信息;一些生成式AI工具提供商可能會檢查輸入數(shù)據(jù)或使用這些數(shù)據(jù)來進一步訓練他們的模型,這可能會導致隱私和安全漏洞。由此可見,生成式AI在政府部門內(nèi)部的信息安全風險將不再只是外部的挾持、竊取以及攻擊等風險,還有來自內(nèi)部的“輸入”風險,政府部門工作人員對如何辨別什么樣的信息可以輸入生成式AI工具顯得至關重要。
此外,各地政策指南對“決策影響風險”的定義包括輸出結果用于決策、任務或服務時產(chǎn)生的潛在危害,比如由于信息來源的不可信,生成式AI工具輸出的答案可能并不準確,并作為虛假信息進一步傳播;因為工作原理的局限,生成式AI工具在產(chǎn)出結果時可能存在偏見甚至放大偏見,其結果可能引起道德、倫理或法律風險;鑒于生成式AI工具提供誤導信息或偏見的可能,這些工具的使用也極有可能影響決策者的判斷力和創(chuàng)造力,并產(chǎn)生額外的社會成本。此外,生成式AI還可能被惡意濫用,從而對政府機構的完整性和安全性構成風險。
應用場景:在基本邏輯與底線上選擇性應用
由于智能技術應用的不斷發(fā)展,將衍生許多未知的風險,特別是當智能應用由一種內(nèi)容與服務的“傳播媒介”進化為“生產(chǎn)主體”的時候,此時使用則需要格外謹慎。因此,國外政府機構針對生成式AI在行政系統(tǒng)內(nèi)部的用例場景做了詳細的指導與要求。從政策指南的研究情況來看,政府機構使用生成式AI的基本邏輯與底線是“可以借助AI完成簡單的非官方文本輸出,但盡量避免產(chǎn)生公開性、決策性、唯一性、創(chuàng)造性的成果”。目前,在政府側具有普遍共識的用例場景包括查詢各類信息數(shù)據(jù),總結、壓縮、摘要信息或知識點,起草文件或項目計劃,生成簡明語言的圖文內(nèi)容,輔助學習或研究,創(chuàng)建演示文稿等。
生成式AI作為一種新型智能應用,各國政府機構對其的認知、理解以及需求存在一定差異,由此導致其對應用場景的選擇也將存在偏差或分歧。比如英國和華盛頓將“開發(fā)代碼”納入生成式AI的建議用例場景,但圣何塞市將其列為禁止用例,這主要是考慮到開發(fā)代碼的時效性及版權問題,以規(guī)避由此帶來的運行風險與法律風險。此外,華盛頓和圣何塞市將幫助生成圖像、音頻和視頻內(nèi)容納入生成式AI的建議用例場景,波士頓將音頻編碼/編程及圖像、音頻和視頻均納入建議用例場景,但不同的是,圣何塞市單獨將創(chuàng)造聲音或其他音頻列為禁止用例,認為創(chuàng)造/復制人的聲音可能存在潛在的法律問題。
研究分析發(fā)現(xiàn),在各政府機構的禁止用例清單上,英國著重提出“勿用于撰寫消息和向他人總結事實”及“未經(jīng)所有者同意勿輸入數(shù)據(jù)進行分析”,十分重視生成式AI產(chǎn)出成果在公開性和創(chuàng)造性上可能存在的風險。此外,圣何塞市還將評估和決策及語言翻譯也列為禁止用例,避免AI產(chǎn)出可能產(chǎn)生的決策風險。
相對于其他國家/城市,圣何塞市在政策指南中還根據(jù)信息的敏感度、識別性、涉密性及產(chǎn)出內(nèi)容的實際效用和影響力,將不同用例場景的風險等級分為中等風險、高風險及禁止提供的風險,并對應列舉了多個中等風險用例、高風險用例及禁止用例,這對指導政府機構快速熟練運用生成式AI開展工作,和快速提升公務人員的AI素養(yǎng)具有重要的積極效應。
治理機制:集中在治理機構設置、政策法規(guī)制定及版權保護
從全球城市政府機構生成式AI應用指南的調(diào)研情況來看,在治理機構設置、政策法規(guī)制定以及版權保護三個方面均已初步成型或得到較為重要的關注。在治理機構設置方面,賓夕法尼亞州、俄亥俄州、堪薩斯州、華盛頓、西雅圖、圣何塞等州/市均設立了生成式人工智能管理委員會。其職責主要在于就各機構中生成式AI的設計、開發(fā)、采購和部署,向行政辦公室提出建議;根據(jù)評估技術偏差和安全性的審查程序,就機構使用生成式AI技術的請求提出建議;牽頭確定實施生成式AI的最有效用例;評估生成式AI使用的可用資源的可獲取性、局限性和潛在的歷史偏差;提供內(nèi)部和外部政策反饋的機制;平衡使用生成式AI的公共利益和潛在風險;聘請私營部門和領先教育機構的生成式AI專家,根據(jù)需要就短期和長期研究目標、行業(yè)趨勢和全生態(tài)系統(tǒng)最佳實踐提供建議;接受不斷發(fā)展的生成式AI技術領域的更新和培訓等。
在政策法規(guī)方面,圣何塞市、西雅圖及華盛頓均強調(diào)對生成式AI的所有使用均需遵守《公共記錄法》,因為任何與市政府工作有關的對話都是公共記錄,并且必須遵守市政府的保留規(guī)定。而生成式AI工具可能會創(chuàng)建必須保留的公共記錄,相關的任何提示、輸出或其他信息都可能被公開發(fā)布。由于使用情況取決于公共記錄請求,有些國家/城市對使用用戶賬號做了要求。比如圣何塞市要求數(shù)字隱私辦公室應使用城市電子郵件地址(digitalprivacy@sanjoseca.gov),為其所有使用生成式AI的角色創(chuàng)建一個共享賬戶,并確保政府工作人員都使用唯一的服務密碼。
在版權引用方面,圣何塞市、華盛頓、西雅圖及俄亥俄州在指南中就版權問題做了單獨闡釋。圣何塞市要求當最終版本中使用的大部分內(nèi)容來自生成式AI時,用戶必須標明引用自生成式AI,任何作為事實的陳述都必須引用可信的來源,而不是人工智能。西雅圖認為生成式AI系統(tǒng)生成的內(nèi)容包含受版權保護的內(nèi)容材料,人工智能系統(tǒng)可以使用來自互聯(lián)網(wǎng)的數(shù)據(jù)(文字、圖像等)進行“訓練”,而不用考慮版權或許可條款。華盛頓強調(diào)以國家官方身份使用人工智能生成內(nèi)容應該清楚地標明,并提供審查和編輯過程的詳細信息(材料如何審查、編輯以及由誰審查、編輯)。俄亥俄州認為國家擁有的所有涉及生成人工智能的受版權保護的作品必須按照美國版權局對包含人工智能生成材料的作品的要求隨附注釋,注釋至少應包括所使用的生成式AI技術以及如何使用該技術來創(chuàng)作作品的描述。
政府生成式AI應用的未來展望與思考
政府機構作為為公共利益服務的主體,穩(wěn)定、公平、透明、普惠等作為其服務的核心特征,與生成式AI由數(shù)據(jù)、算法以及可能存在的幻覺所構成的技術特征,在日常運行與應用過程中必然將產(chǎn)生不可避免的沖突。因此,結合當前全球多個國家/州/城市政府部門的生成式AI應用政策指南要求以及數(shù)字政府的發(fā)展趨勢,展望未來政府生成式AI的應用路徑,有三大方向值得關注:
一是政府生成式AI應用將走向“大模型+小模型”的混合應用模式。當前政府數(shù)據(jù)資源開放有限,結合大模型的強大能力與小模型靈活性強、成本效益高特點,有助于政府更高效、安全地利用生成式AI技術。同時對小模型的訓練數(shù)據(jù)而言,僅僅依靠政府數(shù)據(jù)資源可能并不能發(fā)揮其應用的價值,對社會常識、行政權力邏輯、公序良俗以及經(jīng)驗性知識等進行數(shù)據(jù)微調(diào),實現(xiàn)人工智能與行政系統(tǒng)的“價值對齊”,才可能真正成為可用的政府大模型。
二是由于不同階段、不同目的與不同需求,政府機構對生成式AI的用例場景選擇可能存在“個性化差異”。這不僅存在于單個政府系統(tǒng)內(nèi)部,也存在不同區(qū)域的政府機構之間,而由于對不同場景的應用選擇差異,將最終影響AI時代的公共服務、社會治理與政府決策質量,從而影響社會秩序與民生發(fā)展。
三是如何鞏固AI時代公眾知情權成為重要議題。由于生成式AI介入政府運行的趨勢無可阻擋,特別是在公文寫作、政策制定、公眾回應等方面,由此帶來的問題是,為增強政府運行的透明度,未來政府機構應采用何種方式對生成式AI參與生成的內(nèi)容進行明確與恰當?shù)臉俗,從而鞏固AI時代的公眾知情權。