今天,Google 發佈了一份白皮書,為負責任的人工智慧進步提出了政策議程的建議。
正如 Sundar 在本月的 Google I / O 上所說,AI 的增長與我們看到的一樣大的技術轉變。當今人工智慧模型的進步不僅創造了與訊息互動、找到正確詞語或發現新地方的新方式,而且還在幫助人們開闢全新的科學和技術領域。
我們站在一個新時代的風口浪尖,讓我們重新構想如何顯著改善數十億人的生活,幫助企業蓬勃發展,並支持社會回答我們最棘手的問題。與此同時,我們都必須清醒地認識到,人工智慧將伴隨著風險和挑戰。
在此背景下,我們致力於大膽、負責任地向前邁進,並與他人合作。
停止技術進步的呼籲不太可能成功或有效,並且有可能錯過人工智慧的實質性好處,並落後於那些擁抱其潛力的人。相反,我們需要政府、公司、大學等機構的廣泛努力,幫助將技術突破轉化為廣泛的利益,同時降低風險。
幾周前,當我概述為負責任的人工智慧進步制定共同議程的必要性時,我說個人做法、共用的行業標準和健全的政府政策對於讓人工智慧正確至關重要。今天,我們發佈了一份白皮書,其中包含有關人工智慧的政策建議,其中我們鼓勵政府關注三個關鍵領域 —— 釋放機會、促進責任和增強安全性:
1. 通過最大化人工智慧的經濟前景來釋放機會
擁抱人工智慧的經濟體將出現顯著增長,超越那些吸收速度較慢的競爭對手。人工智慧將幫助許多不同的行業生產更複雜、更有價值的產品和服務,並説明提高生產力,儘管人口挑戰日益嚴峻。人工智慧還有望推動使用人工智慧產品和服務進行創新和發展的小型企業,以及能夠專注於工作中非常規和更有價值的元素的員工。
如何做到這一點:為了釋放人工智慧提供的經濟機會,並最大限度地減少工作力中斷,政策制定者應該投資於創新和競爭力,促進支援負責任的人工智慧創新的法律框架,併為人工智慧驅動的工作轉型做好準備。例如,政府應通過國家實驗室和研究機構探索基礎人工智慧研究,採取支援負責任人工智慧發展的政策(包括保護個人資訊和實現可信數據跨境流動的隱私法),並促進繼續教育、技能提升計劃、關鍵人才的跨境流動,以及對不斷變化的未來工作的研究。
2. 促進責任,同時降低濫用風險
人工智慧已經在説明世界應對從疾病到氣候變化的挑戰,並且可以成為進步的強大力量。但是,如果不負責任地開發和部署,人工智慧系統也可能放大當前的社會問題,例如錯誤資訊、歧視和濫用工具。如果沒有對人工智慧系統的信任和信心,企業和消費者將對採用人工智慧猶豫不決,從而限制了他們獲得人工智慧好處的機會。
如何做到這一點:應對這些挑戰需要採取多方利益攸關者的治理方法。從互聯網的經驗中學習,利益相關者將健康地掌握潛在的好處和挑戰。一些挑戰將需要基礎研究,以更好地瞭解人工智慧的好處和風險,以及如何管理它們,並在可解釋性和浮水印等領域開發和部署新的技術創新。其他問題最好通過制定共同標準和共用最佳實踐以及基於風險的相稱監管來解決,以確保負責任地開發和部署人工智慧技術。而其他人可能需要新的組織和機構。例如,領先的公司可以聚集在一起,在全球互聯網反恐論壇(GIFCT)等先前的例子基礎上組建一個全球人工智慧論壇(GFAI)。國際協調對於制定反映民主價值觀和避免分裂的共同政策方法也至關重要。
3. 加強全球安全,同時防止惡意行為者利用這項技術
人工智慧對全球安全與穩定具有重要意義。生成式人工智慧可以幫助創建(但也識別和跟蹤)錯誤和虛假資訊以及操縱媒體。基於人工智慧的安全研究正在通過先進的安全操作和威脅情報推動新一代的網路防禦,而人工智慧生成的漏洞也可能使對手進行更複雜的網路攻擊。
如何做到這一點:第一步是設置技術和商業護欄,以防止惡意使用人工智慧,並共同努力解決不良行為者,同時最大限度地發揮人工智慧的潛在利益。例如,政府應針對被視為安全風險的人工智慧軟體的特定應用,以及以可能威脅全球安全的方式為人工智慧相關研發提供支援的特定實體,探索下一代貿易管制政策。政府、學術界、民間社會和公司也需要更好地瞭解日益強大的人工智慧系統的影響,以及我們如何使精密和複雜的人工智慧與人類價值觀保持一致。歸根結底,安全是一項團隊運動,這一領域的進步將需要以聯合研究、採用一流的數據治理、公私論壇共用有關人工智慧安全漏洞的資訊等形式進行合作。
結語
在充分認識到潛在挑戰的情況下,我們相信,以機遇、責任和安全等關鍵支柱為中心的政策議程可以釋放人工智慧的好處,並確保所有人都能分享這些好處。
正如我們之前所說,人工智慧太重要了,不能不監管,太重要了,不能監管好。從新加坡的 AI Verify 框架到英國對 AI 監管的支持創新方法,再到美國國家標準與技術研究院的 AI 風險管理框架,我們很高興看到世界各國政府認真解決這些新技術的正確政策框架,我們期待支持他們的努力。