我們不僅需要談論 “我們能做什麼?”,還需要談論 “我們應該做什麼?”
像 Bard 這樣的生成式人工智慧實驗,像 PaLM 和 MakerSuite API 這樣的工具,以及來自整個人工智慧生態系統的越來越多的服務,引發了人們對人工智慧變革潛力的興奮,以及對潛在濫用的擔憂。
回想一下,人工智慧同時是革命性的,並且多年來一直在悄悄地幫助我們,這是很有説明的。
如果你搜索過互聯網或使用過現代智能手機,你正在使用人工智慧——你可能沒有注意到它在幕後讓事情變得更好(更安全)。(以下是我們為什麼一直專注於人工智慧的更深入探討。
但人工智慧現在正在個人化醫療、精準農業、核聚變、海水淡化和材料科學等科學領域開闢新的可能性—— DeepMind 聯合創始人德米斯·哈薩克比斯(Demis Hassabis)稱之為“數位速度的科學探索”。該技術預測從未來災難到蛋白質結構的一切的令人難以置信的能力正在成為焦點。它可能是人類應對從氣候變化到糧食短缺等全球挑戰的能力的關鍵部分。
如何才能實現這一潛力?我的同事詹姆斯・曼尼卡(James Manyika)提出了一個 思想實驗:
現在是 2050 年。事實證明,人工智慧對社會非常有益。發生了什麼事?我們意識到了哪些機會?我們解決了哪些問題?
最明顯和最基本的答案,也是更深入對話的起點,是我們需要公民、教育工作者、學者、民間社會和政府齊心協力,説明塑造人工智慧的發展和使用。
負責任的 AI 是什麼意思?
整個行業和民間社會對人工智慧責任的討論很多,但一個被廣泛接受的定義仍然難以捉摸。人工智慧的責任已經與避免風險聯繫在一起,但我們實際上認為它有兩個方面:不僅減輕複雜性和風險,還有助於改善人們的生活,應對社會和科學挑戰。一些要素 —— 比如需要納入重要的社會價值觀,如準確性、隱私性、公平性、透明度等 —— 得到了廣泛的認同,儘管在它們之間取得適當的平衡可能很複雜。其他的 —— 比如部署最新進展的速度和廣泛程度 —— 則更具爭議性。
2018年,我們是首批發佈一套人工智慧原則的公司之一。從互聯網的經驗中學習,以及它的所有好處和挑戰,我們試圖在我們的產品中建立智慧制衡,從頭開始設計社會效益。
我們的第一個人工智慧原則 —— 人工智慧應該 “對社會有益”—— 抓住了關鍵的平衡:“總體上可能的好處應該大大超過可預見的風險和缺點。
這需要什麼?
將這一願望付諸實踐是苛刻的,這是我們多年來一直在做的工作。我們早在 2014 年就開始研究機器學習公平性,三年前我們發表了關於 Transformer 的開創性研究——現代語言模型的基礎。
從那時起,我們不斷發展我們的實踐,對人工智慧影響和風險管理進行行業領先的研究,評估新的人工智慧研究和應用的建議,以確保它們符合我們的原則,並發表了近 200 篇論文來支援和發展行業規範。我們不斷重新評估將問責制和安全納入我們工作的最佳方式,並公佈我們的進展。
舉幾個例子:2021年,DeepMind 發表了一篇關於與大型語言模型 (LLM) 相關的倫理問題的早期論文。2022年,我們分享了音頻機器學習(以及檢測合成語音的能力)方面的創新。同年,我們發佈了 Monk Skin Tone Scale,並開始將其整合到圖像搜索,照片和像素等產品中,以更準確地捕捉各種膚色。2022年,作為我們發佈 PaLM 模型的一部分,我們分享了對 LLM 產出進行預評估的經驗教訓。
根據廣泛聲音的意見,我們權衡了推出和不推出產品的好處和風險。我們在部署一些人工智慧工具時一直被刻意克制。
例如,在 2018 年,我們宣布我們不會發布用於面部識別的通用 API,即使其他人在有可接受的使用的法律或技術框架之前就向前推進。當我們的一個團隊開發了一個可以説明聽力或說話障礙者的 唇讀人工智慧模型時,我們進行了嚴格的審查,以確保它在發表研究論文之前對大規模監控沒有用。
在向越來越多的使用者推出 Bard 時,我們優先考慮反饋、安全和問責制,在對話中設置諸如交流次數上限之類的護欄,以確保互動仍然有用且符合主題,並仔細設定模型可以和不能完成的期望。正如美國哲學家丹尼爾・丹尼特(Daniel Dennett)所觀察到的那樣,區分能力和理解力很重要,我們意識到我們正處於這一旅程的早期。在接下來的幾周和幾個月里,我們將繼續根據反饋改進這個生成式 AI 實驗。
我們認識到,尖端的人工智慧發展是新興技術 —— 學習如何評估其風險和能力遠遠超出了機械地程式設計規則,進入訓練模型和評估結果的領域。
我們如何才能更好地合作?
沒有一家公司可以單獨推進這種方法。人工智慧責任是一個集體行動問題——一種協作練習,需要提出多種觀點來説明取得適當的平衡。湯瑪斯·弗裡德曼(Thomas Friedman)稱之為“複雜的適應性聯盟”。正如我們在互聯網誕生時看到的那樣,我們都受益於共用的標準、協定和治理機構。
這就是為什麼我們致力於與他人合作,使人工智慧正確發展。多年來,我們建立了研究人員和學者社區,致力於為負責任的 AI 開發制定標準和指南。我們與澳大利亞國立大學、加州大學伯克利分校、數據與社會研究所、愛丁堡大學麥吉爾分校、密歇根大學、斯坦福大學海軍研究生院和瑞士聯邦理工學院等機構的大學研究人員合作。
為了支持國際標準和共用最佳實踐,我們為 ISO 和 IEC 聯合技術委員會在人工智慧領域的標準化計劃做出了貢獻。
這些夥伴關係提供了一個與多學科專家就與人工智慧相關的複雜人工智慧研究問題進行交流的機會 —— 有些是科學的,有些是倫理的,有些是跨領域的。
如何才能制定正確的人工智慧公共政策?
在人工智慧方面,我們既需要良好的個人實踐,也需要共用的行業標準。但社會需要更多的東西:健全的政府政策,在促進進步的同時減少濫用風險。制定良好的政策需要政府、私營部門、學術界和民間社會進行深入討論。
正如我們多年來所說,人工智慧太重要了,不能不監管,也太重要了,不能很好地監管。挑戰在於以降低風險和促進值得信賴的應用程式的方式做到這一點,這些應用程式不辜負人工智慧對社會效益的承諾。
以下是一些有助於指導這項工作的核心原則:
1.以現有法規為基礎,認識到許多適用於隱私、安全或其他公共目的的法規已經完全適用於人工智慧應用。
2. 以現有法規為基礎,認識到許多適用於隱私、安全或其他公共目的的法規已經完全適用於人工智慧應用。人員、部署人員和使用者之間採用定製方法和差異化責任。
3. 促進人工智慧標準和治理的可互操作方法,認識到國際協調的必要性。
4. 確保非人工智慧和人工智慧系統之間的期望相同,認識到即使是不完美的人工智慧系統也可以改進現有流程。
5. 提高透明度,促進問責制,賦予用戶權力並建立信任。
重要的是,在為人工智慧開發新框架時,政策制定者需要協調競爭、內容審核、隱私和安全等相互競爭的政策目標。它們還需要包括允許規則隨著技術進步而發展的機制。人工智慧仍然是一個非常動態、快速發展的領域,我們都將從新的經驗中學習。
由於世界各地已經在進行大量多方利益相關者的協作努力,因此在開發人工智慧框架和負責任的實踐時,無需從頭開始。
美國國家標準與技術研究院的人工智慧風險管理框架和經合組織的人工智慧原則和人工智慧政策觀察站就是兩個強有力的例子。它們通過開放和協作流程開發,提供了明確的指導方針,可以適應新的人工智慧應用、風險和發展。我們將繼續就歐盟懸而未決的人工智慧法案等提案提供反饋。
監管機構應該首先考慮如何利用現有的權力 —— 比如確保產品安全和禁止非法歧視的規則 —— 在需要管理真正新穎的挑戰的地方尋求新的規則。
下一步是什麼?
無論是書面文字的出現還是印刷機的發明,廣播的興起還是互聯網的創造,技術變革總是帶來社會和經濟變革,並總是需要新的社會習俗和法律框架。
在需要共同制定這些規範方面,人工智慧也不例外。
作為一個社會,我們有理由樂觀地認為,來自整個人工智慧生態系統的深思熟慮的方法和新想法將幫助我們駕馭轉型,找到集體解決方案並最大限度地發揮人工智慧的驚人潛力。但是,需要眾所周知的村莊 —— 我們所有人的合作和深入參與 —— 才能做到這一點。
在共同的議程上共同努力取得進展不僅是可取的。這是必不可少的。
以上內容來自 [ Google Blog ] blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress