top of page
CI.Seoa News.png

《 Google 》負責任的生成 AI 的 3 個新興實踐

以下是我們在過去六個月中通過人工智慧原則審查以及使用負責任的人工智慧技術工具和方法觀察到的情況

谷歌在人工智慧方面的持續工作為數十億人每天使用的工具提供支援,包括谷歌搜索、翻譯、地圖等。我們最感興趣的一些工作涉及使用人工智慧來解決重大的社會問題 —— 從預測洪水和減少碳排放到改善醫療保健。我們已經瞭解到,人工智慧有可能對每個人面臨的全球危機產生深遠的影響,同時將現有創新的好處擴大到世界各地的人們。


這就是為什麼人工智慧必須以負責任的方式開發,以解決公平、隱私和安全等可識別問題的方式,並在整個人工智慧生態系統中進行協作。這就是為什麼在 2017 年宣布我們是一家「人工智慧優先」的公司之後,我們分享了我們的人工智慧原則,並建立了廣泛的人工智慧原則治理結構和可擴展和可重複的道德審查流程。為了説明其他人負責任地開發 AI,我們還開發了一個不斷發展的負責任 AI 工具包。


每年,我們都會在公開的年度更新(2019 年、2020 年、2021 年、2022 年)中分享一份關於風險評估、道德審查和技術改進流程的詳細報告,並輔以我們 自己的進展的簡短年中回顧,涵蓋我們在整個行業所看到的情況。


今年,生成式人工智慧比我們一生中的任何新興技術都受到更多的公眾關注、對話和協作興趣。這是一件好事。這種協作精神只會有利於人工智慧在釋放其優勢的道路上負責任地發展的目標,從説明小型企業創建更具吸引力的廣告活動到使更多人能夠對新的人工智慧應用程序進行原型設計,即使不編寫任何代碼。


就我們而言,我們已將 AI 原則和道德審查流程應用於我們自己在產品中開發的 AI—— 生成式 AI 也不例外。我們在過去六個月中發現,有明確的方法來促進更安全、對社會有益的實踐,以解決不公平偏見和事實性等生成性人工智慧問題。我們在設計和開發過程的早期積極整合道德考慮,並顯著擴展了對早期 AI 工作的審查,重點是圍繞生成 AI 專案的指導。


對於我們的年中更新,我們想分享基於本指南的三個最佳實踐,以及我們在發佈前設計、審查和開發生成式 AI 方面所做的工作:責任設計、執行對抗性測試以及傳達簡單、有用的解釋。


1. 責任設計


重要的是,首先要識別和記錄潛在的危害,並使用負責任的數據集、分類器和篩檢程式來啟動生成式 AI 產品開發過程,以主動解決這些危害。在此基礎上,我們還:


  • 與研究社區一起參加研討會,以確定構建可信賴 AI 的全面方法。最近,我們支持並幫助推進了諸如計算機視覺創造性應用中的道德考慮和 NLP 中的跨文化考慮等論壇。

  • 根據在研究、開發和倫理審查過程早期發現的危害,在發佈之前制定禁止使用政策。

  • 使用分類器和其他工具等技術方法標記和篩選違反策略的輸出,並使用其他方法(例如負責任 AI 工具包中的方法)。最近,我們在工具包中添加了新版本的學習可解釋性工具 (LIT),用於模型調試和理解,以及僧侶膚色示例 (MST-E) 數據集,以説明 AI 從業者使用包容性僧侶膚色 (MST) 量表。

  • 召集法律和教育等各個領域的外部專家,就公平的產品成果進行熱烈討論。例如,我們正在進行的公平人工智慧研究圓桌會議 (EARR) 繼續與代表歷史上在人工智慧領導職位上代表性不足的社區的思想領袖會面,重點關注生成性人工智慧主題。

  • 向受信任的測試人員提供實驗性的增量版本,以獲取反饋。

  • 持續主動地與政策制定者、隱私監管機構和全球主題專家合作,為更廣泛的版本提供資訊,就像我們在將 Bard 擴展到 40 種語言和國際受眾之前所做的那樣。

2. 進行對抗性測試


開發人員可以在內部對生成式 AI 模型進行壓力測試,以便在發布和任何正在進行的發布之前識別和緩解潛在風險。例如,對於我們的實驗 Bard,讓人們與生成 AI 協作,我們測試了可以解釋為類似人的輸出,這可能導致潛在的有害誤解,然後通過限制 Bard 使用 “I” 語句來限制我們在測試中發現的不適當擬人化的風險。我們還:


  • 在研發過程的早期尋求社區的意見,以發展對社會背景的理解。這有助於為徹底的壓力測試提供資訊。例如,我們最近與 MLCommons 和 Kaggle 合作創建了 Adversarial Nibbler,這是一個公共 AI 競賽,旨在眾包對抗性提示,對文本到圖像模型進行壓力測試,目的是識別如何 評估圖像生成模型的看不見的差距或 “未知的未知”。

  • 在內部和包容性地進行測試。在發佈 Bard 之前,我們從數百名具有不同背景和文化經驗的 Google 員工中抽調,他們自願故意違反我們的政策來測試這項服務。我們將繼續進行這些內部對抗測試,以告知 Bard 正在進行的擴展和功能發佈。

  • 調整和應用對抗性安全測試,以解決生成性 AI 特定問題。例如,我們已經發展了正在進行的「紅隊」工作 —— 一種識別攻擊漏洞的壓力測試方法 —— 以「合乎道德地入侵」我們的人工智慧系統並支持我們新的安全人工智慧框架。我們將進一步將道德駭客方法擴展到生成式 AI,在今年的 DEFCON 會議上分享一個用於公共紅隊的大型語言模型。

3. 傳達簡單、有用的解釋


在發佈時,我們尋求就何時以及如何使用生成 AI 提供清晰的溝通。我們努力展示人們如何提供反饋,以及他們如何控制。例如,對於巴德,我們的一些可解釋性實踐包括:

  • “Google It” 按鈕提供相關的搜索查詢,以説明使用者驗證基於事實的問題

  • 豎起大拇指和豎起大拇指圖示作為反饋管道

  • 報告問題並提供運營支持的連結,以確保快速回應用戶反饋

  • 用於存儲或刪除 Bard 活動的使用者控制項

我們還努力讓用戶在實驗階段使用新的生成式人工智慧技術時向他們清楚。例如,NotebookLM 等實驗室版本突出顯示了「實驗」,以及有關搶先體驗期間可用的有限功能的具體詳細資訊。


另一種可解釋性實踐是關於生成式 AI 服務或產品如何工作的全面文檔。對於巴德來說,這包括一個全面的概述,明確了交互次數的上限,以確保品質、準確性並防止潛在的擬人化和其他安全細節,以及一個隱私聲明,以説明用戶瞭解巴德如何處理他們的數據。


保持透明度也是關鍵。我們發佈了一份關於 PaLM 2 的詳細技術報告,該模型目前為 Bard 提供支援,其中包括基於我們內部評估細節文檔的資訊,以及為 AI 研究人員和開發人員負責任地使用該模型的指導。


除了上述三項觀察結果外,我們還廣泛關注確保新的生成式人工智慧技術在解決圖像來源等問題時具有同樣創新的護欄。我們的工作包括為 Google AI 工具生成的圖像添加浮水印(如虛擬試穿或達芬奇便簽),併為發佈商提供圖像標記,以指示圖像何時生成 AI。


大膽和負責並不矛盾 —— 事實上,它們在促進新技術的接受、採用和説明方面是相輔相成的。本月早些時候,我們啟動了一場公開討論,邀請網路出版商、民間社會、學術界和人工智慧社區就協定方法提出想法,以支援互聯網在生成式人工智慧時代的未來發展。隨著我們的前進,我們將繼續分享我們如何應用新興實踐進行負責任的生成式人工智慧開發和持續的透明度,以及我們的年度年終人工智慧原則進展更新。



科技新聞類別 News category

科技新聞影音 News Video

​科技新聞類別  News Category

搜尋新聞 Search News

科技新聞類別 News category

bottom of page