十多年來,Meta 一直是 AI 領域的先驅。我們已經為研究人員發佈了 1,000 多個 AI 模型、庫和數據集,包括與 Microsoft 合作提供的最新版本的大型語言模型 Llama 2。
在 Connect 2023 上,我們宣佈了幾項新的生成式 AI 功能,人們可以使用這些功能來使他們在我們平臺上的體驗更加社交和身臨其境。我們希望像這樣的生成式人工智慧工具能夠以多種方式幫助人們。想像一下,一群朋友一起計劃旅行:在群聊中,他們可以向 AI 助手詢問活動和餐廳建議。在另一種情況下,教師可以使用人工智慧來幫助創建針對個別學生的不同學習風格定製的課程計劃。
構建這項技術需要制定最佳實踐和政策。雖然生成式 AI 有許多令人興奮和創造性的用例,但它並不總是完美的。例如,基礎模型有可能產生虛構的反應或加劇它可能從訓練數據中學到的刻板印象。我們已將過去十年的經驗教訓融入到我們的新功能中,例如通知,以便人們瞭解生成式 AI 的局限性,以及幫助我們捕獲和刪除危險回應的完整性分類器。這些都是根據 Llama 2 負責任使用指南中概述的行業最佳實踐進行的。
為了履行我們對負責任的人工智慧的承諾,我們還對我們的產品進行了壓力測試,以提高安全性能,並定期與政策制定者、學術界和民間社會的專家以及我們行業的其他人合作,以推進負責任地使用這項技術。我們將逐步推出這些功能,並在測試版中推出 AI。隨著技術的發展,我們將繼續反覆運算和改進這些功能,並了解人們在日常生活中使用它們的方式。
我們如何負責任地建設並將人們的安全放在首位?
自定義 AI 模型支援新的基於文本的體驗,例如 Meta AI,我們的大型語言模型驅動的助手,建立在 Llama 2 的基礎上,並利用其安全和責任訓練。我們還一直在為我們今天宣佈的功能投資具體措施。
我們正在共用一個資源,該資源更詳細地解釋了我們為識別潛在漏洞、降低風險、增強安全性和提高可靠性而採取的步驟。例如:
我們正在通過紅隊練習與外部和內部專家一起評估和改進我們的對話式 AI。 專門的專家團隊花費了數千小時對這些模型進行壓力測試,尋找意想不到的使用方式,同時識別和修復漏洞。
我們正在對模型進行微調。 這包括訓練模型執行特定任務,例如生成高品質的圖像,並提供可以增加提供有用回應的可能性的指令。我們還對他們進行培訓,以提供專家支援的資源來應對安全問題。例如,認可機構會建議當地的自殺和飲食失調組織回答某些問題,同時明確表示它不能提供醫療建議。
我們正在根據安全和責任準則對模型進行培訓。 教授模型指南意味著他們不太可能在我們的應用程式上分享可能對所有年齡段有害或不適合的回答。
我們正在採取措施減少偏見。 解決生成式人工智慧系統中的潛在偏見是一個新的研究領域。與其他 AI 模型一樣,讓更多人使用這些功能並分享反饋可以幫助我們改進我們的方法。
我們開發了新技術來捕獲違反我們政策的內容並採取相應措施。 我們的團隊已經建立了演算法,可以在將有害回應分享給人們之前掃描並過濾掉它們。
我們在這些功能中構建了反饋工具。 沒有一個 AI 模型是完美的。我們將使用收到的反饋來不斷訓練模型,以提高安全性能並自動檢測違規行為。我們還通過 Meta 長期運行的漏洞賞金計劃向安全研究人員提供新的生成式 AI 功能。
我們如何保護人們的隱私?
監管機構、政策制定者和專家要求我們負責保護人們的隱私。我們與他們合作,確保我們構建的內容遵循最佳實踐並符合數據保護的高標準。
我們認為,人們瞭解我們用於訓練模型的數據類型非常重要,這些模型為我們的生成式 AI 產品提供支援。例如,我們不會使用您與朋友和家人的私人消息來訓練我們的 AI。我們可能會使用您使用 AI 貼圖的數據,例如您搜索要在聊天中使用的貼圖,以改進我們的 AI 貼圖模型。您可以在我們關於產生式 AI 的隱私問題貼文中找到有關我們使用的資料類型的更多資訊。
我們如何確保人們知道如何使用新功能並瞭解其局限性?
我們在功能中提供資訊,以幫助人們了解他們何時與 AI 交互以及這項新技術的工作原理。我們在產品體驗中表示,它們可能會返回不準確或不適當的輸出。
在過去的一年裡,我們發佈了 22 張「系統卡」,為人們提供關於我們的 AI 系統如何做出影響他們的決策的易懂資訊。今天,我們在 Meta 的 AI 網站上分享新的生成式 AI 系統卡—— 一張用於生成為 Meta AI 提供支援的文字的 AI 系統,另一張用於為 AI 貼紙、Meta AI、重新樣式和背景生成圖像的 AI 系統 。其中包括一個互動式演示,因此人們可以看到優化他們的提示如何影響模型的輸出。
我們如何幫助人們瞭解何時使用我們的 AI 功能創建圖像?
我們遵循行業最佳實踐,因此人們更難使用我們的工具傳播錯誤資訊。由 Meta AI 建立或編輯、重新樣式和背景的圖像將具有可見的標記,以便人們知道內容是由 AI 創建的。我們還在開發其他技術,以在 Meta AI 創建的圖像檔中包含資訊,隨著技術的改進,我們打算將其擴展到其他體驗。我們不打算將這些功能添加到 AI 貼紙中,因為它們不逼真,因此不太可能誤導人們認為它們是真實的。
目前,整個行業沒有任何通用標準來識別和標記 AI 生成的內容。我們認為應該有,所以我們正在通過人工智慧夥伴關係等論壇與其他公司合作,希望開發它們。
我們正在採取哪些措施來阻止人們使用生成式人工智慧傳播錯誤資訊?
人工智慧是我們處理錯誤資訊和其他有害內容的關鍵部分。例如,我們開發了人工智慧技術來匹配以前經過事實核查的內容的近乎重複的內容。我們還有一個名為 Few-Shot Learner的工具, 它可以更輕鬆地適應對新的或不斷發展的有害內容類型快速採取行動,支援 100 多種語言。以前,我們需要收集數千甚至數百萬個示例來構建一個足夠大的數據集來訓練 AI 模型,然後進行微調以使其正常工作。Few-Shot Learner 可以僅基於少數幾個示例來訓練 AI 模型。
與現有的人工智慧工具相比,生成式人工智慧可以幫助我們更快、更準確地刪除有害內容。我們已開始測試大型語言模型 (LLM),方法是根據我們的社群標準對它們進行訓練,以幫助確定某條內容是否違反了我們的政策。這些初步測試表明,LLM 可以比現有的機器學習模型表現得更好,或者至少增強了像 Few-Shot Learner 這樣的模型,我們樂觀地認為生成式 AI 可以幫助我們在未來執行我們的策略。
以上內容來自 [ Meta Newsroom ] about.fb.com/news/2023/09/building-generative-ai-features-responsibly