top of page
CI.Seoa News.png

《 Meta 》推出 Purple Llama 實現安全和負責任 AI 開發

迄今為止,Llama 模型 的下載量已超過 100 億次,其中很多創新都是由開放模型推動的。為了建立對推動這一新一輪創新浪潮的開發人員的信任,我們推出了 Purple Llama, 這是一個傘形專案,它將彙集工具和評估,幫助開發人員使用開放式生成式 AI 模型負責任地進行構建。


為什麼是紫色? 借用網路安全領域的概念,我們認為,要真正緩解生成式人工智慧帶來的挑戰,我們需要同時採取進攻(紅隊)和防禦(藍隊)的姿態。紫色團隊由紅團隊和藍團隊職責組成,是一種評估和減輕潛在風險的協作方法。


首先,Purple Llama 將包括用於網路安全和輸入 / 輸出保護的工具和評估,在不久的將來還會有更多。Purple Llama 專案中的元件將獲得許可,以實現研究和商業用途。我們相信,這是實現開發人員之間協作以及標準化生成式 AI 信任和安全工具的重要一步。


網路安全


我們正在分享我們認為是全行業首套針對大型語言模型 (LLM) 的網路安全安全評估。這些基準基於行業指南和標準,並與我們的安全專家合作構建。通過這個初始版本,我們的目標是提供一些工具,幫助解決白宮承諾中概述的風險,包括:

  • 量化 LLM 網路安全風險的指標

  • 用於評估不安全代碼建議頻率的工具

  • 用於評估 LLM 的工具,使其更難生成惡意代碼或幫助進行網路攻擊

我們相信,這些工具將減少 LLM 建議的不安全 AI 生成代碼的頻率,並降低 LLM 對網路對手的説明。


輸入 / 輸出保護


正如我們在 Llama 2 的負責任使用指南中概述的那樣,我們建議根據適合應用程式的內容指南檢查和過濾 LLM 的所有輸入和輸出。


為了支援這一點,我們發佈了 Llama Guard,這是一個公開的基礎模型,可幫助開發人員避免產生具有潛在風險的輸出。作為我們對開放和透明科學的持續承諾的一部分,我們將發佈我們的方法,並在我們的論文中對我們的結果進行擴展討論。該模型已在公開可用的數據集組合上進行了訓練,以便能夠檢測常見類型的潛在風險或違規內容。最終,我們的願景是使開發人員能夠根據自己的要求定製未來的版本以支持相關用例,並更容易採用最佳實踐和改進開放生態系統。


開放的生態系統


對 Meta 來說,對 AI 採取開放的態度並不新鮮。探索性研究、開放科學和交叉合作是我們人工智慧工作的基礎,我們相信這是一個創建開放生態系統的重要機會。 當 Llama 2 於 100 月與多個合作夥伴一起推出時,這種協作思維處於最前沿,我們很高興地與大家分享,其中許多合作夥伴正在與我們合作進行開放信任和安全,包括:AI Alliance,AMD,Anyscale,AWS,Bain,Cloudflare,Databricks,Dell Technologies,Dropbox,Google Cloud,Hugging Face,IBM,Intel,Microsoft, MLCommons、Nvidia、Oracle、Orange、Scale AI、Together.AI 以及更多即將推出。


我們很高興能與我們的合作夥伴和其他擁有共同願景的人合作,共同建立一個負責任開發的生成式人工智慧的開放生態系統。



科技新聞類別 News category

科技新聞影音 News Video

​科技新聞類別  News Category

搜尋新聞 Search News

科技新聞類別 News category

bottom of page