在世界經濟論壇上,人工智能成為政界、商界和公民社會領袖們討論的焦點——從人工智能創造的機遇和風險,到政府和科技公司可以做些什麼來確保人工智能得到負責任的開發並以造福於大多數人的方式部署。
我與世界領先的人工智能科學家 Yann LeCun 和其他 Meta 同事一起出席了此次會議,我們有機會闡述公司在這些問題上的一些想法。
作為一家在人工智能開發領域處於前沿地位的公司,我們相信進步與警惕可以攜手並進。我們相信人工智能技術有可能給社會帶來巨大的好處——從提高生產力到加速科學研究。我們相信,在政府和行業之間建立合作以制定標準和護欄的情況下,以負責任、透明和可問責的方式開發這些技術既是可能的,也是必要的。人工智能產品中內置了保障措施來減輕許多潛在風險。
我們已經親眼目睹了一些進展,研究人員使用了我們開發並向他們提供的 AI 工具。例如,耶魯大學和洛桑聯邦理工學院的智能全球健康技術實驗室使用我們最新的大型語言模型 Llama 2 構建了 Meditron,這是世界上性能最好的針對醫療領域的開源 LLM,用於幫助指導臨床決策。Meta 還與紐約大學合作進行人工智能研究,以開發更快的 MRI 掃描。我們正在與卡內基梅隆大學合作開展一個項目,該項目正在使用人工智能來開發可再生能源存儲形式。
開放的人工智能創新方法
在政策制定者中,去年圍繞人工智能發展展開的重大辯論之一是,公司是將其人工智能模型保存在內部還是更公開地提供它們會更好。作為科技公司採取廣泛開放方法的堅定倡導者,令人鼓舞的是,今年達沃斯代表團中出現了明顯的開放傾向。
正如馬克·扎克伯格本週闡述的那樣,我們的長期願景是構建通用智能,負責任地開源它,並使其廣泛可用,以便人人受益。Meta 在公開共享人工智能技術方面擁有悠久的歷史。Llama 2 在我們的網站上以及通過與微軟、谷歌雲、AWS 等的合作夥伴關係免費提供給大多數人。我們已經發布了諸如 PyTorch(領先的機器學習框架)、我們的 No Language Left Behind 模型(可以翻譯多達 200 種語言)以及我們的 Seamless 套件人工智能語音到語音翻譯模型(可以將您的聲音翻譯成 36 種語言,延遲約兩秒)等技術。
雖然我們認識到有時適當不公開發布某些專有模型,但總體而言,我們認為開放是傳播這些技術好處的最佳方式。讓企業、初創公司和研究人員能夠訪問最先進的人工智能工具,可以為所有人創造機會,而不仅仅是一小部分大型科技公司。當然,Meta 認為這也符合我們自己的利益。它可以帶來更好的產品、更快的創新和繁榮的市場,這對我們和其他許多人都有好處。
開放創新並非令人擔憂的事情。互聯網的基礎設施運行在開源代碼上,網絡瀏覽器和每天有數十億人使用的許多應用程序也是如此。網絡安全行業建立在開源技術之上。開放的方法通過確保模型不斷受到數千名開發人員和研究人員的審查和壓力測試來創建更安全的產品,他們可以識別和解決公司孤島內部團隊需要花費更長時間才能解決的問題。並且通過了解其他人如何使用這些工具,內部團隊可以向他們學習並解決這些問題。
最終,開放是消除圍繞人工智能的恐懼的最佳解藥。它允許以特別適合新興技術的方式進行協作、審查和迭代。它通過使學者、研究人員和記者能夠評估人工智能模型並挑戰大公司提出的主張來提供問責制,而不是不得不相信他們在做正確的事情。
生成式人工智能與選舉
在 Meta,我們非常認真地關注的一個問題是,生成式人工智能工具有可能在今年世界各地舉行的選舉中被濫用。我們一直在與專家討論人工智能的進步將對今年的選舉產生什麼影響,並且我們已經制定了政策,無論內容是由人工智能還是人創建的,我們都會執行這些政策。更詳細地了解我們今年的選舉方法。
雖然我們並未等到正式的行業標準建立起來才在某些領域採取措施,例如幫助人們理解何時使用我們的人工智能功能創建圖像,但我們正在通過人工智能合作夥伴關係等論壇與其他公司合作來制定這些標準。
週四在世界經濟論壇小組討論中,我有機會談論人工智能如何幫助 Meta 在網上應對仇恨言論:
負責任地開發人工智能
儘管當今的人工智能工具能夠做到非凡的事情,但它們遠遠達不到科幻小說中想象的超級智能水平。它們是模式識別系統:擁有巨大自動完成能力的龐大數據庫,可以通過組合句子或創建圖像或音頻來創建響應。考慮和準備技術在未來可能帶來的潛在風險非常重要,但我們不應讓這分散我們對當今需要解決的挑戰的注意力。
Meta 在開發人工智能模型和工具方面的長期經驗幫助我們從一開始就在人工智能產品中構建了保障措施。我們訓練和微調我們的模型以符合我們的安全和責任準則。最重要的是,我們確保通過與外部專家和內部團隊進行所謂的“紅隊演習”來徹底壓力測試它們,以識別基礎層的漏洞並以透明的方式幫助減輕這些漏洞。例如,我們將 Llama 2 提交給 DEFCON 大會,那裡有 2500 多名黑客對其進行了壓力測試。
我們還認為,對我們發布的模型和工具保持透明非常重要。這就是為什麼,例如,我們發布系統和模型卡,詳細說明我們的系統如何以無需深厚技術知識即可訪問的方式工作,以及為什麼我們在 Llama 2 旁邊分享了一篇研究論文,概述了我們在安全和隱私、紅隊演習以及模型評估方面的做法行業安全基準。我們還發布了負責任使用指南,以幫助其他人負責任地進行創新。我們最近還宣布了 Purple Llama,這是一個旨在幫助開發人員和研究人員使用開放的信任和安全工具和評估來負責任地構建生成式人工智能模型的新項目。
我們還認為,跨行業、政府、學術界和公民社會進行合作至關重要。例如,Meta 是人工智能合作夥伴關係的創始成員,並正在參與其合成媒體集體行動框架,這是確保圍繞人工智能生成內容建立護欄的重要一步。
政府也發揮著重要作用。在過去的幾個月裡,我一直在與來自英國、歐盟、美國、印度、日本等國的監管機構和政策制定者會面。令人鼓舞的是,如此多的國家正在考慮制定自己的框架,以確保人工智能的開發和部署是負責任的——例如,我們去年簽署的白宮自願承諾——但政府,尤其是民主國家,必須共同努力制定共同的人工智能標準和治理模式。
未來有巨大的機遇,也有巨大的挑戰需要克服,但達沃斯最令人鼓舞的是,來自政府、商業和公民社會的領導人正在積極參與這些問題。圍繞人工智能的辯論顯著地比幾個月前更加先進和複雜——這對所有人來說都是一件好事。
以上內容來自 [ Meta Newsroom ] about.fb.com/news/2024/01/davos-ai-discussions