●??●??●?

      要點


      • 我們將在正式發布 AI 功能和模型之前為之構建安全措施,以便用戶獲得更加安全愉悅的使用體驗。


      • 與所有生成式 AI 系統一樣,這些模型可能返回不準確或不恰當的輸出結果。隨著這些功能逐步完善以及更多用戶分享反饋,我們將持續專注于功能改進。


      • 我們正積極與全球政府機構、其他公司、學術界和民間團體的 AI 專家、家長、隱私專家和倡導者等各方合作,共同建立負責任的監管框架。


      十多年來,Meta 一直是人工智能領域的開拓者。我們已面向研究人員發布了 1,000 多個 AI 模型、庫和數據集,其中包括與 Microsoft 合作推出的最新版大型語言模型 Llama 2。


      在 Connect 2023 大會上,我們宣布了幾項全新生成式 AI 功能,用戶可借其在我們的平臺上獲得更具社交性和沉浸感的體驗。我們希望此類生成式 AI 工具能夠為用戶提供各種形式的支持。想象一下一群好友共同策劃旅行:他們可以在群聊中向 AI 助手詢問活動和餐廳推薦。再比如,教師可以利用 AI 助手來針對不同學生的學習風格制定個性化課程計劃。


      開發這項技術意味著我們有責任制定最佳實踐和相關政策。盡管生成式 AI 有許多激動人心和富有創意的用例,但它并非總是完美無憾。例如,底層模型有可能生成虛構的答案,或者放大其從訓練數據中學習到的刻板觀念。我們將過去十年累積的經驗融入到新功能中,比如推出提醒功能,讓用戶了解生成式 AI 的局限性;以及公正性分類技術,以幫助我們發現和移除有風險的回復。這些功能的開發皆遵循了 Llama 2 負責任使用指南中概述的行業最佳實踐。


      秉持負責任開發人工智能的原則,我們還對產品運行壓力測試以提高安全性能,并定期與國際政策制定者、學術界和民間團體的專家以及其他業內同僚開展合作,共同推動這項技術的負責任使用。我們將逐步發布這些功能,并推出 Beta 測試版 AI 功能。我們將持續改進這些功能,根據技術發展和用戶的日常使用情況進行迭代優化。

      我們如何負責任地開發并將用戶安全放在首位?


      我們開發的新型文本交互體驗(比如基于大型語言模型的 Meta AI 助手)由自定義 AI 模型提供支持,而這些模型是在 Llama 2 模型的基礎上構建的,并充分利用了 Llama 2 模型在安全性和可靠性方面的訓練成果。我們針對今天宣布的功能也開發了特定保護措施。


      您可進一步詳細了解我們為識別潛在漏洞、降低風險、增強安全性和提升可靠性所采取的措施。例如:



      • 通過紅隊 (Red Teaming) 演練攜手內外部專家評估和改進我們的對話式人工智能。權威專家團隊耗費數千小時對這些模型進行壓力測試,檢測可能出現的意外使用方式以及識別和修復漏洞。


      • 對模型進行微調優化。這包括訓練模型執行特定任務,例如生成優質圖像,并使用指令來增加其提供有幫助回應的可能性。我們還訓練模型,使其能夠針對安全問題提供得到專家支持的資源。例如,AI 會在回復某些醫療相關詢問時,推薦當地的心理健康和飲食失調援助組織,同時明確表示無法提供專業醫療建議。


      • 針對安全和負責任準則訓練模型。通過對模型進行合規性訓練,我們可以減少其在我們的應用中分享可能對所有年齡段有害或不妥當的回應的可能性。


      • 采取措施降低偏差。解決生成式 AI 系統的潛在偏差是一大新課題。與其他 AI 模型一樣,鼓勵更多用戶使用這些功能并分享反饋意見可以幫助我們改進方法。


      • 開發新技術來檢測政策違規內容并對其采取措施。我們的團隊構建了算法,可實現在將有害回應分享給用戶之前對其進行掃描和過濾。


      • 在 AI 功能中內置反饋工具。任何 AI 模型都并非完美無憾。我們將利用接收的反饋持續訓練模型,以提高安全性能及自動檢測政策違規行為。我們還通過 Meta 長期運行的漏洞懸賞計劃向安全研究人員提供我們新開發的生成式 AI 功能。


      我們如何保護用戶的隱私?


      我們受到國際監管機構、政策制定者和專家的監督,負有保護用戶隱私的責任。我們與之合作以確保我們開發的內容遵循最佳實踐,并達到數據保護的嚴格標準。


      我們認為讓用戶了解用來訓練生成式 AI 產品所依托模型的數據類型非常重要。

      我們如何確保用戶了解新功能的使用方法以及功能局限性?


      我們會在功能內提供信息說明,幫助用戶了解何時在與 AI 交互以及這項新技術的運作原理。我們會在產品體驗中指出,系統可能返回不準確或不恰當的輸出結果。



      過去一年中,我們發布了 22 個“系統信息卡”,為用戶提供簡單易懂的信息,幫助其了解 AI 系統如何做出影響他們的決策。


      如今,我們將在 Meta 的 AI 網站上推出新的生成式 AI 系統信息卡——其中包括為 Meta AI 提供文本生成支持的 AI 系統信息卡,以及為 AI 貼圖、Meta AI、加料和背景工具生成圖像的 AI 系統信息卡。這其中包含交互演示,以便用戶了解調整輸入提示對模型輸出結果的影響。

      我們如何幫助用戶判斷出圖像是由 AI 功能創建的?


      我們的產品開發遵循行業最佳實踐,旨在防止用戶利用我們的工具傳播錯誤信息。通過 Meta AI、加料和背景工具創建或編輯的圖像將具有可見標記,以便用戶辨別出此類內容由 AI 生成。此外,我們還努力開發其他技術以在 Meta AI 生成的圖像文件中嵌入信息,并計劃隨著技術改進將其應用到其他體驗中。我們不計劃為 AI 貼圖添加這些功能,因為它們沒有那么逼真,因而不太可能被誤認作真實圖像。


      目前,針對如何標識和標注 AI 生成式內容,業界尚未建立任何統一標準。我們相信此舉意義重大,因而通過參與類似 Partnership on AI 的論壇與其他公司開展合作,希望共同制定這些標準。


      我們采取哪些措施來阻止用戶使用生成式 AI 傳播錯誤信息?


      AI 在我們處理錯誤信息和其他有害內容方面起到了關鍵作用。例如,我們開發了 AI 技術,用于匹配與之前的事實核查內容近乎重復的內容。我們還設計了一款名為 Few-Shot Learner 的工具,這款工具靈活性更強,可快速針對新出現或不斷變化的有害內容類型采取操作,并且支持 100 多種語言的使用場景。以前,我們需要收集數千甚至數百萬個示例以建立足夠龐大的數據集來訓練 AI 模型,然后加以改進微調以使其正常運行,而 Few-Shot Learner 可以僅基于少數示例來訓練 AI 模型。


      與現有 AI 工具相比,生成式 AI 可以幫助我們更加快速準確地移除有害內容。我們已開始測試大型語言模型 (LLM),針對社群守則對模型進行訓練,使其幫助確定某條內容是否違反我們的政策。這些初步測試表明,大型語言模型 (LLM) 在性能上優于現有的機器學習模型,或者至少可對 Few-Shot Learner 這類模型起到增強作用,因此我們相信,生成式 AI 未來能夠幫助我們更好地執行政策。




      長按掃碼參加

      【Meta 海外營銷秘笈?】小程序

      免費課程


      出海洞察,營銷工具,獨家活動

      從電商、應用到游戲行業,

      優質內容,一網打盡!





      點贊(2) 打賞

      評論列表 共有 0 條評論

      暫無評論

      服務號

      訂閱號

      備注【拉群】

      商務洽談

      微信聯系站長

      發表
      評論
      立即
      投稿
      返回
      頂部