Anthropic 提出了一個新的 透明度框架,旨在解決在前沿 AI 模型開發過程中日益增長的問責需求。這一提議的重點針對正在開發強大 AI 模型的大型人工智能公司,這些公司是以計算能力、成本、評估性能和年度研發支出等因素來區分的。目標是建立一套標準,以確保安全,降低風險,并提高公眾對這些先進 AI 系統的開發和部署的可見度。
框架的一個核心方面是實施安全開發框架(Secure Development Frameworks,SDFs),這將要求大型 AI 公司評估和減輕與其模型相關的潛在災難性風險。這些風險包括化學的、生物的及放射性的危害,以及由模型自主性錯位造成的傷害。該提案概述了這些框架不僅應解決風險緩解問題,還應確保負責任地處理 AI 開發流程。
該框架的一個關鍵要求是公開披露。根據提議的法規,AI 公司將被要求通過注冊網站公開其 SDFs,提供對其安全實踐的透明度。這將允許研究人員、政府和公眾獲取有關部署模型的重要信息,確保安全標準得到滿足,并妥善管理任何風險。此外,公司還需要發布 系統卡片,提供模型測試程序、評估結果和實施的緩解措施的摘要。每當模型被修訂或添加新功能時,這些文件都需要更新。
該框架還建議小型開發人員和初創公司不受這些要求的限制。相反,這些法規將適用于有潛力造成重大傷害的大規模 AI 公司,例如那些擁有大量計算能力或財務資源的公司?;砻庵荚诒苊饨o小型公司帶來不當負擔,同時仍將監管工作集中在該領域最大的參與者身上。
此外,提議包括執行合規的具體條款。如果 AI 公司就其遵守框架的情況提供虛假或誤導性陳述,將構成違法行為,確保必要時可以應用舉報人保護。執法機制將允許司法部長對違規行為追究民事處罰,幫助維護系統的完整性。
社區的反應反映了對最近全球關于 AI 監管討論的樂觀、懷疑和實際關切的擔憂。
AI 專家 Himanshu Kumar 在 X 上發表評論:
促進開源 AI 開發對安全創新不也是至關重要的嗎?
與此同時,用戶 Skeptical Observer 也發表了評論:
由誰來執行?這感覺非常以美國為中心。中國的實驗室或其他范圍之外的呢?舉報人保護聽起來不錯,但沒有全球覆蓋,這只是權宜之計。希望他們在 AI 安全峰會上澄清這一點!
最終,提議的透明度框架旨在在確保 AI 安全 和促進持續創新之間取得平衡。雖然框架為透明度設定了最低標準,但它故意避免過于規范,允許 AI 行業隨著技術的發展而不斷適應。通過促進透明度,該框架尋求為 AI 開發人員建立清晰的問責制,幫助政策制定者和公眾區分該領域負責任的和不負責任的做法。這可以作為進一步監管的基礎,如果需要的話,提供必要的證據和見解,以確定隨著人工智能模型的發展是否需要額外的監督。
https://www.infoq.com/news/2025/07/anthropic-transparency-framework/
聲明:本文為 InfoQ 翻譯,未經許可禁止轉載。