最近的評估顯示,中國的人工智能模型,尤其是 DeepSeek,在敏感信息披露等關鍵領域的表現優於美國同行,例如 Meta 的 Llama。
這一發現來自於 Tumeryk 開發的新推出的 AI 信任評分,該評分評估 AI 模型的九個關鍵因素,包括敏感信息洩露、不安全的輸出處理、安全性、毒性等。 Tumeryk 的 AI Trust Manager 旨在幫助安全專業人員更好地確保其 AI 部署的安全性和合規性,同時識別 AI 應用程序中的漏洞並實時監控性能。它還可以推薦可行的步驟來增強系統的安全性和合規性。
參見:保護孩子免受人工智能聊天應用程序的侵害:為什麼信任勝過技術
DeepSeek 的模型被稱為 DeepSeek NIM,在敏感信息披露類別中獲得了 910 分的驕人成績,超過了 Anthropic Claude 的 687 分和 Meta Llama 的 557 分。這些結果表明人工智能發展的格局正在不斷發展,挑戰著人們對外國模型及其安全和合規標準的現有看法。
測試版新聞報導稱,根據評估,DeepSeek 和其他中國模型表現出比之前理解的更高的安全和合規標準。此外,這些模型運行在 NVIDIA 和 SambaNova 等美國平台上,在遵守國際法規的同時確保數據安全。對於希望安全、合乎道德地採用人工智能技術的公司來說,性能和合規性的融合至關重要。
隨著人工智能行業的不斷發展,這種客觀的、數據驅動的評估對於塑造用戶和開發人員之間的信任和透明度至關重要。
