Open Source2026-04-24VentureBeat

OpenAI 推出 Privacy Filter:開源資料去識別化工具

OpenAI 發布了 Privacy Filter,這是一個開源、裝置端運行的模型,旨在資料到達雲端伺服器之前偵測並刪除個人識別資訊(PII)。該工具已在 Hugging Face 上發布,代表了 AI 生態系統中向在地端優先的隱私基礎設施的重大轉變。 Privacy Filter 完全在用戶的裝置上運行,這意味著敏感資料無需離開本地硬體即可進行處理。對於處理大量客戶資料且必須遵守 GDPR、HIPAA 和 CCPA 等法規的企業來說,這是一項關鍵功能。透過在源頭對資料集進行去識別化處理,組織可以顯著降低資料外洩和違規風險。 OpenAI 將此模型開源的決定值得注意。透過在 Hugging Face 上免費提供,該公司邀請開發者和安全團隊檢查、修改和改進該工具。這種透明度建立了信任,並鼓勵社群驅動的開發,從而可以實現更快的迭代和更好的效能。 該模型旨在偵測廣泛的 PII,包括姓名、電子郵件地址、電話號碼、社會安全號碼、信用卡詳細資訊等。它可以以最小的阻力整合到現有的資料管道中,使其成為希望增強資料隱私實踐的公司的實用解決方案。 此次發布正值人們對 AI 和資料隱私的擔憂達到歷史最高點之際。透過提供一個優先考慮裝置端處理和開源透明度的工具,OpenAI 正在解決企業採用 AI 的最大障礙之一:信任。對於企業而言,Privacy Filter 提供了一種在不犧牲資料安全性的情況下利用 AI 能力的方法,為負責任的 AI 部署樹立了新標準。

相关资讯

更多 AI 资讯

AIStart.ai · 你的专属 AI 启动台