OpenAI 推出隱私過濾器,用於偵測與遮蔽個人識別資訊
Caroline Bishop 2026年4月24日 15:27(UTC +8)
OpenAI 發布隱私過濾器,這是一款以最先進精準度偵測並遮蔽個人識別資訊(PII)的模型,現已開放開發者使用。
OpenAI 推出了隱私過濾器,這是一款全新的開放權重 AI 模型,專為偵測並遮蔽文字中的個人識別資訊(PII)而設計。該工具於 2026 年 4 月 23 日發布,為隱私工作流程提供最先進的精準度,為保護敏感資料樹立全新標準。
隱私過濾器旨在超越傳統的基於規則的系統,解決 PII 偵測領域長期存在的挑戰。與依賴確定性模式來處理電話號碼或電子郵件地址等格式的舊工具不同,此模型運用先進的語言理解能力分析非結構化文字並做出情境感知決策。例如,它能區分公開資訊與私人資訊,這在細膩的隱私場景中是一項關鍵能力。
其突出特點之一是能夠在本地運行,即敏感資料可直接在使用者的裝置上處理,無需傳送至外部伺服器。這項設計降低了資料外洩的風險,對於醫療、金融及法律服務等對隱私敏感的行業應用尤具價值。
此模型針對生產環境進行了優化,以效率為核心。它能在單次處理中處理多達 128,000 個 Token 的上下文,同時維持高精確率與召回率。在廣泛使用的 PII-Masking-300k 基準測試中,隱私過濾器取得了 96% 的 F1 分數,在資料集的修正版本上更提升到了 97.43%。這些分數凸顯了其捕捉細微且複雜隱私洩漏的能力,同時將誤報降至最低。
OpenAI 透過 Hugging Face 和 GitHub 等平台,以 Apache 2.0 授權發布此模型,鼓勵開發者根據自身需求進行實驗、微調與部署。該模型支援八種 PII 類別,包括 private_person、private_address、private_email 以及 account_number。它可針對各種工作流程進行設定,讓使用者根據營運優先順序平衡精確率與召回率。
儘管具備上述能力,OpenAI 承認隱私過濾器並非法規遵循或政策審查的獨立解決方案。它是一款用於補充更廣泛隱私設計策略的工具。該模型可能需要進一步的特定領域評估或微調,以適應不同的行業、語言和命名慣例。
此次發布是 OpenAI 推動 AI 驅動隱私保護整體計畫的一部分。該公司強調,目標是讓 AI 系統在不損害個人隱私的前提下從資料中學習。透過開源隱私過濾器,OpenAI 旨在賦能開發者和組織將強健的隱私保護措施整合至其工作流程中。
隱私過濾器代表著隱私技術的重大進步,尤其是在 AI 行業面臨日益嚴格的資料安全與道德實踐審視之際。對於希望強化 PII 處理能力的開發者和企業而言,此模型的發布標誌著採用以使用者隱私為優先之尖端工具的重要契機。
圖片來源:Shutterstock- ai
- privacy
- openai
- pii
- data security








