★4 AI倫理 EN VentureBeat AI by Synapse Flow 編集部

OpenAI、企業データから個人情報を削除するオープンソースのプライバシーフィルターを発表

OpenAI launches Privacy Filter, an open source, on-device data sanitization model that removes personal information from enterprise datasets

記事のポイント

📰ニュース

OpenAIが、企業データセットから個人情報を削除するオープンソースのオンデバイスデータサニタイズモデル「Privacy Filter」を公開しました。

🔍注目ポイント

双方向トークン分類器とMoEフレームワークにより、高い精度と効率で個人情報を検出し、最大128,000トークンの長文も処理可能です。

🔮これからどうなる

企業はクラウドにデータを送る前に機密情報を保護でき、プライバシー侵害のリスクを大幅に低減し、より安全にAIを活用できます。

このモデルは、OpenAIのgpt-ossファミリーの派生で、Apache 2.0ライセンスでHugging Faceで公開されました。
標準的なノートPCやウェブブラウザで動作し、文脈を深く理解することで「Alice」が個人か文学キャラクターかを区別できます。
疎なMoEフレームワークにより、15億パラメータのうち5000万のみがアクティブになり、高いスループットと効率を実現しています。
💡
編集部の視点

企業がAIを導入する際のプライバシー懸念を大きく和らげるツールですね。これでデータ漏洩のリスクが減り、より多くの企業が安心してAIを活用しやすくなりそうです。

概要

In a significant shift toward local-first privacy infrastructure, OpenAI has released Privacy Filter, a specialized open-source model designed to detect and redact personally identifiable information (PII) before it ever reaches a cloud-based server. Launched today on AI code sharing community Hugg…

元記事を読む →

関連記事