プライバシー保護連合学習技術 DeepProtect

個人情報など機密性の高いデータを開示せずに複数組織で共同のデータ解析が可能に

プレスリリース

2022.03.17.
プライバシー保護連合学習技術「DeepProtect」を技術移転

プライバシー保護連合学習技術 DeepProtect

社会実装

研究者より

本研究は実証実験や技術移転を進めており、金融をはじめ、医療やマーケティングなど幅広い業種でご協力いただける企業やパートナーを募集しております。本研究に関する詳細のご説明を希望される方はお気軽にお問合せください。

サイバーセキュリティ研究所 セキュリティ基盤研究室
security@ml.nict.go.jp

概要

AIを活用したサービスやシステムが高いパフォーマンスを発揮するには、大量の学習用データを集めることが必要になります。そのため、学習用データの内容によっては、単一の企業や組織では十分なデータを集められず、高い精度を持った学習モデルを作成することが難しい傾向があります。

その一方で、複数の組織が共同でデータを集めて学習モデルを作成する場合には、個人情報や企業の非公開情報などの機密性の高いデータの扱いが課題になり、データの適切な保護や、個人情報保護法等の法令やガイドラインの遵守に対応する必要があります。

このような複数組織で連携するデータ解析における課題を解決するのがプライバシー保護連合学習技術『DeepProtect』です。DeepProtectは、複数の組織が持つデータセットを互いに秘匿し、プライバシーや機密性を保ったままに共同でディープラーニングを行うことが可能です。

図1.DeepProtectのしくみ 金融機関の不正取引検知の例
図1

DeepProtectは、連合学習(Federated Learning)という機械学習の手法に暗号技術を融合して実現したNICTの独自のプライバシー保護技術です。(図1)

まず、各組織は各自のデータをディープラーニングによって学習し、それぞれ学習モデルを作成していきます。
次に、各組織内で更新された学習モデルの差分パラメータ(勾配情報)を暗号化した上でそれぞれアップロードし、中央サーバに集約します。中央サーバに送られるのは差分のパラメータのみであり、各組織内のデータはアップロードされず、それぞれの組織内に留まります。

さらに、各組織から中央サーバにアップロードされたそれぞれの差分のパラメータは、秘密計算技術(準同型暗号技術等)によって復号されずに暗号化されたまま統合、中央サーバは学習モデルを更新します。各組織はこの学習モデルをダウンロードし、各自の学習モデルを更新していきます。このサイクルを繰り返すことで、精度の高い学習モデルを共同で構築し、各組織内のデータ解析に適用することができます。

一連の流れの中で唯一外部に送信される差分パラメータは暗号化されたまま処理されるため、データの機密性やプライバシーを保ちつつ、複数機関が共同して学習モデルを構築することが可能となります。

提供内容・活用

本技術はこれまで金融機関と共同で不正送金検知等の実証実験に取り組んできました[1][2] 。技術移転先[3]からの提供も可能です。

適用先は金融関連に限らず、データ漏えいやプライバシーの懸念からデータ共有が困難である様々な分野への応用が可能です。複数の組織で連携してディープラーニングを⾏うことで、調査精度の向上や今まで⾒つからなかった知⾒の獲得が期待できます。

※JST CREST 課題名「プライバシー保護データ解析技術の社会実装」 (JPMJCR19F6) の事業の一環として取り組んでいます。

関連情報

プレスリリース:プライバシー保護連合学習技術を活用した不正送金検知の実証実験を実施

プレスリリース:プライバシー保護連合学習技術「DeepProtect」を技術移転

ページトップへ戻る