セキュアAI開発トレーニング
ARANK

機械学習セキュリティのベストプラクティス - Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning -株式会社ChillStack/三井物産セキュアディレクション株式会社セキュアAI研究所 高江洲 勲概要「Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning」は、米国のNIST(National Institute of Standards and Technology)が策定を進めている機械学習セキュリティに関するベストプラクティスのドラフトであり、機械学習システムの安全確保を目的として、機械学習にまつわるセキュリティを「攻撃」「防御」「影響」の3つの視点で分類している。NISTIR8269はブログ執筆時点(2020年7月9日)でドラフト版であるが、「NIST SP800-30:Guide for Conducting Risk Assessments(日本語版:リスクアセスメントの実施の手引き)」への反映を計画しているとの事であり、NISTIR8269の内容が機械学習セキュリティのベストプラクティスになる可能性がある。そこで本ブログでは、筆者らの知見を交えながらNISTIR8269を解説していく。本ブログが、セキュアな機械学習システム開発の一助になれば幸いである。論文情報公開日2019-10…

jpsec.ai
Related Topics: AI