Risques et enjeux émergents en matière de sécurité de l'IA : principales conclusions à tirer du rapport du NIST sur l'apprentissage automatique contradictoire


Photo/image : Osler

À mesure que les systèmes d’IA deviennent de plus en plus répandus et que leur intégration dans les organisations s’affirme, les entreprises sont confrontées à des risques nouveaux et évolutifs en matière de sécurité et de protection de la vie privée.

Pour aider les organisations à se familiariser avec les types d’attaques et de risques auxquels elles peuvent s’attendre, ainsi qu’avec les stratégies permettant de les atténuer, le National Institute of Standards and Technology (NIST) des États-Unis a publié en début d’année un rapport complet, intitulé « Adversarial Machine Learning : A Taxonomy and Terminology of Attacks and Mitigations . Compte tenu de l’influence mondiale des normes et des directives du NIST, les organisations canadiennes peuvent se faire une idée de l’orientation et des directives qui pourraient découler du cadre de référence du NIST.


Lire l'article complet sur Osler »