NIST lance un programme pour évaluer les risques sociétaux de l’IA

Le National Institute of Standards and Technology (NIST) vient de dévoiler un nouveau programme ambitieux visant à tester, évaluer, valider et vérifier les capacités et impacts de l’intelligence artificielle (IA). Ce programme, intitulé Assessing Risks and Impacts of AI (ARIA), a pour but d’aider les organisations et les individus à déterminer si une technologie d’IA donnée sera valide, fiable, sûre, sécurisée, privée et équitable une fois déployée.

Une réponse aux préoccupations croissantes

L’initIAtive ARIA intervient peu de temps après plusieurs annonces récentes du NIST liées à l’ordre exécutif sur l’IA digne de confiance et à la vision stratégique de l’Institut de sécurité de l’IA des États-Unis. Gina Raimondo, secrétaire américaine au Commerce, a souligné la nécessité de tester le fonctionnement de l’IA dans des scénarios réalistes pour comprendre pleinement ses impacts sur notre société. Elle a déclaré : « Pour comprendre pleinement les impacts de l’IA sur notre société, nous devons tester son fonctionnement dans des scénarios réalistes – et c’est exactement ce que nous faisons avec ce programme. »

Une extension du cadre de gestion des risques de l’IA

Le programme ARIA s’appuie sur le AI Risk Management Framework, publié par le NIST en janvier 2023. Ce cadre recommande l’utilisation de techniques quantitatives et qualitatives pour analyser et surveiller les risques et impacts de l’IA. ARIA contribuera à évaluer ces risques en développant une nouvelle série de méthodologies et de métriques pour quantifier la capacité d’un système à maintenir une fonctionnalité sûre dans des contextes sociétaux.

Laurie E. Locascio, sous-secrétaire au Commerce pour les normes et la technologie et directrice du NIST, a déclaré : « Le programme ARIA est conçu pour répondre aux besoins du monde réel à mesure que l’utilisation de la technologie de l’IA se développe. Cet effort soutiendra l’Institut de sécurité de l’IA des États-Unis, étendra l’engagement déjà large du NIST avec la communauté de recherche et aidera à établir des méthodes fiables pour tester et évaluer la fonctionnalité de l’IA dans le monde réel. »

Une approche holistique de l’évaluation de l’IA

Reva Schwartz, responsable du programme ARIA du laboratoire de technologie de l’information du NIST, a expliqué que mesurer les impacts de l’IA va au-delà de la simple évaluation de la performance d’un modèle en laboratoire. « ARIA prendra en compte l’IA au-delà du modèle et évaluera les systèmes dans leur contexte, y compris ce qui se passe lorsque les gens interagissent avec la technologie de l’IA dans des environnements réalistes sous une utilisation régulière. Cela offre une vue plus large et plus holistique des effets nets de ces technologies. »

Cette approche permet de mieux comprendre les interactions humaines avec l’IA et les implications sociétales de son utilisation, offrant ainsi une vision complète des effets positifs et négatifs de ces technologies.

Une collaboration renforcée pour une IA digne de confiance

Les résultats du programme ARIA soutiendront et informeront les efforts collectifs du NIST, y compris par le biais de l’Institut de sécurité de l’IA des États-Unis, pour établir les bases de systèmes d’IA sûrs, sécurisés et dignes de confiance. En collaborant étroitement avec la communauté de recherche et en utilisant des méthodologies rigoureuses, le NIST vise à créer des normes fiables pour l’évaluation de l’IA.

Un cadre de gestion des risques adapté aux besoins actuels

Le AI Risk Management Framework du NIST, publié en janvier 2023, constitue déjà un outil précieux pour les organisations cherchant à naviguer dans le paysage complexe des risques liés à l’IA. ARIA vient ajouter une dimension supplémentaire à ce cadre en proposant des méthodes et des métriques concrètes pour évaluer la capacité d’un système à fonctionner de manière sûre dans des contextes réels.

L’objectif est de fournir aux décideurs des informations précises et fiables pour évaluer les technologies d’IA, garantissant ainsi que leur déploiement soit sécurisé et éthique.

Encourager l’innovation tout en protégeant la société

L’un des principaux défis de l’IA est de parvenir à un équilibre entre innovation et protection de la société. En mettant en place des protocoles rigoureux pour tester et évaluer les technologies d’IA, le NIST contribue à créer un environnement où l’innovation peut prospérer sans compromettre la sécurité et les valeurs sociétales.

Gina Raimondo a souligné cette vision en déclarant que, grâce au programme ARIA et à d’autres efforts pour soutenir les responsabilités du Commerce en vertu de l’ordre exécutif du président Biden sur l’IA, le NIST et l’Institut de sécurité de l’IA des États-Unis utilisent tous les leviers pour atténuer les risques et maximiser les avantages de l’IA.

Un avenir prometteur pour l’IA

Avec l’introduction du programme ARIA, le NIST montre une fois de plus son engagement envers la sécurité et la fiabilité de l’IA. Ce programme a le potentiel de transformer la manière dont nous évaluons et gérons les technologies d’IA, en fournissant des outils précieux pour garantir que ces technologies sont déployées de manière responsable et éthique.

En travaillant en étroite collaboration avec la communauté de recherche et en utilisant des approches innovantes pour évaluer les impacts de l’IA, le NIST ouvre la voie à un avenir où l’IA peut être utilisée pour améliorer notre société tout en minimisant les risques potentiels.

Le lancement du programme ARIA par le NIST représente une avancée majeure dans l’évaluation et la gestion des risques liés à l’IA. En adoptant une approche holistique et réaliste, ce programme promet de fournir des informations cruciales pour garantir que les technologies d’IA sont déployées de manière sûre, éthique et équitable. À mesure que l’IA continue de se développer et d’influencer notre société, des initiatives comme ARIA sont essentielles pour assurer que cette technologie bénéfique soit utilisée de manière responsable et sécurisée.

Retour en haut