SAS enrichit son offre d'IA de confiance avec des fiches de modèles et des services de gouvernance de l'IA
Les fiches d’information (inspirées des fiches nutritionnelles) spécifiques aux modèles d’IA favorisent la transparence et mettent en évidence leurs éventuels biais et dérives, tout en soutenant les modèles open source.
SAS, leader dans le domaine des données et de l'IA, annonce le lancement de nouveaux produits et services d'IA de confiance afin de renforcer la gouvernance de l'IA ainsi que la fiabilité et la transparence des modèles. Les fiches de modèles et les nouveaux services consultatifs en gouvernance de l'IA aideront les organisations à atténuer les risques et à poursuivre leurs objectifs en IA en toute confiance. SAS a également publié le Trustworthy AI Life Cycle Workflow, un guide lié au processus de cycle de vie de l'IA de confiance, correspondant au cadre de gestion des risques de l'IA du National Institute of Standards and Technology (NIST).
« Nos clients sont enthousiastes quant au potentiel de l'IA, mais restent prudents quant à son utilisation », explique Reggie Townsend, vice-président de la Data Ethics Practice de SAS. « Ils posent de bonnes questions sur l'IA responsable et éthique. Notre objectif est de leur fournir les outils et les conseils, sur la base de notre expérience décennale, pour intégrer l'IA de manière à accroître la rentabilité tout en réduisant les dégâts involontaires.»
Fiches de modèles : Les « fiches d’information » de l'IA de confiance
Convertir un modèle d'IA intrinsèquement complexe en un élément intelligible pour tous est une démarche délicate. Avec la multiplications des réglementations, la capacité de comprendre et de partager les performances d'un modèle avec les régulateurs deviendra cruciale. Les fiches de modèle, une fonctionnalité prochainement intégrée à SAS® Viya®, serviront à toutes les parties prenantes - et cela tout au long du cycle de vie de l'IA. Des développeurs aux directeurs de conseil d'administration, chacun pourra bénéficier de cet outil conçu avec soin, qui soutient les modèles propriétaires et open source.
Disponibles courant 2024, les fiches de modèles peuvent être décrites comme des « fiches d’information » pour les modèles d'IA. L'approche de SAS consiste à autogénérer des fiches pour les modèles enregistrés avec du contenu provenant directement des produits SAS, évitant ainsi à chaque utilisateur de devoir les créer. En outre, comme SAS Viya dispose déjà d'une architecture existante pour utiliser l’open source, les fiches de modèles seront également disponibles pour les modèles open source, en commençant par les modèles Python.
Les fiches de modèle mettront en évidence des indicateurs tels que la précision, l'équité et la dérive des modèles, c'est-à-dire la dégradation des performances du modèle à mesure que les conditions changent. Elles comprennent des détails de gouvernance tels que la date de la dernière modification du modèle, les contributeurs et les responsables du modèle, permettant aux organisations de traiter en interne les performances anormales du modèle. La section relative à l'utilisation du modèle aborde l'utilisation prévue, les cas d’usage hors du champ d'application et les limitations, ce qui sera crucial, à mesure que la transparence et l'audit des modèles deviendront des opérations commerciales réglementées.
« SAS adopte une approche réfléchie pour aider ses clients à adopter l'IA, en se concentrant sur les réalités pratiques et les défis du déploiement de l'IA dans des environnements industriels réels », analyse Eric Gao, directeur de recherche au sein du cabinet d'analystes IDC. « Les fiches de modèles seront précieuses pour le suivi des projets d'IA et promouvoir la transparence. »
Un nouveau département, entièrement dédia à l’IA éthique
Avec la multiplication des cas d’usage d'IA, les clients de SAS sont de plus en plus préoccupés par la façon d'utiliser leurs données de manière à gagner en productivité, tout en garantissant la sécurité des opérations. Pour les aider dans leur parcours en matière de données et d'IA, SAS lance AI Governance Advisory.
Après un premier échange, SAS AI Governance Advisory aidera les clients à réfléchir à ce que la gouvernance de l'IA signifie dans le contexte de leurs organisations. SAS a testé ce service et les clients ont noté plusieurs avantages :
- L’augmentation de la productivité grâce à une prise de décision fiable.
- Une plus grande confiance grâce à une meilleure responsabilisation dans l'utilisation des données.
- La capacité d’attirer et de garder les meilleurs talents, à la recherche de pratiques d'innovation responsables.
- Un avantage concurrentiel accru et une plus grande agilité sur le marché grâce à une “mise en conformité anticipée”.
Steven Tiell, pionnier du secteur et expert en éthique de l’IA, a été recruté en tant que Global Head of AI Governance chez SAS. Tiell, qui a dirigé la pratique mondiale d'Accenture en matière d'éthique des données et d'innovation responsable, est également l'ancien vice-président de la stratégie d'IA chez DataStax.
S'appuyer sur les normes gouvernementales émergentes
L'année dernière, le National Institute of Standards and Technology (NIST) a dévoilé un cadre de gestion des risques liés à l'IA. Ce cadre est devenu un outil précieux permettant aux organisations de concevoir et de gérer une IA de confiance et responsable, en l'absence de réglementation officielle.
SAS a créé le Trustworthy AI Life Cycle Workflow, destiné à faciliter l'adoption par les entreprises des recommandations du NIST, en précisant les rôles et les attentes de chacun, en rassemblant la documentation requise, en listant les facteurs à prendre en compte et en tirant parti de l'automatisation pour faciliter l'adoption. Les organisations disposent ainsi d'un modèle de production accompagné d'une documentation montrant qu'elles ont fait preuve de diligence pour garantir que le modèle est équitable et que leurs processus ne sont pas préjudiciables.
Le workflow enregistre automatiquement toutes les considérations de l’entreprise concernant l’impact de leur modèle d’IA. Il inclut des étapes visant à garantir que les données d'entraînement sont représentatives de la population concernée et que les prédictions et les performances du modèle sont similaires pour toutes les classes protégées. Ces étapes permettent de s'assurer que le modèle n'a pas d'impact disparate ou préjudiciable pour des groupes spécifiques. En outre, les utilisateurs peuvent s'assurer qu'un modèle reste précis au fil du temps en créant des tâches nécessitant une intervention humaine, lorsque la requête nécessite une attention particulière.
Le flux de travail SAS Trustworthy AI Life Cycle est disponible dès à présent sur le GitHub dédié et sera prochainement disponible sur le site du NIST.
L'annonce d'aujourd'hui sera décryptée par les experts de SAS à l’occasion de SAS Innovate Paris, le 5 juin prochain. Si vous souhaitez y assister, merci de contacter Rumeur Publique.
SAS est leader mondial de la data et de l'IA. Grâce aux logiciels et aux solutions sectorielles de SAS, les entreprises transforment les données en décisions de confiance. SAS vous donne LE POUVOIR DE SAVOIR®.
Contact presse :
- SAS France
Lydie Araujo +33 1 60 62 10 84