SAS agrega model cards e serviços de governança de IA às ofertas de IA confiável

Objetivo é ajudar organizações a navegar no cenário turbulento da IA mitigando riscos e contribuindo para que alcancem metas)

Líder em dados e IA, o SAS apresenta novos produtos e serviços de IA confiável para fortalecer a governança da IA e promover a confiabilidade e a transparência dos modelos. Os model cards e os novos serviços de consultoria de governança de IA ajudarão organizações a navegar pelo cenário turbulento da IA mitigando riscos e contribuindo para que alcancem metas de IA com mais segurança. O SAS também publicou um Fluxo de Trabalho do Ciclo de Vida da IA Confiável, mapeado pelo Framework de Gestão de Riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST).

“Nossos clientes estão entusiasmados com o potencial da IA, mas continuam cautelosos sobre quando e como usá-la”, afirma Reggie Townsend, vice-presidente da prática de ética de dados do SAS. “Eles têm boas perguntas sobre IA responsável e ética. Nosso objetivo é disponibilizar ferramentas e orientações fundamentadas por décadas de experiência, para integrar a IA, impulsionar a lucratividade e, ao mesmo tempo, reduzir danos não intencionais”.

Model cards: os “rótulos nutricionais” da IA confiável

Pode ser difícil converter algo tão complexo e sofisticado como um modelo de IA em algo compreensível para todos os envolvidos no ciclo de vida da IA. E com a aprovação de novas regras e regulamentações por todo o mundo, a habilidade de entender e compartilhar com as autoridades reguladoras o desempenho de um modelo se torna crucial. Os model cards, recurso futuro do SAS® Viya®, serão úteis às partes interessadas em todo o ciclo de vida da IA. De desenvolvedores a diretores, todos perceberão o valor de uma ferramenta curada que suporta modelos proprietários e de código aberto. 

Com lançamento previsto para meados de 2024, os model cards são melhor descritos como “rótulos nutricionais” para modelos de IA. A abordagem do SAS é gerar automaticamente model cards para modelos registrados com conteúdo proveniente diretamente dos produtos SAS, aliviando a carga de usuários individuais que precisam criá-los. Além disso, como o SAS Viya já possui uma arquitetura existente para a gestão de código aberto, os model cards também estarão disponíveis para modelos de código aberto, começando com os modelos Python.

Os model cards salientarão indicadores como precisão, imparcialidade e desvio do modelo, que é a deterioração do desempenho do modelo quando as condições mudam. Também incluem detalhes de governança, como quando o modelo foi modificado pela última vez, quem contribuiu e quem é responsável por ele, o que permite que as organizações lidem internamente em caso de desempenho anormal do modelo. A seção de uso do modelo aborda o uso pretendido, os casos de uso fora do escopo e as limitações, que serão fatores fundamentais, já que a transparência e a auditoria de modelos provavelmente serão operações corporativas regulamentadas. Os model cards foram apresentados no início deste ano no SAS Insight, um evento para analistas.

“O SAS adotou uma abordagem cautelosa para orientar seus clientes na adoção da inteligência artificial, concentrando-se nas realidades práticas e nos desafios da implementação da IA em ambientes reais da indústria”, diz Eric Gao, diretor de pesquisa do IDC. “Os model cards serão valiosos para monitorar projetos de IA e promover a transparência”.

Novo grupo de governança de IA liderado por um especialista em IA ética

Com a proliferação da inteligência artificial, os clientes do SAS têm se preocupado cada vez mais em como usar seus dados de forma produtiva e segura. Para ajudá-los em suas jornadas de dados e IA, o SAS apresenta o AI Governance Advisory, um serviço de valor agregado para os clientes atuais. 

A partir de uma breve reunião, o SAS AI Governance Advisory ajuda o cliente a refletir sobre o significado da governança de IA para sua organização. O SAS testou esse serviço, e os clientes notaram vários benefícios:

  • Maior produtividade com decisões confiáveis e distribuídas.
  • Maior confiança com mais responsabilidade no uso de dados.
  • Conquistar e manter os melhores talentos, que exigem práticas de inovação responsáveis.
  • Aumento da vantagem competitiva e agilidade de mercado graças à “conformidade com o futuro”
  • Maior valor da marca para enfrentar possíveis impactos na sociedade e no meio ambiente.

A polonesa PZU Insurance é uma das maiores instituições financeiras da Europa Central e Oriental. Cliente de longa data do SAS, a PZU implementa IA em áreas como sinistros, vendas, detecção de fraudes e atendimento ao cliente.

“Nossas conversas sobre governança de IA com o SAS nos ajudaram a identificar possíveis pontos cegos que causariam problemas para os clientes e para os negócios”, diz Marek Wilczewski, diretor administrativo de gestão de informações, dados e analytics (Chief Data Officer/Chief Analytics Officer) da PZU. “Entendemos melhor a importância de ter mais perspectiva ao embarcarmos em projetos de IA”.

Steven Tiell, veterano da indústria e especialista em IA ética, foi contratado pelo SAS como diretor global de governança de IA. Tiell, que liderou a prática global de ética de dados e inovação responsável da Accenture, também é o ex-vice-presidente de estratégia de IA da DataStax. 

Desenvolvimento sobre padrões governamentais emergentes 

No ano passado, o Instituto Nacional de Padrões e Tecnologia (NIST) dos EUA lançou um Framework de Gestão de Riscos de IA. Ele se tornou uma ferramenta valiosa para que organizações criem e gerenciem IA confiável e responsável na ausência de regulamentações oficiais.  

O SAS estabeleceu um fluxo de trabalho do ciclo de vida da IA confiável, para facilitar que as organizações adotem as recomendações do NIST, especificando funções e expectativas individuais, reunindo a documentação necessária, delineando fatores a serem considerados e aproveitando a automação para facilitar a adoção. As organizações obtêm um modelo de produção com a documentação comprovando a devida diligência para assegurar que o modelo seja justo e que seus processos não causem danos.

O fluxo de trabalho permite que as organizações registrem suas considerações sobre os impactos dos sistemas de IA na vida das pessoas. Ele inclui etapas que garantem que os dados em treinamento representem a população afetada e que as previsões e o desempenho do modelo sejam semelhantes entre as categorias protegidas. Essas etapas ajudam a evitar que o modelo cause impactos ou danos díspares a grupos específicos. Além disso, os usuários conseguem controlar a precisão de um modelo ao longo do tempo, criando tarefas de intervenção humana para quando houver necessidade de atenção especial.

About SAS

SAS is a global leader in data and AI. With SAS software and industry-specific solutions, organizations transform data into trusted decisions. SAS gives you THE POWER TO KNOW®.

Editorial contacts: