3 Passos Essenciais para uma IA Ética
Como aplicar a ética para um futuro mais estável com inteligência artificial
Há duas correntes de pensamento quando se trata do futuro da inteligência artificial (AI):
- A visão utópica: Os sistemas inteligentes irão inaugurar uma nova era de iluminismo onde os humanos estão livres do trabalho para perseguir objetivos mais nobres. Os sistemas de IA serão programados para curar doenças, resolver disputas de forma justa e incrementar a existência humana apenas de formas que nos beneficiem.
- A visão apocalíptica: Os sistemas inteligentes roubarão os nossos empregos, ultrapassarão os seres humanos em evolução, tornar-se-ão máquinas de guerra e darão prioridade a um futuro distante em relação às necessidades atuais. Os nossos esforços dúbios para os controlar, apenas revelarão as nossas próprias deficiências e a nossa falta de capacidade de aplicar a moralidade à tecnologia, que não podemos controlar.
Como na maioria das coisas, a verdade está provavelmente algures no meio.
Independentemente da sua posição neste espectro, é importante considerar como os humanos podem influenciar a IA, à medida que a tecnologia evolui. Uma ideia é a de que os humanos irão formar largamente a consciência ou os recursos de infraestrutura moral da AI. Mas como faríamos isso? E como podemos aplicar a ética à AI para ajudar a prevenir que o pior aconteça?
Inteligência Artificial Para Executivos
A AI requer visão para ser alcançada. A sua visão não é um recortador de bolachas, pelo que a sua aplicação de IA também não deve ser. Com a nossa orientação, pode integrar analítica avançada, incluindo inteligência artificial, na sua estratégia - e compreender os pontos fortes e fracos de vários métodos, com base nos seus objetivos.
A relação entre humanos e AI
O poder dos sistemas de Deep Learning, é o facto de determinarem os seus próprios parâmetros ou características. Basta dar-lhes uma tarefa ou propósito, apontá-los para os dados, e eles tratam do resto. Por exemplo, a a capacidade de ajuste automático em SAS® Visual Data Mining e Machine Learning pode descobrir o melhor resultado por si só. Mas as pessoas continuam a ser a parte mais crítica do processo.
"São os humanos que resolvem problemas, não as máquinas", explica Mary Beth Ainsworth, uma especialista em AI no SAS. "As máquinas podem alcançar a informação necessária para resolver problemas e serem depois programadas para resolver esse problema de uma forma automatizada – baseadas na solução humana fornecida para o problema."
Apesar dos sistemas de AI do futuro serem também capazes de reunir os seus próprios dados, a maioria dos sistemas atuais dependem de humanos para lhes dar os parâmetros de entrada (input), incluindo os dados e o melhor resultado, tal como identificado através de definições de aprendizagem – como a aprendizagem de reforço. Quando se pede ao algoritmo para descobrir a melhor solução para alcançar esse resultado, não se tem ideia de como a máquina irá resolver o problema. Apenas sabemos que será mais eficiente do que nós somos.
Dada a presente relação entre humanos e AI, podemos tomar decisões para controlar de forma mais ética os resultados dos projetos de AI. Comecemos com estes três.
São os humanos que resolvem problemas, não as máquinas. As máquinas podem revelar a informação necessária para resolver problemas e depois ser programadas para resolver esse problema de forma automatizada - com base na solução humana prevista para o problema. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
1º passo para a ética da IA: Fornecer os melhores dados
Os algoritmos de IA são instruídos através de um conjunto de dados utilizados para informar ou desenvolver o algoritmo. Se o seu algoritmo estiver a identificar uma baleia como sendo um cavalo, é evidente que precisa de fornecer mais dados sobre baleias (e cavalos). De forma semelhante, se o seu algoritmo estiver a identificar animais como humanos, é necessário fornecer mais dados sobre um grupo mais diverso de humanos. Se o seu algoritmo estiver a tomar decisões inexatas ou pouco éticas, poderá significar que não existiam dados suficientes para treinar o modelo, ou que o reforço de aprendizagem não era apropriado para o resultado desejado.
Contudo, é possível que os humanos tenham, talvez involuntariamente, injetado os seus valores pouco éticos no sistema via seleção de dados tendenciosa, ou atribuído mal os valores de reforço. De forma geral, temos de assegurar que os dados e entradas que fornecemos estão a pintar a imagem correta e completa para os algoritmos.
Passo 2 para ética na IA: Fornecer a supervisão adequada
Estabeleça um sistema de governação clarificando os respetivos proprietários e intervenientes em todos os projetos AI. Defina quais serão as decisões a automatizar com IA e quais as que irão precisar de input humano. Atribua responsabilidade a todas as partes do processo com responsabilização por erros de IA, e defina limites claros para o desenvolvimento de sistemas de IA. Isto inclui monitorizar e efetuar autoria de algoritmos regularmente para assegurar que o bias não está a arrastar-se e que os modelos ainda estão a funcionar como pretendido.
Quer se trate do cientista de dados ou de um especialista dedicado à ética, alguém deve ser responsável pelas políticas e protocolos de IA, incluindo o cumprimento. Talvez um dia todas as organizações venham a estabelecer uma função de diretor especialista em ética de IA. Mas independentemente do título, há que assegurar um responsável por determinar se o output e o desempenho estão dentro de um determinado enquadramento ético.
Tal como sempre tivemos uma necessidade de governação, rastreabilidade, monitorização e aperfeiçoamento no que toca à analítica convencional, também esta persiste para a IA. As consequências são muito maiores em IA, na medida em que as máquinas podem começar a fazer perguntas e a definir respostas por si mesmas.
Passo 3 para ética na IA: Considerar as ramificações das novas tecnologias
Para que os indivíduos possam aplicar políticas, a tecnologia deve permitir que os humanos façam ajustamentos. Os humanos têm de ser capazes de selecionar e ajustar os dados de treino, controlar a origem de dados e escolher como os dados são transformados. Do mesmo modo, as tecnologias de IA devem apoiar uma governação robusta, incluindo o acesso aos dados e a capacidade de orientar os algoritmos quando estes estão incorretos ou a funcionar fora dos limites eticamente definidos.
Não há forma de antecipar todos os cenários potenciais com IA, mas é importante considerar as possibilidades e pôr em prática controlos para o reforço positivo e negativo. Por exemplo, a introdução de novos objetivos, mesmo concorrentes, pode recompensar decisões que sejam éticas e identificar decisões não éticas como erradas ou mal orientadas. Um sistema de IA concebido para colocar o mesmo peso na qualidade e eficiência produziria resultados diferentes dos de um sistema inteiramente focado na eficiência. Além disso, a conceção de um sistema de IA com vários objetivos independentes e contraditórios poderia acrescentar uma responsabilidade adicional ao sistema.
Não evite a ética da IA
A IA pode melhorar a segurança automóvel e diagnosticar o cancro - mas também pode escolher alvos para mísseis de cruzeiro. Todas as capacidades IA têm consideráveis ramificações éticas que precisam de ser discutidas sob múltiplos pontos de vista. Como podemos assegurar que os sistemas éticos para a IA não sejam abusados?
Os três passos acima são apenas o começo. Vão ajudá-lo a começar as conversas difíceis sobre desenvolver diretrizes de ética e inteligência artificial para a sua empresa. Pode estar hesitante em traçar estas linhas éticas, mas não podemos evitar a conversação. Não fique à espera. Comece agora a discussão para que possa identificar os limites, como fazê-los cumprir e até mesmo como alterá-los, se necessário, a partir de conversações..
Leitura recomendada
- Article 10 ways analytics can make your city smarter From child welfare to transportation, read 10 examples of analytics being used to solve problems or simplify tasks for government organizations.
- Article Five trends that will reshape customer experienceApplying the latest research from HBR gives a new twist on this surprisingly relevant 2015 list of CX do’s and don’ts.
- Article Five AI TechnologiesDo you know the difference between artificial intelligence and machine learning? And can you explain why computer vision is an AI technology? Find out in this short explainer.
- Article GDPR and AI: Friends, foes or something in between?The GDPR may not be best buddies with artificial intelligence – but GDPR and AI aren't enemies, either. Kalliopi Spyridaki explains the tricky relationship between the two.
Está pronto para subscrever a Insights agora?
SAS® Viya™
Make analytics accessible to everyone and bridge the talent gap in your organization