O que são alucinações de IA?
Elaine Hamill, Editora de Insights SAS
Espera-se que o mercado global para a inteligência artificial generativa (GenAI) cresça extraordinariamente nos próximos 5 anos. Como podemos garantir que a IA cumpra o seu potencial equilibradamente com a necessidade de segurança e responsabilidade, especialmente em ano de eleições? Comecemos por compreender as alucinações de IA, incluindo o porquê de estar a ser cada vez mais difícil distinguir factos da ficção gerada por IA.
Compreender as alucinações de IA
Num mundo perfeito, as ferramentas de IA generativa, tais como, o Gemini da Google e o ChatGPT da OpenAI iriam agir de forma apropriada conforme cada prompt que cada utilizador inserisse. Facultariam sempre respostas precisas e corretas.
Porém, no mundo real, a GenAI engana-se muitas vezes. Às vezes a GenAI inventa coisas. As alucinações de IA ocorrem sempre que os grandes modelos de linguagem (LLMs) que sustentam os chatbots de AI geram informação falsa ou sem nexo, e esta é dada como resposta a uma prompt de utilizador.
Com mais de 5,3 milhares de milhões de pessoas a utilizarem a internet em todo o mundo, os LLMs que alimentam a IA generativa estão constantemente a absorver dados de forma indiscriminada. Isto inclui os milhares de milhões de vídeos, fotos, e-mails, publicações de redes sociais e outras coisas que os humanos criam ao longo do dia.
Sendo que a IA generativa aprende através desta riquíssima mistura confusa de dados, é possível que também detete informações, padrões ou objetos que não existem. São estes mal entendidos que produzem alucinações de IA – dados, conteúdos, ou resultados – que são falsas, ilógicas ou simplesmente erradas.
Parece estranho, mas é verdade. A IA pode e consegue percecionar coisas que não são reais. As alucinações de IA podem ir de assunções erradas com efeitos hilariantes até afirmações apenas levemente deturpadas. Algumas alucinações de IA podem até soar ou parecer corretas, quiçá verdadeiras, para quem não tem os olhos e ouvidos bem treinados.
Efeito dominó das alucinações de IA
As consequências das alucinações de IA podem ser significativas e abranger um vasto leque. Isto é especialmente verdadeiro no que toca à rápida disseminação da desinformação.
Centenas de milhões de pessoas têm acorrido às ferramentas de IA generativa desde que o ChatGPT foi apresentado ao mundo em novembro de 2022. Até abril de 2024, mais de 180 milhões de pessoas estavam a usar o ChatGPT.
Infelizmente as alucinações de IA multiplicam-se à mesma velocidade. Qual a frequência com que as alucinações de IA ocorrem? Consulte o Vectara’s Hallucination Leaderboard, que (em abril de 2024) mostrou que o GPT4 Turbo revelava uma menor propensão a alucinações, com uma taxa de erros de 2,5%.
Vale a pena notar que o ChatGPT, inclui uma advertência de exclusão de responsabilidade mesmo abaixo da caixa de texto, afirmando: "O ChatGPT pode cometer erros. Considere verificar informações importantes.".Já o Gemini da Google recomenda aos seus utilizadores que confirmem a veracidade das respostas dadas.
IA generativa: O que é e porque é importante
Consulte a nossa página informativa e mergulhe profundamente no mundo da GenAI. Leia mais sobre a sua história, como funciona, tecnologias relacionadas, e descubra as nuances de como esta é utilizada nas várias indústrias.
Causas das alucinações de IA
Não há uma resposta definitiva sobre o que provoca as alucinações de IA. Pode ser qualquer coisa desde dados insuficientes, com falhas ou tendenciosos, às várias particularidades das prompts de utilizador. Qualquer um destes motivos pode levar a resultados errados.
Contribuições tendenciosas são a principal causa de alucinações de IA. O que não surpreende, visto que qualquer modelo de IA que seja treinado através de dados tendenciosos ou defeituosos, irá certamente criar padrões alucinatórios, ou características que refletem essas tendências ou defeitos. Será que há modelos propositadamente manipulados para gerar resultados distorcidos? É claro que sim. As empresas de tecnologia estão a acompanhar o ritmo e a tentar manter-se à frente desses trapaceiros nefastos. Contudo, impedir contribuições erradas antes de estas começarem continuará a ser uma batalha constante.
O overfitting e underfitting também desempenham um factor importante para que haja alucinações nos modelos construídos. O overfitting acontece sempre que um modelo é demasiado complexo – quando este aprende os detalhes e ruído nos dados de treino um bocadinho bem demais. Os modelos complexos trabalham bastante bem nos seus dados de treino. No entanto, não conseguem fazer extrapolações da forma que deveriam, daí que estes modelos tenham um fraco desempenho com dados novos. Estão excessivamente cingidos aos seus dados de treino, e assim sendo não conseguem oferecer previsões de confiança que tenham por base quaisquer outros dados.
O underfitting é o oposto – acontece sempre que um modelo é demasiado simples. Os modelos que não são suficientemente complexos, ou seja, não conseguem detetar detalhes, padrões e relações nos dados de treino. Por isso, o modelo tem um desempenho inadequado tanto nos dados de treino como nos dados novos que absorve.
Perdoe a analogia, mas imagine que um LLM funciona da mesma forma que uma máquina para compactar o lixo. Pode colocar-se tudo nessa máquina e eventualmente tudo será comprimido repetidamente para se criar mais espaço. Neste processo, os detalhes e aspetos mais subtis desaparecem dentro da vastidão de informação que é dada ao modelo.
Graças aos populares enredos dos programas de televisão, é possível que exista a ideia de que os LLMs sejam capazes de pensar e raciocinar. Mas obviamente que não conseguem. Simplesmente conseguem prever respostas a questões que recebem tendo por base os dados que absorveram. Estes modelos não conseguem dar respostas que estejam 100% enraizadas na realidade (pelo menos por enquanto).
Encontrar o nível de complexidade perfeito para qualquer LLM envolve o ajuste de várias características, tais como, o nível de aprendizagem e número de exemplos para aprendizagem que são colocados no modelo.
A engenharia de prompts também pode afetar os resultados da IA generativa. As prompts mais detalhadas e precisas, apresentam maior probabilidade de gerar respostas precisas em vez de resultados vagos ou contraditórios, que normalmente derivam de prompts pouco claras. Dar diretrizes ou parâmetros específicos à GenAI por meio de prompts pode ajudar a gerar resultados melhores. Por isso, adicionar contexto às questões, ou pedir à ferramenta de IA que realize apenas um papel em particular, ou então atribuir uma perspetiva para ajudar a polir o seu foco, será benéfico.
Impacto das alucinações de IA
Existem consequências claras das alucinações de IA no mundo real. Considere os exemplos abaixo que pertencem a um vasto e variado leque de indústrias e aplicações:
- Sendo que 2024 é ano de eleições, a disseminação de desinformações sob a forma de alucinações de IA é um tópico que está na berlinda a nível mundial. Está a perguntar-se qual será a estratégia dos principais rostos políticos para salvaguardar a transparência e veracidade? Eis como a OpenAI está a abordar as eleições a nível mundial em 2024.
- Nos serviços financeiros, a GenAI pode ajudar a poupar dinheiro, melhorar a tomada de decisões, mitigar riscos e aumentar a satisfação do cliente. Mas, por outro lado, a IA poderá aprovar candidatos inadequados para um crédito ou empréstimo, criando um risco de perdas financeiras para a instituição. Embora um dia possamos testemunhar serviços de consultadoria financeira com IA, por enquanto, os humanos ainda fazem parte deste ciclo de GenAI. Veja como a Japan’s Daiwa Securities e o Royal Bank of Scotland usam a IA para transformar processos organizacionais, fornecer um excelente serviço ao cliente e muito mais.
- As seguradoras valorizam a maior velocidade, eficiência e precisão que a IA oferece. Porém, usar a IA também coloca potenciais questões éticas e jurídicas, como a tendenciosidade ou a discriminação nos modelos e algoritmos. Descubra como é que a AI está redefinir o futuro da indústria seguradora.
- Abundam aplicações promissoras para GenAI na saúde e ciências biológicas. Não obstante , estas também abrem a porta à rápida proliferação de diagnósticos incorretos, registos médicos fraudulentos e até mesmo imagens falsas, como é o caso dos raio-X. Fique a saber mais sobre a IA generativa nas mãos de burlões dos cuidados de saúde.
O sucesso depende muito da capacidade de garantir que os modelos de IA são treinados, tendo por base conjuntos de dados de grande dimensão, diversos, equilibrados e de alta qualidade. Isto ajuda os modelos a minimizar os fatores de tendenciosidade e a gerar resultados mais justos e precisos.
Abordar e mitigar as alucinações de IA
Os programadores de sistemas líderes de IA compreendem que até mesmo uma pequena taxa de alucinação é inaceitável. Então o que pode ser feito para melhorar a precisão e prevenir as alucinações de IA?
O sucesso depende muito da capacidade de garantir que os modelos de IA são treinados, tendo por base conjuntos de dados de grande dimensão, diversos, equilibrados e de alta qualidade. Isto ajuda os modelos a minimizar os fatores de tendenciosidade e a gerar resultados mais justos e precisos. Reduzir o ruído também é importante, dado que dados incompletos ou anomalias nos dados também podem contribuir para as alucinações de IA.
Reforçar a aprendizagem também ajuda a neutralizar as alucinações de IA. Tanto a aprendizagem automática como o feedback humano podem treinar os modelos de IA, para que estes tomem decisões melhores e produzam resultados mais precisos. Por isso, se um chatbot lhe pedir para avaliar a qualidade da resposta dada ou dar uma recomendação, faça-o! O seu feedback ajudará a fortalecer o modelo, e esta é uma das melhores formas que os humanos têm de ajudar a melhorar a qualidades dos resultados de GenAI.
Salvaguardas contra alucinações de IA
As alucinações de IA e os problemas que estas podem provocar podem ser incrivelmente reais – e esses problemas podem afetar o mundo real. Os LLMs podem fazer girar o mundo da IA, mas devem ser usados com responsabilidade a fim de prevenir a ocorrência de alucinações de IA.
À medida que a ameaça da disseminação de desinformação aumenta, também os esforços para manter a GenAI no caminho certo e impedir as alucinações de IA se intensificam. Desde o Nvidia’s NeMo Guardrails ao Guardrails AI e outros, a validação e verificação de como os modelos de IA funcionam está a tornar-se um grande negócio.
Com o passar do tempo, os modelos de GenAI irão absorver cada vez mais dados e continuarão a aperfeiçoar os seus resultados. Até que seja feita a verificação de todo o conteúdo de IA, de forma precisa e confiável, é certo que os humanos continuarão a desempenhar um papel fundamental para garantir que a GenAI faz jus à sua promessa.
Relatório de IA generativa: Leia os resultados
Questionámos os responsáveis pela tomada de decisões acerca dos desafios e oportunidades que encontraram ao implementar IA generativa. Aprenda através da experiência e descubra como identificar as melhores perspetivas comerciais com a GenAI.
Informação sobre o autor
Elaine Hamil é Editora Sénior na Equipa de Liderança de Ideias, Edição e Conteúdo da SAS. Toda a sua vida foi uma apaixonada por palavras. Conta com mais de 25 anos de experiência a escrever e a editar conteúdos em várias indústrias, entre as quais estão incluídos os setores de finanças, retalho, cuidados de saúde, educação e tecnologia.
Leitura recomendada
- O que são chatbots?Os chatbots são uma forma de IA conversacional desenhados para simplificar a interação humana com os computadores. Aprenda mais sobre os chatbots que são utilizados em negócios e como estes podem ser incorporados em aplicações analíticas.
- Containing health care costs: Analytics paves the way to payment integrityTo ensure payment integrity, health care organizations must uncover a broad range of fraud, waste and abuse in claims processing. Data-driven analytics – along with rapid evolutions in the use of computer vision, document vision and text analytics – are making it possible.
- Homelessness data holds insights to a hidden problemSAS partnered with The Carying Place, an organization that supports working homeless families, to find new ways to measure indicators of participant success and provide families the help they deserve.
Está pronto para subscrever a Insights agora?
SAS® Viya™
Make analytics accessible to everyone and bridge the talent gap in your organization