IA generativa
O que é e porque é importante
A IA generativa alimenta-se dos dados existentes e aprende através deles, para depois então criar dados com características similares. Por exemplo, consegue criar textos, imagens, áudio, vídeos e códigos informáticos.
A evolução da IA generativa
A IA tradicional e os sistemas de aprendizagem automática reconhecem padrões nos dados para assim poderem fazer previsões. Mas a IA generativa vai além da previsão – e gera novos dados como seu principal resultado. Imagine receber um texto completo para um discurso em meros segundos, basta descrever a sua ideia a um chatbot (como é o caso do ChatGPT) em poucas palavras. Poderá criar música, arte ou até mesmo imagens que têm por base um texto descritivo. Ou ainda desenvolver uma estratégia de negócios por meio de uma conversação, onde há uma troca de ideias "prompting" com uma ferramenta de IA generativa.
Como é que tudo isto começou?
Contrariamente à opinião popular, a IA generativa não é uma novidade – é construída tendo por base tecnologias que utilizamos há décadas, aqui estão incluídas as IA, métodos de aprendizagem automática e estatísticos. As três principais tecnologias de IA generativa são os digital twins, modelos linguísticos de grande dimensão e criação de dados sintéticos.
Embora as origens da IA generativa possam ser rastreadas até datas mais antigas, vamos começar no ano de 1966 com um chatbot chamado ELIZA.
Joseph Weizenbaum, foi quem construiu o ELIZA, desenhou-o para imitar psicoterapeutas rogerianos que repetem o que é dito pelos pacientes. O ELIZA serviu-se de um padrão de correspondência para conseguir esta proeza. ELIZA foi um dos primeiros programas a tentar o Teste de Turing – um jogo de imitação que testa a capacidade que uma máquina tem de exibir um comportamento inteligente, à semelhança dos humanos.
À medida que os métodos de análise de dados de textos não-estruturados foram evoluindo entre os anos 70 e 90, testemunhou-se um crescimento nas redes semânticas, ontologias, redes neurais recorrentes e muito mais. De 2000 a 2015, os modelos linguísticos e os embedders de palavras melhoraram, e assim surgiu o Google Tradutor.
Em 2014, Ian Goodfellow juntamente com os seus colegas desenvolveu a Rede Adversária Generativa (GAN), colocando duas redes neurais em competição (ou seja, a treinar) uma com a outra. Uma rede gerava dados enquanto a outra tentava determinar se os dados eram verdadeiros ou falsos. Os modelos transformadores foram introduzidos em 2017. Estes incluíam um mecanismo de atenção própria que lhes permitia medir a importância de várias partes do input ao fazerem as suas previsões. Arquiteturas como BERT e ELMO também se tornaram populares.
A seguir apareceram os modelos generativos transformadores pré-treinados (GPT) com o primeiro modelo do GPT a ser lançado em 2018. Este modelo foi treinado com grandes quantidades de dados de textos retirados da internet. Com 117 milhões de parâmetros, consegue criar um texto semelhante aos dados de treino tanto em estilo como em conteúdo. Em 2023, os grandes modelos de linguagem GPT, conseguiram evoluir a tal ponto em que até obtiveram um bom desempenho em testes difíceis, tal como é o caso do exame da Ordem dos Advogados.
A rápida ascensão da tecnologia IA generativa
É uma tecnologia disruptiva: o impacto da IA generativa tem sido comparado a invenções como a descoberta da eletricidade e da invenção da máquina de escrever. Com o potencial de aumentar drasticamente a produtividade, modelos de IA conversacional, como o ChatGPT, estão no auge da popularidade no que toca a negócios e utilizadores diários – e levantaram preocupações acerca da privacidade dos dados, preconceitos na IA, e ética e precisão. É expectável que o mercado global para a IA generativa cresça para valores próximos dos 110.8$ milhares de milhões até 2030.
Os responsáveis políticos utilizam os digital twins para determinar como é que novas medidas de impostos podem afetar os cidadãos.
Determinar os "vencedores" e "perdedores" de potenciais mudanças fiscais, antes de implementar regulações, é crucial para o Serviço Público Federal Financeiro Belga. Quando precisa de respostas rápidas e exatas o FPS Financeiro utiliza o Aurora, um digital twin da calculadora que processa os impostos sobre o rendimento do país, sendo assim possível simular futuras reformulações da dívida. Melhores simulações são sinónimo de responsáveis políticos mais bem informados – e de melhores resultados.
Quem está a utilizar a IA generativa?
A IA generativa abrange uma vasta gama de indústrias e funções de negócio em todo o mundo. À medida que cresce em popularidade, a tecnologia, consegue simultaneamente despertar excitação e medo entre as pessoas, negócios e entidades governativas. Vamos olhar para como é que algumas indústrias que estão atualmente a utilizar IA generativa.
Os resultados da IA generativa, na sua essência, são um reflexo do ser humano. ... Os consumidores devem continuar a ter espírito crítico sempre que interagem com uma IA conversacional e evitar o preconceito da automatização (a crença de que um sistema técnico é mais preciso e verdadeiro do que um ser humano). Reggie Townsend VP of the SAS Data Ethics Practice
Considerações acerca dos modelos de IA generativa
É dispendioso operar estes modelos – requer enormes quantidades de capacidade computacional e dados. Deve avaliar cuidadosamente o seu ROI antes de implementar um modelo de IA generativa. Também há considerações éticas. De onde vieram os dados – e a quem pertencem? É de confiança? Percebe concretamente e exatamente como é que o modelo foi construído?
Como funciona a IA generativa
Alguns exemplos conhecidos de tecnologias de IA generativa incluem o DALL-E, um sistema de geração de imagens que cria imagens tendo por base uma descrição textual, o ChatGPT (sistema de produção de texto), o Google Bard (chatbot) e o motor de busca da Microsoft, o Bing, que é impulsionado pela IA. Outro exemplo, é a utilização de IA generativa para criar uma representação digital de um sistema, um processo de negócio, ou até mesmo uma pessoa – é possível fazer uma representação dinâmica do estado de saúde atual e futuro de uma determinada pessoa.
Existem três principais tecnologias de IA generativa (digital twins, modelos linguísticos de grande dimensão e geração de dados sintéticos).
Digital twins
Os digital twins são modelos virtuais de objetos da vida real ou sistemas construídos através de dados que podem ser históricos, do mundo real, sintéticos ou de sistemas de feedback em repetição/ciclo. São construídos tendo por base softwares, dados e coleções de modelos generativos ou não generativos que espelham e se sincronizam com um sistema físico – tal como, por exemplo, uma entidade, processo ou produto. Os digital twins são utilizados para testar, otimizar e prever. Por exemplo, um digital twin de uma cadeia de fornecimento pode ajudar empresas a prever alturas em que exista uma probabilidade de escassez.
Grandes modelos de linguagem
Um grande modelo de linguagem (LLM) é uma poderosa máquina de aprendizagem automática que consegue processar e identificar relações complexas do idioma natural, gerar textos e conversar com os utilizadores. Estes modelos servem-se de técnicas complexas como é o caso do deep learning e redes neurais. Definidos como modelos de IA de processamento de linguagem natural, os LLMs são treinados com quantidades colossais de dados. Os modelos resultantes chegam a ter até milhares de milhões de parâmetros. OpenAI’s ChatGPT é um exemplo de um grande modelo de linguagem bastante popular.
Geração de dados sintéticos
A geração de dados sintéticos refere-se a dados a pedido, self-service ou dados automatizados gerados por algoritmos ou regras, em vez de se fazer recolha dos mesmos no mundo real. Os dados sintéticos são normalmente gerados com o intuito de suprir as condições em falta nos dados reais. Reproduzem as mesmas propriedades estatísticas, probabilidades, padrões e características dos dados do mundo real através dos quais são treinados. Várias organizações utilizam dados sintéticos com o intuito de preservar a sua privacidade ou de ultrapassar outras adversidades ao recolher e utilizar dados do mundo real, tais como o custo e a preparação de processos de dados demorados ou tendenciosos.
Muitas outras tecnologias permitem e apoiam a utilização de IA generativa:
Um algoritmo é uma lista de instruções passo a passo desenhada para conseguir realizar uma tarefa específica ou resolver um problema. Muitos programas de computador são uma sequência de algoritmos escritos de uma forma que o computador consiga perceber. À medida que os algoritmos começam a complementar e substituir decisões tomadas por humanos, é necessário aprofundar sobre a sua justiça e exigir transparência quanto à forma como são desenvolvidos.
Inteligência Artificial faz com que seja possível às máquinas aprender a partir da experiência, ajustarem-se a novos inputs e desempenhar tarefas de forma semelhante ao que um ser humano faria. A IA costuma, sobretudo, basear-se no deep learning e NPL. Através destas tecnologias os computadores podem ser treinados a desempenhar tarefas específicas, sendo isto feito por meio do processamento de vastas quantidades de dados e reconhecimento de padrões.
O deep learning é um subconjunto de aprendizagem automática que treina um computador a desempenhar tarefas à semelhança de um humano, tais como, reconhecer a voz falada, identificar imagens e fazer previsões. Melhora a capacidade de classificar, reconhecer, detetar e descrever através da utilização dados. Modelos de aprendizagem profunda, tais como os GANs e variational autoencoders (VAEs) são treinados por meio de conjuntos de dados gigantescos e podem gerar dados de alta qualidade. Técnicas mais recentes como StyleGANs e modelos transformadores podem criar vídeos realísticos, imagens, textos e voz falada.
A aprendizagem automática é um método de análise de dados que automatiza a construção de modelos analíticos. É um ramo da inteligência artificial que treina a máquina para que esta possa fazer a sua aprendizagem. A aprendizagem automática tem por base a ideia que os sistemas podem aprender através dos dados, identificar padrões e tomar decisões com a mínima intervenção humana.
Processamento de linguagem natural é um ramo da inteligência artificial que ajuda os computadores a compreender, interpretar e manipular a linguagem humana. Os NPL recorrem a várias disciplinas, incluindo a informática e linguística computacional, para preencher as lacunas entre a comunicação humana e o entendimento dos computadores.
Redes Neurais são sistemas de computação com nós interconectados que funcionam de forma muito semelhante aos neurónios que fazem parte do cérebro humano. As redes Neurais utilizam os algoritmos para reconhecer padrões escondidos e correlações em dados não processados, fazem a colocação em cluster e classificam-nos, desta forma, aprendem continuamente e melhoram ao longo do tempo.
Aprendizagem por reforço ocorre quando um algoritmo deteta através de tentativa e erro quais as ações que produzem melhor retorno. Um modelo de aprendizagem automática, ou, de aprendizagem por reforço assenta na premissa de um sinal de recompensa facultado pelo mecanismo de feedback e assim vai aprendendo de forma gradual a política ou objetivo com melhor (ou maior retorno). É utilizada na robótica, gaming e navegação.
5 passos para afinar um modelo
A IA generativa conta com vários algoritmos de IA diferentes e tecnologias para gerar dados com distribuições probabilísticas semelhantes. Conta também com características dos dados através dos quais faz a aprendizagem. Em vez de construir de raiz, pode seguir estes cinco passos e afinar um grande modelo de linguagem que já tenha sido treinado.
1. Defina a tarefa.
Escolha um grande modelo de linguagem adequado e defina claramente a tarefa para a qual o mesmo está a ser afinado. Isto poderá ser uma classificação de texto (nomeadamente o reconhecimento de uma entidade), geração de texto, etc.
2. Prepare os dados.
Reúna e faça o pré-processo dos dados específicos para a tarefa – quando se trata de tarefas como etiquetagem, formatação e atomização. Crie um treino e validação (e possível testagem) de conjuntos de dados.
3. Afine.
Treine o modelo modificado na sua tarefa específica e de acordo com os dados, utilize o conjunto de dados de treino para atualizar as ponderações do modelo. Monitorize o desempenho do modelo no que toca ao conjunto de validação para prevenir o sobreajuste.
4. Avalie e teste.
Depois de treinar, avalie o seu modelo aprimorado no conjunto de validação, fazendo os ajustes necessários com base nos resultados. Quando satisfizer as suas necessidades, teste o modelo no conjunto de teste para obter uma estimativa imparcial do desempenho.
5. Implemente.
Quando estiver confiante no desempenho do modelo, implemente-o no uso a que o mesmo se destina. Isto pode abranger a integração do modelo numa aplicação, website ou outra plataforma.
O que são dados sintéticos?
Os dados são essenciais para a construção de modelos, mas dados de alta qualidade podem ser bastante difíceis de encontrar, tendenciosos ou dispendiosos. Uma forma de resolver este problema é através da utilização de dados sintéticos, que são criados de forma artificial (na maioria das vezes com recurso a algoritmos). Se utilizarmos um conjunto de dados do mundo real para gerar dados sintéticos adicionais – com a propriedades adequadas para construir bons modelos de aprendizagem automática – podemos treinar os modelos, virtualmente, para qualquer propósito, como por exemplo pesquisar uma doença rara.
Próximos Passos
Veja como as soluções de IA podem ampliar os esforços e a criatividade humana.
Uma plataforma de análise e de IA
Com o SAS® Viya®, não existe excesso de informação. Aprenda sobre a forma mais rápida de passar de mil milhares de milhões de pontos de dados para um ponto de vista.
Leitura recomendada
- Article O que são alucinações de IA?Separar os factos da ficção gerada pela IA pode ser difícil. Fique a saber como é que os grandes modelos de linguagem conduzem a alucinações de IA – e descubra como usar a GenAI de forma responsável. 26 de Abril de 2024
- Article Analytics leads to lifesaving cancer therapiesA long-shot treatment offers hope to 10-year-old Harrison after he learns the DNA profile of his cancer is resistant to chemo. Find out how data and analytics play a role in cancer research and cancer treatments that are saving lives. 3 de Fevereiro de 2020
- Article The untapped potential in unstructured textText is the largest human-generated data source. It grows every day as we post on social media, interact with chatbots and digital assistants, send emails, conduct business online, generate reports and essentially document our daily thoughts and activities using computers and mobile devices. 19 de Junho de 2019
- Article GDPR and AI: Friends, foes or something in between?The GDPR may not be best buddies with artificial intelligence – but GDPR and AI aren't enemies, either. Kalliopi Spyridaki explains the tricky relationship between the two. 12 de Junho de 2018