Há décadas vimos sendo bombardeados com mudanças tecnológicas disruptivas e cada vez menos espaçadas entre si. Desde a ARPANET, a primeira rede distribuída de compartilhamento de informações, criada nos anos 60, passando pela criação da World Wide Web (basicamente o que chamamos de “Internet” hoje) em 1989, e a posterior criação de ferramentas para serem usadas massivamente com base nessa rede (como ferramentas de busca, comércio eletrônico, transmissão de vídeo, sistemas inteiramente baseados na “computação em nuvem” e a consequente criação de aplicativos de celular totalmente baseados nesse sistema, como o Uber, IFood e afins), o mundo mudou de tal forma que acabamos entrando no que é chamado de a “Era da Informação”.
A evolução que a humanidade atingiu talvez não fosse possível se não houvesse tanta informação disponível e constantemente atualizada como nós temos nos dias de hoje. Em paralelo, e provavelmente por conta disso, o poder computacional foi aumentando exponencialmente ao longo dessas últimas 6 décadas, fazendo com que dispositivos que hoje cabem nos nossos bolsos possam ter um poder de processamento milhares de vezes superior ao do computador que levou a humanidade à Lua em 1969.
Esse avanço trouxe a possibilidade de criarmos formas de fazermos as máquinas receberem uma enorme quantidade de dados e fazer combinações de certos aspectos desses dados entre si a uma velocidade tão grande, que poderiam encontrar padrões “escondidos” aos olhos mais desatentos e, consequentemente, prever comportamentos baseados nesses padrões. Essa descrição, ainda que rudimentar, é a definição básica de Aprendizado de Máquina (Machine Learning).
Como funciona a IA Generativa?
Para que um computador possa, de fato, fazer essas inferências e previsões baseados em um conjunto de dados recebido, é necessário fazer o que chamamos de treinamento de um modelo. O treinamento consiste em fornecer dados à máquina que sejam estatisticamente válidos, e que já contenham a devida resposta que estamos procurando.
Por exemplo, podemos pegar vários dados de clima em uma determinada região ao longo de um período de tempo (vento, precipitação, temperatura, fase lunar, informações da maré, etc) e associar isso ao fato de termos ondas consideradas boas para a prática de surfe. Não entendo nada de surfe, mas vamos convencionar que com esse conjunto de informações teremos a habilidade de prever isso. Além disso, vamos buscar informações de registros, para esse mesmo período, da ocorrência da prática de fato do surfe nesta região. Logo, saberemos em quais combinações de circunstâncias foi possível colocar a prancha no carro e aproveitar.
Além de algumas etapas de preparação desses dados, como limpeza de registros inválidos, agrupamento de registros, conversão de unidades e etc, que devem acontecer antes da ingestão dos dados pela máquina, é importante separar esses dados em 2 partes: uma parte de treinamento e uma parte de testes.
No conjunto de dados de testes, nós vamos informar ao sistema quais são as colunas que podem interferir no resultado final, chamadas de variáveis, e qual é a coluna que pretendemos usar como resultado, que no nosso caso pode ser um simples “Deu onda?” – “sim” ou “não”.
Modelos baseados em NLP (Natural Language Processing)
O que faremos com essa fatia de dados de treinamento é calibrar o “Modelo”, que é basicamente – numa explicação realmente simplificada – uma fórmula matemática que atribui pesos a cada uma das características relevantes (variáveis) de um conjunto de dados, e fica testando muitas combinações de valores para cada um dos pesos, de forma a tentar atingir o mesmo resultado que está presente na coluna alvo.
Quando após um grande número de iterações e tentativas de associação desses pesos, obtemos um número satisfatório de “positivos”, ou seja, nosso modelo matemático possui uma assertividade nos resultados que seja parecida com os dados informados na realidade, partimos para testar o modelo na outra fatia de dados, a de teste.
Quando a assertividade do modelo é satisfatória também na massa de testes, podemos dizer que o nosso modelo é capaz de prever o comportamento para novos dados que cheguem para serem inferidos. Logo, puxando as informações meteorológicas de previsão do tempo para os próximos dias, posso simplesmente aplicar esses dados nessa máquina, e ela será capaz de dizer, com algum grau de precisão, se vai dar onda ou não.
Essa informação é relevante para nós porque é justamente baseados nesse conceito de aprendizado de máquina, que acaba por ser uma das facetas mais importantes da Inteligência Artificial, que chegamos ao estágio mais recente (e eu diria mais impressionante) dessa evolução, a Inteligência Artificial Generativa (Generative AI, GenAI), que é a base da ferramenta que tem sido a mais popular na maioria dos escritórios pelo mundo hoje em dia, o ChatGPT.
Apesar de parecer algum tipo de mágica ou adivinhação, o ChatGPT é uma evolução de uma vertente de Machine Learning chamada NLP (Natural Language Processing, ou processamento de linguagem natural), que visa reconhecer padrões em textos escritos por humanos em linguagem natural, seja para identificar sentimento no texto (alegria, raiva, felicidade, tristeza, etc) ou para identificar possíveis ameaças ou violações de leis, por exemplo.
Leia também: Os impactos do ChatGPT
Essa evolução, chamada de LLM (Large Language Models, ou modelo de linguagem de grande escala), consegue fazer muito mais do que identificar características em textos fornecidos ao ser capaz de gerar conteúdo novo baseado no que já foi aprendido pela máquina.
E o ChatGPT?
Diferentemente do exemplo acima, em que usamos dados meteorológicos para treinar a máquina, as LLMs utilizam um universo de dados muito mais rico, baseado em palavras, frases e textos inteiros como fonte de treinamento. De fato, o ChatGPT foi treinado por muitos meses com o próprio conteúdo disponibilizado na internet durante seu treinamento.
Durante esse treinamento, a LLM aprende a relação entre as palavras, frases e contextos, e consegue aprender, entre outras coisas, qual a probabilidade de determinadas palavras aparecerem juntas, ou quais combinações de palavras ou frases podem determinar emoções em particular. Nesse caso, ao invés de calibrar os pesos de um sistema de equações (que é, basicamente, o caso do treinamento clássico descrito anteriormente), o treinamento quebra cada palavra em pedacinhos menores, chamados “tokens“, e cria uma matriz bastante complexa de probabilidades dos tokens aparecerem em um mesmo contexto, ou em sequência.
Quando digitamos um texto no ChatGPT, o processo é bastante parecido: nosso texto também é quebrado nesse formato de tokens e, dada a sequência de tokens gerada pela nossa pergunta, a máquina consegue puxar, por um simples cálculo probabilístico, qual é o primeiro token da resposta que ela vai gerar. Uma vez devolvido esse token, ela continua construindo a resposta, sempre puxando o próximo token baseado nos que foram encadeados anteriormente, e assim sucessivamente até que a resposta esteja completa. É justamente por esse motivo que conseguimos ver o ChatGPT “digitando” nossa resposta, pois ele está literalmente compondo essa informação em tempo real.
Essa capacidade de criar conteúdo novo, que não existe em nenhum outro lugar, é o que define a “IA generativa”. Essa abordagem funciona ainda com outros tipos de conteúdo, como sons, imagens e até vídeos, sempre baseada nessa grande matriz de conhecimento que tem amarrações probabilísticas entre seus elementos, e com isso temos hoje excelentes ferramentas para nos auxiliar no dia a dia. Grandes ferramentas, como o Photoshop e o Figma, já conseguem gerar conteúdo gráfico baseado no contexto fornecido, além de outras ferramentas capazes de converter áudio em texto utilizando LLMs, e outras capazes de gerar animações gráficas ou até mesmo vídeos.
Conclusão
O advento da IA Generativa traz muitas oportunidades para o nosso tempo. Apesar de haver um receio bastante difundido por alguns a respeito do potencial dessa tecnologia de “roubar empregos”, eu pessoalmente acredito que ocorrerá exatamente o contrário: assim como o Google chegou para causar uma grande disrupção ao acesso às informações, a IA Generativa e ferramentas como o ChatGPT farão com que nós possamos produzir muito mais valor dentro dos nossos trabalhos, sem termos que gastar tempo com tarefas repetitivas que, muitas vezes, acabam por ser maior parte do nosso esforço e que não necessariamente agregam valor às nossas entregas.
Leia também: As inteligências artificiais generativas e o mercado de trabalho
Talvez as pessoas que não entregam valor algum já nos dias de hoje percam seus empregos, mas isso será consequência do aumento da eficiência dos seus pares, e não do simples advento de uma nova tecnologia inovadora.
Gosto de fazer uma analogia aos tempos da máquina de escrever. O computador veio para agilizar o trabalho de escritores, jornalistas, advogados e professores que usavam a máquina de escrever como ferramenta. Já aquelas cujo trabalho era apenas datilografar, o puderam fazer de forma mais rápida e eficiente num computador, se assim o quisessem. Apenas os resistentes à inovação foram os que ficaram para trás.
Estamos vivenciando, mais uma vez, a história enquanto ela é escrita, e temos a oportunidade de aproveitar mais essa evolução e o ganho de produtividade que podemos ter para nos tornarmos profissionais mais eficientes, pessoas mais instruídas, e ainda conseguirmos mais tempo para fazer o que de fato importa, que é gerarmos tempo de qualidade para as nossas vidas.
Quem é a Aquarela Analytics?
A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial Corporativa na indústria e em grandes empresas. Por meio da plataforma Vorteris, da metodologia DCM e o Canvas Analítico (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania, Mercedes-Benz, Grupo Randon (automotivo), SolarBR Coca-Cola (varejo alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Auren, SPIC Brasil (energia), Telefônica Vivo (telecomunicações), dentre outros.
Acompanhe os novos conteúdos da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!
Pai da Rafaela e da Roberta 👧 👶, CTO na Aquarela Analytics, Palestrante, Dev, Músico e Apaixonado por Música