O ano de 2023 ficará marcado na história pelo primeiro contato da inteligência artificial (AI) com o público em massa através do lançamento do ChatGPT, aplicativo da OpenAI. A companhia foi a mais rápida a atingir 100 milhões de usuários em sua base, um marco relevante para qualquer empresa de tecnologia B2C (business-to-consumer), necessitando de apenas 2 meses para atingir tal feito. O Instagram, por exemplo, rede popular da Meta demorou 30 meses, ou seja, 15 vezes mais tempo para chegar ao mesmo patamar.
O motivo por trás da atração de tantas pessoas é um modelo de AI chamado de Large Language Model (LLM). O seu uso destravou o potencial ganho de produtividade enorme que pode ser atingido pelo uso de tecnologias com base em AI.
Mas o que é um LLM?
Um Large Language Model é um tipo avançado de inteligência artificial que consegue entender um questionamento e gerar respostas de maneira sofisticada. Eles são treinados com grandes quantidades de texto para aprender padrões e estruturas da linguagem, permitindo que realizem tarefas como responder perguntas, escrever textos e até mesmo realizar traduções. Esses modelos têm a capacidade de entender contextos complexos e produzir respostas contextualizadas, simulando de certa forma uma conversa com uma pessoa real.
Para ter uma ideia, o parágrafo que você acabou de ler foi 100% gerado pelo ChatGPT 3.5 (hoje o modelo está já na 4ª geração), usando como parâmetro: “Me explique em um parágrafo de forma simples o que é um Large Language Model”.
A evolução do ChatGPT se iniciou na previsão de qual seria a próxima palavra de uma frase. Conforme mais treinamento fosse realizado, com base na alimentação de dados, o modelo foi se sofisticando de modo marcante. Por exemplo, ele conseguiu alcançar um desempenho melhor que 90% dos humanos no SAT[1] (teste americano comparável ao que é o vestibular aqui no Brasil), algo realmente notável para um programa de computador. Dessa forma, ele rapidamente começou a ser usado por sua base de usuários para questionamentos do dia a dia (ex. montar itinerário de uma viagem, fazer uma receita com itens da geladeira) e ganhos de produtividade simples no trabalho (ex. resumir ou traduzir um bloco grande de texto).
Aqui é importante destacar que o modelo de AI o qual estamos nos referindo e para onde toda euforia do mercado está indo é um modelo generativo, que pode ser tanto de imagem quanto texto, tal como o DALL-E e o ChatGPT, ambos pertencentes ao OpenAI.
Apesar da admirável realização da OpenAI, qual a real aplicabilidade do LLM no mundo corporativo e qual a sua relevância?
Para tangibilizar essa resposta, um bom exemplo é o GitHub, uma empresa da Microsoft para desenvolvedores de código, o qual em 2022 lançou o GitHub Copilot que através de um LLM auxilia programadores a escreverem códigos de uma maneira mais produtiva pelo preço de somente US$ 10/mês. Esse recurso é responsável pela marca de US$ 100 milhões de receita[2], o que ainda representa apenas 1% dos usuários da base e 10% da receita[3] e, portanto, demonstra o grande potencial de crescimento conforme a adoção da tecnologia também cresce. Aqui, também vale assistir o vídeo[4] do Firefly da Adobe que ilustra bastante o impacto da inteligência artificial no universo de criação, nesse caso a aplicação é específica ao mundo do design.
Agora que já falamos brevemente dos indícios promissores da inteligência artificial sobre a geração de valor através do aumento da produtividade chegou o momento de abordarmos a vasta cadeia de valor que envolve i) software/aplicativos, ii) infraestrutura e, iii) semicondutores. Ainda, vale destacar que as empresas podem estar presentes em mais de um ponto da cadeia como é o caso da Amazon, Google e Microsoft por serem líderes em computação em nuvem com um market share combinado superior a 60%.[5]
Talvez a melhor maneira de discorrer sobre AI seja a partir do ponto de vista do usuário final. Uma pessoa pode ter demandas por diversos softwares tais como: Adobe, Apple, Google, Instagram, Microsoft Excel, Oracle, Salesforce, SAP, Tesla e Uber. Um modelo de AI pode ser construído dentro dessas empresas (ex.: Google Bard) ou elas podem optar por contratar um modelo externo como é o caso do oferecido pela OpenAI. Nesta opção, é ainda possível treinar o modelo com dados internos, para que ele enderece sob medida as necessidades da companhia, mitigando também os riscos de compliance e compartilhamento de dados ao manter o modelo dentro do ambiente de segurança da empresa e mantendo as informações privadas.
Empresas listadas na cadeia de AI
Em software, é possível identificar nas empresas listadas do setor a vantagem de serem first mover por dois principais motivos: i) velocidade e facilidade na distribuição e, ii) acesso à volume de dados. No primeiro caso, a melhor ilustração pode ser feita a partir da Microsoft, que é líder absoluta dos aplicativos de produtividade (ex.: Excel, Teams, Outlook). Sua aliança com a OpenAI foi importante para solidificar sua posição no tema. O movimento foi estratégico do ponto de vista defensivo (a inovação incremental é necessária para criar barreiras à novos entrantes) e do aumento de receita (para ter tal funcionalidade se paga um upgrade), enquanto a OpenAI ganha velocidade na distribuição de seu modelo. Já os bancos de dados representam tanto uma oportunidade quanto uma ameaça, uma vez que eles estão cada vez mais intercambiáveis ou até mesmo públicos, dando a possibilidade de empresas enfrentarem as incumbentes com ferramentas de AI mais eficientes. O primeiro enfretamento já está acontecendo com o Bing da Microsoft se utilizando do ChatGPT para tornar as buscas de internet mais assertivas e, desse modo, desafiando a pesquisa do Google.
Seguindo ao longo da cadeia chegamos à infraestrutura e a história do surgimento da AWS (Amazon Web Services). Esta foi a primeira empresa de computação em nuvem cujo modelo de negócio se baseia em alugar servidores para outras a um custo tão competitivo quanto comparado a um servidor próprio. Se a origem da computação em nuvem remonta um processo de terceirização comum, a sua evolução foi se dando para cada vez mais especialização. Somado a isso, na era AI, os montantes financeiros se tornam superlativos.
Um servidor de alta tecnologia, como o usado pelo OpenAI para treinar o modelo, pode custar US$ 4 bilhões[6], montante que será desembolsado por Amazon, Google e Microsoft entre outras empresas de computação em nuvem. Estas por sua vez alugarão a capacidade de processamento para diversas empresas. No caso da OpenAI, ela alugará esses servidores tanto para o treinamento quanto para as inferências (cada consulta ao ChatGPT representa uma inferência). Esse custo variável embora seja baixo, cerca de US$ 0,02 por consulta[7], em escala se torna representativo. Em um mês a OpenAI pode ter gasto US$ 40 milhões com as inferências. Esta é claramente uma vantagem e mercado ainda incipiente para estas três Big Techs.
Mais um avanço ao longo da cadeia e chegamos aos semicondutores, os quais são o principal conteúdo desses servidores de alta tecnologia. Seu ecossistema complexo pode ser considerado uma cadeia de valor à parte. O gráfico abaixo ilustra como se organizam algumas das principais companhias.
A Nvidia talvez seja a empresa mais falada no momento por ser a primeira de semicondutores a superar o valor de mercado de US$ 1 trilhão[8]. Os motivos pelos quais ela conseguiu tal feito pode ser tanto pela sua liderança absoluta com mais de 90% de market share[9] nos chips de supercomputadores quanto ao fato de que esses chips representam mais de 70% do custo de um servidor[10].
Os chips que a Nvidia produz são os chamados de GPU (Graphic Processing Unit ou Unidade de Processamento Gráfico). O motivo pelo qual esse chip conseguiu se adaptar melhor que o CPU (Central Processing Unit) no treinamento dos LLMs foi sua capacidade de conseguir realizar cálculos simultâneos, o chamado paralelismo. Nesse processo, partes do modelo são treinadas ao mesmo tempo para acelerar o processo de cálculos e, dessa forma, reduzir o tempo necessário para treinar o modelo em sua totalidade, melhorando a eficiência computacional e o custo final.
Apesar da atual posição hegemônica, existem, já no mercado, desafiantes a Nvidia. Alguns mais antigos, como a AMD, e outros relativamente recentes, como a Amazon e o Google. Não por acaso esses últimos estão usando uma maior verticalização na tentativa de ter mais diferenciação e lucratividade na computação em nuvem.
Outra característica do setor é a terceirização na fabricação de chips. A Nvidia faz apenas o design do chip, mas a fabricação final é responsabilidade de outras companhias, como é o caso da TSMC (Taiwan Semiconductor Manufacturing Company). Na vertical de fabricação, a TSMC é líder com mais de 50% de market share[11] – outro natural beneficiário do movimento em AI.
A fabricação de chips é bastante intensiva em capital e altamente complexa. Uma fábrica avançada de chips demanda em torno de US$ 10 bilhões apenas para ser construída. A complexidade, por sua vez, pode ser ilustrada pelo envolvimento do quarto estado da matéria, o plasma, na fabricação de semicondutores. O resultado disso é a minuciosidade necessária para ter um alto rendimento produtivo e máquinas especializadas que chegam a custar dezenas ou centenas de milhões de dólares como é o caso da Applied Materials, ASML, KLA, Lam Research ou Tokyo Electron. Dado a complexidade do tema, não nos estenderemos muito aqui, mas acredito que fica clara a enorme barreira de entrada para novos entrantes nesse segmento da cadeia e a importância que os players atuais têm nela.
O quadro abaixo organiza de forma interessante o universo de empresas públicas ligadas a AI através do lucro operacional (EBIT – Earnings Before Interest and Taxes) em que as 50 maiores chegaram a US$ 688 bilhões em 2021.
Empresas privadas na cadeia de AI
Dito isso, não podemos deixar de mencionar o impacto de AI no mercado privado dado que grande parte das inovações são nativas de apostas do mercado de Venture Capital.