Resolvi resumir minha percepção destes últimos meses investidos em entender o mercado de Inteligência Artificial. Esse é o primeiro artigo a respeito.
TLDR pra você que não quer se aventurar no texto:
A promessa da IA: transformar o mundo para melhor, avanços tecnológicos na ciência, produção, robótica e dar mais tempo para as pessoas executarem trabalhos que realmente importam: trabalhos de criatividade, estratégia e futuro.
A realidade dos produtos de IA: a maior parte das empresas está maquiando seus produtos, sem necessariamente conhecimento sobre inteligência artificial para atender à demanda do mercado. Como em 2021 com web3 e blockchain, tudo agora é IA - não somos mais empresas “Digitais”, agora somos empresas de IA. Os resultados reais de produtos lançados tem ficado muito aquém do esperado, e a decepção tem sido constante, além de se utilizarem de práticas ilegais no treinamento das redes neurais. Cresce o sentimento de desconfiança nas empresas que estão surgindo e no que os players estão lançando: está ficando feio.
A intenção real do mercado: de forma inequívoca, estamos aos poucos automatizando tarefas simples, ganhando maior percepção de produtividade para que se possa reduzir equipe. Layoffs seguem ocorrendo e executivos ainda estão relutantes em dizer que IA existe para reduzir o tamanho da mão de obra das empresas. Este é o principal objetivo, mas não se pode falar abertamente, por medo de retaliação.
Poucas empresas decidem e ganham dinheiro realmente com IA: os vendedores de pá.
A Promessa da Inteligência Artificial
Eu acredito que todos nós já ouvimos sobre as possibilidades que a IA traz para o mundo, e de que forma nossa sociedade será transformada pelo uso da tecnologia. Existe muita especulação sobre até onde o poder da inteligência artificial pode chegar, e que tipo de implicações teremos em áreas como medicina, robótica, finanças e política.
Vale se aventurar nessas conversas e conhecer o que futuristas como Amy Webb estão falando sobre o lado positivo do futuro, e já escrevi por aqui sobre um de seus livros principais, descrevendo o mercado e a pesquisa em inteligência artificial. Quero apresentar duas visões nessa linha, através de videos.
Cathie Wood apresenta a visão da Ark Invest para os próximos 5 a 10 anos, e de que forma a convergência de IA, Robotica, Armazenamento de Energia, Blockchain e Sequenciamento Multiômico podem acelerar o crescimento mundial através da inovação conjunta e disruptiva. O relatório Big Ideas 2024 é um ótimo material produzido por eles, descrevendo o que esperar no ano. Importante: as previsões da Ark dificilmente se concretizam, e a posição da empresa gestora de investimentos a partir da inovação disruptiva são duramente criticadas no mercado.
A Visão de inteligência artificial por vezes é confundida com ficção científica, já que há séculos sonhamos com máquinas autônomas capazes de sentir, pensar e apoiar humanos em suas atividades. Vale conhecer um pouco dessas visões sendo aterrizadas em questões do mundo real. Passei bastante tempo pesquisando sobre o tema, e é um exercício interessante para aprimorar sua perspectiva. Mas lembre-se: tudo que você ouvir sobre o futuro, principalmente roadmap de produtos em longo prazo são especulações, e que muitas vezes não se concretizam.
A realidade do mercado
Estamos numa bolha? Quanto mais aprofundo meu conhecimento no mercado, mais me convenço que, se ainda não estamos num momento de bolha, com certeza estamos na curva de expectativas exageradas e overhype. Não estou sozinho nisso, e os últimos lançamentos no mundo da IA me demonstram que as empresas seguem enganando o mercado com produtos meia boca, expectativas irreais e uma máquina de hype para viabilizar a valorização no curto prazo das ações.
Em minha experiência, enquanto ainda à frente da Lambda3, tive inúmeras oportunidades de discutir e apoiar empresas e equipes na entrega de soluções com IA, tendo confiança nos nossos cases como representações do que é possível fazer de forma mais pragmática e direta com Machine Learning e Visão Computacional. Pretendo tratar isso em um artigo específico, sobre o que realmente tem funcionado com IA, e como levar a sério a tecnologia. No momento estou interessado numa visão mais geral do mercado.
Em resumo, estamos numa curva ascendente de AI Washing e expectativas infladas. Produtos empoderados pelo marketing desenfreado de um mercado se acostumou nos anos de Juros baixos, potencializado por empresas com FOMO dessa corrida do ouro moderna. Toda empresa que se preze tem alguma iniciativa com IA sendo propagandeada, ainda que a iniciativa seja apenas aprender a usar uma API para gerar textos para algum site, ou colocar um bot no ar. AI Washing é quando empresas manipulam as informacoes de produtos para posicionar suas funcionalidades no meio da onda atual do mercado. Tenho enxergado um deslumbre exagerado com ferramentas que geram resultados impressionantes de início, mas que não se sustentam a uma análise mais minuciosa, colocando em risco a operação e equipes que mantém seus produtos. O caso da air Canadá é exemplar.
Dentro dos últimos grandes momentos que movimentaram o mercado, quero destacar alguns exemplos, que provavelmente você já conhece: Amazon Just Walk Out, Google Gemini Demo, Devin developer Startup e Humane AI Companion. O marketing ao redor desses produtos foi imenso, com grandes declarações e seguidas de aumento relativo do valuation dessas empresas, não fosse pelo detalhe de que nenhuma delas estava falando a verdade sobre os produtos. Tudo era de alguma forma golpe: nenhuma dessas ferramentas é ou segue sendo completamente autônomas. A maioria dos demos são ensaiados e maquiados para superestimar as capacidades das ferramentas, numa intenção especulativa clara. Na corrida do ouro da IA, vender sonho que ninguém é capaz de entregar segue sendo uma estratégia vencedora para assegurar investimento de Venture Capital.
O caso da Amazon, com a a divisão Just Walk Out é um exemplo importante, principalmente para que possamos ajustar nossas expectativas sobre o uso dessas tecnologias. Mesmo depois de múltiplos anos, e dezenas de lojas operando, a empresa ainda precisa de mais de mil funcionários fazendo labeling e avaliando 70% das transações através de operadores humanos! Está longe de ser um processo eficiente ou autônomo. O sonho de uma tecnologia que simplesmente funciona, sem apoio humano, está longe da verdade.
Me preocupa que esse zelo e detalhismo para garantir que todo o serviço funcione só é empregado quando o risco financeiro é direto para as empresas. Não fosse o fato de que uma falha da IA cause prejuízo para a amazon, deixando de faturar produtos, com certeza a plataforma tecnológica seria deixada rodar sem grande escrutínio: resultado financeiro dessas soluções só pode ser alcançado com intervenção humana, senão a tecnologia não fica de pé. Inflar expectativas das ferramentas pode cegar executivos que esperam utilizar as mesmas plataformas sem necessariamente ter o mesmo budget para manter um exército de anotadores fazer avaliação dos resultados da IA.
O trabalho de Data Annotations é a principal base da infraestrutura de AI nos dias de hoje. Não se sabe ao certo, mas estima-se que milhões de profissionais estejam envolvidos em tarefas de classificação e anotação para algoritmos de IA. Empresas como CloudFactory e Scale AI empregam ao redor do mundo pessoas para manter algoritmos funcionando, com salarios baixíssimos. Bem vindos aos sweet shops da IA. Ajudar algoritmos a identificarem corretamente os elementos é um trabalho árduo e maçante de avaliar e corrigir erros de identificação dos algoritmos.
Muitas vezes visto com o um trabalho de baixo nível e com data de término, o trabalho é conhecido como monótono e de menor importância, sendo tratado com sigilo por todas as empresas desenvolvendo soluções hoje em dia. Como na realidade sistemas de inteligência artificial são frágeis, esse trabalho não tem data para acabar.
Temos até um termo para isso - Brittle AI: como em 2018, quando um carro autônomo da Uber matou uma mulher porque o algoritmo de visão computacional, apesar de conseguir reconhecer uma pessoa andando de bicicleta, não havia sido treinando com alguém empurrando a bicicleta ao atravessar a rua. Se preparar para estes casos limítrofes é o que torna Anotadores um fundamental para todo o mercado de Inteligência Artificial. Não vai acabar tão cedo.
Todo sistema atual que se utiliza de IA, usa o trabalho de anotadores: classificação de spam, avaliação de teor sexual de anúncios, relacionamento entre transações de cartão de crédito, mensagens de atendimento do chatbot, classificação de comida para que Geladeira Smart reconheça embalagens, etc. Todo sistema sério em produção precisa desse tipo de trabalho, para ampliar a precisão dos algoritmos, recebendo proximo de $1 dólar a hora.
The Verge escreve em um longo artigo sobre os desafios deste mercado que é o mais proeminente em IA, mas que quase ninguém fala a respeito, devido ao estigma e também à vantagem competitiva que ele traz para qualquer modelo: maior capacidade de criar anotações para treinar os modelos se traduz em precisão nos resultados. Recomendo muito a leitura.
Toda operação utilizando IA precisa de uma equipe de labeling e correção ao seu lado. Nenhum sistema será completamente autônomo, nem para sempre, se a empresa espera acuidade do modelo. O que acontece com os agentes autônomos que estamos utilizando em produtos que não terão budget necessário para validar o que é gerado ou decidido através de IA? Quem paga o preço por tais erros?
Google emprega mais de 10 mil pessoas na divisão de Search Quality Raters, trabalho de avaliação e peso do seu algoritmo de ranking de busca: Perceba, essas pessoas passam o dia avaliando os sites e ajustando o ranqueamento feito pelo algoritmo, inclusive com Guidelines detalhados do trabalho: O que a empresa faz? Descreve seu algoritmo como não precisando de nenhuma intervenção humana. Link para o Guia
Além disso, já é de conhecimento do mercado que a empresa maquiou os resultados ao apresentar sua IA Multi Modal Gemini, num video realmente impressionante em que uma pessoa conversa naturalmente com o programa e chega a criar um jogo com ela através de postits. O vídeo, o resultado e a interação com Gemini são todos ensaiados e alterados. A tecnologia não está próximo do que foi apresentado.
Devin é uma mentira
Depois de um lançamento realmente estrondoso, ficou clara a mentira do produto que se dizia ser um novo desenvolvedor em um time de software. Devin, startup que lança um produto para o mercado de dev, estava exagerando muito em todas as publicações dos Resultados.
O que ajuda mais o valuation no curto prazo:
Ser pragmático com a própria ferramenta apresentando os benefícios e riscos da plataforma?
Dizer que não precisa mais de desenvolvedor de software e arriscar viralizar?
A empresa optou pela segunda opção, ofuscando o trabalho impressionante de seu time de desenvolvimento, e aprendeu da pior forma.
Obviamente que Devin não vai substituir diretamente um programador no time. Qualquer empresa que descreva sua ferramenta dessa forma está claramente mentindo. Ainda que intenção final seja substituir posições de trabalho, não será dessa forma.
Humane AI Pin
Uma tendência do mercado são wearables impulsionados por IA, descrito em bastante detalhe no Relatório do Future Today Institute. Talvez o produto mais famoso dos últimos tempos tenha sido o Humane Ai Pin. Com a intenção de se tornar um companheiro indispensável, e tornar seu celular obsoleto, Humane integra uma camera e um projetor como seus mecanismos de entrada. Nos últimos meses a mídia especializada realmente morreu de amores pelo produto, traçando grandes expectativas. O problema: o produto é um desastre, e os últimos reviews foram péssimos. Não vai ser agora o sonho de um Jarvis ao seu lado o tempo todo.
Gerando um futuro esquisito
LLMs e IA Generativa em geral são as plataformas mais discutidas dentro do mundo de negócios com IA, mas isso não e sinônimo de eficácia dos produtos. O problema é que a aparente inteligência e acuidade dessas soluções, sempre acaba gerando resultados ruins e com impactos reais para quem as utiliza em soluções sérias. Mais um motivo para anotadores terem trabalho.
Já está se tornando padrão o seu uso indiscriminado, mesmo com os vários exemplos de problemas que esses sistemas podem gerar. Descrevi alguns exemplos no meu último post sobre o TDC Summit AI 2024, vale conferir.
Como mais um exemplo ilustrativo, vale apresentar o caso australiano em que um grupo de Acadêmicos utilizou o Bard para redigir uma reclamação ao congresso pedindo maior ética e profissionalismo na condução da contabilidade de empresas de consultoria, citando exemplo de atos reprováveis e corruptos. O detalhe: o algoritmo inventou informações que nunca aconteceram, como é comum para LLMs, implicando KPMG e Deloitte em nível nacional. Foi uma tremenda confusão 👌.
"Eu perguntei ao GPT sobre pizza, e ele descreveu tão perfeitamente o seu gosto que agora estou totalmente convencido que ele comeu uma pizza realmente, e é consciente de sua experiência sensorial de alimentação!" Parece absurdo? Não é...
Um desafio para nós, tecnologistas, no uso de inteligência artificial, é manter o viés cético e pragmático enquanto todo o mercado de TI e entretenimento aponta para AGI logo ali na esquina. Infelizmente, estamos dando espaço para crenças e delírios muito parecidos com a ironia criada pelo professor Subbarao Kambhampati.
Apesar de um exemplo pitoresco, tenho conversado com pessoas que já inclusive estão planejando experimentar trocar equipes de tecnologia por alguma das ferramentas de copilot, na crença de que elas darão conta do desenvolvimento de software 🤷🏾♂️
Inteligência e a imitação de inteligência possuem uma fronteira cada vez menor e mais difícil de serem identificadas. À medida que LLMs são treinadas para simular raciocínio, trazendo resultados impressionantes, tais modelos não apresentam nenhuma capacidade de razão e auto crítica, confiando apenas em memória e reconhecimento de padrões. Inclusive, o próprio professor apresenta de maneira bastante contundente seu argumento, na aula “Can LLMs reason?”
O site Tech.co tem mantido uma lista atualizada dos erros e falhas cometidos por IA e empresas relacionadas na área. Impossível eles anotarem tudo, mas espere encontrar apenas os maiores erros por ali. Tem muito mais acontecendo.
Não consigo imaginar o que pode acontecer no caso de São Paulo, em que o governo espera utilizar a ferramenta como apoio e acelerador de planejamento escolar.
Por mais mágica que possa parecer IA Generativa é uma tecnologia bastante útil que já esta sendo utilizada em bons casos. O problema, está na sua construção: o uso de propriedade intelectual sem autorização. As ferramentas mais famosas estão cada vez mais no holofote de ações por uso de imagem sem autorização, e os casos não param de aparecer. Aqui temos um dilema ético e criminal: Quantos crimes de propriedade intelectual vamos aceitar para que possamos gerar imagens de um panda dirigindo uma bicicleta no meio da floresta?
Este novo conjunto de acusações pode mudar bastante o direcionamento dessa indústria de GenAI de imagens. E é um momento de muita discussão sobre regulação do uso dessas plataformas:
O que mais me preocupa no momento está ligado à geração automática de vídeos. Estamos prestes a entrar num outro desafio com IA Generativa, que precisa ser discutido no contexto mais amplo da sociedade, com o lançamento de plataformas de DeepFake em nível comercial.
Ainda que isso seja um grande mérito do trabalho dessas equipes de pesquisa, eu me pergunto para qual finalidade? Posso inclusive citar:
Memorial para familiares conversarem com pessoas já falecidas
Gêmeos digitais para facilitar o processo de geração de vídeo, treinamentos, e anúncios sem que sejam gravados pessoalmente
Memes e zoeira na internet (adoro)
Quando eu penso nas implicações e riscos, que já temos com deepfakes, fico interessado em saber como vamos lidar:
campanhas políticas de difamação
target marketing com a intenção de desestabilizar grupos políticos
fraude para abertura de contas e reconhecimento fácil (já existem trabalhos burlando quase todas as ferramentas atuais de segurança)
golpes menores de WhatsApp, extorsão de dinheiro, e abuso de familiares
endosso de figuras públicas à scams e sites maliciosos (se o Pedro Bial tá dizendo então deve ser confiável)
Analisem o vídeo sob a perspectiva daquele seu parente que não eh letrado em tecnologia: você realmente acredita que será fácil identificar um vídeo assim como falso?
O buraco parece sem fundo…
E já podemos ver o resultado em toda parte. Enquanto escrevia este artigo, todos os dias uma nova ferramenta ou novo problema surgiu para ser discutido.
Netflix, usando ferramentas de GenAI para manipular um documentário de True Crime sobre Jennifer Pan, acusada de mandar matar os pais. A intenção sugerida nas imagens manipuladas é de que Jennifer fosse uma mulher alegre, confiante e feliz - as imagens parecem ter sido criadas com essa intenção. Não tão “true” assim…
Entre as diversas questões éticas de manipulação de imagens na produção de um documentário que se propõe a ser sobre Crimes Reais, ainda posso citar:
- Esta reescrevendo a historia. Um documentário pode parecer inocente o suficiente para cometer esse tipo de ação, mas não é. As imagens deveriam ser ter no mínimo algum tipo de marca d'água
- consentimento expresso para alteração de imagem
- Transparência - notificar nos créditos
A real intenção com o uso de IA
Todo o discurso de grandes executivos quanto ao uso da IA sempre é focado na ampliação da capacidade humana, e no potencial de multiplicação de resultado que a IA traz para cada invidíduo. Eu mesmo já descrevi a tecnologia desta forma. Acontece que na realidade, o que vemos é uma intenção diferente.
“Empregos estão sendo perdidos para IA, mas empoderamento é a história a ser contada. Ao invés da editora Mary perder seu emprego, a empresa que ela trabalha vai treiná-la em uma ferramenta de IA que gera os primeiros rascunhos, pega produtos aprovador e converte para uso em catálogo, web e social, e acelera o processo para outras tarefas. O gerente da Mary espera que ela produza o triplo de conteúdo no mesmo tempo.“- Corporate Ozempic, Prof Galloway
Ao invés de times de 5 pessoas produzindo trabalho, com a incorporação de práticas e ferramentas de IA e o amadurecimento do ecossistema de uso, logo teremos equipes de 2 pessoas gerando o trabalho de 7. No fundo, esse é o objetivo principal, e com isso o aumento da rentabilidade das empresas - mas nenhum CEO está disposto a assumir esse plano no momento.
Com o tempo, veremos executivos atribuindo o resultado de suas empresas ao fato de conseguirem reduzir seus quadros de funcionários e se valer de plataformas de IA que ampliam o trabalho dos poucos indivíduos que restam para realizar atividades não automatizadas. Já vemos CEOs da IBM e UPS declarando que estão reduzindo as contratações para funções que talvez possam ser substituídas por IA - ambas as empresas já demitiram milhares de posições de trabalho nos últimos anos.
Um estudo feito pela McKinsey sobre o impacto da IA estima que ao menos 12 milhões de trabalhadores terão que mudar de posição de trabalho até 2030 e que principalmente trabalhos de menor valor salarial serão os mais impactados. Customer Service, Vendas e Suporte de Escritório serão os mais impactados. Apesar disso, ciência, saúde e construção serão os menos impactados, dadas as características definidas pelo Efeito Baumol. No fim, cuidar de pacientes e assentar uma laje ainda serão feitos por pessoas.
Felizmente, ao menos, algumas empresas não escondem totalmente a extensão de seus objetivos, apresentando ferramentas que imitam processos humanos, de uma forma super distópica. Ainda que o marketing seja outro, esta bastante claro a expectativa de ampliar a capacidade do processo de contratação imitando entrevistadores humanos, numa simplificação bastante tosca do trabalho diário desse tipo de profissional.
Na busca irreal por lucro, e sob a desculpa de aumentarmos a capacidade humana, estamos na verdade trabalhando diretamente para um mundo bastante diferente dos ideais apresentados no início deste texto.
ColdFusion fez um ótimo video Que serviu de base para que eu aprofundasse os temas tratados aqui. Vale assistir.
Quem realmente ganha dinheiro com IA
Na corrida do ouro só ganha dinheiro quem vende pá. Quem embarca em serra pelada buscando o sonho, tem muito mais chance de dar errado. No momento atual, IA está sendo definida por poucas empresas e universidades, e os 2 maiores pilares para evolução da tecnologia são Poder de Processamento e Comunidade de Desenvolvimento. Não se engane: quem te vende o maior ferramental para integração, só espera que sua empresa fique dependente da plataforma.
Não é a toa que as principais e maiores empresas envolvidas com IA também são empresas de nuvem. Startups de IA sempre terão em seu Captable algum player relacionado a infraestrutura: treinar modelos de IA custa caro. Não só em capacidade de processamento, mas no consumo de Água para resfriamento e Energia para manter os datacenters funcionando. Começando a conhecer melhor as demandas dos clusters para manter e evoluir modelos como o GPT-6, eu começo a duvidar da solução como minimamente viável nos próximos anos.
Treinar pessoas para criar soluções, custa caro também. Não é a toa que NVidia, Microsoft, Google, Tencent e Alibaba tem soluções para todo tipo de empresa que queira usar suas ferramentas de inteligência artificial, e investem pesado em tooling para desenvolvimento: é muito improvável que uma empresa vá desenvolver a próxima infraestrutura de processamento e ferramental de uso para treinar um modelo novo, sem que seja supervisionado ou executado dentro de algum fornecedor de nuvem.
A integração vertical da IA, como descrito no livro da Amy Webb se dá na seguinte forma:
- Investir pesado em formar profissionais o mais cedo possível com conhecimento nichado de ferramental (ex: Microsoft Conecta, Google Cloud), e garantir que em qualquer momento que uma nova pessoa entra no mercado ela seja cooptada para essa plataforma e se mantenha na comunidade de nicho
- Investimento e programas de parceria para que empresas aprendam a usar as plataformas, e indiquem a seus clientes o seu uso
- Entregar ferramental grande, programa de certificação, programa de parceria e prêmios para Pessoas e Empresas que apresentem cases utilizando as plataformas e os modelos já pre determinados (Azure Cognitive Services, NVIDIA NGC, Alibaba Cloud)
- Disponibilizar o ecossistema técnico com a menor barreira de entrada possível (como Meta AI e Llama 3)
- Garantir que novas empresas e produtos sejam lançados com incentivo de nuvem
- Lutar pelo domínio do ecossistema de profissionais, empresas e parceiros
OpenAI GPTs, Tencent AI Lab, Amazon Bedrock existem para que você não tenha como fugir destas soluções para produzir seu novo produto. Uma vez dentro, dificilmente estará livre. Quando o CEO da NVIDIA diz que não precisamos mais ensinar nossos filhos a programar, ele está mais interessado em acenar para os investidores e gerar buzz do que realmente dizer a verdade.
Obviamente, as empresas que vendem dados para IA (Data Annotations), que estão por trás de todas as plataformas como MechanicalTurks, CloudFactory, Scale AI, RemoTasks entre outras. Como exemplo, Scale AI foi avaliada em 2021 em mais de $7 bilhões de dólares.
Essas são realmente as empresas gerando valor com IA e investindo pesado para o futuro, e mesmo que tudo que seja criado em IA dê errado, eles ainda saem ganhando.
Obrigado!
Se você leu até aqui: duvide de tudo que escrevi, faça as próprias pesquisas, leia os artigos indicados. Precisamos de muito mais profissionais letrados em IA para atuar na próxima década.
Escrevi este artigo para aprofundar os exemplos que tenho visto no mercado e de como essa tecnologia tão importante para o futuro está transformando nossa percepção de mundo. Como tecnologista, acredito ser parte da minha responsabilidade alertar para o erro de aceitar cegamente o exagero e as promessas de construtores de ferramenta (vendedores de pá), e ajudar a preparar nosso mercado a ser mais cético.
コメント