O Brasil entrou no radar das grandes empresas de IA — e isso diz muito sobre o que vem por aí

Na semana passada, a ElevenLabs — plataforma de síntese de voz que está redefinindo o que chamávamos de “voz robótica” — realizou seu segundo evento no Brasil, em São Paulo.   

A empresa tem hoje 12 colaboradores no país, clientes como Vivo e Sky, e integração com as principais plataformas de atendimento do mundo. E a ElevenLabs não está sozinha: a OpenAI também engrossou recentemente a lista de parceiros e colaboradores brasileiros.

Isso não é coincidência. É um padrão se formando.

smart_display

Nossos vídeos em destaque

Mas o que me ficou mais na cabeça — e foi se repetindo como um eco ao longo de todas as apresentações que eu assisti — não foi simplesmente a presença dessas empresas. Foi uma lição que vi surgir de formas completamente diferentes, mas com a mesma mensagem no fundo.

Três cases, uma lição

O primeiro momento foi durante a apresentação da Synergy Tech, especialista em operações de cobrança com IA. Eles contaram como levaram para os agentes de voz toda a inteligência que uma central de atendimento leva anos para acumular — os processos, os scripts, os protocolos de escalada, as métricas. 

Não é “criar uma URA chique”. Não é treinar o modelo e torcer. É replicar, dentro do contexto da IA, o que o call-center tradicional levou décadas para aprender a fazer. O resultado? Os bots generativos com controle emocional da Synergy Tech já superam o primeiro quartil de performance dos atendentes humanos. Não estão chegando perto — já passaram.
 

pessoal-enviando-comando-para-IA-por-voz
A voz é a nova interface?  Os cases apresentados na última edição da ElevenLabs em São Paulo, mostram por que a voz pode ser ativo mais valioso para dominar a inteligência artificial. (Fonte: Getty Images)

O segundo veio do Bruno Bock, co-criador do canal Pipocando — quase uma lenda do YouTube brasileiro com mais de 20 anos em produção audiovisual que hoje também comanda a ZeroUm.ai, uma produtora de vídeo que usa IA do início ao fim. O que ele disse foi simples e poderoso: existe uma diferença abissal entre vídeos genéricos feitos com IA e vídeos profissionais realmente bem feitos com IA.   

E o segredo não é um prompt especial. É todo o repertório de quem passou décadas na frente da câmera e na ilha de edição sendo aplicado em conjunto com os agentes — do composite de personagens até a pós-produção. O resultado são vídeos que não parecem de IA, por uma fração do custo de uma produção profissional. Em poucos meses, a produtora já fatura mais do que o canal do YouTube.  
 

Dois segmentos completamente diferentes. Mesma lição.  

Leo Cândido, da Artefact, resumiu no palco: “o diferencial deixa de ser o que você faz e passa a ser por que você faz.”

O padrão que ficou ecoando e isso conversa diretamente com o que tenho dito há algum tempo: o maior ativo na era da IA não é o acesso à ferramenta. Isso é quase commodity. É o contexto que você traz para ela. E um bom contexto vem com experiência.

Por mais que os LLMs de IA estejam evoluindo em uma velocidade sem precedentes — e estão — eles ainda precisam de uma coisa para funcionar bem: contexto e direção. E essa profundidade só vem de quem sabe o que está fazendo.

Prompts genéricos entregam respostas genéricas. Textos sem profundidade, imagens plastificadas, sites com aquela estética de degradê roxo que os modelos regurgitam por padrão. É a velha máxima: garbage in, garbage out. Só que agora com esteroides.

Eu vivi isso na pele — e os números são impossíveis de ignorar. No final do ano passado, terminei um projeto que ilustra exatamente esse ponto.

O Sebrae e a ABGI me convidaram para produzir um relatório sobre políticas públicas de ecossistemas de inovação ao redor do mundo. Escopo: analisar 50 falhas de mercado, mapear políticas relevantes, benchmarking internacional e acabou se tornando um grande – e bem-sucedido – experimento com IA. O que seria um PDF de 200 páginas se tornou outra coisa completamente.

Em vez de pesquisar manualmente, criei um agente pesquisador com ferramentas de vibe coding e APIs de busca. Deixei rodar à noite. Acordei com uma surpresa: o agente havia feito 16.400 buscas em 10 idiomas. Humanamente impossível analisar esse volume. Então criei mais agentes especializados — um traduzia, outro classificava, outro avaliava. Foram mais de 220 mil análises ao todo.   

O que gerou uma base muito robusta de conhecimento, que subsidiou um resultado ordens de grandeza melhor do que eu seria capaz de produzir. Na ponta do lápis: se cada busca ou análise levasse 5 minutos, somariam mais de 12 anos de trabalho. Entreguei em 2 meses.

Mas — e esse é o ponto central — isso não é possível simplesmente porque eu usei IA. Foi possível porque eu trouxe para o projeto décadas da minha experiência em ecossistemas de inovação, associada com minhas experiências como consultor sênior, ex-programador e expert em produtos digitais.   

Sem esse contexto combinado no “o que” e no “como”, eu construí essa arquitetura de gentes, a IA estaria tão perdida quanto qualquer pessoa leiga na área que abre o ChatGPT e digita “me explique inovação”.

Voz como próxima interface

No meio disso tudo, tem um ângulo que o evento da ElevenLabs escancarou: voz está prestes a se tornar a interface dominante da IA-  e, talvez, num futuro não muito distante, o próprio pensamento, mas isso é assunto para outra história.

Enquanto as interfaces cérebro-máquina ainda não chegam ao mainstream, a voz está se tornando cada vez mais um canal relevante e talvez central na interface entre humanos e IAs.

Bruno Santos, head da ElevenLabs no Brasil, trouxe um argumento que parece óbvio, mas tem implicações enormes: a nova geração já não tecla, fala. A transição já aconteceu no Brasil — qualquer brasileiro com smartphone manda áudio no WhatsApp sem pestanejar.   

Muitos o preferem a textos minimamente longos. “Falamos 140 palavras em um minuto, enquanto só conseguimos digitar 40”, pontou. Isso, sem contar que a voz carrega emoção, entonação e outras nuances que enriquecem muito essa forma de comunicação em relação ao texto.
 

conceito-de-inteligencia-artificial-por-voz
Algumas empresas já estão empresas estão usando voz e agentes especializados para superar a performance humana em setores como cobrança e vídeo. (Fonte: Getty Images)

Diogo Corti, professor da PUC-SP, contextualizou: “a IA é a primeira tecnologia de propósito geral que domina a linguagem no nível humano”. E se a IA agora pode falar de igual para igual conosco, a voz surge como o canal mais natural para isso. “Estamos saindo da economia da atenção para a economia da interação”.

Um dos cases apresentados foi o do Banco do Nordeste usando voz com sotaque local como canal de inclusão financeira para populações de baixa renda — impacto social real, viabilizado por IA.

Santos disse que acredita que a voz vai ser um diferencial competitivo de marca tão importante quanto o logo.

O Brasil está bem posicionado — mas precisa agir

Conversei no evento com Alec Wilcox, head de Social Media da ElevenLabs em Londres. A percepção de quem vem de fora é clara: o Brasil não é mais mercado periférico nessa corrida. Temos escala, talento e casos de uso suficientemente complexos, muitas vezes que têm servido de referência para fora.

Mas o fato de as big techs estarem aqui não significa que elas vão escrever essa história por nós. A história vai ser escrita por quem souber usar a tecnologia para amplificar sua própria experiência, conhecimentos e capacidades.   

O profissional de cobrança que vai transferir décadas de operação para os agentes de voz, o produtor audiovisual que vai usar IA para fazer o que antes exigia orçamento milionário de grande produtora, o consultor que viveu um setor inteiro e agora pode operar sozinho com a potência de uma equipe.

Se você entende de medicina, finanças, engenharia, educação, comunicação: você tem algo que a IA não tem. A IA tem capacidade de processamento. Você tem experiência, know-how e contexto. E quem aprender a combinar os dois vai entregar resultados que uma pessoa sem esse domínio dificilmente vai tirar de qualquer ChatGPT da vida.   

Se você acha que só “aprender IA” basta, resolveu só metade da equação. O resultado real vem a combinação do domínio da tecnologia com a sabedoria prática de como se resolvem os mais diversos problemas. Pelo menos por enquanto.   

Não à toa, a OpenAI mudou sua estratégia de treinamento de modelos, deixando de contratar milhares de trabalhadores catalogadores de informações básicas, para se concentrar em profissionais altamente qualificados: médicos cardiologistas, engenheiros aeronáuticos, doutores em microbiologia, que estão avaliando e refinando as decisões das IAs do futuro em altíssimo nível de especialização, mas essa também é outra história.

A presença crescente das grandes empresas de IA no Brasil reforça que estamos entre os maiores mercados para adoção tecnológica, temos escala, talento e muitos ativos estratégicos para esse jogo, incluindo nossa capacidade de resolver problemas com jogo de cintura e criatividade.  E assim, podemos ser capazes de trazer para a IA a “malemolência” e know-how que só a experiência humana tem, pelo menos por enquanto.

Não é só uma boa notícia para o ecossistema. É um aviso de que o jogo está começando a ser jogado por aqui também — e que os melhores jogadores ainda estão se formando.   

Se você é um profissional experiente, é hora de saber como dominar as ferramentas de IA para amplificar o que você já sabe fazer a níveis quase inacreditáveis. Se você está aprendendo a usar IA, mas ainda não é um especialista em nenhuma área profissional, saia do genérico.   

Escolha um problema real e específico, foque-se em aprender tudo sobre ele, e use esse aprendizado para conduzir a tecnologia para soluções que vão além do prompt padrão

Autor: TechMundo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima