A adoção de IA em empresas vem enfrentando uma tensão central: as organizações precisam de modelos de linguagem avançados, mas esbarram nos altos custos de infraestrutura e no consumo de energia dos sistemas de ponta.
O lançamento recente do tsuzumi 2, da NTT Inc., mostra um caminho diferente. Trata-se de um modelo de linguagem grande (LLM) leve, capaz de rodar em uma única GPU, e que nos primeiros testes tem apresentado desempenho comparável ao de modelos bem maiores — porém com uma fração do custo operacional.
### Infraestrutura enxuta, caso de negócio claro
O racional econômico é direto: modelos de linguagem tradicionais costumam exigir dezenas ou até centenas de GPUs, elevando o consumo de energia e os custos de operação a níveis proibitivos para muitas organizações.
Para empresas que atuam em regiões com infraestrutura energética limitada ou orçamentos apertados, essas exigências tornam a IA algo distante da realidade. Nesse contexto, o tsuzumi 2 surge como alternativa prática, como mostra a implantação feita pela Tokyo Online University.
A universidade mantém uma plataforma on-premise, mantendo dados de alunos e funcionários dentro da própria rede do campus — um requisito de soberania de dados comum em instituições de ensino e setores regulados.
Após validar que o tsuzumi 2 consegue lidar com compreensão de contexto complexa e processamento de documentos longos em nível de produção, a universidade passou a utilizá-lo para:
- aprimorar o sistema de perguntas e respostas sobre cursos,
- apoiar a criação de materiais didáticos,
- oferecer orientação personalizada a estudantes.
O fato de o modelo operar em uma única GPU permite à instituição evitar tanto o investimento pesado em clusters de GPU quanto os custos recorrentes de energia. Mas o benefício mais crítico é outro: a implantação on-premise resolve preocupações de privacidade que impedem muitas instituições de recorrerem a serviços de IA em nuvem, que exigem o envio de informações sensíveis de alunos para provedores externos.
### Desempenho sem “hiperescala”: a economia técnica
Em avaliações internas da NTT para atendimento de consultas em sistemas financeiros, o tsuzumi 2 igualou ou superou modelos externos líderes, mesmo exigindo muito menos infraestrutura. Essa relação desempenho–recursos é decisiva para empresas em que o custo total de propriedade é o fator principal nas decisões de adoção de IA.
Segundo a NTT, o modelo atinge “resultados de nível mundial entre modelos de tamanho comparável” em japonês, com destaque para domínios de negócios que exigem conhecimento sólido, capacidade de análise, obediência a instruções e segurança.
Para empresas que atuam sobretudo no mercado japonês, essa otimização específica para o idioma reduz a necessidade de adotar modelos multilíngues maiores, que pedem bem mais poder computacional.
O tsuzumi 2 também traz conhecimento reforçado para os setores financeiro, médico e público, construído com base em demandas de clientes. Isso permite implantações em domínios específicos sem a necessidade de grandes esforços de fine-tuning.
Além disso, seus recursos de RAG (Retrieval-Augmented Generation) e de ajuste fino facilitam o desenvolvimento de aplicações especializadas para empresas com bases de conhecimento proprietárias ou terminologia de nicho, em que modelos genéricos tendem a ter pior desempenho.
### Soberania e segurança de dados como motores de adoção
Mais do que apenas custo, a questão da soberania de dados tem impulsionado a adoção de LLMs leves em setores regulados. Organizações que lidam com informações confidenciais correm riscos ao processar dados em serviços de IA externos, sob jurisdições estrangeiras.
A NTT posiciona o tsuzumi 2 como um modelo “puramente doméstico”, desenvolvido do zero no Japão e projetado para operar on-premise ou em nuvens privadas. Essa característica atende preocupações comuns em diversos mercados da Ásia-Pacífico sobre residência de dados, conformidade regulatória e segurança da informação.
A parceria da FUJIFILM Business Innovation com a NTT DOCOMO BUSINESS ilustra como esses modelos leves podem se integrar à infraestrutura de dados já existente. A tecnologia REiLI, da FUJIFILM, transforma dados corporativos não estruturados — como contratos, propostas e documentos que misturam texto e imagens — em informação estruturada.
Ao integrar as capacidades generativas do tsuzumi 2 a essa base, a empresa consegue realizar análises avançadas de documentos sem enviar informações corporativas sensíveis para provedores externos de IA. Essa arquitetura, que combina modelos leves com processamento de dados on-premise, configura uma estratégia pragmática de IA corporativa, equilibrando capacidade, segurança, conformidade e custo.
### Multimodalidade integrada aos fluxos de trabalho
O tsuzumi 2 já nasce com suporte multimodal, capaz de tratar texto, imagens e voz dentro de aplicações empresariais. Isso é especialmente relevante para fluxos de trabalho que exigem que a IA lide com diferentes tipos de dados sem a necessidade de vários modelos especializados.
Controles de qualidade na manufatura, operações de atendimento ao cliente e rotinas de processamento de documentos frequentemente envolvem texto, imagens e, em alguns casos, áudio. Um único modelo que dê conta de todos esses formatos reduz a complexidade de integração, em comparação com arquiteturas que exigem múltiplos sistemas especializados, cada um com seus requisitos operacionais.
### Estratégia de mercado e fatores de implementação
A aposta da NTT em modelos leves contrasta com a estratégia dos grandes provedores de nuvem, que priorizam modelos massivos e de capacidades amplas. Para empresas com grandes orçamentos de IA e equipes técnicas avançadas, modelos de fronteira de players como OpenAI, Anthropic e Google oferecem o que há de mais sofisticado.
No entanto, esse caminho exclui um grande contingente de organizações que não têm acesso a esses recursos — especialmente em países da Ásia-Pacífico, onde a qualidade da infraestrutura varia amplamente. Fatores regionais importam: confiabilidade da energia, conectividade de internet, disponibilidade de data centers e marcos regulatórios diferem muito entre mercados. Modelos leves, aptos a rodar on-premise, se ajustam melhor a esses cenários do que abordagens que dependem de acesso constante a infraestrutura de nuvem.
Empresas que avaliam a adoção de LLMs leves como o tsuzumi 2 precisam observar alguns pontos:
- **Especialização de domínio:** o foco atual em setores financeiro, médico e público atende áreas específicas; organizações de outros segmentos devem verificar se o conhecimento embutido é suficiente para seus casos de uso.
- **Idioma:** a forte otimização para o japonês é ideal para operações voltadas a esse mercado, mas pode não ser a melhor escolha para empresas que precisam de desempenho homogêneo em vários idiomas.
- **Complexidade de integração:** a implantação on-premise exige capacidade técnica interna para instalação, manutenção e atualização. Empresas sem essa estrutura podem preferir alternativas em nuvem, mesmo pagando mais.
- **Trade-offs de desempenho:** embora o tsuzumi 2 consiga igualar modelos maiores em determinados domínios, os modelos de fronteira podem oferecer resultados superiores em casos extremos ou aplicações muito novas. É essencial avaliar se o desempenho em domínios específicos é suficiente ou se a versatilidade extra justifica o custo maior de infraestrutura.
### Um caminho prático para a IA corporativa
O uso do tsuzumi 2 mostra que implementar IA sofisticada não exige, necessariamente, infraestrutura em escala hiperscale — desde que as necessidades da organização estejam alinhadas às capacidades de um modelo leve.
As primeiras adoções em empresas já evidenciam valor concreto: redução de custos operacionais, maior controle sobre dados e desempenho pronto para produção em domínios específicos.
À medida que as organizações avançam em suas jornadas de IA, a tensão entre necessidade de capacidade e limitações operacionais tende a impulsionar soluções mais eficientes e especializadas, em vez de sistemas generalistas que pedem infraestrutura pesada.
Para quem está definindo uma estratégia de IA, a questão central não é se modelos leves são “melhores” do que os sistemas de fronteira, mas se são suficientes para as necessidades do negócio ao mesmo tempo em que atendem às exigências de custo, segurança e operação que tornam outras alternativas inviáveis.
Os casos da Tokyo Online University e da FUJIFILM Business Innovation indicam que, para um número crescente de organizações, a resposta tem sido “sim”.