Ant Group lança Ling-2.6-1T, modelo de linguagem de 1 trilhão de parâmetros com foco em eficiência
A equipe de modelos de linguagem da Ant Group, através da marca 百灵 (Bailing), anunciou oficialmente o lançamento do Ling-2.6-1T, um modelo de linguagem abrangente de 1 trilhão de parâmetros projetado para execução imediata de tarefas. O Ling-2.6-1T adota uma arquitetura híbrida que combina MLA (Multi-head Latent Attention) com LinearAttention. A principal inovação reside na mudança de foco do paradigma de “pensamento lento” e inferência em múltiplas etapas, comum na indústria, para um mecanismo de “pensamento rápido” que permite inferências eficientes e resultados diretos com um custo mínimo de tokens. Essa abordagem é incomum em modelos de linguagem de grande escala e representa um novo equilíbrio entre eficiência e capacidade de inteligência.
De acordo com a Ant Group, o modelo anterior, Ling-1T, já alcançou um desempenho de ponta (SOTA) em diversas tarefas complexas de raciocínio, mesmo com restrições no número de tokens de saída. O Ling-2.6-1T aprimora ainda mais essa eficiência. Em termos de desempenho, o Ling-2.6-1T demonstra um avanço significativo em relação ao Ling-1T. Dados da Artificial Analysis indicam que seu nível de inteligência geral é comparável ao do GPT-5.4 (em modo não de raciocínio). Em testes de referência específicos, o modelo superou outros modelos não de “pensamento” no desafiador teste de raciocínio AIME2026, demonstrando uma forte capacidade de resolver problemas complexos instantaneamente.
No que diz respeito à capacidade de execução de agentes, o Ling-2.6-1T se classificou entre os melhores em vários benchmarks populares, como SWE‑bench Verified, TAU2‑Bench e BFCL‑V4. Ele é capaz de lidar com fluxos de trabalho de engenharia completos, desde a geração de código até a correção de bugs, e também pode realizar chamadas complexas de API de forma estável. Além disso, o modelo suporta contextos ultralongos de 256K e se destaca nos testes de adesão a instruções IFBench, garantindo precisão e consistência lógica na execução sob múltiplas restrições.
O Ling-2.6-1T já está disponível através de API e pode ser acessado diretamente através da plataforma oficial ou OpenRouter. O modelo é altamente compatível com os frameworks de agentes mais populares, tornando-o adequado para cenários complexos que exigem execução confiável. A equipe da Bailing também anunciou que o modelo será lançado como código aberto em breve, permitindo que os desenvolvedores o implementem localmente e o personalizem.
Com o lançamento do Ling-2.6-1T, a linha de produtos de modelos da Ant Bailing se torna mais clara. Além deste modelo principal de 1 trilhão de parâmetros, a série Ling inclui versões de diferentes tamanhos, como Ling‑Lite e Ling‑Plus. Ela também trabalha em conjunto com a série Ring de modelos de “pensamento longo” e a série Ming de modelos multimodais, cobrindo uma ampla gama de necessidades, desde implantações leves até soluções abrangentes. A Ant Group anunciou que, para facilitar a experiência dos desenvolvedores, está oferecendo uma semana de acesso gratuito à API através da OpenRouter e da plataforma oficial. Outras empresas também estão focando em otimizar a velocidade de seus modelos.
📝 Nota do Especialista Tec Arena
O Ling-2.6-1T representa uma mudança interessante na abordagem ao desenvolvimento de modelos de linguagem. A ênfase na eficiência, com o uso de MLA e LinearAttention, é uma resposta direta aos altos custos computacionais associados aos modelos de grande escala. A capacidade de obter resultados rápidos com baixo consumo de tokens é crucial para aplicações práticas, especialmente em cenários de agente onde a latência é crítica. No entanto, é importante notar que a disponibilidade do modelo no Brasil ainda não foi confirmada. Embora a API esteja disponível globalmente, a implementação local e o código aberto futuro serão fundamentais para a adoção no mercado brasileiro. A competição no campo dos LLMs está acirrada, e a Ant Group parece estar posicionando o Ling-2.6-1T como uma alternativa viável aos modelos mais conhecidos, como o GPT da OpenAI.
Via: IT之家

