A Taalas de Toronto Sai do Anonimato Com um Chip de IA com Hardware Dedicado Que Integra Modelos Diretamente no Silício
Resumo de Notícias
A startup de chips de IA Taalas, sediada em Toronto, emergiu oficialmente de seu período de sigilo e apresentou seu produto de estreia na quinta-feira, 19 de fevereiro de 2026 (11h02 EST), anunciando uma rodada de financiamento de US$ 169 milhões e o lançamento de seu primeiro chip de IA "hardwired", o HC1.
Um Novo Desafiante para o Domínio de IA da Nvidia
A startup de chips de IA Taalas, sediada em Toronto, oficialmente tirou o véu de seu produto inovador na quinta-feira (EST), anunciando uma rodada de financiamento de US$ 169 milhões enquanto apresentava o HC1 — um revolucionário processador de IA "hardwired" construído especificamente para executar o modelo de linguagem Llama 3.1 8B de código aberto da Meta. A divulgação eleva o financiamento externo total da Taalas para aproximadamente US$ 219 milhões, com investidores como Quiet Capital, Fidelity e o veterano investidor de semicondutores Pierre Lamond.
O anúncio causou repercussões na comunidade de hardware de IA, chegando poucas semanas depois que a Nvidia finalizou um acordo histórico de US$ 20 bilhões para licenciar propriedade intelectual da rival de inferência de IA Groq — um movimento que reacendeu o entusiasmo dos investidores por startups de silício de IA especializadas.
O Chip HC1: Gravando Inteligência em Silício
No cerne da tecnologia da Taalas está uma repensada radical de como os modelos de IA são executados em hardware. As GPUs tradicionais — as "bestas de carga" da computação de IA — dependem de uma "Arquitetura de Conjunto de Instruções" (ISA) que separa fisicamente a computação da memória. Cada vez que um modelo de linguagem grande processa uma consulta, o chip deve transferir repetidamente os pesos do modelo da Memória de Alta Largura de Banda (HBM) para os núcleos de processamento. A Taalas chama isso de "Memory Wall" (Parede da Memória) e estima que essa taxação de movimento de dados representa quase 90% do consumo de energia em data centers de IA modernos.
A solução da Taalas é eliminar completamente o ciclo de busca de memória. Em vez de executar um modelo em um chip, a Taalas efetivamente assenta o modelo no chip — imprimindo fisicamente os pesos e a arquitetura do modelo de IA diretamente nas camadas metálicas do silício. O resultado é um processador onde o próprio modelo se torna o hardware.
O HC1, fabricado pela TSMC em seu nó de processo de 6 nanômetros (N6), é otimizado exclusivamente para o Llama 3.1 8B. De acordo com a Taalas, ele atinge mais de 17.000 tokens de saída por segundo por usuário — aproximadamente 73 vezes mais rápido que a GPU H200 carro-chefe da Nvidia — enquanto consome apenas um décimo da energia. A empresa também afirma que o chip custa 20 vezes menos para ser construído do que soluções comparáveis da Nvidia, Groq, SambaNova e Cerebras.
De Pesos a Silício em Dois Meses
Uma das alegações técnicas mais convincentes da Taalas é a velocidade de produção. O desenvolvimento tradicional de chips de IA personalizados pode levar seis meses ou mais. A Taalas, em contraste, afirma que pode transformar os pesos de qualquer modelo de IA em silício implantável em aproximadamente dois meses, trabalhando em parceria com a TSMC.
O segredo reside na economia de design: em vez de redesenhar um chip inteiro para cada modelo, a Taalas modifica apenas duas das aproximadamente 100 camadas metálicas que compõem o chip. Isso reduz drasticamente o tempo e o custo de fabricação, tornando o silício de IA personalizado acessível a organizações que nunca poderiam arcar com hardware sob medida anteriormente.
Essa iteração rápida permite o que a Taalas descreve como um ciclo de hardware "sazonal" — uma empresa poderia ajustar um modelo de ponta na primavera e ter milhares de chips de inferência especializados implantados até o verão.
Uma Equipe Enxuta com uma Visão Ousada
Talvez o aspecto mais impressionante da história da Taalas seja sua eficiência. O HC1 foi levado ao mercado por uma equipe de apenas 24 engenheiros a um custo total de desenvolvimento de US$ 30 milhões — uma fração dos centenas de milhões tipicamente necessários para empreendimentos de silício personalizados.
A empresa foi fundada em agosto de 2023 por Ljubisa Bajic, cofundador da empresa de chips de IA Tenstorrent e ex-arquiteto da AMD e Nvidia, juntamente com os engenheiros Drago Ignjatovic e Lejla Bajic. Desde então, a Taalas cresceu para 25 funcionários, atraindo talentos da AMD, Apple, Google, Nvidia e Tenstorrent. Mais recentemente, Paresh Kharya — anteriormente Diretor de Gerenciamento de Produtos de Infraestrutura de IA na Google Cloud, supervisionando hardware de GPU e TPU — juntou-se como Vice-Presidente de Produtos.
Roteiro: HC2 e Além
A Taalas não para no Llama 3.1 8B. A empresa já está desenvolvendo seu chip HC2, visando o modelo Llama 3.1 com 20 bilhões de parâmetros. Até o final do ano, a Taalas pretende produzir um chip capaz de executar um modelo de ponta de vanguarda como o GPT-5.2. A empresa também demonstrou uma configuração baseada em cluster de 30 chips HC1 executando o modelo R1 da DeepSeek a 12.000 tokens por segundo por usuário.
O HC1 está atualmente disponível como uma demonstração de chatbot e um serviço de API de inferência, com implantações comerciais mais amplas esperadas ao longo de 2026.
Contexto de Mercado: A Era da Inferência Começa
A emergência da Taalas sinaliza uma mudança mais ampla na estratégia de hardware de IA. À medida que a indústria transita da fase de treinamento — onde a flexibilidade da GPU é primordial — para a fase de implantação de inferência, o custo por token tornou-se a métrica dominante. Se a abordagem da Taalas se mostrar escalável, o mercado de computação de IA poderá se bifurcar em dois níveis: treinamento de propósito geral liderado pela Nvidia e AMD, e inferência especializada liderada por fundições de silício específicas de modelo como a Taalas.
Com US$ 219 milhões em financiamento total, um primeiro chip funcional e um roteiro ambicioso, a Taalas se posicionou como um dos desafiantes mais credíveis ao status quo em hardware de IA — e a indústria está observando atentamente.