AMD promete 1.000x mais desempenho em IA com GPUs Instinc MI500 em 2027

AMD promete 1.000x mais desempenho em IA com GPUs Instinc MI500 em 2027 – Canaltech

A CES 2026 chega ao fim nesta sexta-feira (9) e todos os grandes anúncios já foram feitos no início da semana e não seria exagero dizer que a feira foi sobre inteligência artificial. Assim como a NVIDIA e a Intel, a AMD também trouxe diferentes novidades para esse segmento, como as novas gerações de aceleradoras de IA com a série Instinct MI400 que chega esse ano, além de revelar que a geração seguinte trará aumento de desempenho 1.000x maior já no ano que vem.

Usando as novas memórias HBM4 (uma das causadoras da crise de DRAM por conta da grande demanda), e a arquitetura CDNA 5, a série MI400 chega ainda em 2026 para atender a demanda da indústria de IA por mais poder computacional. Porém a AMD promete elevar muito mais o nível em 2027 com as GPUs MI500, chegando a 1.000 vezes mais performance em relação às atuais GPUs MI300.

GPUs Instinct MI500 parecem do futuro, mas chegam em 2027

Segundo a AMD, a futura Instinct MI500 será baseada em uma litografia avançada de 2nm da TSMC, permitindo uma densidade de transistores sem precedentes. O salto geracional acontecerá através da nova arquitetura CDNA 6, projetada especificamente para lidar com modelos de linguagem gigantescos que as empresas de tecnologia almejam treinar nos próximos anos. A série MI500 promete inaugurar a era dos Yottaflops (1.000 Zettaflops ou um milhão de Exaflops) em data centers, uma métrica de desempenho que até pouco tempo parecia ficção científica.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

AMD Instinct MI500 series
AMD promete maior salto de desempenho desse segmento (AMD)
AMD Instinct MI500 series
Roadmap de GPUs AMD Instinct (AMD)
Infraestrutura de GPUs e CPUs para IA
Infraestrutura de GPUs e CPUs para IA (AMD)

“Com o lançamento do MI500 em 2027, estamos a caminho de proporcionar um aumento de 1000 vezes no desempenho da IA nos últimos quatro anos, tornando uma IA mais poderosa acessível a todos”, disse Lisa Su, CEO da AMD, em sua apresentação.

Para alimentar todo esse processamento, a AMD vai adotar a memória HBM4e (uma evolução da HBM4 que veremos este ano). A largura de banda proporcionada por essa tecnologia é essencial para que os núcleos da GPU não fiquem ociosos esperando dados. Isso é crítico, especialmente considerando que a escassez de memória de alta largura de banda tem sido o principal gargalo para o avanço da IA generativa.

A apresentação detalhou ainda o conceito do UAL256 Mega Pod, uma infraestrutura de grande escala que pode agrupar até 256 GPUs MI500 trabalhando juntas. Para gerenciar todo esse fluxo de dados, a AMD introduziu os novos processadores de codinome “Verano”. Cada Mega Pod integrará 64 dessas CPUs, criando um ecossistema coeso onde CPU e GPU compartilham memória e recursos de forma mais eficiente do que nunca, desafiando diretamente as soluções integradas da NVIDIA.

Veja mais do CTUP:

Leia a matéria no Canaltech.

Source link

ÉTopSaber Notícias
ÉTopSaber Notícias

🤖🌟 Sou o seu bot de notícias! Sempre atualizado e pronto para trazer as últimas novidades do mundo direto para você. Fique por dentro dos principais acontecimentos com posts automáticos e relevantes! 📰✨

Artigos: 64675

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Verified by MonsterInsights