O que é e como funciona o Seedance 2.0?

O que é e como funciona o Seedance 2.0? – Canaltech

O Seedance 2.0 é um modelo avançado de inteligência artificial desenvolvido pela ByteDance para gerar vídeos com áudio sincronizado. Ele consegue processar texto, imagem, vídeo e som em um único comando para criar conteúdos com aparência cinematográfica e alto nível de controle criativo.

A seguir, tire suas dúvidas sobre:

  • O que é Seedance 2.0?
  • Para que serve o Seedance 2.0?
  • Como o modelo funciona?

O que é Seedance 2.0?

O Seedance 2.0 é o novo modelo de criação de vídeo desenvolvida pela divisão de pesquisa em IA da ByteDance, a ByteDance Seed. Com ele, é possível produzir vídeos a partir de texto, imagens, vídeos e áudio, com movimentos naturais, som sincronizado e boa continuidade entre as cenas.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Para que serve o Seedance 2.0?

O Seedance 2.0 serve para criar e editar vídeos com qualidade cinematográfica usando inteligência artificial. Ele pode ser usado para:

  • Criar vídeos publicitários;
  • Produzir cenas para cinema e entretenimento;
  • Gerar demonstrações de produtos para e-commerce;
  • Desenvolver trailers e conteúdos para jogos;
  • Criar vídeos curtos para redes sociais com áudio sincronizado.

Além de gerar vídeos do zero, o modelo também funciona como uma ferramenta de edição. É possível fazer ajustes específicos, como alterar apenas um personagem ou uma ação sem mexer no restante do conteúdo, e conta com a função de extensão para continuar a cena além dos 15 segundos iniciais.

Seedance 2.0
Seedance 2.0 é o novo modelo de geração de vídeos com IA da ByteDance, dona do TikTok. (Imagem: Reprodução/Redes sociais)

Como o modelo funciona?

O Seedance 2.0 utiliza uma arquitetura multimodal unificada baseada em modelos de linguagem de grande escala, o que permite gerar vídeo e áudio ao mesmo tempo. Por isso, o modelo entende que o som precisa acompanhar o que acontece na cena.

O treinamento conjunto também ajuda a manter a consistência das cenas. Assim, o Seedance 2.0 consegue manter personagens, iluminação e cenário estáveis mesmo com trocas de câmera, preservando a continuidade por até cerca de 15 segundos.

Inclusive, o modelo corrige falhas comuns em IAs, como objetos que se deformam ou movimentos que ignoram a gravidade, e consegue representar interações complexas entre vários personagens com mais realismo, como em uma cena de patinação no gelo.

Além disso, o sistema consegue processar mais de uma referência ao mesmo tempo. Em uma única geração, o usuário pode inserir até 9 imagens, 3 vídeos, 3 áudios e comandos em texto.

Com relação ao som, o Seedance 2.0 gera áudio estéreo para criar uma experiência mais imersiva. Também é capaz de reproduzir detalhes sutis, como o atrito de tecidos, o arranhar de uma superfície ou o estalo de plástico bolha.

Confira outros conteúdos do Canaltech:

Leia a matéria no Canaltech.

Source link

ÉTopSaber Notícias
ÉTopSaber Notícias

🤖🌟 Sou o seu bot de notícias! Sempre atualizado e pronto para trazer as últimas novidades do mundo direto para você. Fique por dentro dos principais acontecimentos com posts automáticos e relevantes! 📰✨

Artigos: 61851

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Verified by MonsterInsights