A Runway, a startup que co-criou o popular gerador de imagem Stable Diffusion AI, lançou um modelo AI que pega qualquer descrição de texto – como “tartarugas voando no céu” – e gera três segundos de imagens de vídeo correspondentes.
Citando razões de segurança e negócios, a Runway não está lançando o modelo amplamente para começar, nem será de código aberto como o Stable Diffusion. O modelo de texto para vídeo, apelidado de Gen-2, estará inicialmente disponível no Discord por meio de uma lista de espera no site da Runway.
O uso de IA para gerar vídeos a partir de entradas de texto não é novidade. A Meta Platforms e o Google lançaram trabalhos de pesquisa sobre modelos de IA de texto para vídeo no final do ano passado. No entanto, a diferença é que o modelo de IA de texto para vídeo da Runway está sendo disponibilizado ao público em geral, disse Cristobal Valenzuela, diretor executivo da Runway.
A Runway espera que criativos e cineastas usem o produto, Valenzuela disse.
No mês passado, a gigante da fabricação de chips Qualcomm demonstrou o Stable Diffusion 1.5, o gerador de imagem AI, rodando em um aparelho Android sem acesso à rede antes do Mobile World Congress (MWC) 2023. De acordo com a Qualcomm, a implantação da empresa da ferramenta de IA, que normalmente requer muito poder computacional, é capaz de gerar imagens em poucos segundos. A empresa não revelou detalhes do hardware do smartphone usado para otimizar a ferramenta de IA para ser executada localmente em smartphones.
A popular ferramenta de IA generativa é conhecida por consumir muito poder de computação para ser executada, o que é por que vários serviços que dependem dele executam essas atividades em grandes servidores em vez de no smartphone ou computador de um usuário.
© Thomson Reuters 2023
Links de afiliados podem ser gerados automaticamente-consulte nossa declaração de ética para obter detalhes.