meta acaba de ser apresentada Faz um video, um sistema de inteligência artificial (IA) que cria cenas de vídeo curtas a partir de instruções escritas. Este mecânico é familiar para você? Se sua resposta for sim, você provavelmente conhece o fenômeno atual dos geradores de imagens a partir de texto.
DALL-E, Midjourney e Stable Diffusion são alguns dos programas baseados em IA mais populares no momento, mas muitos outros projetos estão se desenvolvendo em paralelo, alguns dos quais também estão se movendo para geração de vídeo a partir de texto.
Meta acredita que Make-A-Video será uma ferramenta valiosa para artistas
Make-A-Video é um dos trabalhos mais recentes do laboratório de inteligência artificial da Meta. Investigadores da empresa-mãe do Facebook e do Instagram têm trabalhado com Modelos de IANa verdade, eles têm seu próprio gerador de imagens baseado em texto chamado Make-A-Scene.
Agora, o laboratório deu um passo importante com o Make-A-Video, pelo menos segundo Mark Zuckerberg, que garante que “é muito mais difícil gerar vídeos do que fotos porque, além de gerar corretamente cada pixelo sistema também precisa prever como eles mudarão ao longo do tempo.”
No vídeo acima podemos ver o desempenho deste sistema de inteligência artificial com as seguintes entradas de texto: “Um ursinho de pelúcia pintando um retrato”, “um robô dançando na Times Square” e “um gato assistindo televisão com controle remoto”. em mão. O resultado é muito interessante.
De acordo com um whitepaper, como muitos outros modelos, o modelo de IA da Make-A-Video foi treinado em dois grandes conjuntos de dados coletados da web que incluem o trabalho de criadores que não recebem nada em troca. WebVid-10M, com 52.000 horas de vídeo, e HD-VILA-100M, com 3,3 milhões de vídeos.
A questão dos direitos autorais e dos modelos de geração de imagem e vídeo começa a ganhar destaque. O Getty e outros bancos de imagens baniram imagens de banco de imagens geradas por IA. Meta, no entanto, acredita que Make-A-Scene e Make-A-Video se tornarão um ferramenta inestimável para criadores e artistas.
Os modelos de imagem mencionados ainda não estão disponíveis para os usuários. objetivo garante que vai lançar uma demonstração. DALL-E 2, que por muito tempo foi limitado a alguns usuários, esta semana retirou sua lista de espera e já está disponível para todos.
Se você estiver interessado em experimentar o Make-A-Video, você pode preencher um formulário Meta para receber um e-mail quando finalmente estiver disponível. No momento não sabemos quando chegará e se inicialmente terá lista de espera. É hora de esperar para poder experimentar em primeira mão as possibilidades deste sistema.
Em Xataka | Pedi ao DALL-E Mini para mostrar Steve Jobs comendo uma maçã e acabei de entender por que essa IA é essencial
meta acaba de ser apresentada Faz um video, um sistema de inteligência artificial (IA) que cria cenas de vídeo curtas a partir de instruções escritas. Este mecânico é familiar para você? Se sua resposta for sim, você provavelmente conhece o fenômeno atual dos geradores de imagens a partir de texto.
DALL-E, Midjourney e Stable Diffusion são alguns dos programas baseados em IA mais populares no momento, mas muitos outros projetos estão se desenvolvendo em paralelo, alguns dos quais também estão se movendo para geração de vídeo a partir de texto.
Meta acredita que Make-A-Video será uma ferramenta valiosa para artistas
Make-A-Video é um dos trabalhos mais recentes do laboratório de inteligência artificial da Meta. Investigadores da empresa-mãe do Facebook e do Instagram têm trabalhado com Modelos de IANa verdade, eles têm seu próprio gerador de imagens baseado em texto chamado Make-A-Scene.
Agora, o laboratório deu um passo importante com o Make-A-Video, pelo menos segundo Mark Zuckerberg, que garante que “é muito mais difícil gerar vídeos do que fotos porque, além de gerar corretamente cada pixelo sistema também precisa prever como eles mudarão ao longo do tempo.”
No vídeo acima podemos ver o desempenho deste sistema de inteligência artificial com as seguintes entradas de texto: “Um ursinho de pelúcia pintando um retrato”, “um robô dançando na Times Square” e “um gato assistindo televisão com controle remoto”. em mão. O resultado é muito interessante.
De acordo com um whitepaper, como muitos outros modelos, o modelo de IA da Make-A-Video foi treinado em dois grandes conjuntos de dados coletados da web que incluem o trabalho de criadores que não recebem nada em troca. WebVid-10M, com 52.000 horas de vídeo, e HD-VILA-100M, com 3,3 milhões de vídeos.
A questão dos direitos autorais e dos modelos de geração de imagem e vídeo começa a ganhar destaque. O Getty e outros bancos de imagens baniram imagens de banco de imagens geradas por IA. Meta, no entanto, acredita que Make-A-Scene e Make-A-Video se tornarão um ferramenta inestimável para criadores e artistas.
Os modelos de imagem mencionados ainda não estão disponíveis para os usuários. objetivo garante que vai lançar uma demonstração. DALL-E 2, que por muito tempo foi limitado a alguns usuários, esta semana retirou sua lista de espera e já está disponível para todos.
Se você estiver interessado em experimentar o Make-A-Video, você pode preencher um formulário Meta para receber um e-mail quando finalmente estiver disponível. No momento não sabemos quando chegará e se inicialmente terá lista de espera. É hora de esperar para poder experimentar em primeira mão as possibilidades deste sistema.
Em Xataka | Pedi ao DALL-E Mini para mostrar Steve Jobs comendo uma maçã e acabei de entender por que essa IA é essencial
Discussão sobre isso post