Live Chat

Crypto News

Cryptocurrency News 10 months ago
ENTRESRUARPTDEFRZHHIIT

Meta revela modelos de Emu alimentados por IA para revolucionar a edição e geração de conteúdo

Algoine News
Summary:
A Meta, titã da internet, revelou dois novos modelos de inteligência artificial, Emu Video e Emu Edit, com o objetivo de aprimorar a criação e edição de conteúdo. O Emu Video gera clipes de vídeo a partir de entradas de texto e imagem, enquanto o Emu Edit manipula imagens com maior precisão. Esses modelos ainda estão em fase de pesquisa, mas potencialmente apresentam benefícios significativos para criadores, artistas e animadores. A liberação e a implantação dessas ferramentas estão sendo realizadas com cautela devido ao rigoroso escrutínio regulatório.
Em um post recente, a Meta, gigante da internet, revelou dois modelos inovadores de inteligência artificial que visam aprimorar a produção e edição de conteúdo. Os modelos são conhecidos como Emu Video e Emu Edit. A função do Emu Video é construir clipes de vídeo a partir de entradas de texto e imagem, com base no modelo Emu anterior da Meta. O Emu Edit, por outro lado, manipula imagens com maior precisão. Embora esses modelos ainda estejam em fase de pesquisa, a Meta prevê que criadores, artistas e animadores encontrem aplicações viáveis para eles. A Meta revelou sua abordagem "fatorizada" para treinar o Emu Video, dividindo o processo em duas etapas para tornar o modelo flexível a várias entradas. O primeiro estágio envolve a criação de imagens com base em prompts de texto, enquanto o segundo estágio produz um vídeo usando a imagem anterior e o texto. Este método permite o treinamento eficaz de modelos de geração de vídeo. Notavelmente, o modelo Emu Video tem a capacidade de dar vida às imagens. Em vez de empregar uma cascata complexa de modelos, ele simplesmente usa dois modelos de difusão para criar vídeos de quatro segundos 512x512 com 16 quadros por segundo. O Emu Edit foca na precisão na manipulação de imagens, permitindo alterações como transformações de cores e geometria, adição e remoção de fundos, bem como edição em escala local e global. Ao fazer isso, a Meta visa garantir que o modelo altere apenas os pixels relevantes para o pedido de edição e nada mais. Por exemplo, quando o texto "Aloha!" é adicionado a um boné de beisebol, o modelo não deve alterar o limite real. Para treinar o Emu Edit, a Meta usou 10 milhões de imagens sintetizadas, cada uma correspondendo a uma imagem de entrada e uma tarefa com o resultado desejado. De acordo com a Meta, este é o maior conjunto de dados do tipo disponível. Além disso, a Meta reuniu 1,1 bilhão de dados, incluindo fotos compartilhadas por usuários e legendas do Facebook e Instagram, para treinar o modelo Emu recém-lançado. No entanto, a implantação das ferramentas de IA da Meta tem sido cuidadosa devido ao intenso escrutínio dos reguladores em todo o mundo. A Meta declarou recentemente que suas ferramentas de IA não poderiam ser usadas por campanhas políticas e anunciantes para criar anúncios no Facebook e no Instagram.

Published At

11/16/2023 8:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch