import gradio as gr import torch from transformers import AutoModelForSeq2SeqLM, AutoTokenizer from generate_video import generate as generate_video tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-pt") model_texts_to_video = AutoModelForSeq2SeqLM.from_pretrained("manueltonneau/texts-to-video-iteration-2-continual") modelscope = AutoModelForSeq2SeqLM.from_pretrained("nmpegetis/videoscope-model-en-pt") zeroscope = AutoModelForSeq2SeqLM.from_pretrained("nmpegetis/videoscope-zero-en-pt") def generate_video_online(prompt, model, seed, duration): # Essa função recebe os parâmetros da entrada e usa o módulo generate_video para gerar o vídeo com o áudio correspondente. result = generate_video(prompt, tokenizer, model, seed, duration) return result gr.Interface( fn=generate_video_online, inputs=[ gr.inputs.Textbox(lines=7, placeholder="Insira seu texto aqui"), gr.inputs.Radio(['modelscope', 'zeroscope'], label="Selecione o modelo a ser usado"), gr.inputs.Slider(minimum=0, maximum=100000, step=1, label="Seed"), gr.inputs.Slider(minimum=2, maximum=60, step=1, label="Duração em segundos") ], outputs="video", title="Text to Video with Audio",