Spaces:
Runtime error
Runtime error
from langchain_community.vectorstores import Chroma | |
from langchain_community.embeddings import HuggingFaceEmbeddings | |
from tqdm.auto import tqdm | |
from src.preprocess import Loader | |
from src.vdb import EmbeddingGen | |
import src.model_load | |
import gradio as gr | |
import spaces | |
#@spaces.GPU # Ubica aqu铆 la anotaci贸n correctamente | |
def main(): | |
# Definici贸n de directorio | |
archivo = [r"data/Calculo_Trascendentes_Tempranas_Zill_4t.pdf"] | |
# Carga de archivos y procesamiento de texto | |
if len(archivo) < 2: | |
Load = Loader(archivo[0]) | |
documentos = Load.load_docs() | |
textos_limpios = [Loader.limpiar_texto(texto=doc) for doc in documentos] | |
textos = Loader.splitter(texto=textos_limpios, chunk_size=500, chunk_overlap=50) | |
else: | |
textos = [] | |
for i in range(len(archivo)): | |
Load = Loader(archivo[i]) | |
documentos = Load.load_docs() | |
textos_limpios = [Load.limpiar_texto(texto=doc) for doc in documentos] | |
chunks = Load.splitter(texto=textos_limpios, chunk_size=500, chunk_overlap=50) | |
textos.extend(chunks) | |
# Generaci贸n de embeddings y almacenamiento | |
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L12-v2") | |
persist_directory = "./persist_directory" | |
db = Chroma(persist_directory=persist_directory, embedding_function=embeddings.embed_documents) | |
vectorstore = Chroma.from_documents(textos[:10], embeddings, persist_directory="./chroma_db") | |
print("Vectorizado terminado") | |
retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 3}) | |
print("Carga del modelo") | |
# Carga del modelo | |
qa_chain = src.model_load.load_model() | |
print("Lanzando interfaz") | |
def chatbot_response(message): | |
return qa_chain(message, retriever) | |
iface = gr.Interface( | |
fn=chatbot_response, | |
inputs=gr.Textbox(label="Escribe tu mensaje"), | |
outputs=gr.Textbox(label="Respuesta del chatbot"), | |
title="Chatbot Simple", | |
description="Interfaz simple de chatbot con Gradio." | |
) | |
iface.launch(server_port=7860, share=True) # Aqu铆 puedes asegurarte de que `share=True` est茅 activo | |
if __name__ == "__main__": | |
main() |