Spaces:
Sleeping
Sleeping
Commit
·
841911a
1
Parent(s):
ee1c320
Update pages/Подбор фильмов по описанию✏️🔍.py
Browse files
pages/Подбор фильмов по описанию✏️🔍.py
CHANGED
@@ -17,10 +17,11 @@ def embedding_and_index():
|
|
17 |
return embeddings_array, index
|
18 |
|
19 |
@st.cache_data
|
20 |
-
def
|
21 |
-
tokenizer = AutoTokenizer.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
|
22 |
model = AutoModel.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
|
23 |
-
return
|
|
|
|
|
24 |
|
25 |
@st.cache_data
|
26 |
def encode_description(description, tokenizer, model):
|
@@ -35,13 +36,14 @@ st.header("Подбор фильмов по описанию ✏️🔍")
|
|
35 |
# Загрузка данных
|
36 |
df = load_data('data/final_data.csv')
|
37 |
embeddings_array, index = embedding_and_index()
|
38 |
-
|
39 |
|
40 |
# Пользовательский ввод
|
41 |
user_input = st.text_input("Введите описание фильма:", value="", help="Чем подробнее будет ваше описание, тем точнее мы сможем подобрать для вас фильм 🤗'")
|
42 |
|
43 |
if st.button("Искать🔍🎦"):
|
44 |
if user_input:
|
|
|
45 |
# Векторизация введенного запроса с использованием переданных tokenizer и model
|
46 |
input_embedding = encode_description(user_input, tokenizer, model)
|
47 |
|
|
|
17 |
return embeddings_array, index
|
18 |
|
19 |
@st.cache_data
|
20 |
+
def load_model():
|
|
|
21 |
model = AutoModel.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
|
22 |
+
return model
|
23 |
+
|
24 |
+
tokenizer = AutoTokenizer.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
|
25 |
|
26 |
@st.cache_data
|
27 |
def encode_description(description, tokenizer, model):
|
|
|
36 |
# Загрузка данных
|
37 |
df = load_data('data/final_data.csv')
|
38 |
embeddings_array, index = embedding_and_index()
|
39 |
+
model = load_model()
|
40 |
|
41 |
# Пользовательский ввод
|
42 |
user_input = st.text_input("Введите описание фильма:", value="", help="Чем подробнее будет ваше описание, тем точнее мы сможем подобрать для вас фильм 🤗'")
|
43 |
|
44 |
if st.button("Искать🔍🎦"):
|
45 |
if user_input:
|
46 |
+
|
47 |
# Векторизация введенного запроса с использованием переданных tokenizer и model
|
48 |
input_embedding = encode_description(user_input, tokenizer, model)
|
49 |
|