HaggiVaggi commited on
Commit
841911a
·
1 Parent(s): ee1c320

Update pages/Подбор фильмов по описанию✏️🔍.py

Browse files
pages/Подбор фильмов по описанию✏️🔍.py CHANGED
@@ -17,10 +17,11 @@ def embedding_and_index():
17
  return embeddings_array, index
18
 
19
  @st.cache_data
20
- def load_tokenizer_and_model():
21
- tokenizer = AutoTokenizer.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
22
  model = AutoModel.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
23
- return tokenizer, model
 
 
24
 
25
  @st.cache_data
26
  def encode_description(description, tokenizer, model):
@@ -35,13 +36,14 @@ st.header("Подбор фильмов по описанию ✏️🔍")
35
  # Загрузка данных
36
  df = load_data('data/final_data.csv')
37
  embeddings_array, index = embedding_and_index()
38
- tokenizer, model = load_tokenizer_and_model()
39
 
40
  # Пользовательский ввод
41
  user_input = st.text_input("Введите описание фильма:", value="", help="Чем подробнее будет ваше описание, тем точнее мы сможем подобрать для вас фильм 🤗'")
42
 
43
  if st.button("Искать🔍🎦"):
44
  if user_input:
 
45
  # Векторизация введенного запроса с использованием переданных tokenizer и model
46
  input_embedding = encode_description(user_input, tokenizer, model)
47
 
 
17
  return embeddings_array, index
18
 
19
  @st.cache_data
20
+ def load_model():
 
21
  model = AutoModel.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
22
+ return model
23
+
24
+ tokenizer = AutoTokenizer.from_pretrained("DeepPavlov/rubert-base-cased-sentence")
25
 
26
  @st.cache_data
27
  def encode_description(description, tokenizer, model):
 
36
  # Загрузка данных
37
  df = load_data('data/final_data.csv')
38
  embeddings_array, index = embedding_and_index()
39
+ model = load_model()
40
 
41
  # Пользовательский ввод
42
  user_input = st.text_input("Введите описание фильма:", value="", help="Чем подробнее будет ваше описание, тем точнее мы сможем подобрать для вас фильм 🤗'")
43
 
44
  if st.button("Искать🔍🎦"):
45
  if user_input:
46
+
47
  # Векторизация введенного запроса с использованием переданных tokenizer и model
48
  input_embedding = encode_description(user_input, tokenizer, model)
49