Spaces:
Running
Running
蒲源
commited on
Commit
·
47391ff
1
Parent(s):
6bec747
polish(pu): use fixed temperature
Browse files- app_mqa_database.py +12 -9
app_mqa_database.py
CHANGED
@@ -20,26 +20,26 @@ if QUESTION_LANG == "cn":
|
|
20 |
<div align="center">
|
21 |
<img src="https://raw.githubusercontent.com/puyuan1996/ZeroPal/main/assets/banner.svg" width="80%" height="20%" alt="Banner Image">
|
22 |
</div>
|
23 |
-
|
24 |
📢 **操作说明**:请在下方的“问题”框中输入关于 LightZero 的问题,并点击“提交”按钮。右侧的“回答”框将展示 RAG 模型提供的答案。
|
25 |
您可以在问答框下方查看当前“对话历史”,点击“清除对话历史”按钮可清空历史记录。在“对话历史”框下方,您将找到相关参考文档,其中相关文段将以黄色高亮显示。
|
26 |
如果您喜欢这个项目,请在 GitHub [LightZero RAG Demo](https://github.com/puyuan1996/ZeroPal) 上给我们点赞!✨ 您的支持是我们持续更新的动力。
|
27 |
-
|
28 |
<div align="center">
|
29 |
<strong>注意:算法模型输出可能包含一定的随机性。结果不代表开发者和相关 AI 服务的态度和意见。本项目开发者不对结果作出任何保证,仅供参考之用。使用该服务即代表同意后文所述的使用条款。</strong>
|
30 |
</div>
|
31 |
"""
|
32 |
tos_markdown = """
|
33 |
### 使用条款
|
34 |
-
|
35 |
使用本服务的玩家需同意以下条款:
|
36 |
-
|
37 |
- 本服务为探索性研究的预览版,仅供非商业用途。
|
38 |
- 服务不得用于任何非法、有害、暴力、种族主义或其他令人反感的目的。
|
39 |
- 服务提供有限的安全措施,并可能生成令人反感的内容。
|
40 |
- 如果您对服务体验不满,请通过 [email protected] 与我们联系!我们承诺修复问题并不断改进项目。
|
41 |
- 为了获得最佳体验,请使用台式电脑,因为移动设备可能会影响视觉效果。
|
42 |
-
|
43 |
**版权所有 © 2024 OpenDILab。保留所有权利。**
|
44 |
"""
|
45 |
|
@@ -108,7 +108,8 @@ chunks = load_and_split_document(file_path, chunk_size=5000, chunk_overlap=500)
|
|
108 |
vectorstore = create_vector_store(chunks, model='OpenAI')
|
109 |
|
110 |
|
111 |
-
def rag_answer(question, temperature, k, user_id):
|
|
|
112 |
"""
|
113 |
处理用户问题并返回答案和高亮显示的上下文
|
114 |
|
@@ -118,6 +119,7 @@ def rag_answer(question, temperature, k, user_id):
|
|
118 |
:param user_id: 用户ID
|
119 |
:return: 模型生成的答案和高亮显示上下文的Markdown文本
|
120 |
"""
|
|
|
121 |
try:
|
122 |
retriever = get_retriever(vectorstore, k)
|
123 |
rag_chain = setup_rag_chain(model_name='kimi', temperature=temperature)
|
@@ -190,8 +192,8 @@ if __name__ == "__main__":
|
|
190 |
inputs = gr.Textbox(
|
191 |
placeholder="请您在这里输入任何关于 LightZero 的问题。",
|
192 |
label="问题")
|
193 |
-
temperature = gr.Slider(minimum=0.0, maximum=1.0, value=0.01, step=0.01, label="温度参数")
|
194 |
-
k = gr.Slider(minimum=
|
195 |
with gr.Row():
|
196 |
gr_submit = gr.Button('提交')
|
197 |
gr_clear = gr.Button('清除对话历史')
|
@@ -204,7 +206,8 @@ if __name__ == "__main__":
|
|
204 |
gr_clear.click(clear_context, inputs=user_id, outputs=[outputs_context, outputs_history])
|
205 |
gr_submit.click(
|
206 |
rag_answer,
|
207 |
-
inputs=[inputs, temperature, k, user_id],
|
|
|
208 |
outputs=[outputs_answer, outputs_context, outputs_history],
|
209 |
)
|
210 |
gr.Markdown(tos_markdown)
|
|
|
20 |
<div align="center">
|
21 |
<img src="https://raw.githubusercontent.com/puyuan1996/ZeroPal/main/assets/banner.svg" width="80%" height="20%" alt="Banner Image">
|
22 |
</div>
|
23 |
+
|
24 |
📢 **操作说明**:请在下方的“问题”框中输入关于 LightZero 的问题,并点击“提交”按钮。右侧的“回答”框将展示 RAG 模型提供的答案。
|
25 |
您可以在问答框下方查看当前“对话历史”,点击“清除对话历史”按钮可清空历史记录。在“对话历史”框下方,您将找到相关参考文档,其中相关文段将以黄色高亮显示。
|
26 |
如果您喜欢这个项目,请在 GitHub [LightZero RAG Demo](https://github.com/puyuan1996/ZeroPal) 上给我们点赞!✨ 您的支持是我们持续更新的动力。
|
27 |
+
|
28 |
<div align="center">
|
29 |
<strong>注意:算法模型输出可能包含一定的随机性。结果不代表开发者和相关 AI 服务的态度和意见。本项目开发者不对结果作出任何保证,仅供参考之用。使用该服务即代表同意后文所述的使用条款。</strong>
|
30 |
</div>
|
31 |
"""
|
32 |
tos_markdown = """
|
33 |
### 使用条款
|
34 |
+
|
35 |
使用本服务的玩家需同意以下条款:
|
36 |
+
|
37 |
- 本服务为探索性研究的预览版,仅供非商业用途。
|
38 |
- 服务不得用于任何非法、有害、暴力、种族主义或其他令人反感的目的。
|
39 |
- 服务提供有限的安全措施,并可能生成令人反感的内容。
|
40 |
- 如果您对服务体验不满,请通过 [email protected] 与我们联系!我们承诺修复问题并不断改进项目。
|
41 |
- 为了获得最佳体验,请使用台式电脑,因为移动设备可能会影响视觉效果。
|
42 |
+
|
43 |
**版权所有 © 2024 OpenDILab。保留所有权利。**
|
44 |
"""
|
45 |
|
|
|
108 |
vectorstore = create_vector_store(chunks, model='OpenAI')
|
109 |
|
110 |
|
111 |
+
# def rag_answer(question, temperature=0.01, k=5, user_id='user'):
|
112 |
+
def rag_answer(question, k=5, user_id='user'):
|
113 |
"""
|
114 |
处理用户问题并返回答案和高亮显示的上下文
|
115 |
|
|
|
119 |
:param user_id: 用户ID
|
120 |
:return: 模型生成的答案和高亮显示上下文的Markdown文本
|
121 |
"""
|
122 |
+
temperature = 0.01 # TODO: 使用固定的温度参数
|
123 |
try:
|
124 |
retriever = get_retriever(vectorstore, k)
|
125 |
rag_chain = setup_rag_chain(model_name='kimi', temperature=temperature)
|
|
|
192 |
inputs = gr.Textbox(
|
193 |
placeholder="请您在这里输入任何关于 LightZero 的问题。",
|
194 |
label="问题")
|
195 |
+
# temperature = gr.Slider(minimum=0.0, maximum=1.0, value=0.01, step=0.01, label="温度参数")
|
196 |
+
k = gr.Slider(minimum=0, maximum=7, value=3, step=1, label="检索相关文档块的数量") # readme总长度为35000左右,文段块长度为5000,因此最大值为35000/5000=7
|
197 |
with gr.Row():
|
198 |
gr_submit = gr.Button('提交')
|
199 |
gr_clear = gr.Button('清除对话历史')
|
|
|
206 |
gr_clear.click(clear_context, inputs=user_id, outputs=[outputs_context, outputs_history])
|
207 |
gr_submit.click(
|
208 |
rag_answer,
|
209 |
+
# inputs=[inputs, temperature, k, user_id],
|
210 |
+
inputs=[inputs, k, user_id],
|
211 |
outputs=[outputs_answer, outputs_context, outputs_history],
|
212 |
)
|
213 |
gr.Markdown(tos_markdown)
|