Update README.md
Browse files
README.md
CHANGED
@@ -14,9 +14,10 @@ library_name: sentence-transformers
|
|
14 |
|
15 |
M3E 是 Moka Massive Mixed Embedding 的缩写
|
16 |
|
17 |
-
|
18 |
-
|
19 |
-
|
|
|
20 |
|
21 |
## 更新说明
|
22 |
|
|
|
14 |
|
15 |
M3E 是 Moka Massive Mixed Embedding 的缩写
|
16 |
|
17 |
+
- Moka,此模型由 MokaAI 训练并开源,训练脚本使用 [uniem](https://github.com/wangyuxinwhy/uniem/blob/main/scripts/train_m3e.py)
|
18 |
+
- Massive,此模型通过**千万级** (2200w+) 的中文句对数据集进行训练
|
19 |
+
- Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
|
20 |
+
- Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量
|
21 |
|
22 |
## 更新说明
|
23 |
|