PEFT
Japanese
Mixture of Experts
kimura commited on
Commit
64eb4bb
·
verified ·
1 Parent(s): a6921ef

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -0
README.md CHANGED
@@ -20,5 +20,6 @@ LoRAMoE は,複数の低ランクアダプター(LoRA)と Mixture-of-Exper
20
 
21
 
22
  執筆中
 
23
 
24
 
 
20
 
21
 
22
  執筆中
23
+ 普通の方法じゃインポートできません.
24
 
25