File size: 434 Bytes
80026b2 |
1 2 3 4 5 6 7 8 9 10 11 12 13 |
---
license: apache-2.0
language:
- zh
---
# Chinese-Alpaca-LoRA-7B-ggml
由[chinese-alpaca-lora-7b](https://huggingface.co./ziqingyang/chinese-alpaca-lora-7b)与[llama-7b-hf](https://huggingface.co./decapoda-research/llama-7b-hf)合并后并进行4bit量化后的模型。
按照[Chinese-LLaMA-Alpaca](https://github.com/ymcui/Chinese-LLaMA-Alpaca)文档制作而成。
一样的东西合那么多次干啥?不环保!😝 |