File size: 1,662 Bytes
d24d2e1 e4417b2 d24d2e1 e4417b2 d24d2e1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
---
language:
- es
- en
tags:
- sorah
- minichat
---
# MiniChat-1.5-3B-Sorah
![Sorah](sorah.jpeg)
Este es el repositorio del modelo de IA MiniChat-1.5-3B-Sorah. Est谩 basado en el modelo MiniChat-1.5-3B, que puedes encontrar [aqu铆](https://huggingface.co./GeneZC/MiniChat-1.5-3B).
El modelo MiniChat-1.5-3B-Sorah complementa el modelo de voz Sorah, que fue creado por el proyecto Piper. El modelo Sorah est谩 en proceso de entrenamiento y mejoras, por lo que su acceso no es p煤blico, pero puedes encontrar m谩s informaci贸n en el [repositorio de Sorah Neuronal](https://huggingface.co./HirCoir/piper-sorah-neuronal).
Estos modelos en formato .gguf son la versi贸n convertida del [repositorio original](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah).
## Requisitos
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)
Para instalar llama.cpp, sigue estos pasos:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```
## Uso del modelo
La plantilla del modelo es la siguiente:
```plaintext
<s> [|User|] {prompt} </s>[|Assistant|]
```
Puedes utilizar el modelo en llama.cpp con el siguiente comando:
```bash
./main -m minichat-sorah-Q8_0.gguf -p "<s> [|User|] Hola, 驴c贸mo te llamas? </s>[|Assistant|]" --log-disable
```
## Referencias
- [Repositorio original](https://huggingface.co./GeneZC/MiniChat-1.5-3B)
- [Repositorio de la versi贸n convertida](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah)
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) |