---
language:
- es
- en
tags:
- sorah
- minichat
---
# MiniChat-1.5-3B-Sorah
![Sorah](sorah.jpeg)
Este es el repositorio del modelo de IA MiniChat-1.5-3B-Sorah. Está basado en el modelo MiniChat-1.5-3B, que puedes encontrar [aquí](https://huggingface.co./GeneZC/MiniChat-1.5-3B).
El modelo MiniChat-1.5-3B-Sorah complementa el modelo de voz Sorah, que fue creado por el proyecto Piper. El modelo Sorah está en proceso de entrenamiento y mejoras, por lo que su acceso no es público, pero puedes encontrar más información en el [repositorio de Sorah Neuronal](https://huggingface.co./HirCoir/piper-sorah-neuronal).
Estos modelos en formato .gguf son la versión convertida del [repositorio original](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah-gguf).
## Requisitos
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)
Para instalar llama.cpp, sigue estos pasos:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```
## Uso del modelo
La plantilla del modelo es la siguiente:
```plaintext
[|User|] {prompt} [|Assistant|]
```
Puedes utilizar el modelo en llama.cpp con el siguiente comando:
```bash
./main -m minichat-sorah-Q8_0.gguf -p " [|User|] Hola, ¿cómo te llamas? [|Assistant|]" --log-disable
```
LM Studio config-presets
Filename:MiniChat-Sorah.preset.json
```json
{
"name": "MiniChat-2-Sorah",
"inference_params": {
"input_prefix": " [|User|]",
"input_suffix": "[|Assistant|]",
"antiprompt": [
" [|User|]",
"[|Assistant|]",
""
],
"pre_prompt": "",
"pre_prompt_prefix": "",
"pre_prompt_suffix": ""
},
"load_params": {
"rope_freq_scale": 0,
"rope_freq_base": 0
}
}
```
## Referencias
- [Repositorio original](https://huggingface.co./GeneZC/MiniChat-1.5-3B)
- [Repositorio de la versión convertida](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah)
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)