--- language: - es - en tags: - sorah - minichat --- # MiniChat-1.5-3B-Sorah ![Sorah](sorah.jpeg) Este es el repositorio del modelo de IA MiniChat-1.5-3B-Sorah. Está basado en el modelo MiniChat-1.5-3B, que puedes encontrar [aquí](https://huggingface.co./GeneZC/MiniChat-1.5-3B). El modelo MiniChat-1.5-3B-Sorah complementa el modelo de voz Sorah, que fue creado por el proyecto Piper. El modelo Sorah está en proceso de entrenamiento y mejoras, por lo que su acceso no es público, pero puedes encontrar más información en el [repositorio de Sorah Neuronal](https://huggingface.co./HirCoir/piper-sorah-neuronal). Estos modelos en formato .gguf son la versión convertida del [repositorio original](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah-gguf). ## Requisitos Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio: - [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) Para instalar llama.cpp, sigue estos pasos: ```bash git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make ``` ## Uso del modelo La plantilla del modelo es la siguiente: ```plaintext [|User|] {prompt} [|Assistant|] ``` Puedes utilizar el modelo en llama.cpp con el siguiente comando: ```bash ./main -m minichat-sorah-Q8_0.gguf -p " [|User|] Hola, ¿cómo te llamas? [|Assistant|]" --log-disable ``` LM Studio config-presets Filename:MiniChat-Sorah.preset.json ```json { "name": "MiniChat-1.5-3B-Sorah", "inference_params": { "input_prefix": " [|User|]", "input_suffix": "[|Assistant|]", "antiprompt": [ " [|User|]", "[|Assistant|]", "" ], "pre_prompt": "", "pre_prompt_prefix": "", "pre_prompt_suffix": "" }, "load_params": { "rope_freq_scale": 0, "rope_freq_base": 0 } } ``` ## Referencias - [Repositorio original](https://huggingface.co./GeneZC/MiniChat-1.5-3B) - [Repositorio de la versión convertida](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah) - [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)