File size: 2,123 Bytes
d24d2e1
 
 
 
 
 
 
 
 
 
e4417b2
d24d2e1
 
e4417b2
 
fb3d742
d24d2e1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
54edc68
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
d24d2e1
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
---
language:
- es
- en
tags:
- sorah
- minichat
---
# MiniChat-1.5-3B-Sorah
![Sorah](sorah.jpeg)

Este es el repositorio del modelo de IA MiniChat-1.5-3B-Sorah. Est谩 basado en el modelo MiniChat-1.5-3B, que puedes encontrar [aqu铆](https://huggingface.co./GeneZC/MiniChat-1.5-3B).

El modelo MiniChat-1.5-3B-Sorah complementa el modelo de voz Sorah, que fue creado por el proyecto Piper. El modelo Sorah est谩 en proceso de entrenamiento y mejoras, por lo que su acceso no es p煤blico, pero puedes encontrar m谩s informaci贸n en el [repositorio de Sorah Neuronal](https://huggingface.co./HirCoir/piper-sorah-neuronal).

Estos modelos en formato .gguf son la versi贸n convertida del [repositorio original](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah-gguf).

## Requisitos

Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:

- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)

Para instalar llama.cpp, sigue estos pasos:

```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```

## Uso del modelo

La plantilla del modelo es la siguiente:

```plaintext
<s> [|User|] {prompt} </s>[|Assistant|]
```

Puedes utilizar el modelo en llama.cpp con el siguiente comando:

```bash
./main -m minichat-sorah-Q8_0.gguf -p "<s> [|User|] Hola, 驴c贸mo te llamas? </s>[|Assistant|]" --log-disable
```

LM Studio config-presets

Filename:MiniChat-Sorah.preset.json
```json
{
  "name": "MiniChat-2-Sorah",
  "inference_params": {
    "input_prefix": "<s> [|User|]",
    "input_suffix": "</s>[|Assistant|]",
    "antiprompt": [
      "<s> [|User|]",
      "</s>[|Assistant|]",
      "</s>"
    ],
    "pre_prompt": "",
    "pre_prompt_prefix": "",
    "pre_prompt_suffix": ""
  },
  "load_params": {
    "rope_freq_scale": 0,
    "rope_freq_base": 0
  }
}
```

## Referencias

- [Repositorio original](https://huggingface.co./GeneZC/MiniChat-1.5-3B)
- [Repositorio de la versi贸n convertida](https://huggingface.co./HirCoir/MiniChat-1.5-3B-Sorah)
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)