Update README.md
Browse files
README.md
CHANGED
@@ -19,26 +19,40 @@ tags:
|
|
19 |
**descripción en español agregado ⬇️**
|
20 |
|
21 |
This is a 4-bit GPTQ version of the [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
|
|
22 |
this is the result of quantizing to 4 bits using [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
23 |
|
24 |
** How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
|
25 |
|
26 |
-
Open [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui).
|
27 |
-
|
28 |
here is a tutorial how to install the text-generation-webui UI: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
|
|
29 |
Click the Model tab.
|
|
|
30 |
Under Download custom model or LoRA, enter RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
|
|
31 |
Click Download.
|
|
|
32 |
Wait until it says it's finished downloading.
|
|
|
33 |
Click the Refresh icon next to Model in the top left.
|
|
|
34 |
In the Model drop-down: choose the model you just downloaded, bertin-gpt-j-6B-alpaca-4bit-128g.
|
|
|
35 |
If you see an error in the bottom right, ignore it - it's temporary.
|
|
|
36 |
Fill out the GPTQ parameters on the right: Bits = 4, Groupsize = 128, model_type = gptj
|
|
|
37 |
Click Save settings for this model in the top right.
|
|
|
38 |
Click Reload the Model in the top right.
|
|
|
39 |
Once it says it's loaded, click the Text Generation tab and enter a prompt!
|
40 |
|
|
|
41 |
**Model details**
|
|
|
42 |
Data
|
43 |
The dataset is a translation to Spanish of alpaca_data_cleaned.json (a clean version of the Alpaca dataset made at Stanford) using OpenAI's gpt-3.5-turbo model. We translated using a full-sample prompt instead of per strings, which resulted in more coherent tuples of (instruction, input, output) and costed around $60.0.
|
44 |
|
@@ -48,26 +62,42 @@ Finetuning
|
|
48 |
To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
|
49 |
|
50 |
** español **
|
|
|
51 |
Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
|
|
52 |
Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
53 |
|
54 |
** Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
|
55 |
|
56 |
-
Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui)
|
|
|
57 |
aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
|
|
58 |
Haga clic en la pestaña Modelo.
|
|
|
59 |
En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
|
|
60 |
Haz clic en Descargar.
|
|
|
61 |
Espera hasta que diga que ha terminado de descargarse.
|
|
|
62 |
Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
|
|
|
63 |
En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
|
|
|
64 |
Si ve un error en la parte inferior derecha, ignórelo, es temporal.
|
|
|
65 |
Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
|
|
|
66 |
Haz clic en Guardar configuración para este modelo en la parte superior derecha.
|
|
|
67 |
Haga clic en Recargar el modelo en la parte superior derecha.
|
|
|
68 |
Una vez que diga que está cargado, haga clic en la pestaña Generación de texto e ingrese un mensaje.
|
69 |
|
|
|
70 |
**Detalles del modelo**
|
|
|
71 |
Datos
|
72 |
El conjunto de datos es una traducción al español de alpaca_data_cleaned.json (una versión limpia del conjunto de datos de Alpaca hecho en Stanford) utilizando el modelo gpt-3.5-turbo de OpenAI. Traducimos usando un indicador de muestra completa en lugar de por cadenas, lo que resultó en tuplas más coherentes de (instruction, input, output) y costó alrededor de $ 60.0.
|
73 |
Este conjunto de datos no se puede usar para crear modelos que compitan de alguna manera con OpenAI.
|
|
|
19 |
**descripción en español agregado ⬇️**
|
20 |
|
21 |
This is a 4-bit GPTQ version of the [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
22 |
+
|
23 |
this is the result of quantizing to 4 bits using [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
24 |
|
25 |
** How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
|
26 |
|
27 |
+
Open [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) as normal.
|
28 |
+
|
29 |
here is a tutorial how to install the text-generation-webui UI: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
30 |
+
|
31 |
Click the Model tab.
|
32 |
+
|
33 |
Under Download custom model or LoRA, enter RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
34 |
+
|
35 |
Click Download.
|
36 |
+
|
37 |
Wait until it says it's finished downloading.
|
38 |
+
|
39 |
Click the Refresh icon next to Model in the top left.
|
40 |
+
|
41 |
In the Model drop-down: choose the model you just downloaded, bertin-gpt-j-6B-alpaca-4bit-128g.
|
42 |
+
|
43 |
If you see an error in the bottom right, ignore it - it's temporary.
|
44 |
+
|
45 |
Fill out the GPTQ parameters on the right: Bits = 4, Groupsize = 128, model_type = gptj
|
46 |
+
|
47 |
Click Save settings for this model in the top right.
|
48 |
+
|
49 |
Click Reload the Model in the top right.
|
50 |
+
|
51 |
Once it says it's loaded, click the Text Generation tab and enter a prompt!
|
52 |
|
53 |
+
|
54 |
**Model details**
|
55 |
+
|
56 |
Data
|
57 |
The dataset is a translation to Spanish of alpaca_data_cleaned.json (a clean version of the Alpaca dataset made at Stanford) using OpenAI's gpt-3.5-turbo model. We translated using a full-sample prompt instead of per strings, which resulted in more coherent tuples of (instruction, input, output) and costed around $60.0.
|
58 |
|
|
|
62 |
To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
|
63 |
|
64 |
** español **
|
65 |
+
|
66 |
Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
67 |
+
|
68 |
Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
69 |
|
70 |
** Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
|
71 |
|
72 |
+
Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) normal.
|
73 |
+
|
74 |
aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
75 |
+
|
76 |
Haga clic en la pestaña Modelo.
|
77 |
+
|
78 |
En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
79 |
+
|
80 |
Haz clic en Descargar.
|
81 |
+
|
82 |
Espera hasta que diga que ha terminado de descargarse.
|
83 |
+
|
84 |
Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
|
85 |
+
|
86 |
En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
|
87 |
+
|
88 |
Si ve un error en la parte inferior derecha, ignórelo, es temporal.
|
89 |
+
|
90 |
Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
|
91 |
+
|
92 |
Haz clic en Guardar configuración para este modelo en la parte superior derecha.
|
93 |
+
|
94 |
Haga clic en Recargar el modelo en la parte superior derecha.
|
95 |
+
|
96 |
Una vez que diga que está cargado, haga clic en la pestaña Generación de texto e ingrese un mensaje.
|
97 |
|
98 |
+
|
99 |
**Detalles del modelo**
|
100 |
+
|
101 |
Datos
|
102 |
El conjunto de datos es una traducción al español de alpaca_data_cleaned.json (una versión limpia del conjunto de datos de Alpaca hecho en Stanford) utilizando el modelo gpt-3.5-turbo de OpenAI. Traducimos usando un indicador de muestra completa en lugar de por cadenas, lo que resultó en tuplas más coherentes de (instruction, input, output) y costó alrededor de $ 60.0.
|
103 |
Este conjunto de datos no se puede usar para crear modelos que compitan de alguna manera con OpenAI.
|