File size: 3,446 Bytes
83b2c84 b9f8664 24f79a0 b9f8664 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 |
---
license: apache-2.0
datasets:
- eriktks/conll2002
language:
- es
metrics:
- f1
library_name: transformers
tags:
- for-all-Audiences
---
# Model Card for LOS-MUCHACHOS
<!-- Provide a quick summary of what the model is/does. -->
Este modelo es un modelo de clasificación de texto entrenado en el conjunto de datos CoNLL-2002 en español. Es útil para tareas de reconocimiento de entidades nombradas (NER).
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002.
- **Developed by:** Aragangs.DEv
- **Shared by [optional]:** Raul de Piñeres
- **Model type:** []
- **Language(s) (NLP):** Español (es)
- **License:** Apache 2.0
- **Finetuned from model [optional]:** Modelo AranicoB
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [[URL del repositorio](https://huggingface.co./KPOETA/bert-finetuned-ner-1)]
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
El modelo puede ser utilizado directamente para la tarea de reconocimiento de entidades nombradas en textos en español, sin necesidad de ajuste adicional.
- https://huggingface.co./KPOETA/bert-finetuned-ner-1
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
Puede ser ajustado para tareas específicas de NER en dominios particulares o integrado en sistemas más grandes que requieran identificación de entidades.
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
El modelo no es adecuado para tareas que no involucren el reconocimiento de entidades nombradas. No debe ser utilizado para generar texto sin control humano.
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente.
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento.
## How to Get Started with the Model
Use el siguiente código para comenzar a utilizar el modelo:
```python
# Load model directly
from transformers import AutoTokenizer, AutoModelForTokenClassification
tokenizer = AutoTokenizer.from_pretrained("KPOETA/bert-finetuned-ner-1")
model = AutoModelForTokenClassification.from_pretrained("KPOETA/bert-finetuned-ner-1")
## Test the model
text = "El presidente de Francia, Emmanuel Macron, visitará Estados Unidos la próxima semana."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
|