Bert-Los-Muchachos / README.md
KPOETA's picture
Update README.md
24f79a0 verified
|
raw
history blame
3.45 kB
metadata
license: apache-2.0
datasets:
  - eriktks/conll2002
language:
  - es
metrics:
  - f1
library_name: transformers
tags:
  - for-all-Audiences

Model Card for LOS-MUCHACHOS

Este modelo es un modelo de clasificación de texto entrenado en el conjunto de datos CoNLL-2002 en español. Es útil para tareas de reconocimiento de entidades nombradas (NER).

Model Details

Model Description

Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002.

  • Developed by: Aragangs.DEv
  • Shared by [optional]: Raul de Piñeres
  • Model type: []
  • Language(s) (NLP): Español (es)
  • License: Apache 2.0
  • Finetuned from model [optional]: Modelo AranicoB

Model Sources [optional]

Direct Use

El modelo puede ser utilizado directamente para la tarea de reconocimiento de entidades nombradas en textos en español, sin necesidad de ajuste adicional.

Downstream Use [optional]

Puede ser ajustado para tareas específicas de NER en dominios particulares o integrado en sistemas más grandes que requieran identificación de entidades.

Out-of-Scope Use

El modelo no es adecuado para tareas que no involucren el reconocimiento de entidades nombradas. No debe ser utilizado para generar texto sin control humano.

Bias, Risks, and Limitations

El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente.

Recommendations

Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento.

How to Get Started with the Model

Use el siguiente código para comenzar a utilizar el modelo:

# Load model directly
from transformers import AutoTokenizer, AutoModelForTokenClassification

tokenizer = AutoTokenizer.from_pretrained("KPOETA/bert-finetuned-ner-1")
model = AutoModelForTokenClassification.from_pretrained("KPOETA/bert-finetuned-ner-1")

## Test the model
text = "El presidente de Francia, Emmanuel Macron, visitará Estados Unidos la próxima semana."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)