Bert-Los-Muchachos / README.md
KPOETA's picture
Update README.md
c359689 verified
metadata
license: apache-2.0
datasets:
  - eriktks/conll2002
language:
  - es
metrics:
  - precision
  - recall
  - f1
  - accuracy

LOS-MUCHACHOS

Este es modelo resultado de un finetuning de FacebookAI/xlm-roberta-large-finetuned-conll03-english sobre el conll2002 dataset. Los siguientes son los resultados sobre el conjunto de evaluación:

  • Loss: 0.17227034270763397
  • Precision: 0.8140103176758078
  • Recall: 0.8423714526552403
  • F1: 0.8279480806407071
  • Accuracy: 0.9781214374225526

Model Description

Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002.

  • Developed by: Aragangs.DEv
  • Under the tutelage of: Raul de Piñeres
  • Model type: []
  • Language(s) (NLP): Español (es)
  • License: Apache 2.0
  • Finetuned from model [optional]: Modelo AranicoB

Bias, Risks, and Limitations

El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente.

Recommendations

Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento.

Training hyperparameters

The following hyperparameters were used during training:

  • eval_strategy="epoch",
  • save_strategy="epoch",
  • learning_rate=2e-5, # (Aprendizaje se esta cambiando)
  • per_device_train_batch_size=4,
  • per_device_eval_batch_size=8,
  • num_train_epochs=5,
  • weight_decay=0.1,
  • max_grad_norm=1.0,
  • adam_epsilon=1e-8,
  • #fp16=True,
  • save_total_limit=2,
  • load_best_model_at_end=True,
  • push_to_hub=True,
  • metric_for_best_model="f1",
  • seed=42,

Training results

Metric Value
eval_loss 0.17227034270763397
eval_precision 0.8140103176758078
eval_recall 0.8423714526552403
eval_f1 0.8279480806407071
eval_accuracy 0.9781214374225526
eval_runtime 7.6283
eval_samples_per_second 198.995
eval_steps_per_second 24.907
epoch 5.0
Label Precision Recall F1 Number
LOC 0.8303085299455535 0.8440959409594095 0.8371454711802379 1084
MISC 0.5976331360946746 0.5941176470588235 0.5958702064896756 340
ORG 0.7989276139410187 0.8514285714285714 0.8243430152143845 1400
PER 0.9174434087882823 0.9374149659863945 0.9273216689098251 735